Textgenese in der digitalen Edition 9783110575996, 9783110574265

To represent the genesis of literary texts, and thus their third, temporal dimension, strains the limits of the two-dime

238 16 3MB

German Pages 326 Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Textgenese in der digitalen Edition
 9783110575996, 9783110574265

Table of contents :
Inhaltsverzeichnis
Vorwort. Wozu Textgenese in der digitalen Edition? Fragestellungen und Lösungsmodelle
Methodologische Fragestellungen und Lösungen
Textgenese analog und digital: Ziele, Standards, Probleme
Archiv – Text – Zeit. Überlegungen zur Modellierung und Visualisierung von Textgenese im analogen und digitalen Medium
Visualisierung textgenetischer Phänomene in digitalen Editionen
Digitale genetische Editionen aus der Nutzerperspektive
Gerrit Brüning Was ist und wozu kodiert man Textgenese?
Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historischkritische Edition
Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung
Fallbeispiele
Schreiberische Sorgfalt: Der Einsatz digitaler Verfahren für die textgenetische Analyse mittelalterlicher Handschriften
Briefkonzepte im digitalen Medium. Zur Darstellung komplexer Überlieferung in der Edition Johann Wolfgang von Goethe. Briefwechsel mit Friedrich Wilhelm Riemer
Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt am Beispiel des Duetts mit zwei obligaten Augengläsern WoO 32 – Ein Werkstattbericht
Verschränkte Wege zum Ziel. Zum Workflow der Hybridedition Richard Wagner Schriften (RWS)
Blumen, neu arrangiert. Die historisch-kritische Ausgabe von Arthur Schnitzlers Frühwerk auf dem Weg von der Buch- zur Hypridedition. Am Beispiel des Bandes Blumen
Titel- und Werkgenese in Pessoas Projekten und Publikationen
Die textgenetische Darstellung des Romans Der Mann ohne Eigenschaften von Robert Musil auf MUSIL ONLINE
Une édition numérique génétique: Robinson de Paul Valéry
Digitale Edition von Hermann Burgers Lokalbericht
Wenn sich ein digitaler Sturm zusammenbraut. TEI markup und seine Verarbeitung: Die Pilotstudie handke-app zu den Textfassungen von Peter Handkes Immer noch Sturm
„Die Wortmaschine … wird jetzt in Betrieb genommen“. Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler
Angaben zu den Beiträger*innen
Namenregister

Citation preview

B E I H E F T E

Z U

Herausgegeben von Winfried Woesler

Band 45

Textgenese in der digitalen Edition Herausgegeben von Anke Bosse und Walter Fanta

De Gruyter

Die digitalen Komponenten zu den Beiträgen dieses Bands finden sich unter http://aau.at/musil/publikationen/textgenese.

Veröffentlicht mit Unterstützung der Fakultät für Kulturwissenschaften der Alpen-Adria-Universität Klagenfurt.

ISBN 978-3-11-057426-5 e-ISBN (PDF) 978-3-11-057599-6 e-ISBN (EPUB) 978-3-11-057437-1 ISSN 0939-5946 Library of Congress Control Number: 2019949200 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2019 Walter de Gruyter GmbH, Berlin/Boston Druck und Bindung: CPI books GmbH, Leck www.degruyter.com

Inhaltsverzeichnis Anke Bosse / Walter Fanta Vorwort. Wozu Textgenese in der digitalen Edition? Fragestellungen und Lösungsmodelle ....................................................................................................... VII Methodologische Fragestellungen und Lösungen Rüdiger Nutt-Kofoth Textgenese analog und digital: Ziele, Standards, Probleme ........................................ 3 Wolfgang Lukas Archiv – Text – Zeit. Überlegungen zur Modellierung und Visualisierung von Textgenese im analogen und digitalen Medium ........................................................ 23 Anna Busch Visualisierung textgenetischer Phänomene in digitalen Editionen ............................ 51 Katrin Henzel Digitale genetische Editionen aus der Nutzerperspektive............................................65 Gerrit Brüning Was ist und wozu kodiert man Textgenese? .............................................................. 81 Thorsten Ries Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historischkritische Edition ......................................................................................................... 91 Georg Vogeler Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung ............................................................................................................... 117 Fallbeispiele Hans Clausen / Helmut W. Klug Schreiberische Sorgfalt: Der Einsatz digitaler Verfahren für die textgenetische Analyse mittelalterlicher Handschriften .................................................................. 139 Héctor Canal Briefkonzepte im digitalen Medium. Zur Darstellung komplexer Überlieferung in der Edition Johann Wolfgang von Goethe. Briefwechsel mit Friedrich Wilhelm Riemer ............................................................................................................. 153

VI

Inhaltsverzeichnis

Elisa Novara / Maja Hartwig Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt am Beispiel des Duetts mit zwei obligaten Augengläsern WoO 32 – Ein Werkstattbericht ....... 171 Margret Jestremski / Torsten Roeder Verschränkte Wege zum Ziel. Zum Workflow der Hybridedition Richard Wagner Schriften (RWS) ......................................................................................... 185 Ingo Börner / Isabelle Schwentner Blumen, neu arrangiert. Die historisch-kritische Ausgabe von Arthur Schnitzlers Frühwerk auf dem Weg von der Buch- zur Hypridedition. Am Beispiel des Bandes Blumen ............................................................................................................... 195 Pedro Sepúlveda / Ulrike Henny-Krahmer Titel- und Werkgenese in Pessoas Projekten und Publikationen ............................. 213 Walter Fanta Die textgenetische Darstellung des Romans Der Mann ohne Eigenschaften von Robert Musil auf M USIL ONLINE .............................................................................. 229 Franz Johansson / Richard Walter Une édition numérique génétique: Robinson de Paul Valéry .................................. 251 Peter Dängeli / Magnus Wieland / Simon Zumsteg Digitale Edition von Hermann Burgers Lokalbericht .............................................. 265 Peter Andorfer / Vanessa Hannesschläger Wenn sich ein digitaler Sturm zusammenbraut. TEI markup und seine Verarbeitung: Die Pilotstudie handke-app zu den Textfassungen von Peter Handkes Immer noch Sturm .................................................................................................... 281 Anke Bosse „Die Wortmaschine … wird jetzt in Betrieb genommen“. Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler ............................................... 295

Angaben zu den Beiträger*innen ............................................................................. 309 Namenregister .......................................................................................................... 313

Anke Bosse / Walter Fanta Vorwort

Wozu Textgenese in der digitalen Edition? Fragestellungen und Lösungsmodelle

Im Anfang war das Wort, der Archetyp, das ‚richtige‘ Zeichen, der ‚wahre‘ Text. Im Zeichen des Historismus galten die Bemühungen der Editionsphilologie der Rekonstruktion eines Werkes „wie es“ – frei nach Leopold Ranke – „eigentlich gewesen“ ist. Im Zeichen der Posthistoire vollzogen sich später in rascher Folge vier Wenden: Die erste Wende verschiebt den Fokus auf das Gewordensein des Textes, auf sein Werden selbst, seine Dynamik und Prozessualität: Der Text als Fluidum. Die zweite Wende rückt anstelle des Textes den Textzeugen, den materialen Textträger, das Dokument, das Überlieferungsmedium ins Zentrum des Forschungsinteresses. Die dritte Wende betrifft das Medium der editorischen Darstellung, das nicht mehr zwingend ein gedrucktes Buch ist, sondern ein digitales Format, in dem neue Möglichkeiten visueller Präsentation entwickelt und die Ausweitung des Nutzerpublikums über die ‚scientific community‘ hinaus avisiert werden. Die vierte Wende schließlich eröffnet unter dem Schlagwort ‚distant reading‘ Raum für neue Formen der Rezeption, für die maschinengesteuerte Erforschung von literarischen Schaffensprozessen. Aus diesem vielfältigen Wandel ergeben sich für die Editionswissenschaften der Gegenwart und der Zukunft grundsätzliche Fragestellungen: Was bleibt vom Buch? Werden die hohen Standards, die die Buchedition für die Tiefenerschließung der Makro- wie der Mikrogenese literarischer Texte entwickelt hat, adäquat in das digitale Medium überführt? Wie spielen in hybriden Editionen – Buch und digitales Format – analoge und digitale (Re)präsentation zusammen, wenn es darum geht, die Genese literarischer Texte darzustellen? Beschränkt sich der Mehrwert der Digitalisierung darauf, die dritte, zeitliche Dimension der Textgenese durch den Einsatz von Hyperlinkstrukturen zu erfassen und damit die Grenze zu überwinden, an die das zweidimensionale Buch notgedrungen gestoßen war? Oder generiert die digitale Edition einen zusätzlichen Mehrwert, indem sie eine deutlich benutzerfreundlichere Gestaltung für die intuitive Erfassung durch das Auge bietet? Auf welche Weise kann durch interoperable Formate und Markups sichergestellt werden, dass die digitalen Repräsentationen analoger Textdokumente trotz der rasanten technologischen Entwicklung möglichst dauerhaft für die Nachnutzung verfügbar bleiben? Und schließlich, welche Herausforderungen stellt die textgenetische Edition von born-digital-Dokumenten?

https://doi.org/10.1515/9783110575996-001

VIII

Anke Bosse / Walter Fanta

Diese grundsätzlichen Fragestellungen gehen inzwischen über die Textwissenschaft hinaus und stellen sich gleichermaßen der Musikwissenschaft. Um ihnen auf den Grund zu gehen, regte die Kommission für allgemeine Editionswissenschaft der Arbeitsgemeinschaft für germanistische Edition uns – Anke Bosse und Walter Fanta – zur Organisation einer einschlägigen Tagung an. Sie fand als Internationale und interdisziplinäre Tagung ‚Textgenese in der digitalen Edition‘ vom 20. bis 22. April 2017 am Robert-Musil-Institut für Literaturforschung / Kärntner Literaturarchiv der Alpen-Adria-Universität Klagenfurt statt. Der Call erging an zwei Zielgruppen: einerseits an ExpertInnen, die zu Vorträgen über theoretische, konzeptionelle und methodologische Aspekte eingeladen wurden, andererseits an ProjektmitarbeiterInnen, um anhand ihrer Werkstattberichte Einblicke in aktuelle digitale Editionsprojekte in den Text- und Musikwissenschaften zu erhalten. Hier nun dürfen wir in der Reihe Beihefte zu editio den Ertrag der Tagung präsentieren – und wir danken dem Herausgeber Winfried Woesler für die Aufnahme in diese Reihe. Der Ertrag unserer Tagung besteht aus Beiträgen, welche die aktuelle Forschungssituation, die fruchtbaren Debatten, die Vielfalt der Lösungsansätze und die offenen Fragen insgesamt gut abbilden. Als Zusammenfassung lassen sich die folgenden zehn Thesen formulieren: 1. Digitale Editionen schließen an Verfahren textgenetischer Darstellung an, die für Bucheditionen gewonnen wurden. Rüdiger Nutt-Kofoth vertritt dazu die Meinung, „dass schon viel erreicht wäre, wenn die digitale Edition im Bereich der Mikrogenese die in der Buchedition erarbeiteten Standards einholen könnte“; in eine ähnliche Kerbe schlägt Wolfgang Lukas, wenn er den „zentrale[n] Unterschied zwischen analoger und digitaler genetischer Editorik“ darin sieht, „dass in letzterer im Hinblick auf den editorischen Diskurs der Modus des ‚Sagens‘ dem des ‚Zeigens‘ zunehmend weichen soll“. Überzeugende digitale Lösungen für eine adäquate Darstellung der Makrogenese sind in Entwicklung, wie die Beiträge von Franz Johansson und Richard Walter, von Peter Dängeli, Magnus Wieland und Simon Zumsteg zeigen. 2. Die Hybridlösung erscheint auch heute noch als durchaus angestrebtes StandardModell. Eine Mehrzahl der aktuellen Editionsprojekte versucht Print und Digitalität zu verbinden, wenn es darum geht, Ergebnisse von Textentstehungsprozessen zu präsentieren (im Buch) und die komplexen mikro- und makrogenetischen Beziehungen in und zwischen den Textzeugen zu visualisieren (auf dem Bildschirm). Nicht immer kann der Print als automatisch generierter Output am Ende des digitalen Workflows stehen; vielmehr regen komplexe genetische Beziehungen dazu an, das Buch als Medium der literarischen Lektüre einzusetzen und der Herausgeber-Instanz statt der Maschine die Selektion der Texte zu überlassen, wie u. a. die Beiträge von Ingo Börner und Isabelle Schwentner, Héctor Canal, Walter Fanta, Margret Jestremski und Torsten Roeder nahelegen. 3. Durchgesetzt haben sich mittlerweile sowohl das Open-Access-Prinzip als auch das Open-Source-Prinzip. Digitale Editionen werden nicht mehr per Stück auf Datenträgern verkauft, sondern frei zugänglich im Internet veröffentlicht; niemand verwendet mehr proprietäre Formate für die Speicherung der Daten und die Publikation im Netz.

Textgenese analog und digital: Ziele, Standards, Probleme

IX

Was dieser Wandel für digitale Editionsprojekte bedeutet, erläutern u. a. Walter Fanta, Thorsten Ries und Georg Vogeler. 4. Ebenso außer Streit stehen ein offener, pluralistischer Textbegriff und die Unterscheidung zwischen Text und Dokument als Gegenstände des genetischen Edierens. Dies führen Wolfgang Lukas und Georg Vogeler aus, Letzterer im Verweis auf Patrick Sahles „Textrad“ und auf die Transmedialität von Textkonzepten in digitaler Kodierung. 5. Das ‚The-Source-and-the-Output-Model‘ (Trennung zwischen Repräsentation und Präsentation) wird im Workflow zur Erstellung von textgenetischen Editionen und bei der Publikation der Ergebnisse angewandt. Georg Vogeler setzt sich ausführlich mit der Arbeitsteiligkeit heutigen Edierens auseinander und unternimmt es, Ordnung in die Vielfalt der Softwarelösungen zu bringen. Wie sich dies konkret in einem Workflow gestaltet, demonstrieren Margret Jestremski und Torsten Roeder. 6. XML hat sich als Datenformat für die Archivierung der Editionsdaten und XMLTEI als Markup-Instrument für Texte, XML-MEI für Partituren durchgesetzt. Allerdings bieten derzeit die TEI und die MEI nur bedingt befriedigende Lösungen für die Auszeichnung makrogenetischer Beziehungen. Welche Schwierigkeiten sich der korrekten Auszeichnung und adäquaten Darstellung von makrogenetischen Beziehungen stellen, das erläutert Gerrit Brüning an einem Beispiel aus der Faust-Edition. Inwiefern XML-TEI als Datenaustauschformat auch imstande ist, nicht-hierarchische Strukturen abzubilden, erklärt Georg Vogeler. Welche Möglichkeiten die MEI bietet, stellen Elisa Novara und Maja Hartwig dar. 7. Die Visualisierung von komplexen Textentstehungsprozessen im Interface der Online-Editionsplattformen ist auf die Bedürfnisse breitgestreuter Usergruppen (von science to science bis zu science to public) ausgerichtet. Mit den Vermittlungsfunktionen von Editionen zwischen Usern im analogen und digitalen Medium, mit dem User als Akteur unter vielen in unterschiedlichen Konstellationen und mit der systematischen Erschließung potentieller Userkreise beschäftigt sich Katrin Henzel, während Anna Busch Visualisierungsstrategien für textgenetische Konzeptzusammenhänge und für Forschungsdaten beschreibt, die aus der Analyse digitalisierter textgenetischer Dossiers gewonnen wurden. Dass sich insbesondere an diesen userfreundlichen Vermittlungs- und Interaktivitätsfunktionen die Legitimität hybrider und digitaler Editionen gegenüber Bucheditionen bemisst, welche nur ein kleines Fachpublikum erreichten, war breiter Konsens auf der Tagung. 8. Konzepte und Modelle digitalen text- und musikgenetischen Edierens lassen sich auf historisch, medial und kulturell divergente Objekte im gleichen Maß anwenden. In höchst eindrucksvoller Weise zeigen dies die Werkstattberichte von Hans Clausen und Helmut Klug zu mittelalterlichen Korpora, von Héctor Canal zum Goethe-RiemerBriefwechsel, von Elisa Novara und Maja Hartwig zu Ludwig van Beethoven und von Margret Jestremski und Torsten Roeder zu Richard Wagner; die Fallbeispiele zu nicht deutschsprachigen Autoren wie Fernando Pessoa (Pedro Sepúlveda und Ulrike HennyKrahmer) und Paul Valéry (Franz Johansson und Richard Walter), zu Vertretern der deutschsprachigen Moderne wie Arthur Schnitzler (Ingo Börner und Isabelle Schwentner) und Robert Musil (Walter Fanta) und schließlich die Präsentationen von

X

Anke Bosse / Walter Fanta

Schreibprozessen zeitgenössischer Autoren wie Hermann Burger (Peter Dängeli, Magnus Wieland und Simon Zumsteg), Peter Handke (Peter Andorfer und Vanessa Hannesschläger) und Josef Winkler (Anke Bosse). 9. Die Edition von born-digital-Dokumenten steckt zwar noch in den Kinderschuhen, für das digitale dossier génétique gelten aber dieselben Grundsätze wie für das analoge, was die Erschließung, Erforschung und Darstellung betrifft. Thorsten Ries geht in seinem Beitrag systematisch und umfassend darauf ein, vor welche großen Herausforderungen uns die Ermittlung von textgenetischen Dossiers zu am Computer geschriebenen Texten stellt; dies verlangt von der Editionswissenschaft völlig neuartige Expertisen. 10. Darstellungsabsichten und Darstellungsoptionen digitalen Edierens kommunizieren mit der Schreibprozessforschung und eignen sich im hohen Maß dafür, deren Ergebnisse abzubilden und neue Erkenntnisse zu befördern. Einerseits ist hier mit Wolfgang Lukas eine wichtige Abgrenzung zu beachten, denn die textgenetische Edition ist – bei aller Annäherung an den Autor als Schreiber – keinesfalls die Rekonstruktion des Schreibakts und damit einer Handlung, sondern die Rekonstruktion der jeweiligen fixierten Resultate dieser Handlung. Andererseits kann die Schreibprozessforschung hier wesentliche – auch neue – Zugänge legen und Perspektiven über den editorischen Zugang hinaus eröffnen, wie die Beiträge von Anke Bosse und Walter Fanta zu Josef Winkler und Robert Musil demonstrieren. Alles in allem liefert der vorliegende Band eine Sammlung von Momentaufnahmen, die Entwicklung befindet sich im Fluss. Es ist kaum abzusehen, welche Standards und Techniken sich im Bereich der digitalen Kulturvermittlung im Netz durchsetzen werden und ob das im 19. Jahrhundert entstandene Konzept von wissenschaftlicher Text- und Musikedition im 21. Jahrhundert noch hält. Alle Modelle und Fallbeispiele, auf die in den Beiträgen referiert wird, haben aber eines gemeinsam: Sie überschreiten die Grenzen des Print-Mediums und gehen hinein in einem multidimensionalen digitalen Raum visueller Anschauung. Textgenese in der digitalen Edition allein in Buchform zu präsentieren, wäre ein Widerspruch in sich. Aus diesen Gründen haben wir in Abklärung mit dem Verlag De Gruyter die Voraussetzung dafür geschaffen, die Veröffentlichung im Druck durch eine digitale Komponente im Web zu ergänzen. Auf http://aau.at/musil/publikationen/ textgenese/ sind Grafiken, Bilder, Präsentationen, Demonstrationen, Applikationen und Webseiten zur Veranschaulichung der Ausführungen in den einzelnen Beiträgen enthalten. Dieses Hybrid-Format ist insbesondere wichtig für die Präsentation von Fallbeispielen. Den Beitragenden, die sich der Mühe unterzogen haben, ihre Darstellung anhand einer digitalen Komponente zu optimieren, sei ein gesonderter Dank ausgesprochen. Mit der Hybrid-Form aus Buch und digitalen Komponenten ist Textgenese in der digitalen Edition eine Pionierin in der Reihe Beihefte zu editio.

Methodologische Fragestellungen und Lösungen

Rüdiger Nutt-Kofoth

Textgenese analog und digital: Ziele, Standards, Probleme

Den Prozeß der Textentstehung über mehrere Bearbeitungsstufen hinweg zu verfolgen und in einem Apparat verständlich darzustellen, ohne daß der Leser auf die originalen Handschriften, Typoskripte oder Drucke, in denen sich die Textgenese vollzieht, zurückgreifen muß, wird heute als eine der wichtigsten editorischen Aufgaben angesehen. 1

Diesen eminenten Stellenwert der textgenetischen Darstellung in den Editionen von Werken neuerer literarischer Autoren hatte Bodo Plachta in seiner editionswissenschaftlichen Einführung 1997 konstatiert, und auch in der dritten Auflage 2013 gab es für ihn keinen Grund, davon abzurücken. 2 Bereits ein Jahrzehnt vor Plachta hatte Hans Zeller 1986 festgestellt: „Sofern das Material es erlaubt, erwartet man in der Neugermanistik eine genetische Edition.“ 3 Die Grundlegung der genetischen Edition war allerdings schon über ein halbes Jahrhundert früher erfolgt, denn bekanntlich hatte Reinhold Backmann im Jahr 1924 in einer durchaus provokanten Forderung das traditionelle Verhältnis von konstituiertem kritischen Text und nachgeordnetem Apparat auf den Kopf gestellt, indem er dem Apparat „seinen selbständigen Wert gegenüber dem Textabdruck“, ja sogar „ein Übergewicht an Bedeutung über den letzteren“ zusprach. 4 In der Editionspraxis der deutschsprachigen Literatur des 20. Jahrhunderts nahm die textgenetische Darstellung nun einen immer größeren Umfang innerhalb der Ausgaben ein, bis sie – wenn auch in Einzelfällen – den edierten Text sogar ganz verdrängen konnte. 5

–––––––– 1 2 3

4

5

Bodo Plachta: Editionswissenschaft. Eine Einführung in Methode und Praxis der Edition neuerer Texte. 3., ergänzte und aktualisierte Aufl. Stuttgart 2013, S. 99; 1. Aufl. 1997, S. 99. Die digitale Präsentation zu den Abb. dieses Beitrags finden Sie unter http://aau.at/musil/publikatio nen/textgenese/nutt-kofoth/. Hans Zeller: Die Typen des germanistischen Varianten-Apparats und ein Vorschlag zu einem Apparat für Prosa. In: Zeitschrift für deutsche Philologie 105, 1986, Sonderheft: Editionsprobleme der Literaturwissenschaft. Besorgt von Norbert Oellers und Hartmut Steinecke, S. 42–69, hier S. 67. Reinhold Backmann: Die Gestaltung des Apparates in den kritischen Ausgaben neuerer deutscher Dichter. (Mit besonderer Berücksichtigung der großen Grillparzer-Ausgabe der Stadt Wien). In: Euphorion 25, 1924, S. 629–662, hier S. 638; wiederabgedruckt in: Dokumente zur Geschichte der neugermanistischen Edition. Hrsg. von Rüdiger Nutt-Kofoth. Tübingen 2005 (Bausteine zur Geschichte der Edition. 1), S. 115–137, hier S. 125. Etwa in der Edition: Georg Heym: Gedichte 1910–1912. Historisch-kritische Ausgabe aller Texte in genetischer Darstellung. Hrsg. von Günter Dammann, Gunter Martens, Karl Ludwig Schneider. 2 Bde. Tübingen 1993. – Die theoretische Grundlegung dazu bei Gunter Martens: Textdynamik und Edition. Überlegungen zur Bedeutung und Darstellung variierender Textstufen. In: Texte und Varianten. Probleme ihrer Edition und Interpretation. Hrsg. von Gunter Martens und Hans Zeller. München 1971, S. 165–201.

https://doi.org/10.1515/9783110575996-002

4

Rüdiger Nutt-Kofoth

Mit dem Sammelband Textgenetische Edition aus dem Jahr 19986 sowie Hans Zellers Quasi-In-eins-Setzung der Editionsgeschichte des 20. Jahrhunderts mit dem textgenetischen Edieren 7 2003 war die Fragestellung der Textgenese im Übergang zum 21. Jahrhundert endgültig zum wesentlichsten sowie am meisten diskutierten Bereich der neugermanistischen Edition avanciert. Das scheint alles so selbstverständlich, dass hinter dieser Selbstverständlichkeit verschiedene Parameter der editorischen Aufbereitung von Textgenese nicht mehr trennscharf voneinander geschieden erscheinen mögen. Solche Parameter sind etwa Abweichung vs. Prozessualität, Spatialität vs. Temporalität oder materielle Dimension vs. genetische Dimension. Letzteres Begriffspaar, so ausgestellt in einem jüngeren Beitrag der Mitwirkenden der Digitalen Schnitzler-Edition,8 macht schon durch die Begriffswahl eine Differenz deutlich, die in den vergangenen Jahrzehnten innerhalb der editorischen Aufgaben und der editorischen Darstellungen der analogen, der Buchedition selbst sukzessive zusammenzufallen schien. Woran liegt das, und welche Konsequenzen hat das für die aktuellen Darstellungsverfahren der digitalen Edition? Antworten auf diese beiden Fragen werden im Folgenden zumindest schlaglichtartig umrissen. Eine Annäherung soll über drei Schritte erfolgen. Zwei davon rekurrieren auf die Geschichte des editorischen Interesses an der Textgenese, wie es sich anhand der Buchedition entwickelt hat, und zwar – wie der Titel dieses Beitrags ausweist – zum einen hinsichtlich der Ziele und zum anderen hinsichtlich der Standards, also im Blick auf das Wozu und das Wie textgenetischer Darstellungen. Der dritte im Beitragstitel genannte Schritt – die Probleme – betrifft nun zuvorderst die digitale Edition, nimmt nämlich aktuelle textgenetische Darstellungen im digitalen Medium in den Blick und will schließlich insbesondere danach fragen, wie die größere Fülle an Darstellungsmöglichkeiten des Digitalen den Grundfragen der Textgenese – bisher – begegnet ist und was man sich wünschen könnte. Der zunächst notwendige wissenschaftsgeschichtliche Blick zurück wird allerdings nicht in erster Linie chronologisch erfolgen, sondern in einer primär systematischen Orientierung Erkenntnisse schon vorliegender Aufarbeitungen funktionalisiert für die in diesem Beitrag behandelte Fragestellung auswerten. 9

–––––––– 6 7

8

9

Textgenetische Edition. Hrsg. von Hans Zeller und Gunter Martens. Tübingen 1998 (Beihefte zu editio. 10). Hans Zeller: Die Entwicklung der textgenetischen Edition im 20. Jahrhundert. In: Geschichte der Editionsverfahren vom Altertum bis zur Gegenwart im Überblick. Ringvorlesung. Hrsg. von Hans-Gert Roloff. Berlin 2003 (Berliner Beiträge zur Editionswissenschaft. 5), S. 143–207. Angeführt unter Ergänzung der ‚textuellen Dimension‘ bei Thomas Burch u. a.: Text[ge]schichten. Herausforderungen textgenetischen Edierens bei Arthur Schnitzler. In: Textgenese und digitales Edieren. Wolfgang Koeppens Jugend im Kontext der Editionsphilologie. Hrsg. von Katharina Krüger, Elisabetta Mengaldo und Eckhard Schumacher. Berlin, Boston 2016 (Beihefte zu editio. 40), S. 87–105, hier S. 92. Zu nennen wären z. B. Plachta 1997/2013 (Anm. 1), bes. S. 27–45; verschiedenste Beiträge in den Bänden der Reihe: Bausteine zur Geschichte der Edition. Hrsg. von Rüdiger Nutt-Kofoth und Bodo Plachta. Tübingen (ab 2011ff.: Berlin, Boston) 2005ff.; Rüdiger Nutt-Kofoth: Textgenese. Überlegungen zu Funktion und Perspektive eines editorischen Aufgabengebiets. In: Jahrbuch für Internationale Germanistik 37, 2005, H. 1, S. 97–122; Bodo Plachta: Arbeitsweisen und Editionsstrategien. Eine Annäherung aus historischer Perspektive. In: Textgenese und digitales Edieren 2016 (Anm. 8), S. 19–37, hier S. 19– 24 und 31–35. – Siehe auch eine frühe Aufarbeitung bei Hans Werner Seiffert: Untersuchungen zur Methode der Herausgabe deutscher Texte. 2. Aufl. Berlin 1969 (Deutsche Akademie der Wissenschaften

Textgenese analog und digital: Ziele, Standards, Probleme

5

Wozu Textgenese? Zu den Interessen textgenetischer Darstellungen Es dürfte sinnvoll sein, sich noch einmal zu vergegenwärtigen, zu welchem Zweck Editionen die Genese eines literarischen Werkes darstellen. Anne Bohnenkamp hat 2003 drei Motivationstypen für das Studium der Autorvarianten unterschieden: den stilgeschichtlichen, den auf das abgeschlossene Werk ausgerichteten und den die Schreibtätigkeit des empirischen Autors in den Blick nehmenden Typus. 10 In etwas anders akzentuiertem Zugriff würde ich mit Blick auf die Relevanz der Textgenese folgende Interessen unterscheiden: (a) das werkmateriale, (b) das texttheoretisch fundierte und (c) das hermeneutisch-interpretative Interesse. Das (a) werkmateriale Interesse entspringt zunächst einem Vollständigkeitsanliegen, wie es in der ersten Phase der Wissenschaftsgeschichte der Neugermanistik begründet wurde. In historischer Perspektive ging es um das erstmalige Heben literaturgeschichtlichen Materials im 19. Jahrhundert, wodurch das Fach der Germanistik überhaupt erst seine Objekte gewann, nämlich die Texte als Resultate der philologischen Aufarbeitung von Drucken und Handschriften. Die Vollständigkeitsakribie der als Positivismus etikettierten Phase gipfelte schließlich im Vorwurf einer sich in Einzelheiten verlierenden synthesefreien Mikrologie, 11 für die die Goethe-Philologie des 19. Jahrhunderts – keinesfalls nur zu Recht – als Musterfall ausgestellt wurde. 12 Dahinter steht aber zunächst eine auf vollständige Sichtung und Aufbereitung der überlieferten Textträger ausgerichtete wissenschaftliche Devise, die möglichst vorannahmenfreie Volldarstellungen einer verdeckten oder offengelegten Auswahlstrategie entgegenhält. Die editorische Aufbereitung sämtlicher überlieferter Handschriften und Drucke zu einem Werk findet ihren Niederschlag als textgenetische Darstellung; in der Textualität der textgenetischen Darstellung sind die Handschriften und Drucke editorisch aufgehoben. In gegensätzlicher Richtung läuft eine Funktionalisierung der editorischen Darstellung für die Rezeption des originalen Werkmaterials, wie sie Klaus Hurlebusch 1998 skizziert hat: Das Ziel der textgenetischen Darstellung sollte die Lektüre und Interpretation der textgenetischen Handschriften selbst sein und das Erläuterungsmittel hierzu ihre Transkription.

–––––––– 10 11

12

zu Berlin. Veröffentlichungen des Instituts für deutsche Sprache und Literatur. 28), S. 117–207; 1. Aufl. 1963. Anne Bohnenkamp: Autor-Varianten. In: editio 17, 2003, S. 16–30, hier S. 19–24, bes. S. 22. Vgl. Hans-Martin Kruckis: Goethe-Philologie als Paradigma neuphilologischer Wissenschaft im 19. Jahrhundert. In: Wissenschaftsgeschichte der Germanistik im 19. Jahrhundert. Hrsg. von Jürgen Fohrmann und Wilhelm Voßkamp. Mit Beiträgen von Uwe Meves u. a. Stuttgart, Weimar 1994, S. 451–493, hier S. 474. Siehe etwa jüngere Untersuchungen zu dem – vermeintlichen – Protagonisten des neugermanistischen Positivismus: Tom Kindt, Hans-Harald Müller: Dilthey gegen Scherer. Geistesgeschichte contra Positivismus. Zur Revision eines wissenschaftshistorischen Stereotyps. In: Deutsche Vierteljahrsschrift für Literaturwissenschaft und Geistesgeschichte 74, 2000, S. 685–709. – Hans-Harald Müller: Die Lebendigen und die Untoten. Lassen sich Auseinandersetzungen zwischen Wissenschaftskonzeptionen als „Kontroversen“ rekonstruieren? Am Beispiel von Positivismus und Geistesgeschichte. In: Kontroversen in der Literaturtheorie / Literaturtheorie in der Kontroverse. Hrsg. von Ralf Klausnitzer und Carlos Spoerhase. Bern u. a. 2007 (Publikationen zur Zeitschrift für Germanistik. N.F. 19), S. 171–182.

6

Rüdiger Nutt-Kofoth

Die Erschließung textgenetischer Autographen […] sollte also nicht in den editorischen Transkriptionen und Beschreibungen, sondern in den Originalen selbst enden […]. 13

Eine solche Zielrichtung entspricht zum einen dem Grundanliegen der französischen ‚critique génétique‘ als Interpretation des materialisierten originalen handschriftlichen Textes. 14 Zum anderen führt sie letztlich zu einer Nachrangigkeit des Textualitätsinteresses gegenüber dem Schriftinteresse, das den handschriftlichen Text als „nicht ohne Verlust an Information transformierbar[e]“ „einmalige Konstellation der Zeichen auf dem Papier (oder einem anderen Trägerstoff)“ 15 in den Blick nimmt. Editorisch findet sich ein solches Interesse etwa in der allein auf Faksimile und Transkription gestützten Ausgabe zu Kafkas fragmentarischen Werken wieder.16 Dass an solche Vorstellungen alle sich im Zuge des ‚material turn‘ auch in der Editorik breit niederschlagenden Diskussionen anschließbar waren, 17 ist keine Überraschung; auch nicht, dass die Schreibszenen-Forschung, wie sie sich etwa seit 2004 in der Reihe Zur Genealogie des Schreibens niederschlägt,18 hier ein editorisch ausgebreitetes Materialfeld vorfindet. Festzuhalten wäre allerdings, dass Textgenese einen hohen Stellenwert zugewiesen bekommt, wenn sie als Ergebnis des werkmaterialen Interesses in Hinblick auf die vollständige Auswertung der Überlieferung veranschlagt, und andersherum, dass ihr Stellenwert geringer bis gegen Null tendiert, wenn sie als funktionales Hilfsmittel zur weiteren wissenschaftlichen Auswertung des Werkmaterials verstanden wird – und erst recht, wenn sie als Hilfsmittel zum Lesen der Originale dienen soll. Eine solche Verkehrung von Hilfsmittel und Resultat findet sich nicht nur in den unterschiedlichen Zugriffen des werkmaterialen Interesses, sondern auch in denjenigen des (b) texttheoretisch fundierten Interesses. Dieses gründet zunächst in der Erweiterung des Werkbegriffs, wie ihn etwa Siegfried Scheibe als Instrument der editorisch relevanten Textträgereingrenzung formuliert hat: „D e r T e x t e i n e s W e r k e s im editorischen Sinne besteht aus den Texten sämtlicher Textfassungen, die im Laufe des Entstehungsprozesses eines Werkes vom Autor oder in seinem Auftrag zu diesem Werk

–––––––– 13 14

15 16 17

18

Klaus Hurlebusch: Den Autor besser verstehen: aus seiner Arbeitsweise. Prolegomenon zu einer Hermeneutik textgenetischen Schreibens. In: Textgenetische Edition 1998 (Anm. 6), S. 7–51, hier S. 49. Vgl. Almuth Grésillon: Bemerkungen zur französischen „édition génétique“. In: Textgenetische Edition 1998 (Anm. 6), S. 52–64, hier S. 53. – Zur ‚critique génétique‘ siehe grundsätzlich Almuth Grésillon: Literarische Handschriften. Einführung in die „critique génétique“. Aus dem Französischen übersetzt von Frauke Rother und Wolfgang Günther, redaktionell überarbeitet von Almuth Grésillon. Bern u. a. 1999 (Arbeiten zur Editionswissenschaft. 4). Roland Reuß: Schicksal der Handschrift, Schicksal der Druckschrift. Notizen zur ‚Textgenese‘. In: Text. Kritische Beiträge 5, 1999: Textgenese 1, S. 1–25, hier S. 16f. Franz Kafka: Historisch-Kritische Ausgabe sämtlicher Handschriften, Drucke und Typoskripte. Hrsg. von Roland Reuß und Peter Staengle. Basel, Frankfurt/Main 1995ff. Siehe nur: Materialität in der Editionswissenschaft. Hrsg. von Martin Schubert. Berlin, New York 2010 (Beihefte zu editio. 32); Text – Material – Medium. Zur Relevanz editorischer Dokumentationen für die literaturwissenschaftliche Interpretation. Hrsg. von Wolfgang Lukas, Rüdiger Nutt-Kofoth und Madleen Podewski. Berlin, Boston 2014 (Beihefte zu editio. 37). Zur Genealogie des Schreibens. Hrsg. von Martin Stingelin. München 2004ff., z. Zt. 21 Bände. Vgl. dazu auch den Beitrag vom Anke Bosse im vorliegenden Band.

Textgenese analog und digital: Ziele, Standards, Probleme

7

hergestellt wurden“. 19 Texttheoretisch umgesetzt war diese Maxime in der 1971 von Gunter Martens proklamierten Theorie der Textdynamik, die dem Werktext die primäre Auszeichnung der Prozessualität, der „immanente[n] Bewegung“ zusprach und diese als „spezifische Qualität von Text schlechthin“ begriff. 20 Diese theoretische Fundierung der Backmann’schen Position von 1924 schlug sich dann in der Heym-Ausgabe von 1993 nieder, die den Apparat zum Text transformierte und den herkömmlichen edierten Text gar nicht mehr anbot. 21 Die textgenetische Darstellung war zur alleinigen Repräsentation des Werktextes in der Ausgabe geworden. Die Textgenese hatte damit den Höhepunkt ihrer sukzessiven Aufwertung erlangt, war unter texttheoretischer Begründung zum editorischen Zentrum avanciert – und hatte auch eine gewisse Überschätzung erfahren, wie spätere Einschränkungen dieser Position gerade durch deren Protagonisten deutlich machen. 22 Unter einer anderen texttheoretischen Prämisse wurde der Textgenese aber diese Bedeutung gerade abgesprochen. Gemeint ist die oben schon unter dem Punkt des werkmaterialen Interesses erörterte Position der Geringschätzung der Textgenese im Editionsmodell von Roland Reuß. Das Modell hat er für die Darstellung von Entwurfshandschriften texttheoretisch mit dem Axiom ‚Ein Entwurf ist kein Text‘ begründet 23 – mit der Konsequenz, dass er die textgenetische Darstellung gerade nicht mehr als sinnvollen Bestandteil einer Edition begreift und deren Rekonstruktion folglich dem Leser zu überlassen sei. 24 Insofern erlauben das werkmateriale wie das texttheoretisch fundierte Interesse Pendelschläge bis zu beiden Enden der Skala – und bieten zumindest für diese Perspektiven auf das editorische Feld eine anschauliche Bestätigung für Hans Zellers Einschätzung der Editionswissenschaftsgeschichte als Kette von Reaktionen und Pendelausschlägen, nicht aber als kontinuierlich aufeinander aufbauende Entwicklung.25 Ähnliches gilt zunächst für (c) das hermeneutisch-interpretative Interesse, doch tritt zu den alternativen Positionen zumindest eine konsensfähig erscheinende und m. E. tatsächlich zukunftsweisende, in ihrer Tragweite allerdings bisher kaum beachtete

–––––––– 19

20 21 22

23 24 25

Siegfried Scheibe: Zum editorischen Problem des Textes. In: Zeitschrift für deutsche Philologie 101, 1982, Sonderheft: Probleme neugermanistischer Edition. Besorgt von Norbert Oellers und Hartmut Steinecke, S. 12–29, hier S. 28. Martens 1971 (Anm. 5), S. 169 und 167. Siehe Anm. 5. Siehe Gunter Martens: Was ist ein Text? Ansätze zur Bestimmung eines Leitbegriffs der Textphilologie. In: Poetica 21, 1989, S. 1–25, hier S. 19f.; der Beitrag erschien kurz darauf unwesentlich verändert als Gunter Martens: Was ist – aus editorischer Sicht – ein Text? Überlegungen zur Bestimmung eines Zentralbegriffs der Editionsphilologie. In: Zu Werk und Text. Beiträge zur Textologie. Hrsg. von Siegfried Scheibe und Christel Laufer (Redaktion). Berlin 1991, S. 135–156, hier S. 147f. – Gerhard Seidel: Der ‚edierte Text‘ als Repräsentation und Reduktion des Werkes. Zur Wahl der Textgrundlage bei Brecht. In: Textkonstitution bei mündlicher und bei schriftlicher Überlieferung. Basler Editoren-Kolloquium 19.–22. März 1990, autor- und werkbezogene Referate. Hrsg. von Martin Stern unter Mitarbeit von Beatrice Grob, Wolfram Groddeck und Helmut Puff. Tübingen 1991 (Beihefte zu editio. 1), S. 209–213, hier S. 209, Anm. 1. Roland Reuß: Text, Entwurf, Werk. In: Text. Kritische Beiträge 10, 2005: Text ∙ Werk, S. 1–12, hier S. 7. – Siehe dazu Rüdiger Nutt-Kofoth: Editorische Axiome. In: editio 26, 2012, S. 59–71, hier S. 65f. Siehe Reuß 1999 (Anm. 15) S. 24f. Zeller 2003 (Anm. 7), S. 161.

8

Rüdiger Nutt-Kofoth

Position hinzu. Dass aus der Aufarbeitung der Textgenese literaturwissenschaftliches Kapital zu schlagen ist, hatte schon Karl Goedeke 1876 in seiner Schiller-Ausgabe proklamiert und eher unscharf einen poetologischen Mehrwert angedeutet: „Denn das Studium dieser Papiere [des Schiller’schen Dramennachlasses] stellte fest, dass dieselben, wenn auch dem blossen ästhetischen Genusse nicht allzuviel bietend, für den aufmerksam Folgenden lehrreicher sein müssen, als alle theoretischen Anweisungen zur Dichtkunst“. 26 Ein Jahrzehnt zuvor hatte Michael Bernays in Hinblick auf Goethe den historischen Aspekt zum Zielpunkt erklärt und damit im Grunde schon Varianten in ihrer genetischen Funktion verstanden: Eine umfassende, methodisch angeordnete Sammlung der Varianten wird uns mannigfache Gelegenheit bieten, die Kunst des Dichters im Kleinen und Kleinsten zu studiren, und dies Kleine wird uns oft genug auf die Erwägung der bedeutsamsten Fragen hinlenken die eben so wohl den Autor als sein Werk betreffen. Eine solche Sammlung eröffnet uns aber auch zuerst die Möglichkeit eines gründlichen Studiums der Goetheschen Sprache, aus welchem mit der Zeit eine G e s c h i c h t e dieser Sprache erwachsen muß. 27

Dass sich diese Zugriffe auf Goethes Variantenverständnis als ‚Geschmacks-‘, also als Autorstillehre in seiner bekannten Äußerung zu Wieland und dessen Ausgabe letzter Hand28 berufen können und z. T. auch direkt berufen, muss hier nicht noch einmal ausgeführt werden. 29 Mit diesem Anliegen einher geht jedenfalls eine Art von Funktionalisierung des textgenetischen Erkenntnisinteresses, für die Bernhard Seuffert 1905 vom Editor eine Vermittlungsleistung einforderte: „Sie [die Herausgeber] sollen mindestens einen Ansatz zur Verarbeitung der Lesarten für die Entwickelungsgeschichte des Stiles machen.“ 30 Als Georg Witkowski 1921 auf die „psychologisch-ästhetischen Ergebnisse[ ]“, die der Neugermanistik möglich seien, aufmerksam machte und forderte, dass „auch ihre editorische Leistung auf diese Ergebnisse miteingestellt werden“ müsse, war allerdings der Betrachtungswinkel schon wieder von den Textbildungsprozessen auf die Arbeit des empirischen Autors verschoben; nicht umsonst fällt bei

–––––––– 26

27 28

29 30

Schillers sämmtliche Schriften. Historisch-kritische Ausgabe. Im Verein mit A. Ellissen, R. Köhler, W. Müldener, H. Oesterley, H. Sauppe und W. Vollmer von Karl Goedeke. Bd. 15,2: Nachlaß (Demetrius). Hrsg. von Karl Goedeke. Stuttgart 1876, S. VI; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 31. Michael Bernays: Über Kritik und Geschichte des Goetheschen Textes. Berlin 1866, S. 85f.; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 23f. „So ist es zum Beispiel nicht zu viel gesagt, wenn wir behaupten, daß ein verständiger fleißiger Literator durch Vergleichung der sämmtlichen Ausgaben unsres W i e l a n d s [...] allein aus den stufenweisen Correcturen dieses unermüdet zum Bessern arbeitenden Schriftstellers die ganze Lehre des Geschmacks würde entwickeln können“; Goethe: Literarischer Sansculottismus. In: Goethes Werke. Hrsg. im Auftrage der Großherzogin Sophie von Sachsen. 133 Bde. in 143. Weimar 1887–1919, [Abt. I.] Bd. 40. Weimar 1901, S. 196–203, hier S. 201. Siehe dazu etwa Nutt-Kofoth 2005 (Anm. 9), S. 102f. Bernhard Seuffert: Prolegomena zu einer Wieland-Ausgabe. III. IV. Im Auftrage der Deutschen Kommission entworfen von ihrem außerordentlichen Mitglied. Berlin 1905 (Abhandlungen der Königlich Preußischen Akademie der Wissenschaften aus dem Jahre 1905. Phil.-hist. Abhandlungen nicht zur Akademie gehöriger Gelehrter. II), S. 51–61: IV. Gestaltung des Textes und Einrichtung des Apparates, hier S. 60; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 55–63, hier S. 62.

Textgenese analog und digital: Ziele, Standards, Probleme

9

Witkowski zugleich die Formel vom „Einblick in die Werkstatt des einzelnen Autors“.31 Letzteres hat sich bis heute kaum geändert, allerdings in einer Akzentverschiebung auf die Arbeitsweise des Autors niedergeschlagen. Auch ein solcher Blick aber ist vorherrschend auf den empirischen Autor ausgerichtet, dessen Arbeitsweise jedoch nicht mit der Textgenese selbst gleichzusetzen ist, wohl aber die Voraussetzung des materiellen Niederschlags der Textgenese darstellen kann. 32 Nur in diesen Zusammenhang gehören die Diskussionen um die klassifikatorisch ausgestellten Idealtypen des ‚Kopf-‘ und des ‚Papierarbeiters‘, für die ja zudem bemerkt worden ist, dass deren Zuweisung zu einem Autor in Hinblick auf dessen Lebensphasen und zu einzelnen Werken in Hinblick auf die jeweilige Werkphase sehr variabel sein kann. 33 Während das hermeneutische Interesse an den textuellen Transformationen 34 im Sinne eines primär prozessual-dynamischen Verständnisses neben dem eigentlichen textgenetischen Fokus also immer wieder die Schreibszene des Autors (mit) in den Blick zu nehmen geneigt ist, läuft die Diskussion des primär resultativ-statischen Textgenese-Verständnisses in Bezug auf die interpretative Leistungsfähigkeit der Textgenese in anderen Strängen. Ihr geht es um die Art und Weise, in der die Textgenese für die Interpretation funktionalisiert werden kann. Zwei Positionen lassen sich unterscheiden. Die erste ist die identifizierende. Sie ist von Friedrich Beißner folgendermaßen vertreten worden: Der Leser also, der sich bemüht, den in erster, unmittelbarer Begegnung empfangenen Eindruck zu läutern, das erste, noch dunkel ahnende und tastende Verständnis zu gründen und zu vertiefen, gerät oft in die Lage, daß er zwischen zwei Deutungsmöglichkeiten schwankt. Wie oft hilft ihm in solcher Lage die Lesart eines Entwurfs!35

Die dieser identifizierenden Verfahrensweise in der Interpretation der Varianten entgegengesetzte differenzierende Position hat Herbert Kraft mit seinem Konzept der ‚negativen Ersatzprobe‘ bezogen: Varianten bestimmen negativ die Semantik desjenigen Textes, von dem sie abweichen. Mit ihrer Hilfe wird Erkenntnis gewonnen gerade nicht durch Identifizieren, sondern durch

–––––––– 31

32

33 34

35

Georg Witkowski: Grundsätze kritischer Ausgaben neuerer deutscher Dichterwerke. In: Funde und Forschungen. Eine Festgabe für Julius Wahle zum 15. Februar 1921. Dargebracht von Werner Deetjen u. a. Leipzig 1921, S. 216–226, hier S. 224; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 70–77, hier S. 75. Siehe auch Siegfried Scheibe: Variantendarstellung in Abhängigkeit von der Arbeitsweise des Autors und von der Überlieferung seiner Werke. In: Textgenetische Edition 1998 (Anm. 6), S. 168–176. – Ders.: Die Arbeitsweise des Autors als Grundkategorie der editorischen Arbeit. In: editio 12, 1998, S. 18–27. Vgl. Anke Bosse: ‚The Making of‘ – Blicke in des Autors ‚Werkstatt‘. Zum Verstehen und Vermitteln literarischer Arbeitsweisen. In: editio 17, 2003, S. 31–49, hier S. 37f. Der Begriff der ‚Transformation‘ enthält gegenüber dem der ‚Entwicklung‘ keine teleologische Implikation und dürfte daher für eine neutralere Beschreibung der Textgenese geeigneter sein. Beide Begriffe stehen gleichgesetzt nebeneinander bei Zeller 1986 (Anm. 3), S. 45, in Absetzung vom Editionsverfahren für antike und mittelalterliche Literatur: „Demgegenüber sucht die genetische Darstellung die Variation des Textes als eine Entwicklung oder Transformation darzustellen“. Friedrich Beißner: Hölderlins letzte Hymne [zuerst 1948/49]. In: ders.: Hölderlin. Reden und Aufsätze. 2., durchgesehene Aufl. Köln, Wien 1969 (zuerst Weimar 1961), S. 211–246 und 282f., hier S. 212.

10

Rüdiger Nutt-Kofoth

Unterscheiden und Ausschließen. In dem, was nicht gemeint ist, ist das Gemeinte als Verweisung enthalten; keineswegs ist in den Varianten das Gemeinte positiv vorhanden […]. 36

Was in beiden Positionen durch die Verwendung der Begriffe ‚Lesarten‘ bzw. ‚Varianten‘ deutlich wird, ist somit das eher resultativ-statische Verständnis des textgenetischen Materials, das in seiner Funktion als textuelle Abweichung von Fassungen, Textstadien, Textstufen o. ä. interpretativ fruchtbar gemacht wird. In das prozessual-dynamische Verständnis übertragen, wird die Relevanz des Verhältnisses von Textgenese und Interpretation aber um eine weitere Ebene reicher und kann dabei an die frühen Überlegungen zur hermeneutischen Leistungsfähigkeit des textgenetischen Materials anschließen. Gemeint ist nun die m. E. hochbedeutsame, aber bisher kaum eingelöste Forderung Beda Allemanns, die aus seinem Nachlass 1994 veröffentlicht wurde. Mit ihr wird die Textgenetik als eigenes Wissenschaftsgebiet entworfen, deren Aufgabe die folgende sei: „Sie muß über die Semantik einzelner Wörter und Wendungen und jener ihres ‚Ersatzes‘ im Laufe des poetischen Arbeitsprozesses hinaus vordringen in jene Dimension der strukturellen Bezüge und ihrer Verschiebung im Prozeß der Artikulation [...].“ 37 Hier wird nicht nur gefordert, die Textgenese durch adäquate rezeptionsfähige Darstellungen sinnfällig, sondern insbesondere Textgenese als Transformationsverfahren von Werkstrukturen, als Verfahren von Werkumstrukturierungen erkenntnisfähig zu machen. Insofern kann diese Position dazu beitragen, den Eigenwert der Textgenese in Abstraktion vom Werkmateriellen und in Fortführung des texttheoretisch fundierten Textgenese-Interesses fruchtbar zu machen für den hermeneutisch-interpretativen Zugriff der Literaturwissenschaft.38 Dazu müssen nun aber in der Tat Darstellungsverfahren für die Makro- wie für die Mikrogenese vorliegen, die eine solche Nutzung der Textgenese ermöglichen.

Wie Textgenese? Voraussetzungen, Ziele, Standards textgenetischer Darstellungen Zu rekapitulieren ist also, wie die Textgenese aufbereitet wurde und werden kann sowie was an den gängigen Aufbereitungen genuin textgenetisch ist. Zuvor ist aber die grundlegende Einschränkung zu bedenken, die jeder textgenetischen Aufarbeitung zugrunde liegt. Auf sie hat Henning Boetius schon 1971 aufmerksam gemacht: Unter Genese wird der wirkliche Entstehungsvorgang einer Dichtung mit allen seinen sichtbaren und unsichtbaren Momenten verstanden, unter Chronologie (von Varianten) nur das Nacheinander der sichtbaren Momente von Genese. Die Chronologie verhält sich zur Genese

–––––––– 36

37

38

Herbert Kraft: Editionsphilologie. Zweite, neubearbeitete und erweiterte Aufl. mit Beiträgen von Diana Schilling und Gert Vonhoff. Frankfurt/Main u. a. 2001, S. 100, siehe auch die weitere Diskussion und die Beispiele ebd., S. 100–106. Zitat bei Rolf Bücher: Beda Allemann über Textgenese. In: Die Genese literarischer Texte. Modelle und Analysen. Hrsg. von Axel Gellhaus zusammen mit Winfried Eckel, Diethelm Kaiser, Andreas LohrJasperneite und Nikolaus Lohse. Würzburg 1994, S. 327–338, hier S. 334. Weitere Positionen der Forschung sind zusammengefasst bei Zeller 2003 (Anm. 7), S. 169.

Textgenese analog und digital: Ziele, Standards, Probleme

11

wie der Kalender zum Jahr. Rekonstruktion von Genese ist das zumeist utopische Ziel eines Apparates, Darstellung von Chronologien in der Regel seine bescheidene Leistung. 39

Keineswegs ist aus dieser Einschränkung ein Verzicht auf textgenetische Darstellungen mangels Möglichkeit einer vollständigen Ermittlung abzuleiten. Denn die Einschränkung betrifft jede geschichtliche Arbeit; die Beschreibung einer historischen Gegebenheit oder Entwicklung ist ja immer auf Quellen bzw. Dokumente angewiesen – und sie ist damit immer eine Rekonstruktion aufgrund der Auswertung verfügbaren Materials. Es ist allerdings hilfreich, sich diese Differenz auch für die Rekonstruktion der Textgenese zu vergegenwärtigen. Insofern ist Boetius’ Unterscheidung von ‚Textgenese‘ und ‚Chronologie‘ begrifflich richtiger durch ‚real-vollständige Textgenese‘ und ‚dokumentierte Textgenese‘ zu ersetzen – eine Differenzierung, die mit Jan Bürgers Unterscheidung von komplettem ‚Entstehungsprozess‘ und rekonstruierter ‚Entstehungsgeschichte‘ parallelisiert werden kann, die er in Blick auf die Gesamtentstehung eines Textes vorgenommen hat.40 Die weiteren Probleme einer Rekonstruktion der dokumentierten, der materialisierten Textgenese liegen dann auf der Ebene der Teil-Ganzes-Relation. Backmann hatte sie in die – etwas missverständlichen 41 – Begriffe ‚absolute Chronologie‘ und ‚relative Chronologie‘ gefasst: Es gibt aber zwei verschiedene Arten von Chronologie, eine absolute, die immer leicht herzustellen ist, und eine relative. Unter absoluter Chronologie verstehe ich die zeitliche Abfolge aller Änderungen zu einer und derselben Stelle o h n e Rücksicht auf umgebende Teile der Handschrift. Die relative Chronologie versucht mehrere absolute Chronologien zueinander in Beziehung zu setzen. Bei ihr lassen sich, je weiter die Umgebung ist, die in Betracht gezogen wird, verschiedene Grade erstreben. Der vollendetste erreichbare Grad ist der, bei dem überall die g a n z e Handschrift im Auge behalten wird. 42

Die absolute Chronologie meint also die Textgenese eines Teilstücks, die relative Chronologie das Verhältnis einer solchen rekonstruierten Teilstückgenese zu einer anderen Teilstückgenese. Boetius hat als idealtypisch erstrebenswerten dritten Schritt die „relative Chronologie total“ ergänzt, ihn aber unter einen Realisierungsvorbehalt

–––––––– 39 40

41

42

Henning Boetius: Textqualität und Apparatgestaltung. In: Texte und Varianten 1971 (Anm. 5), S. 233–250, hier S. 238. Jan Bürger: Zeit des Lebens, Zeit der Künste. Wozu dienen Entstehungsgeschichten und biographische Informationen bei der Edition poetischer Schriften? In: Text und Edition. Positionen und Perspektiven. Hrsg. von Rüdiger Nutt-Kofoth, Bodo Plachta, H.T.M. van Vliet und Hermann Zwerschina. Berlin 2000, S. 231–243, hier S. 234. So auch schon Friedrich Wilhelm Wollenberg: Zur genetischen Darstellung innerhandschriftlicher Vari anten. In: Texte und Varianten 1971 (Anm. 5), S. 251–272, hier S. 263, allerdings mit anderer Begründung: „die ‚absolute Chronologie‘ bezeichnet ja im Grunde nur eine chronologische ‚Relation‘ zwischen mehreren Fassungen einer Textstelle“. Wollenberg hat vorgeschlagen, Backmanns ‚absolute Chronologie‘ als „(vertikale) ‚Korrekturfolge‘“, seine ‚relative Chronologie‘ als „(horizontale[n]) ‚Korrekturzusammenhang‘“ zu bezeichnen, wobei er Erstere als „Reihe von ‚Stufen‘“, Letzteren als „‚Schicht‘“ versteht, „die sich aus der Gleichstufigkeit mehrerer Korrekturen ergibt. Damit wird auf die Zellersche Unterscheidung zwischen (graphisch definierter) ‚Schicht‘ und (inhaltlich definiertem) ‚Verband‘ verzichtet“; ebd., S. 263f. Backmann 1924 (Anm. 4), S. 638; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 125.

12

Rüdiger Nutt-Kofoth

gestellt: „Der Schritt […] zur Verzeichnung der totalen Genese […] wird, wenn er je gelingt, der schwerste sein, da seine Voraussetzung eine völlige Durchdringung der zweiphasigen Werkentwicklung ist.“43 Man wird feststellen dürfen, dass das Textstufenmodell der Heym- und der Innsbrucker Trakl-Ausgabe eine solche vollständige Genese-Darstellung anzustreben versucht. 44 Zur Klärung der Standards textgenetischer Darstellungen gehört also zunächst die unhintergehbare Voraussetzung der eingeschränkten Rekonstruktion der Textgenese nach Maßgabe ihres dokumentierten, materialisierten Niederschlags; als Ziel gilt die Rekonstruktion in den größtmöglichen zusammenhängenden Teilstückeinheiten aufgrund ermittelbarer Relationen – idealerweise, wohl aber aufgrund der Materialvoraussetzung kaum tatsächlich realisierbar, als Voll- oder Totalgenese à la Boetius. Hinter diesem Ziel steckt allerdings bloß die Forderung, die Bernhard Seuffert schon 1905 erhoben hatte, nämlich dass „nicht eine Änderung, die zwei getrennte Wörter zugleich ergreift, […] getrennt behandelt und so aus einer Variante zwei gemacht werden“, 45 nur dass diese Forderung nun im Sinne Allemanns von der Wortebene auf den grundsätzlichen Zusammenhang von strukturellen Änderungen ausgeweitet sein sollte. Klar machen sollte man sich nun aber noch einmal die Kerne der textgenetischen Darstellungsaufgabe und deren Abgrenzung von den Randbereichen der Textgenese bzw. von anderen Interessensfeldern. Als erster Kern lässt sich festhalten, dass Textgenese die Prozessualität von Text repräsentiert. Abzugrenzen von diesem Kernanliegen sind daher Darstellungsformen, die per se nicht auf die mit der Prozessualität einhergehenden Texttransformationen ausgerichtet sind. In Rekurs auf die gängigen Darstellungsmodelle gilt das dann zunächst ganz wesentlich für den lemmatisierten oder nicht lemmatisierten Einzelstellenapparat, der textuelle Abweichungen, aber keine Texttransformationen anzeigt. Probleme kann auch der Einblendungsapparat bereiten, da er zusammenhängende Änderungen über verschiedene Textstellen hinweg nicht oder trotz Annotierung nur mühsam nachvollziehbar macht. Leichter haben es der Stufenapparat und der synoptische Kolumnenapparat, sofern die Textstellen nicht zu weit auseinanderliegen, d. h. beim Stufenapparat sich nicht über zu viele Zeilen bzw. Verse spannen und beim synoptischen Apparat möglichst nicht die Zeilen- bzw. Versgrenze überschreiten. Neben dieser auf der Differenz von Abweichung bzw. Variante versus Genese bzw. Prozess beruhenden Grundausrichtung ist als zweiter textgenetischer Kern die Differenzierung der Änderungsarten zu bedenken. Den textgenetischen Kern einer auf textuelle Transformationen zielenden Darstellungsweise bildet die Ausrichtung nicht

–––––––– 43 44

45

Boetius 1971 (Anm. 39), S. 244. Heym-HKA 1993 (Anm. 5); Georg Trakl: Sämtliche Werke und Briefwechsel. Innsbrucker Ausgabe. Historisch-kritische Ausgabe mit Faksimiles der handschriftlichen Texte Trakls. Hrsg. von Eberhard Sauermann und Hermann Zwerschina. Basel, Frankfurt/Main 1995–2014. Siehe auch Hermann Zwerschina: Die editorische Einheit ‚Textstufe‘. In: Textgenetische Edition 1998 (Anm. 6), S. 177–193. Seuffert 1905 (Anm. 30), S. 57; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 60. – Vgl. jüngst Almuth Grésillon: Schreiben ohne Ende? Fragen zur Textgenese. In: Textgenese und digitales Edieren 2016 (Anm. 8), S. 9–17, hier S. 14: „Nachdem das räumliche Durcheinander verwandelt wurde in ein zeitliches Nacheinander, geht es also jetzt darum, die Textänderungen nicht als Varianten aufzulisten (z. B. für einen kritischen Apparat), sondern sie in sinnstiftende Zusammenhänge einzuordnen.“

Textgenese analog und digital: Ziele, Standards, Probleme

13

zuvorderst auf Änderungsergebnisse, sondern auf Änderungsakte,46 wie sie schon in der antiken Rhetoriktheorie – bei Quintilian (Institutio oratoria IX) – als die Grundoperationen ‚Hinzufügung‘, ‚Wegnahme‘, ‚Umstellung‘ und ‚Auswechslung‘ beschrieben worden sind. Nicht im Kern auf textuelle Transformationen ausgerichtet ist dagegen die Repräsentation von schreibspezifischen Realisierungen der Änderungsakte, den Schreibakten, obwohl sie vielfach in textgenetische Darstellungen eingeflossen ist. Gemeint sind die grafischen Realisierungen z. B. bei ‚Hinzufügungen‘, also etwa ob sie über der Zeile oder am Rand und mit oder ohne Einweisungszeichen vorgenommen worden sind; bei ‚Wegnahmen‘, ob sie durch Durchstreichen – einzeln oder über eine größere Textstrecke oder quer über die Seite – oder durch Radieren, Rasur etc. ausgeführt wurden; bei ‚Umstellungen‘, ob sie durch Umstellungsschlaufe oder durch Markierung mit Zahlen realisiert sind; bei ‚Auswechslungen‘, ob sie durch Streichen und Hinzuschreiben oder durch Daraufschreiben erfolgt sind. Solche spezifischen Realisierungen von Änderungsakten repräsentieren die Schreibarbeit des Autors, seine Arbeitsweise, was ein Nebenanliegen der textgenetischen Darstellung sein kann, letztlich aber nicht zum textualitätsorientierten Kern von Textgenese und zum Kern der semantischen Strukturen von textuellen Transformationen gehört. Insofern wäre auch zu bedenken, dass die inzwischen häufiger anzutreffende Kennzeichnung von Tilgungen in Editionen in der typografischen Darstellung mittels des waagerechten Durchstreichungsstrichs eigentlich nur eine mimetische Repräsentation des Manuskriptes ist – auf dem allerdings auch doppelt oder mit einer Wellenlinie gestrichen sein kann, was im Regelfall nicht mehr durch die standardisierte Linie nachgebildet werden kann. Daher ist daran zu erinnern, dass die eckige Klammer in älteren Bucheditionen spezifisch als Tilgungsklammer eingesetzt war, also einen Änderungsakt anzeigte, während die Durchstreichung z. B. einen spezifischen Fall unter mehreren Schreibakten zur Durchführung der Änderungsaktes ‚Tilgung‘/‚Wegnahme‘ darstellt.47 Die Frage von Textänderungen und deren grafischen Realisierungen verweist aber schon auf den dritten textgenetischen Kern, das Verhältnis von Temporalität und Spatialität. Seit Hans Zeller 1958 die Annotation der Variantenpositionen zu einer Säule seines genetischen Darstellungsverfahrens gemacht und dann in der MeyerAusgabe umgesetzt hat,48 zieht sich die Diskussion um das Verhältnis von Zeitlichkeit

–––––––– 46

47

48

Zum Verhältnis von ‚Änderungsergebnis‘ und ‚Änderungsakt‘ siehe Klaus Hurlebusch: Deutungen literarischer Arbeitsweise. In: Zeitschrift für deutsche Philologie 105, 1986, Sonderheft: Editionsprobleme der Literaturwissenschaft. Besorgt von Norbert Oellers und Hartmut Steinecke, S. 4–42, hier S. 23; ders.: Edition. In: Das Fischer Lexikon Literatur. Bd. 1. Hrsg. von Ulfert Ricklefs. Frankfurt/Main 1996, S. 457–487, hier S. 480. Vgl. dazu schon Wollenberg 1971 (Anm. 41), S. 254: „Graphische Angaben betreffen die Handschrift, inhaltliche oder genetische den Text. Danach muss sich auch die Nomenklatur richten. Ich würde Tilgung, Ersetzung genetische Begriffe nennen; mit Streichung, Überschreibung usw. würde ich dagegen ausdrücken, auf welche Weise die Tilgung oder Ersetzung ausgeführt wurde. Das gleiche gilt für die Siglierung; man sollte sich z. B. entscheiden, ob die eckige Klammer Tilgung oder Streichung bezeichnet.“ Hans Zeller: Zur gegenwärtigen Aufgabe der Editionstechnik. Ein Versuch, komplizierte Handschriften darzustellen. In: Euphorion 52, 1958, S. 356–377; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 194–214. – Conrad Ferdinand Meyer: Sämtliche Werke. Historisch-kritische Ausgabe. Besorgt von Hans Zeller und Alfred Zäch [Bd. 15 von Rätus Luck]. 15 Bde. in 16. Bern 1958–1996; das textgenetische Verfahren zur Gedicht-Abteilung (Bd. 1–7), verantwortet von Hans Zeller, gründet auf diesem Prinzip.

14

Rüdiger Nutt-Kofoth

und Räumlichkeit durch die editionswissenschaftliche Diskussion. Die unterschiedlichen Begründungen für die Repräsentation der Räumlichkeit des Manuskripts in der Edition machen schon deutlich, dass die Aufnahme der Spatialität keineswegs als ein Kernelement der Darstellung von Textgenese gedacht war. Die erste Begründung lag in der Zielsetzung, mit der in der Meyer-Ausgabe in die synoptisch-textgenetische Darstellung Angaben zur Position der Varianten auf dem Manuskript integriert wurden. Zeller ging es 1958 um die ‚Rekonstruktion der Handschrift‘, wie schon die gleiche Forderung von Backmann 1924 lautete und beider Anliegen sich an Goedekes 1876 annoncierte Idee anschloss, die Überlieferung durch das typografische System der Edition zu sichern. 49 Letztere Akzentverschiebung auf die Überlieferungssicherung ist dann über 100 Jahre später ein Ziel des faksimilegestützten Editionsmodells von Roland Reuß,50 das ja explizit auf eine textgenetische Darstellung verzichtet. Zeller selbst hat das Ziel der Handschriftenrekonstruktion – nicht zuletzt aufgrund der von der Forschung hieran geäußerten Kritik 51 – später nicht wiederholt, dafür aber sein auch 1958 schon in Anschlag gebrachtes Anliegen, die Entscheidungen des Editors durch Offenlegung der materialen Überlieferungsvoraussetzungen vom Benutzer nachvollziehbar und kritisierbar zu machen, in den Vordergrund gerückt. 52 Solche Ermöglichung von Benutzerkritik war dann auch das primäre Antriebsmoment für die Erweiterung der Edition durch Faksimiles und Transkriptionen, die der textgenetischen Darstellung und einem konstituierten Text vorgeschaltet werden. Bekanntlich hat die Frankfurter Hölderlin-Ausgabe den Weg für ein solches Editionsverfahren ab 1975 freigemacht. 53 In seiner ganzen Breite ist es von der Marburger Büchner-Ausgabe ab

–––––––– 49

50 51

52

53

Zeller 1958 (Anm. 48), S. 362, wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 200: „Mir wenigstens ist ein Bedürfnis, die gedruckte Wiedergabe in die H[and]s[chrift] zurückzuübersetzen. […] Dann kann man sich die H[and]s[chrift] vorstellen oder sie auf dem Papier rekonstruieren.“ – Backmann 1924 (Anm. 4), S. 641, wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 128: „die Wiederherstellbarkeit der Manuskripte für den Benützer […] – auch etwas, wovon die landläufigen Apparate noch weit entfernt sind!“ – Schillers sämmtliche Schriften, Bd. 15,2 1876 (Anm. 26), S. VII, wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 31: „Die Hauptsache ist geschehen: das Vorhandene ist vor dem Untergange geborgen.“ Roland Reuß: „genug Achtung vor der Schrift“? Zu: Franz Kafka, Schriften Tagebücher Briefe. Kritische Ausgabe. In: Text. Kritische Beiträge 1, 1995: Text. Kritik, S. 107–126, hier S. 126. Siehe dazu etwa Walther Killy: Der Helian-Komplex in Trakls Nachlaß mit einem Abdruck der Texte und einigen editorischen Erwägungen. In: Euphorion 53, 1959, S. 380–418, hier S. 408; auszugsweise wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 215–219, hier S. 216f. – Jonas Fränkel: Zum Problem der Wiedergabe von Lesarten. In: Euphorion 53, 1959, S. 419–421, hier S. 421; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 220–222, hier S. 222. – Kraft 2001 (Anm. 36), S. 117; so auch in der ersten Aufl.: Herbert Kraft: Editionsphilologie. Mit Beiträgen von Jürgen Gregolin, Wilhelm Ott und Gert Vonhoff. Unter Mitarbeit von Michael Billmann. Darmstadt 1990, S. 150. Zeller 1958 (Anm. 48), S. 360; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 198. – Hans Zeller: Befund und Deutung. Interpretation und Dokumentation als Ziel und Methode der Edition. In: Texte und Varianten 1971 (Anm. 5), S. 45–89, hier S. 80. Friedrich Hölderlin: Sämtliche Werke. ‚Frankfurter Ausgabe‘. Historisch-Kritische Ausgabe. Hrsg. von D.E. Sattler. Frankfurt/Main [seit 1985: Basel, Frankfurt/Main] 1975–2008; zum Ziel der Überprüfbarkeit siehe ebd. den Band: Einleitung. Frankfurt/Main 1975, S. 18, und Wolfram Groddeck, D.E. Sattler: Frankfurter Hölderlin-Ausgabe. Vorläufiger Editionsbericht. In: Le pauvre Holterling. Blätter zur Frankfurter Hölderlin-Ausgabe 2, 1977, S. 5–19, hier S. 7.

Textgenese analog und digital: Ziele, Standards, Probleme

15

dem Jahr 2000 wieder aufgenommen worden. 54 Durch dieses Verfahren wurde zugleich das ehemalige Ziel der Handschriftenrekonstruktion durch typografische Annotierung hinfällig, weil es nun durch die viel präzisere Abbildung ersetzt war. Weder das Ziel der Rekonstruktion noch das der Überprüfbarkeit sind jedoch ein spezifischer Teil des textgenetischen Grundinteresses. Überprüfbarkeit betrifft sämtliche editorischen Entscheidungen, und Rekonstruktion bzw. Abbildung gehören zum archivalisch orientierten Teil der Edition. Dies zeigt schon die Vorlagerung von Faksimile und Transkription vor die textgenetische Darstellung in den genannten Editionen. Letztlich repräsentiert das Konzept der „Faksimile-Ausgabe als Grundlagenedition für Philologie und Textgenetik“ – so Hans Zeller 1998 – auch die editorische Auftrennung von ‚Befund‘ und ‚Deutung‘; die genetische Darstellung soll dann nach Zeller konsequenterweise in der historisch-kritischen Ausgabe ihren Platz finden, nicht in der mit Faksimile und Transkription als Dokumentation von Spatialität und materialen Schreibspuren der Handschrift ausgestatteten ‚Grundlagenedition‘, deren Konzept Klaus Kanzog schon 1970 unter dem Begriff der ‚Archivausgabe‘ entworfen hatte. 55 Durch sie ist zugleich eine sehr weit reichende Überprüfbarkeit der textgenetischen Darstellung gegeben. Nach den Voraussetzungen und den textgenetischen Kernen ist auf ein Feld der Standards textgenetischer Darstellungen noch der Blick zu werfen, nämlich das der benutzerfreundlichen Rezeptionsmöglichkeit. Friedrich Beißner hatte dieses Anliegen 1964 unter das Stichwort der ‚Lesbaren Varianten‘ gestellt. 56 Es ist deshalb in Anschlag zu bringen, weil die Klage über die – tatsächliche oder vermeintliche – Unzugänglichkeit der Textgenese in den Editionen im Urteil über die „Lesartenlabyrinthe“ als „gigantischen Friedhöfen, in die sich nur wenige Besucher verirren“ 57, nicht nur schon topisch ist, sondern eine neuere empirische Untersuchung die sehr geringe Nutzung der

–––––––– 54

55

56

57

Georg Büchner: Sämtliche Werke und Schriften. Historisch-kritische Ausgabe mit Quellendokumentation und Kommentar (Marburger Ausgabe). Im Auftrag der Akademie der Wissenschaften und der Literatur Mainz hrsg. von Burghard Dedner, mitbegründet von Thomas Michael Mayer. Darmstadt 2000– 2013. Hans Zeller: Die Faksimile-Ausgabe als Grundlagenedition für Philologie und Textgenetik. Ein Vorschlag. In: Textgenetische Edition 1998 (Anm. 6), S. 80–100, hier bes. S. 89–91. – Klaus Kanzog: Prolegomena zu einer historisch-kritischen Ausgabe der Werke Heinrich von Kleists. Theorie und Praxis einer modernen Klassiker-Edition. München 1970, S. 14–29; wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 335–344. Friedrich Beißner: Lesbare Varianten. Die Entstehung einiger Verse in Heines ‚Atta Troll‘. In: Festschrift Josef Quint anläßlich seines 65. Geburtstages überreicht. Hrsg. von Hugo Moser, Rudolf Schützeichel und Karl Stackmann. Bonn 1964, S. 15–23. – Siehe schon Dietrich Germann: Zu Fragen der Darbietung von Lesarten in den Ausgaben neuerer Dichter. In: Weimarer Beiträge 1962, S. 168–188, hier S. 184; auszugsweise wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 235–242, hier S. 238: „Es ist vielmehr die Aufgabe des Editors neuerer Schule, den Apparat lesbar zu machen oder so zu gestalten, daß seine zeitraubende, entbehrungsreiche Arbeit nicht unbeachtet bleibt, mithin das Lesartenverzeichnis überhaupt gelesen wird.“ Helmut Koopmann: Für eine argumentative Edition. Probleme der Kommentierung am Beispiel der Philosophischen Schriften Schillers und Eichendorffs „Ahnung und Gegenwart“. In: Edition et Manuscrits. Probleme der Prosa-Edition. Akten des mit Unterstützung des Centre National de la Recherche Scientifique und der Deutschen Forschungsgemeinschaft veranstalteten französisch-deutschen Editorenkolloquiums Paris 1983. Hrsg. von Michael Werner und Winfried Woesler. Bern u. a. 1987 (Jahrbuch für Internationale Germanistik. Reihe A: Kongressberichte. 19), S. 45–57, hier S. 46.

16

Rüdiger Nutt-Kofoth

textgenetischen Darstellungen durch die literaturwissenschaftlichen Interpreten bestätigt hat.58 Unter den wirklich textgenetischen Darstellungsmöglichkeiten, 59 zu denen durch seine Zerlegung in Einzelstellenabweichungen der lemmatisierte Einzelstellenapparat gerade nicht gehört, hat sich der Einblendungsapparat als der in der Buchedition am wenigsten erfolgreiche Typus erwiesen. Da er Textstadien ineinanderschiebt und zudem etwas entfernter positionierte zusammenhängende Änderungen nicht gut in einen leicht fasslichen Zusammenhang bringen kann, ermöglicht er kaum eine einfache, Textstadien als separate Einheiten wahrnehmbare Lektüre. Sein Manko ist die strikte Linearität der Darstellung. Klaus Hurlebusch hat das Anliegen, „deskriptive Genauigkeit mit Lesbarkeit“ zu verbinden, als „Quadratur des Kreises“ bezeichnet. 60 Dennoch waren vor allem zwei Modelle erfolgreich, die die typografisch gestaltete Räumlichkeit der Buchseite nutzten, um über Visualisierung Informationen mitzutransportieren und so leichter fasslich zu machen:61 der Stufenapparat und der synoptische Apparat. Der von Hans Zeller entworfene synoptische Apparat 62 ist ohne die Verzeichnung von Variantenpositionen, also ohne den Teil der werkmaterialen Rückbindung, zum hocherfolgreichen Modell textgenetischer Verzeichnung avanciert. Seine Vorteile liegen in der gleichzeitigen syntagmatischen und paradigmatischen Sicht auf den Werktext und der verzeichnungstechnischen Unabhängigkeit von einem edierten Text als Bezugstext, die etwa seine Verwendung in rein textgenetischen Ausgaben nahelegte, also solchen, die keinen Lesetext mehr konstituieren – so die Heym- und die Innsbrucker Trakl-Ausgabe. Den Nachteil der zeilen- bzw. versbezogenen Darstellung hatte Zeller durch die Einführung von Verbandssiglen aufzuheben versucht, doch wird man sagen müssen, dass eine Erschwerung der Rezeption von über die Zeilengrenze verlaufenden zusammenhängenden Änderungen im System begründet liegt. In der editionswissenschaftlichen Diskussion ist – vielleicht auch durch die Zahl und Dominanz der von Zeller verfassten Beiträge zu den textgenetischen Darstellungsverfahren – das Modell des Stufenapparats weitgehend unterschätzt worden. Das hat natürlich auch mit den frühen Kritiken an dem Modell in der ursprünglichen Form nach Friedrich Beißner zu tun, vor allem den Einschränkungen bei der Befundsgenauigkeit

–––––––– 58

59

60 61

62

Rüdiger Nutt-Kofoth: Wie werden neugermanistische (historisch-)kritische Editionen für die literaturwissenschaftliche Interpretation genutzt? Versuch einer Annäherung aufgrund einer Auswertung germanistischer Periodika. In: Vom Nutzen der Editionen. Zur Bedeutung moderner Editorik für die Erforschung von Literatur- und Kulturgeschichte. Hrsg. von Thomas Bein. Berlin, Boston 2015 (Beihefte zu editio. 39), S. 233–245. Überblicke und Bewertungen bei Zeller 1986 (Anm. 3). – Siegfried Scheibe: Editorische Grundmodelle. In: Zu Werk und Text. Beiträge zur Textologie. Hrsg. von Siegfried Scheibe und Christel Laufer (Redaktion). Berlin 1991, S. 23–48, hier S. 32–48. – Zeller 2003 (Anm. 7), S. 152–178 und 194–207. Hurlebusch 1998 (Anm. 12), S. 48. Vgl. Rüdiger Nutt-Kofoth: Typographie als Informationssystem. Zum Layout der neugermanistischen Edition. In: Typographie & Literatur. Hrsg. von Rainer Falk und Thomas Rahn. Frankfurt/Main, Basel 2016 (Text. Kritische Beiträge. Sonderheft), S. 349–368. Siehe auch Hans Zeller: Die synoptisch-textgenetische Darstellung. Dafür und dawider. In: editio 10, 1996, S. 99–115. – Ein Vorläufer findet sich bei Kurt Schmidt: Die Entwicklung der Grimmschen Kinderund Hausmärchen seit der Urhandschrift. Nebst einem kritischen Texte der in die Drucke übergegangenen Stücke. Halle/Saale 1932 (Hermaea. 30); ein Auszug wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 140f.

Textgenese analog und digital: Ziele, Standards, Probleme

17

und ganz besonders wegen der nur auf die Endfassung einer Textstufe ausgerichteten Darstellung, die im Sinne von Beißners Formel des ‚idealen Wachstums‘63 die realen Zwischenstufen unterschlug. 64 Das wesentlichste Dilemma, in Zellers Vorwurf gegen das Modell als Darstellung von „Variantenparadigmen ohne erkennbare Syntagmen“ 65 1986 prägnant ausgesprochen, ist allerdings durch weitreichende Modifikationen des Modells vollständig ausgeräumt – insbesondere durch jene, die Winfried Woesler im Kontext der Droste-Ausgabe seit den späten 1960er Jahren vorgenommen hat. 66 Wenn es aufgrund der Editionskonzeption durch die Ausgaben, die es verwenden, auch nicht erprobt wurde, so ist das modifizierte Stufenmodell im Prinzip ebenfalls in der Lage, unabhängig von einem Bezugstext genutzt zu werden. Gegenüber dem synoptischen Modell hat das Stufenmodell den Vorteil, zeilen- bzw. versübergreifende Änderungen im Zusammenhang darzustellen und damit direkt rezipierbar zu machen, da es darstellungstechnisch nicht zeilengebunden ist. Ein Nachteil kann sein, dass bei komplexen Änderungen über viele Zeilen die einzelnen textuellen Austauschelemente nicht auf einen Blick rezipierbar sind, sondern die Augen des Benutzers etwas weiter wandern müssen, als dies beim synoptischen Modell der Fall ist. Gleichwohl ist die Tatsache des Austausches im bucheditorischen Anwendungsfall der Droste-Ausgabe durch unterschiedliche Schriftgrößen angezeigt. Näher als das synoptische Modell kommt das modifizierte Stufenmodell jedenfalls dem Ziel der Lesbarkeit der Textsyntagmen bei textuellen Änderungen.

Warum denn so Textgenese? Zu textgenetischen Darstellungen im digitalen Medium Folgende Kriterien und Charakteristika lassen sich aus den angeführten Überlegungen knapp als Leitlinien textgenetischer Darstellungen auch für die digitale Edition zusammenfassen:

–––––––– 63

64

65 66

Friedrich Beißner: Aus der Werkstatt der Stuttgarter Hölderlin-Ausgabe. In: Beißner 1969 (Anm. 35), S. 251–265 und 283–285, hier S. 260; wiederholt in Friedrich Beißner: Editionsmethoden der neueren deutschen Philologie. In: Zeitschrift für deutsche Philologie 83, 1964, Sonderheft zur Tagung der deut schen Hochschulgermanisten vom 27. bis 31. Oktober 1963 in Bonn, S. 72–95, hier S. 81, wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 252–272, hier S. 260. Zur Grundlegung von Beißners Verfahren und zur Kritik vgl. den Überblick bei Rüdiger Nutt-Kofoth: Friedrich Beißner. Edition und Interpretation zwischen Positivismus, Geistesgeschichte und Textimmanenz. In: Neugermanistische Editoren im Wissenschaftskontext. Biografische, institutionelle, intellektuelle Rahmen in der Geschichte wissenschaftlicher Ausgaben neuerer deutschsprachiger Autoren. Hrsg. von Roland S. Kamzelak, Rüdiger Nutt-Kofoth und Bodo Plachta. Berlin, Boston 2011 (Bausteine zur Geschichte der Edition. 3), S. 191–217, hier S. 196–199 und S. 208–211. Zeller 1986 (Anm. 3), S. 48. Annette von Droste-Hülshoff: Historisch-kritische Ausgabe. Werke, Briefwechsel. Hrsg. von Winfried Woesler. 14 Bde. in 28. Tübingen 1978–2000. – Das Modell wurde zuerst vorgestellt in Winfried Woesler: Probleme der Editionstechnik. Überlegungen anläßlich der neuen kritischen Ausgabe des ‚Geistlichen Jahres‘ der Annette von Droste-Hülshoff. Münster 1967; auszugsweise wiederabgedruckt in Dokumente 2005 (Anm. 4), S. 321–333. – Bodo Plachta: Editorischer Pragmatismus. Zum Verfahren der genetischen Variantendarstellung in der Historisch-kritischen Droste-Ausgabe. In: Textgenetische Edition 1998 (Anm. 6), S. 233–249.

18

Rüdiger Nutt-Kofoth





– –

Bei Textgenese handelt es sich im Kern um textuelle Transformationen (Textbildungs- und -umbildungsprozesse), deren Resultate unterschiedliche Textstadien repräsentieren und nach Änderungsarten/Änderungsakten klassifizierbar sind. Die Darstellung der grafischen Realisierung von Änderungsakten, also der Schreibakte, zielt primär auf das Schreiben des empirischen Autors sowie auf das Interesse für Schreibverfahren und bildet – im Gegensatz zu den Änderungsakten – nur einen Nebenaspekt der eigentlichen Textgenese. Textgenese ist zu trennen von archivalisch orientierten, das Manuskript (also Textträger und Schrift) repräsentierenden Darstellungen (Faksimile und Transkription). Textgenese soll eingängig rezipierbar für den Benutzer aufbereitet sein.

Daher ist auch festzuhalten, dass der in jüngerer Zeit in die Editionswissenschaft eingezogene erweiterte Textbegriff – als Differenzierung in abstrakten Text, materialen Text und medialen Text 67 – natürlich seine Berechtigung hat und an ihn unterschiedliche Interessen der Literaturwissenschaft anschließen können. Die Edition muss also den erweiterten Textbegriff berücksichtigen, etwa bei der Repräsentation der Originale (als Faksimiles) oder des Textbestands in seiner spatialen Ordnung des Originals (als diplomatischer Transkription) oder bei der Textkonstitution (als Repräsentation von visuell – etwa über Raumgestaltung oder Typografie erzeugten – Werkstrukturen des Manuskripts oder des Drucks). Für den editorischen Bereich der Textgenese spielen der materiale und der mediale Textbegriff aber nur insoweit eine Rolle, als sie spezifische Ergebnisse der Texttransformationen verursachen, folglich neue Textstadien durch sie nachhaltig bedingt sind. Die wesentliche Aufgabe der textgenetischen Darstellung ist es somit, unter Verdeutlichung der traditionellen Änderungsoperationen Hinzufügung, Wegnahme, Umstellung und Auswechslung Textstadien in weitestmöglich ermittelbaren Relationen aufzubereiten. Wie zeigen neuere digitale Editionen nun aber die Textgenese an? Im Bereich der Makrogenese dürften bisher die Vorteile des digitalen Darstellungsmediums besonders gut sichtbar geworden sein. Hier können Visualisierungen, vor allem als Grafiken, mit den entsprechenden Verlinkungen zu Faksimiles, Umschriften und Lesetextangeboten besonders viele Überblicksinformationen präsentieren und verknüpfen. Im Bereich der Mikrogenese, also der kleineren Änderungseinheiten, dem bisherigen Schwerpunkt der Buchedition, sieht das allerdings anders aus. Dies sei an zwei Beispielen erörtert, deren Bildmaterial als Abb. 1–7 unter http://aau.at/musil/publikationen/textgenese/nuttkofoth/ abrufbar ist.

–––––––– 67

Vgl. Wolfgang Lukas, Rüdiger Nutt-Kofoth, Madleen Podewski: Zur Bedeutung von Materialität und Medialität für Edition und Interpretation. Eine Einführung. In: Text – Material – Medium 2014 (Anm. 17), S. 1–22.

Textgenese analog und digital: Ziele, Standards, Probleme

19

Beispiel 1: Digitale Faust-Edition68 – Schlussszene Bergschluchten in Faust II (Abb. 1–5) Abb. 1 und 2: Makrogenetische Übersichten zur Aktentstehung oder zum Verstextbestand der verschiedenen Textträger einer Szene vermitteln mit Grafiken und Diagrammen hilfreich verlinkte Überblicksinformationen. Abb. 3–5: Die Darstellung der Mikrogenese sei an Vers 11940f. der BergschluchtenSzene demonstriert. Für diese Verse weist die Handschrift 2 V H.33 eine versübergreifende zusammenhängende Änderung auf. Die zum Faksimile aufrufbare ‚dokumentarische Transkription‘ funktioniert als mimetische Textraumnachbildung der Handschrift (Abb. 3), die ‚textuelle Transkription‘ ist nach dem Muster des Einblendungsapparats der Goethe-Akademie-Ausgabe organisiert (Abb. 4). 69 Die Darstellung separiert die zusammenhängende Änderung in unzusammenhängende Einzeländerungen. In einer Mouse-Over-Anzeige wird die Bedeutung der durch Zeichen angezeigten Änderung noch einmal in eine verbalisierte Darstellung der Einzelstellenänderungen, wie sie ältere Ausgaben des 19. und des frühen 20. Jahrhunderts verwendeten, übersetzt – wohl, damit auch Zeichenunkundige schnell Zugang finden. Die Ansicht ‚Variantenapparat‘ (Abb. 5) zeigt dann die Varianten eines jeden Textträgers nur verszeilenbezogen an, kann also für die zeilenübergreifende Änderung auch keine differenziertere Darstellung liefern. Dass es sich an der dargestellten Stelle nicht um drei verschiedene Änderungen, sondern bloß um eine einzige handelt, macht keine der verschiedenen Ansichten der digitalen Faust-Edition deutlich. Die avancierten Modelle der Buchedition, der Stufenapparat und der synoptische Apparat, können das hingegen leicht und eingängig anzeigen. Das sähe dann so aus: Stufenmodell nach Woesler (eckige Klammern zeigen Tilgungen an, die kleinere Schrifttype zeigt in der Handschrift nicht erneut niedergeschriebenen, aus der vorherigen Textstufe übernommenen Text an): 11940f. (1) [Er wandelt] [mit der] selige[n] Schar [Und bildet sich vo]llkommen. Mit1 herzlichem 1 (a) Mit herzlichem (b) wohl Textabbruch und Übergang zu Textstufe (2) (2) Begegnet ihm die selige Schar Mit herzlichem Willkommen. Synoptisches Modell nach Zeller ohne Positionsangaben (eckige Klammern zeigen Tilgungen an, kursive eckige Klammern solche, mit denen der Editor eine vom Autor

–––––––– 68

69

Johann Wolfgang Goethe: Faust. Historisch-kritische Edition. Hrsg. von Anne Bohnenkamp, Silke Henke und Fotis Jannidis unter Mitarbeit von Gerrit Brüning, Katrin Henzel, Christoph Leijser, Gregor Middell, Dietmar Pravida, Thorsten Vitt und Moritz Wissenbach. Frankfurt/Main, Weimar, Würzburg 2016, www.faustedition.net (Abruf 01.12.2018). – Abruf aller anderen URL-Angaben in diesem Beitrag am 14.08.2018. Werke Goethes. Hrsg. von der Deutschen Akademie der Wissenschaften zu Berlin. Berlin 1952–1966, abgebrochen, danach einige weitere Bände als Einzelausgaben.

20

Rüdiger Nutt-Kofoth

unterlassene Tilgung markiert, fetter Text verweist auf die letzte Stufe des Verses, griechische Buchstaben vor dem Vers siglieren einen versübergreifenden Verband, der zusammen zu dem mit dem griechischen Folgebuchstaben bezeichneten zweiten Verband geändert wurde): 11940

α β 11941 α β 11941a α β

[Er wandelt] [mit der] selige[n] Schar Begegnet ihm die [Und bildet sich vo]llkommen. Mit herzlichem Wi [Mit herzlichem] ↯

Eine vielleicht nicht zu aufwendig nacharbeitbare Lösung zur Anzeige zusammengehöriger Änderungen wäre im vorhandenen Modell der Faust-Edition, mit unterschiedlichen Textfarben die beiden Stufen zu differenzieren und/oder eventuell ein- und ausblendbar darzustellen. Die Verzeichnung der Mikrogenese ist aber auch bei anderen digitalen Editionen literarischer Texte ein Problem. Beispiel 2: Koeppen, Jugend-Edition70 (Abb. 6 und 7) Abb. 6: Ein Beispiel aus dem Textträger MID355-M028-042 der Sequenz 4 zeigt, dass die grundsätzliche, aber doch eher grobe Differenzierung von Grundzustand und Endzustand, die die Jugend-Edition als Sichten anzeigt und die im Regelfall aus der Schicht-Differenzierung zwischen Maschinenschrift und handschriftlichen Änderungen Koeppens gewonnen ist, nur einzelstellenbezogene, nicht aber zusammenhängende Änderungen ausweist, etwa beim einfachen wechselseitigen Austauschprozess von „Geruch“ und „Dunst“, der als solcher nicht angezeigt ist. Abb. 7: Auch dass „der das Kohlenkontor hatte“ eine zusammenhängende Änderung zu „der mit Kohlen handelte“ bildet, wird durch die wortsegmentierte Darstellung mit eingeblendeten Streichungen „der das mit Kohlenkontor hatte handelte“ gerade nicht deutlich gemacht und in der schichtendifferenzierenden Sicht von ‚Grundzustand ohne Korrekturen‘ und ‚Endzustand ohne Korrekturen‘ nur zufällig deutlich, weil die Wörter direkt nebeneinanderstehen. Ein kurzes Fazit: Digitale Editionen scheinen bisher stark in der Präsentation archivalischer Befunde in unterschiedlichen Ansichten und der Verknüpfung mit bestimmten textuellen Angeboten zu sein (Faksimiles, Transkriptionen – auch in Überblendung des Schriftbildes im Faksimile, Lesetexte, Variantenlistungen). Gleichfalls gelingen makrogenetische Überblicke durch grafische Visualisierungen (Diagramme) und Verknüpfungen mit leichterer Benutzerführung als in der Buchedition. Das Feld der Mikrogenese, in dem die Buchedition große Erfolge vorzuweisen hat, wird bisher jedoch von

–––––––– 70

Wolfgang Koeppen: Jugend. Textgenetische Edition. Hrsg. von Katharina Krüger, Elisabetta Mengaldo und Eckhard Schumacher. 2017, http://www.koeppen-jugend.de/.

Textgenese analog und digital: Ziele, Standards, Probleme

21

der digitalen Edition unzureichend bedient, sowohl in Hinblick auf kleinere Änderungseinheiten als auch in Hinblick auf ihre Bezüge zu anderen Änderungseinheiten, also in Backmanns Begrifflichkeit in Hinblick auf die absolute und die relative Chronologie. Erst recht ist die Darstellung einer Gesamtgenese – nach Boetius die ‚relative Chronologie total‘ – noch gar nicht erprobt, allerdings wohl auch nur bei ganz klaren materialen Befunden herstellbar. Ob eine zeichengenaue Visualisierung der grafischen Beschriftungsabfolge, die als ein Ziel des digitalen Edierens für die ‚critique génétique‘ ausgegeben wurde, 71 realisierbar ist, sei dahingestellt; immerhin wäre dadurch eine Koppelung von archivalischer und wirklich textgenetischer Darstellung vorstellbar. Zunächst aber scheint mir, dass schon viel erreicht wäre, wenn die digitale Edition im Bereich der Mikrogenese die in der Buchedition erarbeiteten Standards einholen könnte. Nur so kann der Blick auf die von Hans Joachim Kreutzer schon 1976 angemahnte „poetologische Fragestellung“ 72 für die Textgenese freigemacht werden, und nur dann kann hermeneutisch-interpretativ fruchtbar werden, was Beda Allemann entworfen hatte. Das Zitat sei daher als uneingelöste Aufgabe für die Digitale Editionswissenschaft wiederholt und nun mit seinem Abschlusssatz noch einmal zitiert: [Die Textgenetik] muß über die Semantik einzelner Wörter und Wendungen und jener ihres ‚Ersatzes‘ im Laufe des poetischen Arbeitsprozesses hinaus vordringen in jene Dimension der strukturellen Bezüge und ihrer Verschiebung im Prozeß der Artikulation [...]. / Erst dann werden neuphilologische Apparate einen wirklichen Sinn hergeben. 73

–––––––– 71

72

73

Vgl. Grésillon 2016 (Anm. 45), S. 14: „Es gilt, den Schreibprozess in eine Art Zeichentrickfilm zu verwandeln, der jede Bewegung der Hand als nachgespielte Partie simuliert“. – Siehe auch Hermann Zwerschina: Variantenverzeichnung, Arbeitsweise des Autors und Darstellung der Textgenese. In: Text und Edition 2000 (Anm. 40), S. 203–229, hier S. 214f. zum Ziel der Innsbrucker Trakl-Ausgabe: „den Arbeitsprozeß des Autors wiederzugeben, zu rekonstruieren, wie sich das leere Blatt, das der Autor zuerst vor sich hatte, nach und nach mit Zeichen füllte.“ – Scheibe, Arbeitsweise des Autors als Grundkategorie 1998 (Anm. 32), S. 22: „wichtigste Aufgabe des Editors ist es ja, eine vielkorrigierte Handschrift zunächst als unbeschriebenes Blatt sehen zu können und dann auf ihr die nacheinander niedergeschriebenen Textpartien in ihrer Entstehung, also in ihrer zeitlichen Aufeinanderfolge, erkennen zu können“. Hans Joachim Kreutzer: Überlieferung und Edition. Textkritische und editorische Probleme, dargestellt am Beispiel einer historisch-kritischen Kleist-Ausgabe. Mit einem Beitrag von Klaus Kanzog. Heidelberg 1976 (Beihefte zum Euphorion. 7), S. 17. Allemann in Bücher 1994 (Anm. 37), S. 334.

Wolfgang Lukas

Archiv – Text – Zeit Überlegungen zur Modellierung und Visualisierung von Textgenese im analogen und digitalen Medium

Was für die Textkonstitution zutrifft – nämlich dass sie stets auch ein Konstrukt des Editors auf der Basis bestimmter Prämissen, u. a. der jeweiligen Begriffe vom ‚Text‘ oder vom ‚Textfehler‘, darstellt –, gilt a fortiori für die editorische Darstellung der Textgenese. 1 Es ist, daran haben u. a. Daniel Ferrer und Axel Gellhaus eindringlich erinnert,2 ein Akt der gezielten Modellbildung, und je nach dem zugrundegelegten Konzept von Genese – z. B. ob sie teleologisch als „ideales Wachstum“ (sensu Friedrich Beißner) gedacht wird oder aber rein chronologisch als Transformationsprozess verschiedener Systemzustände (sensu Hans Zeller) – ist das Ergebnis ein anderes. Die Diskussionen speziell über letzteren Aspekt sind bekannt, 3 und ich will mich im Folgenden stattdessen mit einigen elementaren logischen Aspekten der aposteriorischen Modellierung von Textbildungsprozessen befassen. Denn jede solche Konstruktion muss prinzipiell, d. h. zunächst ganz unabhängig vom Zielmedium der Repräsentation (analog vs. digital), die folgenden drei Größen systematisch und logisch konsistent in Beziehung

–––––––– 1 2

3

Die digitale Präsentation zu den Abb. dieses Beitrags ist zu finden unter http://aau.at/musil/publikatio nen/textgenese/lukas/. Daniel Ferrer: La modélisation en critique génétique. In: L’Œuvre comme processus. Hrsg. von PierreMarc de Biasi und Anne Herschberg Pierrot. Paris 2017 [Actes du Congrès mondial de critique génétique, Cerisy-la-Salle, 2–9 sept. 2010], S. 19–22 und Axel Gellhaus: Textgenese zwischen Poetologie und Editionstechnik. In: Die Genese literarischer Texte. Modelle und Analysen. Hrsg. von A. G., Winfried Eckel, Diethalm Kaiser, Andreas Lohr-Jasperneite und Niklaus Lohse. Würzburg 1994, S. 311–326. Die Unhintergehbarkeit konstruktiver Operationen gilt allerdings grundsätzlich und unabhängig davon, ob, wie von Gellhaus gefordert, bereits ein bewusstes, hermeneutisch-analytisches Vorverständnis des betreffenden Textes gegeben ist. Siehe u. a. Friedrich Beißner: Editionsmethoden der neueren deutschen Philologie. (1964). Wiederabdruck in: Dokumente zur Geschichte der neugermanistischen Edition. Hrsg. von Rüdiger Nutt-Kofoth. Tübingen 2005 (Bausteine zur Geschichte der Edition. 1), S. 252–278; Hans Zeller: Die Entwicklung der textgenetischen Edition im 20. Jahrhundert. In: Geschichte der Editionsverfahren vom Altertum bis zur Gegenwart im Überblick. Hrsg. von Hans-Gert Roloff. Berlin 2003 (Berliner Beiträge zur Editionswissenschaft. 5), S. 143–207, hier S. 152–158; ders.: Fünfzig Jahre neugermanistischer Edition. Zur Geschichte und künftigen Aufgaben der Textologie. In: editio 3, 1989, S. 1–17; Rüdiger Nutt-Kofoth: Meyer-Editionen. In: Editionen zu deutschsprachigen Autoren als Spiegel der Editionsgeschichte. Hrsg. von R. N.-K. und Bodo Plachta. Tübingen 2005 (Bausteine zur Geschichte der Edition. 2), S. 361–386, hier S. 371–376; ders.: Zur Terminologie des textgenetischen Feldes. In: editio 30, 2016, S. 34–52, hier S. 41; Klaus Hurlebusch: Ein großer Philologe. Hans Zeller zum achtzigsten Geburtstag. (2008) Wiederabdruck in: ders.: Buchstabe und Geist, Geist und Buchstabe. Arbeiten zur Editionsphilologie. Frankf. a. M. 2010 (Hamburger Beiträge zur Germanistik. 50), S. 164–201; Gunter Martens: Fruchtbarer Eigen-Sinn. Zum Tode des Editionsphilologen Hans Zeller. In: Text. Kritische Beiträge 15, 2016, S. 107– 119.

https://doi.org/10.1515/9783110575996-003

24

Wolfgang Lukas

zueinander setzen: das ‚Archiv‘ – eine Menge von überlieferten Textträgern (Dokumenten) –, die ‚Zeit‘ – eine Menge von gegebenen bzw. rekonstruierten (punktuellen oder durativen) temporalen Einheiten – und das ‚Werk‘ – d. h. in diesem Kontext eine Menge von Texten bzw. Textausschnitten (unterschiedlicher Extension).

Textdynamik und die ‚Ideologie der Unmittelbarkeit‘ Die Textgenese hat in der neueren Geschichte der Editionsphilologie bzw -wissenschaft, die wir in etwa ab dem letzten Drittel des 20. Jahrhunderts einsetzen lassen können, bekanntlich in dem Maße eine beherrschende Stellung in editorischer Theorie und Praxis erlangt, wie sich zugleich ein Wandel des Textbegriffs vollzog: vom statischen, fixierten und stabilen Text hin zu einem ‚dynamischen‘, im Prozess befindlichen und instabilen Text. Diese ‚Dynamisierung‘ als Resultat einer Veränderung des Blickwinkels geht dabei notwendig mit einer Pluralisierung und Enthierarchisierung einher, insofern die verschiedenen handschriftlich überlieferten genetischen Vorstufen und Fassungen eines Werks – der ‚Avant-texte‘ in der Terminologie der critique génétique – gegenüber dem (auf der Basis eines Druckes konstituierten) ‚Edierten Text‘ als dem finalen Resultat dieses genetischen Prozesses einen Eigenwert erlangt haben. Eine analoge Entwicklung vollzog sich in der mediävistischen Editionsphilologie mit dem Konzept des ‚unfesten Textes‘ und der von der New Philology propagierten Aufwertung der Überlieferungsvarianz auf Kosten des ‚einen‘ Archetypen. 4 Die in der Neuphilologie – qua Entstehungsvarianz – und die in der Mediävistik – qua Überlieferungsvarianz – bedingte Text-Pluralisierung und -Dynamisierung stellen wissenschaftsgeschichtlich zwei kookkurrente Phänomene dar. Ihren Höhepunkt erreichte diese Entwicklung da, wo (in der Neuphilologie) auf die (Neu-)Konstitution eines edierten Textes programmatisch verzichtet wurde, so insbesondere in der französischen critique génétique, aber auch in einigen (wenigen) herausragenden Editionen des deutschsprachigen historisch-kritischen Paradigmas,5 die, wie etwa die Heym- oder Trakl-Edition, dominant prozessual orientiert sind und sich auf die chronologisch geordnete Wiedergabe aller rekonstruierbaren genetischen ‚Textstufen‘ beschränken. 6

–––––––– 4

5

6

Vgl. Joachim Bumke: Der unfeste Text. Überlegungen zur Überlieferungsgeschichte und Textkritik der höfischen Epik im 13. Jahrhundert. In: ‚Aufführung‘ und ‚Schrift‘ im Mittelalter und Früher Neuzeit. Hrsg. von Jan-Dirk Müller. Stuttgart u. a. 1996, S. 118–129; Bernard Cerquiglini: Eloge de la variante. Histoire critique de la philologie. Paris 1989. Wissenschaftsgeschichtlich gesehen wird man wohl auch die ‚genetischen‘ bzw. ‚genetisch-kritischen‘ (vgl. etwa die digitale genetisch-kritische Edition der Fontaneschen Notizbücher. Hrsg. von Gabriele Radecke (https://fontane-nb.dariah.eu/index.html) Editionen letztlich zu diesem Paradigma zählen dürfen, welches – im deutschsprachigen Raum – die textgenetische Editorik ja überhaupt erst hervorgebracht hat. Einige aktuelle Differenzierungsversuche in der digitalen Editorik, die die (historisch-)kritische Tradition tendenziell auf das Ziel reduzieren, einen konstituierten (Lese-)Text zu edieren, vermögen nicht so recht zu überzeugen und scheinen sich mehr dem Bedürfnis nach Abgrenzung vom Buchparadigma zu verdanken, vgl. etwa Paolo D’Iorio: Die Schreib- und Gedankengänge des Wanderers. Eine digitale genetische Nietzsche-Edition. In: editio 31, 2017, S. 191–204. Zu dieser Diskussion s. a. Rüdiger NuttKofoth: Editorische Axiome. In: editio 26, 2012, S. 59–71, hier S. 66–68. Georg Heym: Gedichte 1910–1912. Histor.-krit. Ausgabe aller Texte in genetischer Darstellung. Hrsg. von Günter Dammann, Gunter Martens und Karl Ludwig Schneider. 2 Bde. Tübingen 1993; Georg Trakl:

Archiv – Text – Zeit

25

Almuth Grésillon hat diesen Paradigmenwechsel bündig auf den Punkt gebracht: Dieser neue Horizont setzt neue Prioritäten: die der Produktion gegenüber dem Produkt, des Schreibens gegenüber dem Geschriebenen, der Textualisierung gegenüber dem Text, des Vielfältigen gegenüber dem Einzigartigen, des Möglichen gegenüber dem Abgeschlossenen, des Virtuellen gegenüber dem ne varietur, des Dynamischen gegenüber dem Statischen, des Vollbringens gegenüber dem Vollbrachten, der Genese gegenüber der Struktur, der Äußerung gegenüber der Aussage, der bewegenden Kraft des Schreibens gegenüber der festgefrorenen Form des Gedruckten. 7

Insofern Dynamisierung und Prozessualisierung eine neue, enthierarchisierende Perspektive auf Fassungen und ‚Vorstufen‘ eröffnet und, in Korrelation hierzu, zu multiperspektivischen Wiedergabemodellen in der Editorik geführt haben, 8 haben sie damit unbestritten eine neue Etappe in der Editionswissenschaft herbeigeführt und die moderne Textgenetik überhaupt erst ermöglicht. In ihrem Gefolge transportieren sie allerdings über die genannten Aspekte hinausgehend weitere (ideo-)logische Implikationen von eher zweifelhafter Natur. Diese betreffen die Relation zwischen dem (rezipierenden) Subjekt – Editor zum einen, die Benutzer seines editorischen Produkts zum anderen – und dem (rezipierten) Objekt – primär der Text, sekundär dessen Schöpfer und Autor. Epistemisches Subjekt und Objekt, diese beiden im Akt der Rezeption bzw. der Erkenntnis involvierten Instanzen, sollen in eine qualitativ neuartige Relation zueinander gebracht werden: Distanz soll emphatisch beschworener Nähe und Unmittelbarkeit weichen. Grésillon spricht in diesem Zusammenhang von der: Leidenschaft, einem Text so nah wie möglich zu sein, da man ja gewissermaßen seiner Wieder-Geburt beiwohnt; die Leidenschaft, die Authentizität des Autographs sozusagen mit den Händen zu fassen und dem Akt der Einschreibung beizuwohnen; flüchtige und uneingestandene Leidenschaft, sich während des Hinabsteigens zu den Ursprüngen des Textes mit dessen Schöpfer zu identifizieren; Leidenschaft, in den verbotenen Raum der Kulissen einzudringen, und kriminalistisch angehauchte Lust, das Geheimnis der Herstellung zu enthüllen: Der Forscher wird auf der Hut sein müssen, um der Versuchung durch Psychologismus, Voyeurismus und Fetischismus zu widerstehen! 9

Auch da, wo dieser „Versuchung“ widerstanden wird, bleibt die Metaphorik, der man sich bedient, gleichwohl in höchstem Maße signifikant. Dies gilt bereits für die ‚Geburtsstunde‘ der textgenetischen Editorik avant la lettre, die im deutschsprachigen Raum bekanntlich Karl Goedekes Edition von Schillers Dramenfragment Demetrius im letzten Band (15.2) seiner historisch-kritischen Werkausgabe (1876), zugleich die erste

––––––––

7 8

9

Sämtliche Werke und Briefwechsel. Innsbrucker Ausg. Histor.-krit. Ausg. mit Faksimiles d. handschriftl. Texte. Hrsg. von Eberhard Sauermann und Hermann Zwerschina. 6 Bde. und 2 Suppl.bde. Basel, Frankf. a. M. 1995–2014. Almuth Grésillon: Literarische Handschriften. Einführung in die ‚critique génétique‘. Bern u. a. 1999 (Arbeiten zur Editionswissenschaft. 4), S. 15. Vgl. etwa das Modell einer ‚dynamischen Edition (!)‘, wie es Andrea Hofmeister vorgeschlagen hat: Das Konzept einer ‚Dynamischen Edition‘, dargestellt an der Erstausgabe des ‚Brixner Dommesnerbuches‘ von Veit Feichter (Mitte 16. Jh.). Theorie und praktische Umsetzung. Göppingen 2003. Grésillon 1999 (Anm. 7), S. 23.

26

Wolfgang Lukas

kritische Handschriften-Edition im Rahmen einer Werkausgabe, markiert.10 Die von Goedeke vorgenommene Temporalisierung, die im chronologischen Anordnungsprinzip seiner Ausgabe zum Ausdruck kommt, zielt noch nicht auf Textgenese im eigentlichen Sinn, sondern primär auf die gemäß historistischen Prämissen konzipierte Dimension der ‚Textgeschichte‘ des (gedruckten) Werks. Gleichwohl prägt bereits er anhand der Demetrius-Edition jenes Schlagwort vom Einblick in „die geheimste Gedankenwerkstatt“,11 das bis auf den heutigen Tag als Legitimation für textgenetische Editionen fungiert und den editorischen Akt – wie auch die Rezeption durch den Benutzer – wesentlich als Transgression definiert. Eine Grenzüberschreitung, die, indem sie in einen bislang verborgenen Intimraum eindringt, eine neuartige und privilegierte Erkenntnis verheißt und uns die tiefsten Geheimnisse der künstlerischen Schöpfung enthüllt. So feiert einige Jahrzehnte später Backmann, der „theoretische […] Begründer der modernen editionsphilologischen Textgenetik“12 in der deutschsprachigen Editorik, in seinem bedeutenden Artikel zur Neukonzeption des kritischen genetischen Apparats den neuen Blick folgendermaßen: Welch einzigartige Melodie von Entwicklung und Werden beginnt so zu tönen! […] Die geheimnisvollen Nebel des Chaos im Herzen des Dichters vor dem ersten göttlichen „Es werde Licht!“ beginnen sich zu lichten!13

Damit einher gehen eine spezifische Semantisierung und Hierarchisierung: Der „handschriftliche Nachlaß“, so Backmann, sei „stets wertvoller […] als die letzten bloßen Reindrucke seiner Werke“, weil der Autor in ihnen „sein wahres Gesicht“ zeige und „vor allem, weil das lebendige Werden stets tiefere Blicke tun läßt als das Gewordene, Erstarrte“.14 Die hier greifbare epochentypische ‚lebensideologische‘ Codierung, die das dynamisch Prozesshafte emphatisch mit ‚Wahrheit‘ und metaphorischem ‚Leben‘, das statische Resultat hingegen mit metaphorischem ‚Tod‘ und Avitalität korreliert, wird ähnlich deutlich auch beim Zeitgenossen Stefan Zweig, der seine Sammelleidenschaft für Autographen von Dichtern folgendermaßen begründet: Mir ist es hauptsächlich darum zu tun, von jedem schöpferischen Menschen wenigstens ein Schöpfungsdokument zu haben und zwar, wenn erreichbar, eines, das den genetischen Prozeß sehr charakteristisch zeigt und am allerliebsten eines, das in der Niederschrift das Wesen eines

–––––––– 10

11

12

13

14



Siehe hierzu u. a. Zeller 2003 (Anm. 3) und Rüdiger Nutt-Kofoth: Textgenese. Überlegungen zu Funktion und Perspektive eines editorischen Aufgabengebiets. In: Jb f. Internationale Germanistik XXXVII, 2005, H. 1, S. 97–122. Karl Goedeke: Vorwort zu Bd. 15,2 der hist.-krit. Schiller-Ausgabe (1876), wiederabgedr. in: NuttKofoth 2005 (Anm. 3), S. 30–32, hier S. 30f. Siehe hierzu auch: Bodo Plachta: Schiller-Editionen. In: Nutt-Kofoth, Plachta 2005 (Anm. 3), S. 389–402, hier S. 391–394. Klaus Hurlebusch: Den Autor besser verstehen: aus seiner Arbeitsweise. Prolegomenon zu einer Hermeneutik textgenetischen Schreibens. In: Textgenetische Edition. Hrsg. von Hans Zeller und Gunter Martens. Tübingen 1998 (Beihefte zu editio. 10), S. 7–51, hier S. 23. Reinhold Backmann: Die Gestaltung des Apparates in den kritischen Ausgaben neuerer deutscher Dichter. (Mit besonderer Berücksichtigung der großen Grillparzer-Ausgabe der Stadt Wien) (1924). Wiederabdr. in: Nutt-Kofoth 2005 (Anm. 3), S. 115–137, hier S. 128 (Hervorh. WL). Ebd., S. 125 (Hervorh. WL).

Archiv – Text – Zeit

27

repräsentativen Menschen in seinem allerrepräsentativsten Werke darstellt, […] immer also den Schöpfer womöglich im inspirierendsten und intensivsten Augenblick seines Daseins.“15

Kaum anders lesen wir, knapp 90 Jahre später, etwa auch bei Pierre-Marc de Biasi: La génétique du texte nous fait pénétrer dans le laboratoire de l’écrivain, dans l’espace intime d’une écriture qui se cherche. A la critique littéraire, la génétique apporte une foison de documents approximatifs et inachevés dans lesquels se donnent à voir, plus clairement que dans le texte, les secrets fondamentaux de l’œuvre et tous les rêves qui la traversent.16

Um Missverständnisse zu vermeiden: Es geht mir hier um eine im weitesten Sinne diskursanalytische Lektüre editorischer Begründungstexte, die ‚Ideologien‘ (im wertneutralen Sinn) und interdiskursive Kollektivsymboliken (sensu Jürgen Link)17 sichtbar machen will, was indes die wissenschaftliche Qualität der – theoretischen wie auch praktischen – Arbeiten der hier (stellvertretend) zitierten Autoren so gut wie nicht tangiert. Aus der historischen Epistemologie wissen wir, dass wissenschaftlicher Erkenntnisfortschritt durchaus auf der Basis von zeitgebundenen Prämissen und ‚Ideologien‘ entstehen kann, die wir heute nicht mehr teilen. Im vorliegenden Zusammenhang interessiert mich eine spezielle semantische Implikation, nämlich das Postulat bzw. die Verheißung des unmittelbaren Mitvollzugs des künstlerischen Schöpfungsaktes („Wieder-Geburt“) durch den Editor/Leser und die damit verbundene Suggestion einer Textgenese, die als prozessuales Kontinuum ‚erfahrbar‘ wäre. So formuliert de Biasi wiederum einschlägig: A travers les manuscrits, c’est bien de l’aventure littéraire elle-même que le généticien se rapproche au plus près, comme si l’encre de la chose écrite redevenait fluide sous ses yeux. 18

Ähnlich bereits Raymonde Debray Genette: Il ne s’agit pas seulement de laisser imprimer les traces ou les bavures préparatoires, mais de laisser sous les yeux et dans les oreilles du lecteur se produire, comme au spectacle, l’écriture. 19

Nun wissen hochreflexive Forscher wie de Biasi oder Debray Genette freilich selbst am besten, dass dies pure Fiktion und tropisch-uneigentliche Rede ist, und insofern mag es ein wenig wohlfeil erscheinen, hier Kritik zu üben. Angesichts der großen Beliebtheit und oftmals unreflektierten Verwendung derartiger Metaphoriken und Bildlichkeiten halte ich es gleichwohl für legitim und nützlich, sich Klarheit darüber zu verschaffen,

–––––––– 15

16 17 18 19

Stefan Zweig: Meine Autographensammlung, zit. bei Hurlebusch 2008/2010 (Anm. 3), S. 183, Anm. 55 (Hervorh. WL). Vgl. in diesem Zusammenhang auch die von Hurlebusch zitierte briefliche Äußerung C. F. Meyers: „Das Gethane ist für mich verblaßt, es ist nicht mehr ich. Nur das Werdende bin ich selber.“ (an François Wille, 5.12.1885, zit. S. 196). Pierre-Marc de Biasi: Génétique des textes. Paris 2011, S. 10 (Hervorh. WL). Axel Drews, Ute Gerhard, Jürgen Link: Moderne Kollektivsymbolik. Eine diskurstheoretisch orientierte Einführung mit Auswahlbibliographie. In: IASL 1985, 1. Sonderheft Forschungsreferate, S. 256–375. De Biasi 2011 (Anm. 16), S. 9. Raymonde Debray Genette: Métamorphoses du récit. Paris 1988, S. 22 (Hervorh. WL).

28

Wolfgang Lukas

was textgenetische Rekonstruktionen und Wiedergaben im Rahmen einer Edition überhaupt zu leisten vermögen – und was nämlich nicht. Eine der raren kritischen Stimmen ist die von Klaus Hurlebusch, der 2008 gegenüber Gunter Martens’ Konzept des ‚dynamischen Texts‘ bzw. der ‚Textdynamik‘ 20 eingewandt hat, hier handle es sich um eine „begriffliche[ ] Scheinaktualisierung[ ]“.21 Hurlebusch erkennt darin das Bedürfnis, „die Kluft der textgenetischen Philologie gegenüber dem Leser mit Hilfe einer theoretischen Scheinaktualisierung der Genese zu überbrücken“ bzw. gar den Versuch, den Leser „mit Vorgangsphantasmata als Anreize zur Lektüre textgenetischer Handschriftentranskriptionen […] zu ködern“.22 Auch hier gilt freilich, dass die Kritik allenfalls Martens’ Terminologie und gewisse damit verbundene theoretische Implikate,23 nicht indes die daraus gezogenen praktischen Konsequenzen in Gestalt der Heym-Edition trifft. Doch Hurlebusch ist darin recht zu geben, dass es einen ‚dynamischen‘ Text im wörtlichen Sinne aus logischen Gründen allenfalls für den Produzenten, nicht indes für uns Rezipienten geben kann. Der ‚Nachvollzug‘ einer Textgenese als ein ununterbrochenes Kontinuum, so, ‚als wären wir dabei gewesen‘ oder ‚wie wenn wir dem Autor über die Schulter schauten‘ etc., gleichsam als editorisches ‚re-enactment‘ des Schreibprozesses, ist ein wenig hilfreiches Konstrukt. Es muss daran erinnert werden, dass, bei aller von ihr vollzogenen „Annäherung an den Autor als Schreiber“,24 textgenetische Edition keinesfalls, wie die zitierten Metaphoriken suggerieren, die Rekonstruktion des Schreibakts und damit einer Handlung, vielmehr ausschließlich der jeweiligen fixierten Resultate dieser Handlung anstrebt. 25 An die Stelle vermeintlicher ‚Unmittelbarkeit‘ und emphatischer ‚Nähe‘ zwischen Objekt (bzw. Autor) und Leser sollte das Bewusstsein der faktischen und unhintergehbaren Mittelbarkeit und Distanz treten. Damit ist in letzter Instanz auch das prinzipielle

–––––––– 20

21 22

23

24 25

Gunter Martens: Textdynamik und Edition. Überlegungen zur Bedeutung und Darstellung variierender Textstufen. In: Texte und Varianten. Probleme ihrer Edition und Interpretation. Hrsg. von G.M. und Hans Zeller. München 1971, S. 165–201. Hurlebusch 2008 / 2010 (Anm. 3), S. 178. Ebd., S. 179 und 181 (Hervorh. WL). Hurlebusch verbindet damit weitere Thesen, die mir eher fraglich erscheinen und die ich hier nicht näher diskutiere: so 1. die quasi-physiologische Ableitung des Konzepts der Textdynamik aus dem Vorgang der visuellen Wahrnehmung („Übertragung einer wichtigen Eigenschaft der Wahrnehmung, nämlich der Bewegung, auf etwas, das per se unbeweglich ist: den Text.“); 2. dessen makrohistorische Einordnung als „Erbe der Genieästhetik“ der Goethezeit und als „Ausgeburt des Traums philologischer Geisterseher von der Identifikation des Lesers mit dem Autor“, eine Konzeption, die, so die 3. These, im 20. Jahrhundert durch die „Beißnersche[…] Vorstellung des Mitdichtens einer chimärischen Aktualgenese“ befördert worden sei (ebd., S. 179, 182, 183). Damit wird Martens letztlich in eine Traditionslinie mit Beißner gestellt. Sie geht bei Martens offenbar auch mit einer (poststrukturalistischen) Abwehr „fester“, also eindeutig formulierbarer Textbedeutungen einher, vgl. zu Heyms Gedichttexten: „Eine feste Teleologie der Textbildung ist hier ebensowenig auszumachen wie die Möglichkeit, ihnen widerspruchsfreie ‚feststellende‘ Deutungen zuzuweisen.“ – auch semantische Ambiguitäten und Mehrdeutigkeiten lassen sich freilich als solche eindeutig ‚fixieren‘! (Gunter Martens: Dichterisches Schreiben als editorische Herausforderung. Möglichkeiten und Grenzen der genetischen Textdarstellung in historisch-kritischen Ausgaben. In: Zeller, Martens 1998 (Anm. 12), S. 103–116, hier S. 112). Hurlebusch 1998 (Anm. 12), S. 16 und passim. Siehe hierzu auch die Klarstellung bei Nutt-Kofoth 2005 (Anm. 10), S. 117, im Kontext einer Abgrenzung von Textgenetik und Schreibforschung.

Archiv – Text – Zeit

29

Problem der Konstitution des epistemischen Objekts – in diesem Fall also der Textgenese – verbunden. Almuth Grésillon hat daran erinnert, dass eine mögliche oder gar typische erste Phase des euphorisch-leidenschaftlichen ‚Eintauchens‘ (des Editors) in die Genese im zweiten Schritt einer „mise à distance“ weichen muss, andernfalls die „Konstruktion“ des wissenschaftlichen Gegenstands nicht gelingen kann. 26 Genau diese Distanz darf in einer kritischen genetischen Edition nicht dissimuliert, sondern sollte möglichst bewusst gehalten werden. Oder mit Hurlebusch: „Zurück zur Distanz des Autors vom Leser“. 27 In diesem Sinne seien im Folgenden einige grundsätzliche Überlegungen zur Rekonstruierbarkeit und Darstellbarkeit von Textbildungsprozessen angestellt.

Prämissen der Rekonstruktion In dem Maße, wie Textgenese für uns prinzipiell immer nur als Produkt einer aposteriorischen (Re-)Konstruktion gegeben sein kann, basiert sie auf vielfachen, materialen ebenso wie logischen Prämissen: Abgesehen von der (wiederum trivialen) Tatsache, dass nur diejenigen Prozesse erfasst werden können, die solche materialen Spuren von semiotisch indexikalischem Status hinterlassen haben, die rein mentalen Prozesse hingegen nicht, 28 sind es zwei weitere Prämissen, auf denen jede Rekonstruktionsarbeit beruht: 1. Schreibkonventionen, wie etwa die Annahme der kontinuierlichen Verwendung eines Schreibgeräts während einer Arbeitseinheit (keine ‚unmotivierten‘ Wechsel!), oder auch bestimmte raumzeitliche Bedingungsverhältnisse, die einer genetischen Deutung von Handschriftentopographien zugrunde gelegt werden: z. B. dass Sofortänderungen üblicherweise auf derselben Zeile und nicht etwa interlinear geschehen oder, bei bestimmten Fällen, die Annahme einer direkten Proportionalität von räumlicher und zeitlicher Distanz: je weiter z. B. bei mehrfacher Änderung einer gegebenen Textstelle das ersetzende Wort vom zu ersetzenden Wort platziert ist, desto später, so nehmen wir an, wurde es geschrieben etc.29 2. Die Möglichkeit, anhand der graphischen Spuren genetische Einheiten zu bilden. Während die erstgenannten Prämissen implizit und stillschweigend gemacht werden,

–––––––– 26

27 28

29

Almuth Grésillon: Appréhender le manuscrit: passion et raison. In: L’Edition du manuscrit. De l’archive de création au scriptorium électronique. Hrsg. von Aurèle Crasson. Louvain-la neuve 2008 (Au cœur des textes, 10), S. 47–52, hier S. 50–52. Hurlebusch 2008/2010 (Anm. 3), S. 181. Vgl. etwa Almuth Grésillon: Du texte au manuscrit. In: La mise en œuvre. Itinéraires génétiques. Paris 2008, S. 19–28, hier S. 24; Pierre Marc de Biasi, Anne Herschberg Pierrot: Introduction. In: de Biasi, Herschberg Pierrot 2007 (Anm. 2), S. 7–14, hier S. 12f. Vgl. von C. F. Meyers Gedicht Nachtgeräusche die Fassung M3 Die Geräusche der Nacht (188182) in der Wiedergabe von Hans Zeller (C. F. Meyer: Sämtliche Werke. Hist.-krit. Ausgabe besorgt von H. Z. und Alfred Zäch. 15 Bde. Bern 1958–1996 (=MSW). Bd. 2. Bern 1964, S. 141). Zu diesen Prämissen der genetischen Deutung s. a. Alfredo Stussi: Introduzione agli studi di filologia italiana. Bologna 1994, S. 185, oder Jean-Louis Lebrave: De l’édition informatisée à l’édition électronique. In: Crasson 2008 (Anm. 26), S. 169–187, hier S. 174–176. Vgl. in diesem Zusammenhang auch Eva Thauerers (kritischpolemische) Rezension zur Innsbrucker Trakl-Ausgabe in: Editionen in der Kritik 3, 2009, S. 264–287, hier S. 274.

30

Wolfgang Lukas

betrifft diese zweite letztlich die gesamte explizite textgenetische Rekonstruktionsarbeit. Denn diese besteht in der Bildung diskreter Einheiten, die das ursprüngliche – aber für uns nicht mehr habbare – Kontinuum in diskontinuierliche Abschnitte zerlegt. Die von uns rekonstruierte und sodann dargestellte Textgenese kann somit grundsätzlich immer nur partiell, selektiv und diskontinuierlich sein, da sie eben nur eine Teilmenge aus der hypothetischen Gesamtmenge aller einander kontinuierlich ablösenden Textzustände erfassen kann, nämlich ausschließlich jene „Zwischenstationen im Textgestaltungsprozeß“,30 wo der genetische Prozess einen ‚vorläufigen statischen Endzustand‘ erreicht hat und – für eine bestimmte Zeit beliebiger Dauer – zum Stillstand gekommen ist.31 Genese ist somit nichts anderes als die rekonstruierte Sukzession synchroner Schnitte, die jeweils statische Textzustände darstellen, die wiederum hierarchisch gegliederten genetischen Einheiten zuordenbar sind. 32 Gemäß einem terminologischen Differenzierungsvorschlag von Henning Boetius, der sich allerdings nicht durchgesetzt hat, müsste man formulieren, dass wir allenfalls die „Chronologie“ – „das Nacheinander der sichtbaren Momente von Genese“ –, niemals aber die „Genese“ selbst – „[den] wirkliche[n] Entstehungsvorgang einer Dichtung mit allen seinen sichtbaren und unsichtbaren Momenten“ – darstellen können. 33 Als materielle Indizien, die eine ‚Zäsur‘ setzen und dergestalt die Isolierung einer genetischen Einheit erlauben, können fungieren: 1. die archivalische Einheit der Überlieferungsträger (Dokumente) und 2., innerhalb eines gegebenen Überlieferungsträgers, einzelne Inskriptionsschichten, die als indexikalische Zeichen von Arbeitsphasen gedeutet werden können, sofern sie eine durchgehende „Schicht“ 34 bilden. Dies kann aufgrund graphischer Kriterien (wie Schreiberhand, Schreibwerkzeug oder – allerdings

–––––––– 30 31

32

33

34

Hermann Zwerschina: Die editorische Einheit ‚Textstufe‘. In: Zeller, Martens 1998 (Anm. 12), S. 177– 193, hier S. 182. Hurlebuschs Vergleich mit einer vergangenen Schachpartie – „Um es im Bilde einer vergangenen Schachpartie auszudrücken: Aus den übriggebliebenen Steinen sind nur relativ wenige Spielzüge rekonstruierbar.“ (Hurlebusch 2008/2010 [Anm. 3], S. 182) – trifft den Sachverhalt nicht hundertprozentig, da ja auf einer Entwurfshandschrift nicht nur das im ‚Spiel‘ befindliche Material (die Steine – die einzelnen Wörter) gegeben ist, sondern mit ihnen auch die Konstellationen, also der textuelle Kontext. Dies wäre der Fall bei der Registrierung der Spielstände und -züge bei öffentlichen und berühmten Partien. Auch der Vergleich mit dem Film – die überlieferte Serie genetischer Dokumente äquivalent der Serie der Filmkader, die einen Film konstituieren – ist problematisch: Ferrer 2017 (Anm. 2), S. 19f. Diesbezüglich ist die textgenetische Editorik denn auch notgedrungen – und mehr, als sie es bisweilen wahrhaben will – struktural-semiotischen Prämissen verpflichtet. Vgl. hierzu wiederholt und explizit auch Almuth Grésillon: Grésillon 2008 (Anm. 28), S. 22f., sowie das Einleitungskapitel: Ouverture. In: Ebd., S. 5–15, hier S. 8. Vgl.: „Die Chronologie verhält sich zur Genese wie der Kalender zum Jahr. Rekonstruktion von Genese ist das zumeist utopische Ziel eines Apparates, Darstellung von Chronologien in der Regel seine bescheidene Leistung.“ Henning Boetius: Textqualität und Apparatgestaltung. In: Martens, Zeller 1971 (Anm. 20), S. 233–250, hier S. 238. Vgl. Backmanns Begriff der „durchlaufenden Hände“: Backmann 1924/2005 (Anm. 13), S. 126f. Zur Definition von „Schicht“ s. Hans Zeller: Bericht des Herausgebers. In: MSW 2 1964 (Anm. 29), S. 5–113, hier S. 101, sowie ders.: Die Typen des germanistischen Varianten-Apparats und ein Vorschlag zu einem Apparat für Prosa. In: ZfdPh 105, 1986, Sonderheft „Editionsprobleme der Literaturwissenschaft“, S. 42–69, hier S. 47: „Varianten, die durch die gleichen materiellen Kriterien einen Zusammenhang bilden, bezeichne ich als Schicht (gleicher Duktus bei gleichem Schreibmittel).“

Archiv – Text – Zeit

31

prekär35 – -duktus) geschehen oder auf der Basis einer Kombination graphischer und textuell-logischer Kriterien. 36 Damit ergeben sich u. U. Grundschicht, erste, zweite etc. Bearbeitungsschichten. Grundsätzlich gilt, dass materiell-graphische Merkmale nicht in eineindeutiger Weise mit genetischen Einheiten relationierbar sind. So muss z. B. ein Wechsel des Schreibwerkzeugs oder des Duktus nicht notwendig eine neue Bearbeitungsphase indizieren, sondern kann im Rahmen einer fortlaufenden Niederschrift erfolgen: Verschiedene ‚Schichten‘ würden sich in diesem Fall nicht überlagern, sondern aufeinander folgen. Dem trägt in der Heym-Ausgabe die Kategorie der „Arbeitsphase“ Rechnung.37 Sofern verschiedene Schichten bzw. Arbeitsphasen isoliert worden sind, können diese in einem weiteren Schritt im Hinblick auf den Textbildungsprozess eines gegebenen Werkes und die Arbeitsweise seines Autors ausgewertet und klassifiziert werden: Dergestalt lassen sich etwa „Erarbeitungsschichten“ von „Bearbeitungsschichten“ differenzieren. 38 Wenn sich in Arbeitshandschriften mit autographen Textänderungen indes keine Grund- und Bearbeitungsschicht(en) isolieren lassen, können folglich allenfalls wortbzw. stellenbezogene Chronologien, aber keine genetischen Bearbeitungsphasen (bezogen auf den Gesamttext des Dokuments) rekonstruiert werden. Einen singulären Fall stellen hier die Photographien im Nachlass Brechts dar, die – als externe Belege – ein bestimmtes Bearbeitungsstadium einiger seiner Arbeitshandschriften fixieren und dokumentieren. 39

–––––––– 35

36

37 38

39

Hierzu etwa Hans Werner Seiffert: Untersuchungen zur Methode der Herausgabe deutscher Texte. Berlin (Ost) 1963 (Dt. Akad. d. Wissenschaften zu Berlin. Veröffentlichungen d. Instituts f. dt. Sprache und Lit. 28), S. 48f. Hierzu ein Beispiel: Arthur Schnitzler führt im handschriftlich bearbeiteten Typoskript von Fräulein Else in einem eigenen Arbeitsdurchgang die Markierung der Redetypen (eigene vs. fremde Rede) durch, indem er alles, was nicht unmittelbare (gedachte oder gesprochene) Rede der Protagonistin ist, unterstreicht, als Anweisung an den Setzer für die Sperrung im Druck der Neuen Rundschau (1924). Obwohl sich die Unterstreichungen graphisch nicht von den anderen Bearbeitungen unterscheiden lassen, kann ein eigener Arbeitsdurchgang als genetische Einheit mit einiger Wahrscheinlichkeit deshalb angesetzt werden, weil Schnitzler sämtliche, in einem vorangehenden Durchgang gestrichenen Passagen dabei sorgfältig ausspart. Siehe: Arthur Schnitzler digital. Digitale historisch-kritische Edition (Werke 1905–1931). Hrsg. von Wolfgang Lukas, Michael Scheffel, Andrew Webber und Judith Beniston in Verbindung mit Thomas Burch. Siehe das Typoskript T1, z. B. dort S. 31: https://www.arthur-schnitzler.de/edition/Dokumenta risch/Dokumentklasse/ELS_T1_0031 (Abruf Sept. 2018). Hierzu Gunter Martens: Schichten und Verbände, Schreibphasen und Korrekturfolgen. In: Zeller, Martens 1998 (Anm. 12), S. 223–232, hier S. 224. So z. B. in der histor.-krit. Edition der Werke Ernst Barlachs, s. Ulrich Bubrowski: Editorische Schachund Winkelzüge oder Versuch, unbeherrschbarer Schreibverhältnisse Herr zu werden – am Beispiel Barlach. In: Zeller, Martens 1998 (Anm. 12), S. 117–153, hier S. 137. Gerhard Seidel: Bertolt Brecht – Arbeitsweise und Edition. Das literarische Werk als Prozeß. Erweit. Neuausg. von: Die Funktions- und Gegenstandsbestimmtheit der Edition. Untersucht an poetischen Werken Bertolt Brechts. Berlin (Ost) 1971. Stuttgart 1977 (Dt. Akad. d. Wissensch. zu Berlin, Veröffentlichungen d. Instituts. dt. Sprache und Lit. 46), S. 83f. Vgl. ebd. zur dadurch gegebenen „Möglichkeit – ein in der Geschichte der Edition wohl einmaliger Fall –, in einem Zeugen kommunizierende Schichtungen mit absoluter Sicherheit zu bestimmen“ (S. 84).

32

Wolfgang Lukas

Diachronie/Synchronie, Paradigmatik/Syntagmatik und die Relevanz des Betrachtungsausschnitts Schriftträgerwechsel, über die sich zwischenhandschriftliche Varianz ergibt (InterDokumentrelationen), und Wechsel einander überlagernder Schichten innerhalb eines Schriftträgers, aus dem Binnenvarianz resultiert (Intra-Dokumentrelationen), sind freilich nur zwei ‚einfache‘ Fälle, die die „interne Chronologie der Textbildung“ 40 in diskontinuierliche Einheiten zu gliedern erlauben. Diese Dimension der Textgenese wird z. B. von einer chronologisch differenzierenden diplomatischen Umschrift im Rahmen einer (historisch-kritischen) Faksimile-Edition erfasst. Im Bereich der Intra-Dokumentrelationen werden die genetischen Verhältnisse hingegen sehr schnell komplex, sobald der Anspruch besteht, darüber hinaus auch „unterhalb der Ebene der Schichten und Arbeitsphasen Überarbeitungsvorgänge als lokal begrenzte Schreibzusammenhänge fest[zu]stellen“.41 Alles, was einer gegebenen Schicht zuordenbar ist, steht zwar in einer bestimmten (und potentiell auch bestimmbaren) zeitlichen Relation zu den Änderungen, die einer anderen Schicht zugehören; jedoch die Relationen innerhalb einer gegebenen Schicht sind entweder gar nicht oder zumindest nur sehr schwierig bestimmbar. Denn da, wo sich keine Schichten differenzieren lassen, ist allenfalls eine stellenbezogene punktuelle genetische Lektüre möglich, nicht indes eine syntagmatische kontinuierliche Lektüre im Gesamtzusammenhang. Denn es wäre in einem solchen Fall in aller Regel spekulativ zu behaupten, dass die vorhandenen Korrekturen bzw. Änderungen erst dann erfolgt seien, nachdem der Text als Ganzes einmal geschrieben worden ist. Ein rascher Blick auf die wissenschaftsgeschichtliche Entwicklung zeigt, wie sehr in Bezug auf die schichtinterne Textentwicklung editorische Denkmodelle zum einen und (u. a. typographische) Darstellungs-/Visualisierungsmodelle zum anderen miteinander korrelieren. 42 Der erste Ansatz zu einer textgenetischen Edition, den Karl Goedeke im Rahmen seiner historisch-kritischen Ausgabe der Werke Schillers anhand des Dramenfragments Demetrius im letzten Band 15,2 (1876) vorlegt, erhebt in dieser Hinsicht noch keine Ansprüche auf Rekonstruktion der textinternen Chronologie. Die Ausgabe bietet ansatzweise den Typ eines „genetisch-deskriptiven“ Apparats,43 der dokument- und befundorientiert vorgeht und den Schwerpunkt auf die materialen – (topo-)graphischen – Verhältnisse legt. Wie ein Blick auf die Legende zeigt, werden verschiedene Hände, Schichten und Positionen („hinter“ / „unter“ / „über“

–––––––– 40 41

42

43

Bubrowski 1998 (Anm. 38), S. 136. Gunter Martens: Schichten und Verbände, Schreibphasen und Korrekturfolgen. Die Behandlung von versübergreifenden Korrekturzusammenhängen in der textgenetischen Ausgabe der Gedichte Georg Heyms. In: Zeller, Martens 1998 (Anm. 12), S. 223–232, hier S. 226 (Hervorh. WL). Siehe hierzu auch allgemein Hans Walter Gablers theoretisch und historisch orientierten Überblick: Argument into Design: Editions as a Sub-Species of the Printed Book. In: ders.: Text Genetics in Literary Modernism and Other Essays. Cambridge 2018, S. 315–362. Siehe Seiffert 1963 (Anm. 35), S. 135–140, zur „Deskriptiv-genetischen Methode“, die er eigentlich mit Backmann beginnen lässt. Hierzu und im Folgenden auch Zeller 2003 (Anm. 3).

Archiv – Text – Zeit

33

„Durchstrichne[m]“ bzw. „Undurchstrichne[m]“) unterschieden (Abb. 1 wie alle folgenden Abb. unter http://aau.at/musil/publikationen/textgenese/lukas/).44 Eine genetische Dimension resultiert allenfalls indirekt daraus. Auf diese Weise können etwa Sofort- von späteren Änderungen unterschieden werden, 45 ansonsten bietet der Apparat jedoch ausschließlich stellenbezogene punktuelle genetische Information und kennt somit nur die paradigmatische Dimension. Bei komplexen Verhältnissen kapituliert der Editor: „vielfach geändert, was sich mit Zeichen kaum deutlich machen lässt“,46 wie denn Goedeke in diesem Zusammenhang auch den vielzitierten Wunsch nach einer „photographischen Wiedergabe“ formuliert hat. 47 Ein Blick auf die Legende zeigt überdies mangelnde Konsistenz: So kann ein und dasselbe diakritische Zeichen (bzw. eine gegebene Sigle) heterogene Sachverhalte bezeichnen 48 und ein und dasselbe Phänomen kann umgekehrt durch verschiedene Zeichen signifiziert werden. 49 Es ist Reinhold Backmann gewesen, der als erster auf die Bedeutung des Betrachtungsausschnitts als der jeweiligen Referenzeinheit einer genetischen Aussage aufmerksam gemacht hat, indem er eine „absolute“ von einer „relativen Chronologie“ unterschied.50 Mit der ersteren, etwas missverständlich so benannt, 51 ist „die zeitliche Abfolge aller Änderungen zu einer und derselben Stelle ohne Rücksicht auf umgebende Teile der Handschrift“ gemeint; diese Abfolge bezeichnet eine eindeutige Chronologie und ist insofern – die entsprechenden graphischen Verhältnisse vorausgesetzt – „immer leicht herzustellen“. 52 Letztere „versucht mehrere absolute Chronologien zueinander in Beziehung zu setzen. Bei ihr lassen sich, je weiter die Umgebung ist, die in Betracht gezogen wird, verschiedene Grade erstreben.“ 53 Das zentrale Problem der Textgenetik ist mithin die „relative Chronologie“ bzw. die komplexe Relation von relativer und absoluter Chronologie. Grundsätzlich gilt hier das, was bereits Backmann am Beispiel einer Arbeitshandschrift, die nach – oder bereits während – der Niederschrift durch den Dichter einer Bearbeitung unterzogen wird, festgehalten hat:

–––––––– 44

45 46 47 48

49

50 51

52 53

Schillers sämmtliche Schriften. Historisch-kritische Ausgabe. Im Verein mit A. Ellissen, R. Köhler, W. Müldener, H. Osterley, H. Sauppe und W. Vollmer von Karl Goedeke. Fünfzehnter Theil. Zweiter Band. Stuttgart 1876, S. 323: Legende zum Apparat von Demetrius. Vgl. ebd.: „[* *] Das mit Sternchen in eckige Klammern Geschlossene hat Schiller an den Rand geschrieben, bezeichnet also einen nachträglichen Gedanken.“ Ebd., S. 440, zu vv. 92–124. Goedeke: Vorwort zu Bd. 15,2, in: Nutt-Kofoth 2005 (Anm. 3), S. 30–32, hier S. 31. Ein und derselbe Code – Großbuchstaben – dient der Signifikation verschiedener Hände (A, K), einzelner Druckausgaben (H), bestimmter Änderungsoperationen (B: Durchstreichung) oder topographischer Positionen in Kombination mit Änderungsakten (C, D, E, F, G).; Text in eckigen Klammern kann „Ergänzung des Herausgebers, oder (!) Auswahl aus Schillers Entwürfen […]“ sein (Schiller 1876 [Anm. 44], S. 323). So werden z. B. „durchstrichne Worte“ mit der Sigle B und zusätzlich „g e s p e r r t oder (!) eingeklammert (B ...)“ wiedergegeben; im Falle von Ersetzungen wird getilgter Text ohne Sperrung und Parenthese wiedergegeben, dafür aber je nach Position des ersetzenden Textes mit der Sigle C, E oder G markiert. (Ebd.) Hierzu auch Hurlebusch 1998 (Anm. 12), S. 23f. Vgl. auch Friedrich W. Wollenberg, der stattdessen die Begriffe „(vertikale) Korrekturfolge“ vs. „(horizontaler) Korrekturzusammenhang“ vorschlägt: Zur genetischen Darstellung innerhandschriftlicher Varianten. In: Martens, Zeller 1971 (Anm. 20), S. 251–272, hier S. 263. Backmann 1924/2005 (Anm. 13), S. 125 (Hervorh. i.O.). Ebd. (Hervorh. WL).

34

Wolfgang Lukas

Hier kann er [der Dichter] nun mit schrankenlosester Willkür verfahren. Er braucht dazu sein Werk durchaus nicht immer im Zusammenhange von vorn nach hinten durchzuarbeiten. Er kann bald hier, bald da lesen und – ändern. Wer will denn das zeitlich Zusammengehörige in den entferntesten Teilen der Dichtung zusammenfinden! Und gewiß kann derlei schon vor der Vollendung, an Tagen, wo nicht weiter gearbeitet wurde, erfolgt sein. 54

Die weitgehende Abstinenz in Bezug auf textgenetische Rekonstruktion und die Beschränkung auf jene genetische Dimension, die implizit aus der exakten diplomatischen Wiedergabe der topographischen Verhältnisse resultiert, während darüber hinausgehende Deutungen dem Leser überlassen werden, ist eine Reaktion hierauf; 55 sie ist freilich nicht minder auch Reaktion auf die bisher vorgelegten genetischen Modellbildungen und ein Verzicht auf Deutungs- und Darstellungsansprüche, die sich im Laufe des 20. Jahrhunderts erst allmählich herausgebildet hatten. Entscheidend für die Rekonstruktion der relativen Chronologie des Textbildungsprozesses ist die Konzeptualisierung des (mehr oder weniger) komplexen Verhältnisses von Diachronie und Synchronie. Die Kategorie des „zeitlich Zusammengehörigen“ umfasst dabei zweierlei: in einem weiteren Sinn alles das, was zu einer ‚Arbeitsphase‘ gehört; in einem engeren Sinn, auf begrenzte Textsyntagmen bezogen und davon zu unterscheiden, das Phänomen der korrelierten Änderungsoperationen, für die Alfredo Stussi den treffenden Begriff der „kompositorischen Synchronie“ („sincronia compositiva“)56 geprägt hat: Änderungsakte, die als logisch zusammengehörig interpretiert werden können, sei es aus syntaktischen – die sog. „gebundene Variante“ (variante liée)57 –, sei es aus inhaltlichen (semantischen, ästhetischen etc.) Gründen – der von Hans Zeller so benannte „(Korrektur- bzw. Änderungs-)Verband“.58 Letzterer umfasst mindestens zwei syntagmatische Stellen, im Falle eines iterativen Verbandes auch eine ganze Serie (etwa: Ersetzung eines Figurennamens durch einen anderen im ganzen Manuskript). Diachronie und Synchronie verhalten sich diesbezüglich wie die paradigmatische zur syntagmatischen Dimension: vertikale Lesbarkeit der Varianten, die in Bezug auf eine gegebene syntagmatische Stelle ein Paradigma untereinander oppositioneller Alternativen bilden, zum einen und horizontale Lesbarkeit mit Fokus auf einer aus dem Paradigma ausgewählten (durchgehenden) varianten Fassung zum anderen. Die moderne Textgenetik beginnt letztlich mit der expliziten Unterscheidung dieser zwei Ebenen, was in der Folge auch zur Nutzung der Zweidimensionalität und Spatialität in der Darstellung führt. Denn während die stellenbezogene „absolute Chronologie“ linear-eindi-

–––––––– 54 55

56 57 58

Ebd., S. 126 (Hervorh. i.O.). Vgl. hierzu auch Boetius 1971 (Anm. 33), am Beispiel der Relation von „Sofort-“, „Bald-“ und „Spätkorrekturen“. So z. B. Roland Reuß: Schicksal der Handschrift, Schicksal der Druckschrift. Notizen zur ‚Textgenese‘. In: Text. Kritische Beiträge 5, 1999, S. 1–25, bes. S. 18. Kritisch zum „Rückzug auf eine reine FaksimileEdition“ Martens 1998 (Anm. 23), S. 116. Stussi 1994 (Anm. 29), S. 186f. Grésillon 1999 (Anm. 7), S. 295. Von Hans Zeller definiert „als inhaltlicher Zusammenhang mindestens zweier Korrekturen in verschiedenen Versen, aber innerhalb ein und derselben Schicht“ (MSW 2 1964 [Anm. 29], S. 101).

Archiv – Text – Zeit

35

mensional dargestellt werden kann, erfordert die Darstellung der „relativen Chronologie“ eine nicht-lineare Darstellung. Backmann hat diese Dimensionen als erster zumindest implizit unterschieden, wenn er auch dafür noch kein Darstellungsmodell hatte, sondern einen rein linearen Stellenapparat bot, in dem allenfalls die Reihenfolge der Variantennennung von einer resultatorientierten in eine prozessorientierte „natürliche“ verkehrt wurde. 59 Die Lösung wurde schließlich in einer räumlichen Anordnung in Gestalt einer Matrix gefunden, die eine doppelte, horizontale und vertikale Leserichtung bietet und damit die paradigmatisch-temporale mit der syntagmatisch-textuellen Dimension kombiniert. Damit wird eine qualitativ andere Art der Wissens- bzw. Informationsorganisation möglich. In medienhistorischer Perspektive könnte man gemäß Goody sagen, dass die editorische Notationstechnik für die Verzeichnung und Speicherung genetischer Information erst damit die Möglichkeiten des schriftlichen Mediums voll und ganz nutzt, indem sie nämlich mit der Matrix eine Anordnung realisiert, die im Gegensatz sowohl zu bloßen Listen als auch zu ‚normalen‘ Tabellen im oralen Kontext definitiv nicht mehr funktioniert; 60 Lesbarkeit inkludiert nun Sichtbarkeit im Sinne nicht-linearer Spatialität. Ansätze zu textgenetischen Matrix-Modellen und spatialen Apparaten finden sich im ersten Drittel des 20. Jahrhunderts: 61 so in der 1911–1912 erschienenen, von Oskar Walzel in Zusammenarbeit u. a. mit Jonas Fränkel herausgegebenen 10-bändigen Heine-Ausgabe (Abb. 2),62 die mit ihrer strikt chronologischen Anordnung „eine neue Seite von Heines Kunst und Heines innerstem Wesen“ und zugleich die, so Walzel mit einer unverkennbar teleologischen Konzeption, Heine kennzeichnende „strenge Einheit und Folgerichtigkeit der Entwicklung“63 offenbaren will: Der Leser soll „den Ablauf einer Entwicklung voll strenger Gesetzlichkeit miterleb[en]“.64 So in der von Kurt Schmidt 1932 herausgegebenen Ausgabe der Grimmschen Märchen (Abb. 3),65 die erstmalig „das gesamte bekannte und zugängliche Material zu verwerten [versucht]“ und dieses in einer „partiturenmässigen Untereinanderstellung“ anordnet: Letztere ist ‚negativ‘ organisiert, indem sie in Relation zur ersten Zeile darunter jeweils nur den varianten Text verzeichnet, an Leerstellen gilt der darüber stehende Text und ist mitzulesen. 66 Während die Heine-Ausgabe nur Binnenvarianz pro Überlieferungsträger (und dies nur selektiv) verzeichnet, vereinigt die Grimm-Ausgabe mehrere Überlieferungsträger in einer synoptischen Matrix, wobei der Herausgeber Kurt Schmidt auf eine

–––––––– 59 60 61 62

63 64 65

66

Backmann 1924/2005 (Anm. 13), S. 124. Jack Goody: The Interface between the Written and the Oral. Cambridge 1987, bes. S. 274–277. Hierzu auch Zeller 1986 (Anm. 34) und Zeller 2003 (Anm. 3), S. 163. Apparat zu Gedicht Nr. XXV („Sag mir, wer einst die Uhren erfund“) aus dem Zyklus Neuer Frühling in der 10-bd. Heine-Ausgabe. Heines Werke in zehn Bänden. Unter Mitwirkung von Jonas Fränkel, Ludwig Krähe, Albert Leitzmann und Julius Petersen. Hrsg. von Oskar Walzel. 10 Bde. Leipzig 1911f., hier Bd. 2 (1912), S. 382. Oskar Walzel: Einleitung. In: Heines Werke in zehn Bänden (Anm. 62), hier Bd. 1 (1911), S. LXIII. Ebd., S. LXIV. Beispielseite zu Der Wolf und die sieben Geißlein aus dem kritischen Apparat der Grimm-Ausgabe von Kurt Schmidt: Die Entwicklung der Grimmschen Kinder- und Hausmärchen seit der Urhandschrift. Nebst einem kritischen Texte der in die Drucke übergegangenen Stücke. Halle 1932 (Hermaea. Ausgewählte Arbeiten aus dem Deutschen Seminar zu Halle. 30), S. 92. Schmidt 1932 (Anm. 65), S. 3, 5 und 82.

36

Wolfgang Lukas

„Unzulänglichkeit“ bzgl. der Darstellbarkeit aufmerksam macht: Wo nämlich aufgrund zu großer Varianz keine kleinteilige, wortweise Paradigmenbildung möglich ist, wird die „Untereinanderstellung“ mit einer „synoptische[n] Nebeneinanderstellung“ kombiniert: „die völlige Kongruenz einer zeitlichen Entwicklung mit ihrer räumlichen Darstellung ist eben nicht erreichbar.“ 67 Der von Friedrich Beißner wenige Jahre später, 1938,68 erstmalig anhand einer Wieland-Handschrift vorgestellte Treppenapparat tritt als Lösung an, bietet allerdings im Gegensatz hierzu lediglich „Variantenparadigmen ohne erkennbare Syntagmen“,69 d. h. er erlaubt, wiewohl ein unzweideutig spatialer Apparat, keine konsistente syntagmatische Lektüre aller Stufen bzw. Fassungen, sondern lediglich der finalen. Dieser Treppenapparat stellt denn auch keine echte, syntagmatische und paradigmatische Dimension konsequent zu einander in Beziehung setzende Matrix dar, entsprechend Beißners teleologischer, auf das „ideale Wachstum“ ausgerichteten Konzeption. Die Darstellung reduziert sich punktuell auf bloße Listen, und Zweidimensionalität besitzt hier somit primär einen rein technisch-pragmatischen Nutzen, der eine leichtere Lesbarkeit bieten soll, aber keine neue Dimension erschließt. In etwa zeitgleich (1937) überführt Gianfranco Contini die italienische critica delle varianti in eine (prä-)strukturalistische Methode, die hingegen beide Dimensionen bereits theoretisiert.70 Im deutschsprachigen Raum wird dies dann bekanntlich erstmalig und explizit Hans Zeller in seinem epochemachenden Aufsatz von 195871 und im Anschluss daran in der historisch-kritischen Ausgabe der Lyrika C. F. Meyers mit seinem integralen Kolumnenapparat realisieren, dessen „partiturmäßige Anordnung“ 72 eine – meist synoptische – Matrix realisiert, die mehrere Überlieferungsträger auswertet und eine Zusammenschau von dokumentinterner und -übergreifender Varianz bietet. Im Unterschied zu den vorgenannten Apparatmodellen integriert Zeller erstmalig auch systematisch materielle Informationen zur Handschriftentopographie. Zeller selbst hat sein Apparatmodell nachträglich als Übertragung der strukturalistischen Axiomatik Roman Jakobsons auf das Notationsverfahren des genetischen Apparats gedeutet: „Diese Anordnung des Paradigmas im Rahmen des Syntagmas bietet sich, recht verstanden, von selbst an: sie liegt in der Natur der Sprache“. 73 Dem gleichen Prinzip verpflichtet ist der 1971 von Gerhard Seidel im Rahmen seiner editionswissenschaftlichen Monographie zu Bertolt Brecht als Synthese eines „Werkstellen-“ und eines „Schichtenapparats“ vorgelegte Apparat. Er leitet ihn seinerseits von einer Gesetzmäßigkeit der dichterischen Komposition ab, derzufolge „bei der Entstehung literarischer Werke zwei Tendenzen wirksam [sind]: eine ‚räumliche‘ Tendenz, die dem Werkzusammenhang im Rahmen jeder einzelnen Textschicht entspricht,

–––––––– 67 68 69 70 71 72 73

Ebd., S. 4. Friedrich Beißner: Neue Wieland-Handschriften (Abhandlungen d. Preuß. Akad. d. Wissensch., Jg 1937, Phil-hist.Klasse Nr. 13. Berlin 1938). Wiederabdruck in: Nutt-Kofoth 2005 (Anm. 3), S.142–146. Zeller 1986 (Anm. 34), S. 48. Darauf macht Cesare Segre in einem wichtigen Beitrag aufmerksam: Critique des variantes et critique génétique. In: Genesis 7, 1995, S. 29–45, hier S. 33–39. Hans Zeller: Zur gegenwärtigen Aufgabe der Editionstechnik. Ein Versuch, komplizierte Handschriften darzustellen (1958). Wiederabdruck in: Nutt-Kofoth 2005 (Anm. 3), S. 194–214. Hans Zeller: Die Gestaltung des Apparates. In: MSW 2 1964 (Anm. 29), S. 88–113, hier S. 107. Zeller 2003 (Anm. 3), S. 163.

Archiv – Text – Zeit

37

und eine ‚zeitliche‘ Tendenz, die den genetischen Zusammenhang der nacheinander entstandenen, aber dabei aufeinander bezogenen Schichten bewirkt.“74 Dietrich E. Sattlers Frankfurter Hölderlin-Ausgabe hat in mehrerlei Hinsicht ein neues Paradigma begründet, das über das Referenzmodell der Meyer-Edition hinausführt. Die Innovation liegt nicht nur im konsequent dokumentarischen Anspruch, der in der Vollfaksimilierung der Handschriften zum Ausdruck kommt und diesen damit einen neuen Stellenwert innerhalb der Edition verleiht, sondern auch in der radikalisierten Umsetzung der Zellerschen Trennung von ‚Befund‘ und ‚Deutung‘ in Gestalt zweier, in verschiedenen Bänden realisierter Teile unter gleichzeitiger Aufgabe eines Apparats. Die Hölderlin-Edition hat damit erstmalig das Prinzip der Multiperspektivität eingeführt, worunter ich die Darbietung ein und desselben Objekts (‚Textes‘) in verschiedenen, getrennten Ansichten verstehen will. Im Hinblick auf die Textgenetik von entscheidender Bedeutung ist die Trennung der Wiedergabe des (topo-)graphischen Befunds in Gestalt einer diplomatischen Transkription einerseits von deren Deutung in Gestalt einer genetischen Wiedergabe andererseits. Während Zellers Apparatmodell beide Dimensionen mithilfe einer abstrakten Notation synthetisch vereinigt, sind sie bei Sattler getrennt – notgedrungen, da eine mimetisch-dokumentarische Wiedergabe und deren (explizite) genetische Deutung nicht in einer einzigen Ansicht realisierbar sind. Roland Reuß hat im Hinblick auf genetische Darstellungen kritisch argumentiert, dass die Linearisierung von nicht-linearem Text einer Entwurfshandschrift sowie die mit einer Dekontextualisierung einhergehende Isolierung grundsätzlich problematisch sei, weil sie die für eine Entwurfshandschrift konstitutive Spatialität und Kopräsenz auflöst – beeilt sich zugleich aber klarzustellen, dass es keineswegs überflüssig oder nur nebensächlich wäre, feststellbare chronologische Verhältnisse auch tatsächlich festzuhalten und überschaubar darzubieten. Im Gegenteil. Je genauer diese Verhältnisse beschrieben werden (können), um so klarer wird die in der Handschrift überlieferte Konstellation hervortreten. 75

Beide Forderungen schließen aber einander aus logischen Gründen aus, es ist eben nicht beides gleichermaßen – maximale (räumliche) Dokumententreue und maximale (zeitliche) Deutungsgenauigkeit – in einer einzigen Ansicht zu haben. Reuß’ Behauptung, chronologisch differenzierende diplomatische Transkriptionen seien „das adäquate editionstechnische Mittel, wie auch immer komplizierte Handschriftenkonstellationen wiederzugeben“, 76 trifft allenfalls auf einfache Situationen zu, wo die zeitliche Relation implizit und unzweideutig aus der räumlichen resultiert, nicht jedoch auf komplexe. Gegebene räumliche und daraus gedeutete zeitliche Verhältnisse lassen sich immer nur um den Preis von Kompromissbildungen in eine einzige Ansicht bringen. Die synthetische Vereinigung beider Dimensionen erzwingt also notgedrungen eine Priorisierung,

–––––––– 74

75 76

Wobei der Begriff der „Synopse“ allerdings anders definiert wird: setzt er bei Zeller die Zusammenschau mehrerer Überlieferungsträger voraus, so gilt bei Seidel bereits die zweidimensionale Matrix als solche als „Synopse“, s. Seidel 1977 (Anm. 39), S. 61–69 und S. 165–171, das Zitat S. 62. Reuß 1999 (Anm. 55), S. 20. Ebd., S. 24f.

38

Wolfgang Lukas

ob diese nun eingestanden wird oder nicht: Wo der Fokus auf der diplomatischen Wiedergabe der Topographie liegt, erleidet die genetische Deutung – sofern sie denn den Anspruch auf Explizitheit erhebt – Einbußen77 und vice versa.78 Die von Gunter Martens u. a. verantwortete Heym-Ausgabe läutet in den 1990er Jahren mit dem erklärten „Verzicht auf die Überlieferungsträger (Textzeugen) als Basis der Textdarstellung“, d. h. mit der Bildung konsequent genetischer Einheiten, die sich von den archivalischen Einheiten ‚emanzipiert‘ haben, eine weitere qualitativ neue Etappe in der Textgenetik ein. Der Primatwechsel kommt auch in der gegenüber der Meyer-Ausgabe invertierten Siglierung, die die Materialsigle zum Index herabstuft, zum Ausdruck (1H, 2H etc. statt H1, H2). Mit der Unterscheidung von „Textstufen“, denen als hierarchische Untereinheit „Arbeitsphasen“ zugeordnet werden, zu welchen wiederum „Ansätze“ und „Unteransätze“ gehören können, dürfte die Heym-Ausgabe vermutlich den bislang differenziertesten Versuch einer textgenetischen Modellierung vorgelegt haben. Die explizit eingestandene „definitorische Offenheit“ der zentralen Kategorie der ‚Textstufe‘ – „[i]nsbesondere der Übergang zur Arbeitsphase […] ist oftmals gleitend“ 79 – hat in der weiteren Rezeption freilich dazu geführt, dass die Abgrenzung von „Textstufe“ und „Arbeitsphase“ jeweils anders vorgenommen wird und die terminologische Uneinheitlichkeit diesbezüglich vermehrt wurde. 80 Bezeichnet die „Textstufe“ bei Martens die hierarchisch höchste Einheit, die den gesamten makrogenetischen Textentwicklungsprozess, von der ersten Notiz bis zum Druck, strukturiert, so reserviert etwa die historisch-kritische Horváth-Ausgabe den Begriff für die Phase der Werkniederschrift: „Eine Textstufe (TS) bezeichnet eine klar abgrenzbare Arbeitseinheit im Produktionsprozess, die intentional vom Anfang bis zum Ende einer isolierten Werkeinheit […] reicht und (anders als der Entwurf) bereits der konkreten Ausformulierung des Textes dient.“ 81 Nur in der Heym-Ausgabe figuriert die „Arbeitsphase“ als eigene genetische Kategorie zwischen „Textstufe“ und „Ansätzen“, nicht indes hier, wo die „Textstufe“ materiell „die Gesamtheit des in einer Arbeitsphase vorliegenden

–––––––– 77

78

79 80 81

So etwa die Brandenburger bzw. Berliner Kleist-Ausgabe, vgl. hierzu die wichtige Rezension von Hans Zeller: Zur Neuedition des ‚Zerbrochnen Krugs‘ in der Brandenburger Ausgabe. In: Kleist-Jb 1996, S. 234–251. Das hierzu komplementäre Beispiel stellt z. B. die hist.-krit. Ausgabe von C. F. Meyers Briefwechsel dar (Bd.1–3: Hrsg. von Hans Zeller. Bern 1998–2004; Bd. 4: Hrsg. von Hans Zeller und Wolfgang Lukas. Göttingen 2014ff.), die den Schwerpunkt auf die genetisch deutende Wiedergabe in einer synthetischen Ansicht setzt und somit auf eine genaue Abbildung der materiellen und topographischen Verhältnisse notgedrungen (und unabhängig von der Entscheidung für den normierenden Blocksatz!) verzichten muss. Siehe hierzu: Wolfgang Lukas, Wolfgang Rasch und Jörg Ritter: Gutzkows Korrespondenz – Probleme und Profile eines Editionsprojekts. In: Brief-Edition im digitalen Zeitalter. Hrsg. von Anne Bohnenkamp und Elke Richter. Berlin 2013 (Beihefte zu editio, 34), S. 87–107, hier die „Überlegungen zum Editionsmodell“, S. 96–104. Günter Dammann, Gunter Martens, Karl Ludwig Schneider: Einführung in die textgenetische Darstellung der Gedichte. In: Heym 1993 (Anm. 6), S. 45–78, hier S. 52. Hierzu auch Zeller 2003 (Anm. 3) und Nutt-Kofoth 2016 (Anm. 3), S. 44–46. Ödön von Horváth: Wiener Ausg. sämtlicher Werke. Historisch-kritische Edition. Hrsg. von Klaus Kastberger. Bd. 4: Kasimir und Karoline. Hrsg. von Klaus Kastberger und Kerstin Reiman, unter Mitarbeit von Julia Hamminger und Martin Vejvar. Berlin u. a. 2009, Editionsbericht: S. 573–583, hier S. 578.

Archiv – Text – Zeit

39

genetischen Materials, das in Grund- und Korrekturschicht und in verschiedene Ansätze differenziert sein kann“, bezeichnet.82 Die Innsbrucker Trakl-Ausgabe praktiziert ihrerseits wiederum einen eher extensiven, weiten Gebrauch des Begriffs „Textstufe“. Die zentrale Frage: „Ab welchem Grad der Änderungen bildet eine handschriftliche Überarbeitung eine eigene Textstufe?“ wird mit einer qualitativen Differenzierung in doppelter Weise – textuell und medial – beantwortet, dergestalt, dass sowohl semantisch relevante Änderungen auch geringsten Umfangs (aber keine Fehlerkorrekturen) als auch jeder Textträgerwechsel per se – und zwar unabhängig vom Textbestand (theoretisch also auch ohne Varianz, bei einer Reinschrift oder einem Druck) – eine neue Textstufe konstituieren. 83 In der Konsequenz kommt es damit zu einem (impliziten) Primat der Medialität, nun allerdings in Kombination mit einer ‚Emanzipation‘ von der textuellen Dimension. Damit einher geht eine Änderung auch in der Wiedergabe. Anders als in der Heym-Ausgabe wird nun jede Textstufe eigens dargestellt. Mit der Kritik am textgenetischen Modell der Meyer-Ausgabe – dort werde „primär die Genese der Verse“, in der Trakl-Ausgabe solle hingegen „primär die Genese des Gedichts sichtbar [gemacht]“ werden 84 – verwirft Zwerschina das Modell einer synoptischen Matrix, dem er die „Vermischung verschiedener Textzustände“, mithin eine Art ‚visueller Kontamination‘ vorwirft. 85 Ein bemerkenswertes Argument, macht es doch einen eklatanten Wandel in der Zielsetzung deutlich: just das, was Zeller wichtig war, nämlich in einer einzigen Ansicht einen Überblick über die paradigmatische und syntagmatische Dimension gleichermaßen – in der „Partitur“-Metaphorik die „orchestrale Entfaltung“ sämtlicher „Takte“ 86 – zu vermitteln, erscheint hier nun als defizitär. An die Stelle der die simultane spatiale (horizontale und vertikale) Lektüre ermöglichenden visuellen Synthese von Paradigmatik und Syntagmatik tritt in der Darstellung durch die Separierung der einzelnen Fassungen das Übergewicht der letzteren. Wie bereits die zitierte Begründung der Herausgeber nicht bloß pragmatisch (bessere Lesbarkeit), sondern konzeptionell und grundsätzlich argumentierte, so nun analog auch die zum Teil kritische Rezeption, die, so etwa Martens, dem Modell vorwarf, es berge „die Gefahr […], den prozessualen Charakter einer Textgenese zu verdecken“, 87 indem es nämlich eine wünschenswerte Annäherung von Produzenten- und Rezipientenperspektive (auf die betreffende Arbeitshandschrift) aufhebe:

–––––––– 82 83 84 85

86 87

Ebd. Zwerschina 1998 (Anm. 30), S. 189, 191f. Vgl. hierzu auch die Kritik von Martens 1998 (Anm. 23), S. 113f. und dort Anm. 32. Zwerschina 1998 (Anm. 30), S. 182. „Der Benützer wird durch die synoptische Darstellung jedenfalls auf eine falsche Fährte gelockt, ihm wird permanent zugemutet, was in der Editionsphilologie im allgemeinen als grober editorischer Fehler gesehen wird, nämlich die Vermischung verschiedener Textzustände.“ Ebd., S. 181. Hans Zeller: Bericht des Herausgebers. In: MSW 2 1964 (Anm. 29), S. 107. So Martens 1998 (Anm. 23), S. 114. Vgl. auch schon Elisabeth Höpker-Herberg zur „Variabilität des Textes“ als „Ergebnis des synoptischen Verfahrens“: Überlegungen zum synoptischen Verfahren der Variantenaufzeichnung. Mit einem Beispiel aus Klopstocks Messias. In: Martens, Zeller 1971 (Anm. 20), S. 219–232, hier S. 221f.

40

Wolfgang Lukas

Und diese Konstellation aller auf einem Textzeugen vorgefundenen Textelemente, die oft genug den weiteren Prozeß der Niederschrift mitbestimmen, sollten dem Leser auch in der textgenetischen Darstellung des Materials vor Augen geführt werden. 88

Soweit diese knappe (und selektive) Skizze zum Stand der textgenetischen Modellbildung und Visualisierung in der Buchedition mit Schwerpunkt auf der deutschsprachigen Situation. Auf diesem Hintergrund sei nachfolgend ein Blick auf die Situation in der digitalen genetischen Editorik geworfen.

Zur digitalen Textgenetik Bisweilen begegnet man der Behauptung, erst das digitale Medium ermögliche „echte“ textgenetische Editionen; 89 das Buch sei hierfür ein prinzipiell inadäquates Medium. 90 Gegenüber dergleichen – tendenziell medienontologisch bzw. gar -deterministisch – argumentierenden Setzungen scheint mir ein wenig Skepsis geboten. So sehr es zutreffen mag, dass die Etablierung der Textgenetik als eines neuen Forschungsparadigmas – als ‚critique génétique‘ in Frankreich und innerhalb der historisch-kritischen Tradition im deutschsprachigen Raum – im letzten Drittel des 20. Jahrhunderts parallel zur ‚Medienrevolution‘ verläuft, 91 so wenig Zweifel kann andererseits daran bestehen, dass zentrale Konzepte sowohl bzgl. der Modellierung als auch der Visualisierung von Textgenese sich zunächst einmal der Bucheditorik verdanken. Bemerkenswert ist in diesem Zusammenhang wiederum auch der begründende Diskurs. Die oben skizzierte ‚Rhetorik der Unmittelbarkeit‘ hat im Zeichen des digitalen Medienwandels neue Nahrung erhalten und tritt nun in Gestalt des Postulats einer Isomorphie zwischen (zu edierendem) Objekt und (Ausgabe-)Medium der Edition auf: Die ‚Dynamik‘ und prozessuale Verfasstheit des Gegenstands verlange nach einem ebensolchen ‚dynamischen‘ Medium. 92 Ganz analog argumentiert die bekannte Rede von der De- oder Multilinearität bzw. von ‚netz-‘ oder gar ‚rhizomartigen‘ Strukturen des Objekts, die

–––––––– 88 89

90 91 92

Ebd. Vgl. hierzu auch die Überlegungen von Henning Boetius zum Verhältnis der „Produktions- und Rezeptionskoordinate“ bei der Darstellung der Textgenese: Boetius 1971 (Anm. 33), S. 239–241. Vgl. die Ankündigung der von Paolo d’Iorio herausgegebenen genetischen Edition von Nietzsches Der Wanderer und sein Schatten: „La plupart des spécialistes s’accordent à reconnaître que seuls les supports et les technologies numériques peuvent permettre la réalisation d’une véritable édition génétique et garantir sa diffusion auprès du public.“ http://nietzsche-news.org/6129/ Abruf Sept. 2018, Hervorh. WL). Gabler 2018 (Anm. 42), S. 361f. Darauf weisen de Biasi, Herschberg Pierrot 2017 (Anm. 28), S. 7, hin. Vgl. stellvertretend: Paolo D’Iorio (Hrsg.): HyperNietzsche. Modèle d’un hypertexte savant sur Internet pour la recherche en sciences humaines. Questions philosophiques, problèmes juridiques, outils informatiques. Paris 2000 und Gabler 2018 (Anm. 42), S. 361f.

Archiv – Text – Zeit

41

nur in einem hypertextuell organisierten Medium – eben dem ‚Netz‘93 – adäquat abgebildet und wiedergegeben werden könnten. 94 Die von editionswissenschaftlicher Seite postulierte Annäherung von Leser und Autor sieht sich ihrerseits gespiegelt in der medienwissenschaftlichen bzw. -philosophischen Theorie einer Grenzaufhebung zwischen producer und consumer digitaler Medien etc. 95 Der aktuelle legitimatorische Diskurs für digitale Editionsvorhaben basiert zu einem nicht geringen Teil auf derartigen strukturellen Äquivalenzbehauptungen. Dabei soll hier nicht bestritten werden, dass das zum Teil durchaus zutreffen mag;96 zum Teil aber eben zweifellos nicht, und genau da handelt es sich dann um Scheinrationalisierungen bzw. Projektionen, die als solche interpretiert werden können – und müssen. Es ist ja kaum zu verkennen, dass hier dem Medium der Edition Eigenschaften als quasi ontologische zugeschrieben werden, die zugleich und zunächst einmal aktuell hochbesetzte soziale Werte repräsentieren: so u. a. Dynamik, Vernetztheit, nicht-hierarchische Organisation, Demokratisierung sowie gesteigerte Individualisierung (bzgl. der Rezeptionsmöglichkeiten) etc. Der theoretische Diskurs, der hier bisweilen emphatischen Manifestcharakter annimmt, ist freilich das eine – die faktische Praxis das andere. Werfen wir im Folgenden also einen Blick auf letztere, indem wir einige ausgewählte Aspekte der Modellierung und Visualisierung von Textgenese im digitalen Medium anhand bereits verfügbarer digitaler Editionen näher in Augenschein nehmen. Eine zentrale Position nimmt die Multiperspektivität ein, die in der digitalen Editorik über den oben definierten Sinn hinaus noch weitere Aspekte umfasst. Zunächst lässt sich konstatieren, dass die von der Hölderlin-Edition eingeführte Trennung einer mimetisch-diplomatischen Transkription im Verbund mit einem digitalen Faksimilearchiv einerseits und eines Lesetextes andererseits sich mittlerweile als absoluter Standard kritischer digitaler Editionen etabliert hat, wobei sowohl dokumentarische Mimetizität als auch Normalisierung mehr oder weniger strikt realisiert sein können.97 Im Hinblick auf die Multiperspektivität besteht also ein gewisser Vorteil des digitalen Mediums, insofern der Zwang zur Entscheidung zwischen beiden Optionen 98 bzw. zu synthetischen Modellen – freilich primär ein pragmatisch-ökonomischer, nicht ein sachlicher Zwang – nicht mehr gegeben ist. Eine von der Räumlichkeit des Dokuments abgelöste genetische Wiedergabe als eigene und weitere Ansicht des Textes einer handschriftlichen Seite bei komplexen mehrfachen Änderungsprozessen findet sich, soweit ich

–––––––– 93

94 95 96

97 98

Insbesondere das ‚Netz‘ bzw. die ‚Vernetztheit‘ dürften mittlerweile den Rang eines Kollektivsymbols erreicht haben und eine Art interdiskursives Versatzstück (sensu Jürgen Link) bilden, das verschiedenste (Fach)Diskurse speist. Vgl. auch, kritisch, Jakob Krameritsch: Hypertext schreiben. In: Digitale Arbeitstechniken für Geistes- und Kulturwissenschaften. Hrsg. von Martin Gasteiner und Peter Haber. Wien u. a. 2010, S. 83–95. Vgl. stellvertretend Hans Walter Gabler zum literarischen Werk als „web of knowledge“ und seiner adäquaten Edition: Theorizing the Digital Scholarly Edition. In: Gabler 2018 (Anm. 42), S. 121–141. Krameritsch 2010 (Anm. 93), S. 84. Für eine rationale Bestandsaufnahme s. Rüdiger Nutt-Kofoth: Sichten – Perspektiven auf Text. In: Medienwandel / Medienwechsel in der Editionswissenschaft. Hrsg. von Anne Bohnenkamp. Berlin 2013 (Beihefte zu editio. 35), S. 19–29. In Bezug auf die Fülle verschiedener existierender Realisierungen dessen, was als „diplomatische“ bzw. „normalisierte“ Edition verstanden wird, hat sich durch den Medienwandel nichts geändert. Hierzu Nutt-Kofoth 2013 (Anm. 96).

42

Wolfgang Lukas

sehe, hingegen nicht; die genetische Information wird entweder in die diplomatische Umschrift integriert – im Falle von isolierbaren graphischen Schreibschichten z. B. durch deren (interaktiv anwählbare) Farbmarkierung, eine digitale Realisierung von Seifferts einstigem Vorschlag der „Durchsicht-Methode“ 99 – oder separiert in Gestalt eines (mehr oder weniger traditionellen) genetischen Apparats vermittelt. Besteht der Anspruch, Textbildungsprozesse bei umfangreicher zwischenhandschriftlicher (textträgertranszendierender) Varianz zu rekonstruieren und explizit zu machen, wird Multiperspektivität noch in einer weiteren Dimension bedeutsam. Diese Fälle erfordern eine systematische Relationierung der syntagmatischen und paradigmatischen Dimension und werfen somit ein Darstellungsproblem auf, das mit dem alleinigen Fokus auf die mediale Einheit der einzelnen Seite nicht lösbar ist. Hier wird nun der von Backmann erstmalig thematisierte Aspekt des (variablen) Betrachtungsausschnitts als notwendiger Referenzeinheit jeder genetischen Aussage relevant. Dieser Aspekt besitzt im digitalen Medium ungleich größere Relevanz als im Buch, da dort der Leser bzw. Benutzer die Wahl der Vergleichseinheiten (jenseits von stellenbezogener Varianz) relativ selbständig trifft, er kann also z. B. je nach Fragestellung verschiedene Fassungen eines Werks nach Belieben nach vorgegebenen (etwa Kapiteln) oder selbstgewählten Segmenten (bestimmten Abschnitten, Stellen, Sätzen etc.) vergleichen. Theoretisch kann er das auch mit digitalen Texten, jedoch ist die Orientierung und Navigation im virtuellen Raum deutlich schwieriger zu leisten als im Fall des Buches. Die vielbeschworene Individualisierung der Benutzerwege besteht primär in der individuellen Auswahl der angebotenen Optionen und der Reihenfolge von deren Nutzung. Die Optionen als solche müssen aber explizit vorgegeben und eingerichtet (u. a. programmiert) werden, weshalb denn auch die Frage nach den Möglichkeiten des ‚Zugangs‘ zum Material eine so eminente Rolle spielt. Die neue ‚Freiheit‘ ist in gewisser Weise um den Preis einer verstärkten Rezeptionslenkung erkauft. Die Arten und Möglichkeiten des Zugriffs auf das aufbereitete Material und der Navigation innerhalb desselben sind jedenfalls weder sekundär noch jemals alternativlos, sondern stets Resultat der editorischen Modellierung und ein gezieltes Lektüre- bzw. Nutzungsangebot der Herausgeber. Damit sind sie letztlich auch ein Erkenntnismittel, mit dem die Wissensproduktion gesteuert wird. Umso mehr ist die Explizierung des jeweiligen Zugangsmodells und diesbezüglich also ein Maximum an selbstreflexiver editorischer Transparenz geboten.

–––––––– 99

Seiffert 1963 (Anm. 35), S. 192: „Mit Hilfe von Durchsichtblättern ließe sich dann der Arbeitsvorgang genau verdeutlichen, indem man Schicht für Schicht mit dem Abheben jedes Blattes deutlich verfolgen kann […].“ Vgl. z. B. die Markierung unterschiedlicher Hände und isolierbarer Bearbeitungsstadien als statische Variante in der von Gabriele Radecke hrsg. genetisch-kritischen Edition von Fontanes Notizbüchern (etwa Notizbuch C7, S. 1r: https://fontane-nb.dariah.eu/edition.html?id=/xml/data/16b00.x ml&page=1r) und als jeweils ‚dynamische‘ Variante in der digitalen Schnitzler-Edition (z. B. im Typoskript zu Fräulein Else: https://www.arthur-schnitzler.de/edition/Dokumentarisch/Dokument klasse/ELS_T1_0031, Abruf Sept. 2018) oder im Shelley-Godwin Archive z. B. in der digitalen Edition von Mary Wollstonecraft Shelleys Frankenstein, Or the Modern Prometheus (etwa MS. Abinger c. 58, 24r.: http://shelleygodwinarchive.org/sc/oxford/frankenstein/volume/iii/#/p47, Abruf Sept. 2018).

Archiv – Text – Zeit

43

Im Hinblick auf den je gewählten (bzw. wählbaren) Betrachtungsausschnitt sind nun verschiedene Kategorisierungen möglich. Zunächst kann man prinzipiell zwischen vorgegebenen und selbst, arbiträr (in diesem Fall: vom Editor) gewählten Einheiten unterscheiden. Erstere können 1. durch das Material und das Medium vorgegeben sein – das überlieferte Dokument als Ganzes, das einzelne Blatt bzw. die (im Buchparadigma) als zentrale navigatorische Einheit fungierende Einzelseite –, 2. durch die Sprache – das einzelne Wort (bzw. mehrere zusammenhängende Wörter) oder der einzelne Satz als linguistische Einheiten – und 3. durch die je gattungs- bzw. genrespezifischen Einheiten der Segmentierung, die Textblöcke unterschiedlicher Extension darstellen: Verse und Strophen in der Lyrik, Kapitel, Unterkapitel oder Abschnitte in der Prosa, Redeteile der Figuren im Drama. Während z. B. die digitale Edition von Koeppens Roman Jugend (1976) auf vorgegebene Einheiten des ‚discours‘, in diesem Fall eine von Koeppen vorgenommene Segmentierung des Romans in insges. 53 Sequenzen (im Buchdruck eine bis mehrere Seiten umfassende Abschnitte), zurückgreifen kann und diese als zentrale Referenzeinheit für die textträgerüberschreitende Genese wählt, 100 legt die Beckett-Edition eigene Sequenzen fest, mit denen sie jede Typoskriptseite in bis zu acht Abschnitte von mehreren Zeilen (kongruent mit Satzgrenzen) unterteilt. 101 Diese besitzen hier allerdings rein pragmatisch-navigatorischen Wert. Mit Rüdiger Nutt-Kofoth können wir ferner grob drei Ebenen der genetischen Betrachtung unterscheiden: die Mikroebene, definiert als „die Ebene des Wortes oder der kleineren Menge an zusammenhängenden Wörtern“, die Mesoebene, „die Ebene des Textes bzw. der Fassung“, sowie schließlich die Makroebene, „die Ebene des Werkes“. Letztere definiert sich extensional durch die sowohl chronologisch geordnete als auch nach den – je nach Arbeitsweise und Überlieferungslage unterscheidbaren – genetischen Textsorten (Notiz, Skizze Entwurf, Niederschrift, Reinschrift etc.) klassifizierte Menge der überlieferten genetischen Dokumente. 102 Textuelle Varianz wird demzufolge erst auf der mesogenetischen (größere Textblöcke) und mikrogenetischen (Wörter oder Sätze) relevant, noch nicht hingegen auf der makrogenetischen Ebene. Die im letzten Drittel des 20. Jahrhunderts entstandenen ‚Flaggschiffe‘ historischkritischer Editionen mit Schwerpunkt auf der Textgenetik haben ihre innovativen Modelle bekanntlich mehrheitlich anhand von Lyrikern bzw. gebundener Rede (C. F. Meyer, Hölderlin, Klopstock, Heym, Trakl, Celan) entwickelt, d. h. sie konnten auf die vorgegebene Einheit des Verses zurückgreifen. Diesen Vorteil besitzt auch die digitale Faust-Edition. Größere Herausforderungen stellt zumindest in dieser Hinsicht die Prosa, die in aller Regel keine vergleichbaren Einheiten im mikrogenetischen Bereich bietet. Die digitalen Editionen von Prosawerken gehen unterschiedlich vor. Die

–––––––– 100

101

102

Wolfgang Koeppen: Jugend. Textgenetische Edition. Hrsg. von Katharina Krüger, Elisabetta Mengaldo und Eckhard Schumacher, Rubrik „Textgenese“: http://www.koeppen-jugend.de/textgenese (Abruf Sept. 2018). Samuel Beckett. Digital Manuscript Project. Hrsg. von Dirk Van Hulle and Mark Nixon, vgl. als beliebiges Beispiel eine Seite des handschriftlichen Nachlasses zur L’Innommable: http://www.beckett archive.org/innommable/MS-HRC-SB-4-1/01r?view=imagetext (Abruf Sept. 2018). Nutt-Kofoth 2016 (Anm. 3), S. 38. Der Begriff der „Mesogenese“ ist, so weit ich sehe, originell; „Mikro-“ und „Makrogenese“ sind hingegen verbreitet, werden allerdings unterschiedlich definiert.

44

Wolfgang Lukas

„genetisch-kritische“ Edition von Fontanes Notizbüchern z. B. rekonstruiert die Genese auf drei Ebenen und unterscheidet 1. die chronologische Ordnung der Notizbücher innerhalb des gesamten Korpus, über die zugleich der Zugang zum Material erfolgt, 2. die „notizbuchbezogene Schreibchronologie“, d. h. die zeitliche Rekonstruktion der „einzelnen Notizbuch-Texte[ ]“ als den – zu identifizierenden – gattungsspezifischen Segmenten, aus denen sich ein Notizbuch zusammensetzt (welches nicht notwendig linear von vorne bis hinten gefüllt wurde), und 3. die „seitenbezogene Schreibchronologie“, etwa die verschiedenen Schreibschichten innerhalb eines solchen (in der Regel eine oder mehrere Seiten umfassenden) „Textteils“. 103 Die größte Herausforderung in Bezug auf eine geeignete Visualisierung und Vermittlung der genetischen Relationen stellt zweifellos die mittlere genetische Ebene, die Chronologie der einzelnen Notizbuch-Teile, dar. Die aktuelle Betaversion bietet hier vorläufig noch keine explizite Verzeichnung. Standardmäßig wird eine makrogenetische Perspektive angeboten, wobei eine über die bloße Chronologie hinausgehende genetische Interpretation (bzgl. des qualitativen Wandels einander ablösender Schreibmodi: Notizen, Entwürfe, Niederschriften, Reinschriften etc.) naturgemäß nur bei Werkeditionen mit entsprechend umfangreichem dossier génétique gegeben ist. Solche chronologisch geordneten und nach Textsorte klassifizierten Übersichten bieten etwa die Editionen von Flauberts Madame Bovary,104 Goethes Faust,105 Hermann Burgers Lokalbericht,106 Koeppens Jugend,107 die BeckettEdition,108 die Schnitzler-Edition,109 das Shelley-Godwin-Archive.110 Die Burger-Edition kombiniert die chronologisch-genetische mit einer genealogischen Rekonstruktion, indem sie die vielfältigen Filiationen und Abhängigkeiten zwischen der ersten maschinenschriftlichen kompletten Niederschrift von 1970 und den seit 1960 überlieferten zahlreichen Vorarbeiten in Gestalt eines komplexen Stemmas visualisiert.

–––––––– 103 104 105

106

107

108 109 110

https://fontane-nb.dariah.eu/doku.html?id=gesamtdokumentation_v._prinzipien_der_rekonstruktion_ der_schreibchronologie, (Abruf Sept. 2018). Les manuscrits de Madame Bovary. Edition intégrale sur le web. Hrsg. vom Centre Flaubert. Siehe die Rubrik „classement génétique“: http://www.bovary.fr , (Abruf Sept. 2018). Johann Wolfgang Goethe: Faust. Historisch-kritische Edition. Hrsg. von Anne Bohnenkamp, Silke Henke und Fotis Jannidis, unter Mitarbeit von Gerrit Brüning, Katrin Henzel u. a. Aktuell in der Beta3-Version; siehe die Rubrik der „Handschriften“ (klassifiziert als „Konzept“, „Arbeitsmundum“ etc.): http://beta.faustedition.net/archive_manuscripts, (Abruf Sept. 2018). Hermann Burger: Lokalbericht. Digitale Edition. Hrsg. von Peter Dängeli, Magnus Wieland, Irmgard M. Wirtz und Simon Zumsteg. Siehe die Rubrik „Das genetische Dossier“: http://www.lokalbericht.ch/dossier, (Abruf Sept. 2018). Siehe die Rubrik „Texte“. Die dort verzeichneten insges. 1700 Überlieferungsträger lassen sich chronologisch und nach Signatur sortieren, eine typologische Klassifikation wird nicht vorgenommen: http://www.koeppen-jugend.de/texte?facet_filters%5B35_sequenzzuordnung%5D=&facet_filters%5B3 5_publikation%5D=&facet_filters%5Bfolders%5D=&orderby=35_absdatum&source=orderby. Siehe die Rubrik „Manuscript Chronology“, etwa am Beispiel von L’Innommable: http://www.beckettarchive.org/innommable/about/chronology, (Abruf Sept. 2018). Arthur Schnitzler digital (Anm. 36), Rubrik „Chronologie und Entstehungsgeschichte“: https://www.arthur-schnitzler.de/edition/genetisch, (Abruf Sept. 2018). Siehe etwa am Beispiel von Frankenstein die Übersicht: „Tracing the evolution of Frankenstein“ http://shelleygodwinarchive.org/contents/frankenstein, (Abruf Sept. 2018).

Archiv – Text – Zeit

45

Abgesehen vom letztgenannten Spezialfall kann man bei der Visualisierung wiederum grundsätzlich zwischen Listen bzw. listenförmigen Tabellen einerseits und matrixförmigen Tabellen andererseits unterscheiden. Zur ersteren Kategorie gehören etwa die von der Faust- und der Koeppen-Edition zusammengestellten Listen der Überlieferungsträger, die unterschiedlich sortierbar sind (chronologisch, nach Provenienz bzw. nach Signatur, nach medialem Typ etc.). Zur letzteren Kategorie gehören all jene Darstellungen, die eine zweite Dimension mit ins Spiel bringen, indem sie die überlieferten Dokumente mit dem jeweiligen Text in seiner syntagmatischen Erstreckung zu korrelieren versuchen, dergestalt also bereits makrogenetische und meso- bzw. mikrogenetische Perspektive kombinieren. Solche Relationierungen bieten u. a. die Editionen von Flaubert,111 Beckett, Faust, Burger, wobei jeweils die Horizontale das textuelle Syntagma und die Vertikale die chronologische Reihung der Überlieferungsträger repräsentiert; der Text wird dabei unterschiedlich in Referenzsyntagmen segmentiert: nach selbst festgelegten Versblöcken (Faust: Blöcke von 5 bis ca. 100 Versen) oder nach vorgegebenen medialen Einheiten wie den Seiten der als Druckvorlage dienenden letzten (hand- oder maschinenschriftlichen) Niederschrift (so Flaubert: genannt „séquences“, ebenso Burger). Die Burger-Edition integriert in das Koordinatensystem zusätzlich die genealogischen Bezüge. Betrachten wir als Beispiel die Faust-Edition, die einen relativ differenzierten multiperspektivischen Zugang zur genetischen Dimension präsentiert.112 Neben dem üblichen Zugang über das (chronologisch geordnete) Archiv bietet sie verschiedene makround mikrogenetische Perspektiven auf den bzw. die Texte. Zwei makrogenetische Darstellungen korrelieren in Gestalt einer Matrix die temporale Dimension mit der textuell-syntagmatischen Dimension. Auf der vertikalen Achse werden jeweils Zeiteinheiten gemäß den diskontinuierlichen entstehungsgeschichtlichen Arbeitsphasen abgebildet: vier Einheiten vom frühesten überlieferten Dokument („vor 1775“) bis zum Erstdruck (1806) bei Faust I, acht Einheiten von je einem Jahr von „vor 1825“ bis 1831 bei Faust II; auf der horizontalen Achse werden textuell-syntagmatische Einheiten in zunehmender Granularität aufgetragen: zunächst die Akte, sodann in einem zweiten Schritt die einzelnen Szenen. In einem dritten Schritt wechselt die Referenzeinheit vom ganzen Werk zur einzelnen Szene, die nun als solche auswählbar ist und einen Fassungsvergleich erlaubt. Die horizontale Achse untergliedert die Szene in Segmente, die aus je gleichlangen Versblöcken bestehen (wobei deren Extension von Szene zu Szene unterschiedlich ist, je nach der zu untergliedernden Gesamtmenge). Die vertikale Achse übersetzt die Zeiteinheiten nun in die jeweils genetisch relevanten Überlieferungsträger,113 wobei die Richtung zugleich invertiert wird: repräsentiert in den beiden

–––––––– 111 112

113

Siehe das „Tableau génétique des brouillons“: http://www.bovary.fr/tableau_genetique.php?tabfen= norm&id=41&mxm=0000010002&tabfen=norm, (Abruf Sept. 2018). Siehe auch den Werkstattbericht: Anne Bohnenkamp, Gerrit Brüning, Silke Henke, Katrin Henzel, Fotis Jannidis Gregor Middell, Dietmar Pravida, Moritz Wissenbach: Perspektiven auf Goethes Faust. Werkstattbericht der historisch-kritischen Hybridedition. In: Jahrbuch des Freien Deutschen Hochstifts 2011, S. 23–67. Wobei es sich nicht um eine wirkliche ‚Übersetzung‘, sondern einfach eine Ersetzung der temporalen durch die archivalischen Einheiten handelt. Wie sich die Überlieferungsträger jeweils auf die Zeitphasen verteilen, wird an dieser Stelle leider nicht gesagt – was aber leicht möglich wäre.

46

Wolfgang Lukas

makrogenetischen Ansichten die oberste Zeile die zeitlich letzte Fassung, so verhält es sich in der dritten, Makrogenese (Paradigma der Überlieferungsträger) und Mesogenese (Szenen, in Versblöcke unterteilt) kombinierenden Ansicht umgekehrt. Der Textbildungsprozess wird dergestalt von beiden Richtungen her lesbar, vom finalen Resultat her wie auch vom Anfang her, und sucht damit jegliche ‚teleologische‘ Orientierung zu vermeiden. Einen anderen Weg geht die Koeppen-Edition, die die mesogenetische Ebene nicht via Matrix, sondern über Listen erschließt. Der Romantext wird in Gestalt einer geordneten Liste der insges. 53 Segmente angeboten (Rubrik „Textgenese“), von wo aus jeweils die Genese explorierbar wird. Die mikrogenetische, auf die lexikalische Stellenvarianz (und damit dominant auf die paradigmatische Dimension) fokussierende Perspektive kann ihrerseits zumeist auf mehrfachem Wege erreicht werden. Innerhandschriftliche Varianz ist in der Regel über die dokumentarischen Ansichten erschließbar; die zentrale Herausforderung liegt somit in der Vermittlung der zwischenhandschriftlichen Varianz. Eine Fokussierung auf eine mikrogenetische Einheit – Wort, Satz, Vers – mit expliziter Markierung der Varianz bieten bislang überhaupt nur wenige Projekte, so z. B. Faust und Beckett. In der FaustEdition z. B. vermittelt eine erste mikrogenetische Perspektive die textträgerbezogene Binnenvarianz in Gestalt eines linearen Einblendapparats, der in die (zu jedem Überlieferungsträger neben der „dokumentarischen Transkription“ angebotene) „textuelle Transkription“ integriert wird. Eine zweite mikrogenetische Perspektive informiert über die Totalität stellenbezogener Varianz in Gestalt eines genetischen, Intra- und Inter-Dokumentvarianz vereinigenden Kolumnenapparats, der wiederum sowohl vom konstituierten Lesetext als auch von einer zweiten Form der textuellen Transkription her anwählbar ist und pro Vers nach unten aufklappt. Diese zweite Form unterscheidet sich von der ersten dadurch, dass sie nur die letztgültige Textstufe verzeichnet und, soweit man erschließen kann,114 leicht normalisiert ist (etwa wird Schaft-ſ durch Rund-s ersetzt). 115 Sie wird auch ausschließlich als alleinige Ansicht für eine kontinuierliche, überlieferungsträgerbezogene syntagmatische Lektüre angeboten, während die erste zugleich als Synopse mit der dokumentarischen Transkription anwählbar ist. Die Fassung der letztgültigen Textstufe steht somit gewissermaßen zwischen dem konstituierten Lesetext einerseits und der textuellen Transkription andererseits, welche noch dokumentnäher ist, insofern sie die originale Graphie aufweist. Während die textuelle Transkription eine bloße ‚Oberfläche‘ anbietet (mit Verzeichnung lediglich der Binnenvarianz), enthält die zweite neben der Oberfläche, auf der keine Varianz mehr sichtbar ist, zugleich eine – per Klick aufklappbare – ‚Tiefe‘, die die chronologische Dimension, also die ‚Geschichte‘ des jeweiligen Textsyntagmas (Verses) in Gestalt des kompletten Variantenapparats bietet. Eine genetische Rekonstruktion eventueller versübergreifender Änderungszusammenhänge gibt es nicht. Die Beckett-Edition bietet ihrerseits eine satzbasierte Kollationierung an, die man über die dokumentarische Ansicht erreichen

–––––––– 114 115

Ein editorischer Bericht ist aktuell (Sept. 2018) noch nicht verfügbar. Diese Textgestalt erhält in der Edition keinen eigenen Namen, sondern lediglich die Sigle „T“: also ein Text, der sich sowohl vom „Lesetext“ als auch von der „textuellen Transkription“ unterscheidet.

Archiv – Text – Zeit

47

kann („synoptic sentence view“). Bei komplexer Genese wird eine zusätzliche verbaldiskursive Erläuterung gegeben. 116 Die Koeppen- und Burger-Edition hingegen bieten ausgehend von der makrogenetischen Perspektive (geordnete Liste der Sequenzen für Jugend, die genannte Matrix für den Lokalbericht) eine Zusammenstellung der – bezogen auf eine Sequenz (Koeppen) bzw. Seite des Gesamttyposkripts (Burger) – jeweils textgenetisch relevanten, d. h. einen genetischen Verband bildenden Überlieferungsträger; der gewählte Betrachtungsausschnitt bleibt hier die (hand-, maschinen- oder druckschriftliche) Seite. Der Leser hat sodann die Möglichkeit des selbstständigen, nichtgelenkten Vergleichs, muss freilich erst die Varianzen und Bezüge suchen. Eine nochmals andere Lösung bietet das Shelley-Godwin-Archive, wo ebenfalls keine systematische und explizite mikrogenetische Perspektive zur Verfügung gestellt wird, aber über die Suchfunktion via einzelner Wörter (bzw. Wortgruppen) eine Zusammenstellung der betreffenden Dokumente incl. einer Liste der Revisionen angeboten wird. 117 Eine bislang (so weit ich sehen kann) singuläre Funktionalität bietet die BeckettEdition in Gestalt einer Animation. 118 Sie versteht sich als Visualisierung der editorische Hypothese119 zur Genese des ersten, in zwei Notizbüchern überlieferten Entwurfs von L’Innommable. Die Darstellung erfolgt insgesamt in fünf Schritten, deren letzter die Animation zur Verfügung stellt, und möchte den – satzbasierten – Prozess der sukzessiven Seitenfüllung des gesamten Manuskripts anschaulich zu machen. Damit entwirft die Beckett-Edition zweifellos ein innovatives Modell der Korrelierung von archivalischer, genetischer und textuell-syntagmatischer Ordnung; mit der Animation, die ein Maximum an Dynamisierung und ‚Verflüssigung‘ des Prozesses anstrebt, wird allerdings auch eine gefährliche Grenze erreicht, wo Rekonstruktion in Simulation und re-enactment übergeht. 120 Ich breche meine Untersuchung hier ab und versuche, ein Fazit zu ziehen. Hat die digitale genetische Editorik das Versprechen, neue Möglichkeiten der „tellability“ von Textgenese121 zu schaffen – und damit die Krise, in die, so der common sense, das historisch-kritische Paradigma geraten ist, zu überwinden –, also eingelöst bzw. kann sie es einlösen? Hat sie „Horizonte“ von einer qualitativ neuen Größenordnung eröffnet?122 Ein abschließendes Urteil hierüber ist zum jetzigen Zeitpunkt kaum möglich (und würde auch eine eingehendere, systematischere Untersuchung erfordern, als sie mir hier möglich war). Mein Fazit kann somit nur ein vorläufiges und zudem sehr

–––––––– 116 117 118 119 120

121 122

Vgl. etwa am Beispiel von L’InnommableThe Unnamable: http://www.beckettarchive.org/innommable/ about/chronology?id=[0009]&trans=full#note1 (Abruf Sept. 2018). Vgl. in der Einführung den § „Searching and Refining Results“: http://shelleygodwinarchive.org/usingthe-archive, (Abruf Sept. 2018). http://www.beckettarchive.org/writingsequenceofinnommable.jsp, (Abruf Sept. 2018). Hierzu Dirk Van Hulle, Shane Weller: The Making of Samuel Beckett’s L’InnommableThe Unnamable. Brüssel 2014. Vgl. in diesem Zusammenhang auch die Überlegungen von Hubertus Kohle zur tendenziellen Ununterscheidbarkeit von ‚Rekonstruktion‘ und ‚Simulation‘ im virtuellen Medium: Digitale Rekonstruktion und Simulation. In: Digital Humanities. Hrsg. von Fotis Jannidis, Hubertus Kohle und Malte Rehbein. Stuttgart 2017, S. 315–327. Ferrer 2017 (Anm. 2), S. 21. Gabler 2018 (Anm. 42), S. 361 („horizons of a new order“).

48

Wolfgang Lukas

begrenztes sein. Mit Synopsen, Listen, Tabellen und Koordinatensystemen (Matrix: u. a. Kolumnenapparat), die verschiedene Perspektiven auf verschiedene Ebenen der Genese erlauben, nutzen die digitalen Editionen naheliegenderweise all jene Möglichkeiten der Darstellung und Visualisierung von Textgenese, die vor allem in der letzten Jahrhunderthälfte bereits innerhalb des Buchparadigmas für eine zweidimensionale Inskriptionsfläche entwickelt wurden. Die qualitative Differenz zum Buchmedium besteht hier primär in der Anreicherung durch interaktive Optionen, die entweder verschiedene Perspektiven auf denselben Gegenstand erlauben (was im Buchdruck Mehrfachabdrucke erfordern würde) oder gezielte Verknüpfungen mit anderen Dokumenten und somit einen raschen Wechsel zwischen dominant syntagmatischer oder dominant paradigmatischer Lektüre erlauben. Ein unbestreitbarer Vorteil liegt also in der Pluralisierung und Flexibilisierung der wählbaren Ausschnitte, innerhalb deren der Textbildungsprozess beobachtet werden kann. Dieser Vorteil situiert sich zunächst einmal auf einer pragmatischen Ebene. Darüber hinausgehende Visualisierungstechniken, etwa dreidimensionale Ansichten oder Animation, finden sich bislang kaum. Sind die Editoren also noch zu sehr dem Buchmedium verhaftet und nutzen – zu Unrecht – nicht die bereits zur Verfügung stehenden Mittel? Oder unterscheiden sie – zu Recht – zwischen dem, was technisch machbar und dem, was philologisch sinnvoll ist? Eine besondere Herausforderung, vor die sich digitale Editoren gestellt sehen, ist der Anspruch, dass ihre Ergebnisse möglichst ‚intuitiv‘, ‚anschaulich‘ und ‚selbsterklärend‘ sein sollen. 123 Komplexe textgenetische Sachverhalte verlangen unzweifelhaft auch nach einer geeigneten Visualisierung, das gilt medienunspezifisch. Vielleicht besteht ein zentraler Unterschied zwischen analoger und digitaler genetischer Editorik aber darin, dass in letzterer im Hinblick auf den editorischen Diskurs der Modus des ‚Sagens‘ dem des ‚Zeigens‘ zunehmend weichen soll – ein bemerkenswerter Wunsch nach bzw. Bedarf an ‚Analogizität‘ inmitten des digitalen Mediums. Nicht zuletzt dieser – potentiell ‚antiintellektualistische‘ – Imperativ des Intuitiven begründet die enorme Bedeutung der Visualisierung im digitalen Medium. Dabei gilt es sich bewusst zu machen, dass „[d]iagrammatische Visualisierungen (Schemata, Graphen, Diagramme, Karten ...), also die epistemische Nutzung räumlicher Relationen, immer auch Erkenntnismittel, Werkzeuge zur Produktion von Wissen und nicht ‚nur‘ Illustrationen [sind].“124 Die Rezeptionslenkung durch den Editor erfolgt somit weniger verbal-diskursiv als im Buch, sie verschwindet gleichwohl nicht. Auf der anderen Seite, das zeigt insbesondere das zitierte Animations-Beispiel aus der Beckett-Edition, produzieren dergleichen Visualisierungen letztlich nicht automatisch philologische Erkenntnis, d. h. sie ‚sprechen‘ nicht schon von sich aus, sondern benötigen immer noch eine explizite verbale Erläuterung und Auswertung durch den Editor (die im genannten Fall auch

–––––––– 123

124

Vgl. etwa Paolo D’Iorio und Mathieu Kessler: Chemins qui mènent quelque part. A propos des possibilités d’ordonnancement chronologique et thématique des textes et des manuscrits. In: D’Iorio 2000 (Anm. 92), S. 163–180: „Mais permettre de reconstruire est autre chose que représenter“(S. 165). Sibylle Krämer: ‚Der Stachel des Digitalen‘ – ein Anreiz zur Selbstreflexion in den Geisteswissenschaften? Ein philosophischer Kommentar zu den Digital Humanities in neun Thesen. In: Digital Classics online DCO 4,1, 2018, S. 10. DOI: https://doi.org/10.11588/dco.2017.0.48490. Hierzu auch Malte Rehbein: Informationsvisualisierung. In: Jannidis, Kohle, Rehbein 2017 (Anm. 120), S. 328–342.

Archiv – Text – Zeit

49

gegeben wird). Im übrigen gilt für alle hier besprochenen digitalen Editionen – wie schon für ihre Vorfahren in Buchform –, dass sie keineswegs ‚sofort‘ und auf Anhieb benutzbar sind, sondern immer auch eine gebührende Einarbeitungszeit erfordern; daran ändert auch die Tatsache, dass „Hinweise zur Benutzung“ gerne in Gestalt eines Demofilms formuliert werden, nichts. Vielleicht kann es im gegebenen Kontext nicht schaden, sich noch einmal bewusst zu machen, in welchem Ausmaß Kriterien der ‚Lesbarkeit‘ einem historischen Wandel unterworfen und somit relativ sind. Ich zitiere abschließend Backmanns Legitimation für die gedrängte Form des linearen genetischen Apparats in der Wiener GrillparzerAusgabe, der textgenetische Information in einer Weise darbot, die schon der jüngeren Generation eines Beißner u. a. als mehr oder weniger unlesbar galt (Abb. 4).125 Die vom Verlag aufgrund der prekären Nachkriegsverhältnisse verlangte „allergrößte Raumausnutzung“ habe, so Backmann, zwar „alle Wünsche für ästhetisch schönen Abdruck der einzelnen Lesarten und Lesartenfolgen hinfällig“ gemacht, zugleich jedoch „eine lang ersehnte Befreiung“ gebracht: Es wurde die Bahn frei für ein Prinzip, das ich das Prinzip durchlaufender Rohdrucke nennen möchte. […] Auf diese Weise wird langwieriges Vergleichen hin und her vermieden, alles ist immer „hübsch beisammen“, viele Wiederholungen werden erspart. Kein unnötiges Hin- und Herblättern mehr, kein unliebsames und höchst lästiges Suchen mit dem Finger, kein erneutes Vergleichen Silbe für Silbe – und selbst bei aller Schmälerung des ästhetischen Genusses doch ein ebenmässiges und ruhig fortlaufendes Druckbild. Ich halte alles für Vorteile.126

–––––––– 125

126

Beispielseite aus der von August Sauer und Reinhold Backmann hrsg. „Hist.-krit. Gesamtausgabe“ von Franz Grillparzers Sämtlichen Werken. I. Abtlg, 23. Bd.: Apparat zu den Gedichten und Epigrammen. Wien 1948, S. 3. Backmann 1924/2005 (Anm. 13), S. 129 (Hervorh. i.O.).

Anna Busch

Visualisierung textgenetischer Phänomene in digitalen Editionen

Während sich für einzelne Daten- und Objektgruppen des kulturellen Erbes Datenmodelle und Repräsentationsformen herausgebildet haben, etwa für den Onlinekatalog und die Digitale Sammlung, haben sich für eine Reihe zentraler Wissensformen bislang vorrangig Datenmodelle etabliert. 1 Die Repräsentationsformen befinden sich, wie im Falle digitaler Textkorpora und Editionen, noch im Experimentalstadium. Während sich die Standardisierungsprozesse hinsichtlich der Datenmodelle im Bereich digitaler Editionen spätestens seit den Bewertungskriterien für digitale Editionen von Patrick Sahle2 und der Einführung des Reviewjournals RIDE 3 ablesen lassen,4 kann auf eine entsprechende Standardisierung hinsichtlich der Repräsentationsmodelle noch nicht verwiesen werden. Die Frage nach den jeweiligen Repräsentationsmodellen – oder wie hier im Folgenden nach den Visualisierungen eines bestimmten Aspekts digitaler Editionen, der Textgenese, – ist daher von der Frage nach dem zugrundeliegenden Datenmodell zu unterscheiden, wenn auch nicht loszulösen. Den X-Technologien, wie sie sich im Rahmen von Datenmodellen für Editionen oder auch Metadaten etabliert haben, stehen zurzeit verschiedene produktive, aber bisher nicht nachhaltige bzw. etablierte Repräsentationsmodelle gegenüber:5 Zu nennen wären hier Heat Maps, Sequence Alignments, Variant Graphs, Side by Side Views oder Histograms.

–––––––– 1

2

3 4

5

Die digitale Präsentation zu den Abb. dieses Beitrags finden Sie unter: http://aau.at/musil/publikatio nen/textgenese/busch/. Für wertvolle Hinweise zum Folgenden danke ich Jan-Erik Stange (Universität Hamburg). Kriterien für die Besprechung digitaler Editionen, Version 1.1. Patrick Sahle; unter Mitarbeit von Georg Vogeler und den Mitgliedern des IDE; Version 1.1, Juni 2014 (Version 1.0, September / Oktober 2012), https://www.i-d-e.de/publikationen/weitereschriften/kriterien-version-1-1/ (Abruf am 22.08.2018). https://ride.i-d-e.de/ (Abruf am 22.08.2018). Vgl. hierzu auch den Abschnitt 17.5 Methoden und die Realisierung digitaler Editionen. In: Digital Humanities. Eine Einführung. Hrsg. von Fotis Jannidis, Hubertus Kohle, Malte Rehbein. Stuttgart 2017, S. 241–244. Zur Frage der Nachhaltigkeit von Präsentationsformen für digitale Editionen vgl. Martin Fechner: Eine nachhaltige Präsentationsschicht für digitale Editionen. In: Book of Abstracts: DHd 2018. Kritik der digitalen Vernunft. Universität zu Köln, 26. Februar bis 2. März 2018, S. 203–207. Bei der an dieser Stelle vorgestellten Entwicklung einer Standardschnittstelle zur längerfristigen Sicherung der Funktionalitäten von digitalen Editionen per Manifestdatei handelt es sich um einen bedenkenswerten Ansatz. Ob eine Programmbibliothek, die die Funktionalitäten zur Anzeige einer digitalen Edition bereitstellt, auch komplexe Visualisierungsszenarien abdecken kann, müssen Testläufe mit verschiedenen digitalen Editionen zeigen. Grundsätzlich steht die Festlegung auf bestimmte Standards explorierenden

https://doi.org/10.1515/9783110575996-004

52

Anna Busch

Bei digitalen Editionen hat sich ein Standard dahingehend etabliert, neben dem edierten Text Faksimiles der überlieferten Textträger abzubilden. Eine solche Abbildung ist jedoch von einer Visualisierung von Daten im Sinne der Informationsvisualisierung, die sich die computergestützte, interaktive, visuelle Repräsentation abstrakter Daten zur Erkenntnisgenerierung zum Ziel gesetzt hat, 6 zu unterscheiden.

Visualisierungen von Forschungsdaten Visualisierungen von Forschungsdaten nehmen in vielen unterschiedlichen Wissenschaftsbereichen eine zentrale Rolle im Forschungsprozess ein. Ihr Einsatz ist immer dann sinnvoll, wenn eine reichhaltige Datengrundlage gegeben ist, die sich durch ihre Komplexität und Vielschichtigkeit auszeichnet, deren Erfassung und Auswertung ohne geeignete Hilfsmittel erschwert ist oder nicht geleistet werden kann. Dabei können Visualisierungen der Illustration von Analyseergebnissen dienen, die mithilfe unterschiedlicher Diagramme oder Graphen Zusammenhänge verdeutlichen. Andererseits sind Visualisierungen nicht nur zu denken als eine Möglichkeit Ergebnisse zu präsentieren, sondern auch als eigenständige Werkzeuge, die zum Erkenntnisgewinn verhelfen können. Sie erfüllen also unterschiedliche Funktionen, denen sich sowohl der Ersteller als auch der Nutzer bewusst sein muss: Visualisierungen transformieren, gewichten und filtern komplexe Daten und bringen sie dadurch in eine Form, die sie als Informationen erfassbar und interpretierbar machen. Visualisierungen sind damit keine Abbildungen der Wirklichkeit, sondern aufgrund von Relevanzkriterien geordnete und damit interpretative Reduktionen von Daten, die auf der Basis gestalterischer Vorgaben visuell repräsentiert werden. 7 Das bedeutet im Bereich geisteswissenschaftlicher Forschung eine Abstraktionsund Transfer-, ja eine Übersetzungsleistung, die sowohl durch den Ersteller als auch durch den Nutzer oder Rezipienten geleistet werden muss. Im Gegenzug dazu können Visualisierungen eine Mittlerfunktion einnehmen, die es erlaubt, quantitativ-maschinelle mit der qualitativ-interpretierenden Analyse in einem iterativen, empirisch-hermeneutischen Erkenntnisprozess zu kombinieren.8 In dem Changieren zwischen der

––––––––

6

7 8

Darstellungsvisionen, wie sie zurzeit erprobt werden, entgegen. Möchte man die Möglichkeiten der Informationsvisualisierung auch für Auswertung digitaler Editionen ausschöpfen, wird das gegenwärtig nur zu Lasten von Langzeitarchivierung und -verfügbarkeit, sprich der digitalen Nachhaltigkeit, möglich sein. Vgl. hierzu die Definition von Stuart Card, Jock MacKinlay, Ben Shneiderman: „Information Visualization: The use of computer-supported, interactive, visual representations of abstract data to amplify cognition.“ Stuart Card, Jock MacKinlay, Ben Shneiderman: Readings in Information Visualisation. Using Vision to Think. San Francisco 1999, S. 7. Siehe auch Malte Rehbein: Informationsvisualisierung. In: Digital Humanities. Eine Einführung. Hrsg. von Fotis Jannidis, Hubertus Kohle, Malte Rehbein. Stuttgart 2017, S. 328–342, hier S. 330. Noah Bubenhofer, Marc Kupietz: Einleitung. In: Visualisierung sprachlicher Daten. Visual Linguistics – Praxis – Tools. Hrsg. von Noah Bubenhofer und Marc Kupietz. Heidelberg 2018, S. 7. Vgl. hierzu ebd., S. 7f. Gestützt auf Matt L. Jockers: Macroanalysis. Digital Methods and Literary History. Urbara-Champaign, IL 2013 und Marc Kupietz, Holger Keibel: Gebrauchsbasierte Grammatik. Statistische Regelhaftigkeit. In: Deutsche Grammatik – Regeln, Normen, Sprachgebrauch. Hrsg. von Marek Konopka, Bruno Strecker. Berlin 2009, S. 33–50, hier S. 48.

Visualisierung textgenetischer Phänomene in digitalen Editionen

53

Abbildung großer Datenmengen, ihren statistischen Abhängigkeiten und der Interpretation der in ihnen möglicherweise auftretenden Zusammenhänge, Muster und Strukturen ist ihre entscheidende Wirkmächtigkeit zu sehen: Sie können Befund abbilden und gleichzeitig Deutung zulassen und befördern. Die Voraussetzung für die Erstellung einer einleuchtenden und intuitiven Visualisierung liegt also in einer genauen und computerlesbaren Beschreibung des jeweiligen Befundes. Ohne diese ist die darauf aufbauende Visualisierung wert- und nutzlos. Grundsätzlich muss zudem bedacht werden, dass jede Visualisierung immer nur eine von vielen möglichen ist. Visualisierungen setzen – folgt man der von Groeben skizzierten „Sequenz von Untersuchungsschritten“ 9 im Forschungsprozess – da an, wo bereits Daten erhoben sind, d. h. zu einem Zeitpunkt, da bereits viele Untersuchungsschritte erfolgt sind. Sie sind, folgt man dieser Sequenzierung, dem letzten Bereich vor der Diskussion der Ergebnisse, der Datenaufbereitung und -auswertung zuzuordnen. Das enthebt den/die Ersteller aber nicht der Notwendigkeit, ein informatorisches Aufbereitungskonzept, das auch die Visualisierung einschließt, bereits zu Beginn des Forschungsprozesses mitzudenken. Denn eine Datenverarbeitung ohne (explizit oder implizit) hypothesengeleitete Selektions- und Sortiermechanismen kann für die theoretische Modellierung der Forschungsfrage nicht zielführend sein. Für den Bereich digitaler Editionen bedeutet dies: Die Erfassung des Befundes, seine Verarbeitung, seine Anreicherung und Präsentation, hängen maßgeblich von den normativen Vorgaben des jeweiligen Editionstyps sowie des zugrunde liegenden Editionskonzepts ab.10

Textgenese vs. textgenetische Phänomene Im Titel dieses Aufsatzes wird von textgenetischen Phänomenen und nicht umfassend von Textgenese gesprochen. Der Grund dafür ist in der Besonderheit des digitalen Mediums zu suchen. Die im Jahr 2000 von Dirk Göttsche (der sich auf Heinrich Meyer11 und Stefan Graber12 stützt) geäußerte Prognose, die editorische Aufgabenstellung der traditionellen Ausgabentypen – historisch-kritische Edition, Studien- und

–––––––– 9

10 11 12

Vgl. hierzu die unterschiedlichen Untersuchungsschritte, die Norbert Groeben skizziert: 1. Explikation der Problemstellung – 2. Theoretische Modellierung – 3. Entwicklung der Erhebungsinstrumente – 4. Untersuchungsplanung und -durchführung – 5. Datenaufbereitung und -auswertung – 6. Diskussion der Ergebnisse. Norbert Groeben: Was kann / soll ›Empirisierung in der Literaturwissenschaft‹ heißen? In: Empirie in der Literaturwissenschaft. Hrsg. von Philip Ajouri, Katja Mellmann, Christoph Rauen. Münster 2013 (Poetogenesis – Studien zur empirischen Anthropologie der Literatur. 8), S. 47–74, hier S. 48. Ähnlich auch: Per Röcken, Annika Rockenberger: Interessengeleitete Datenverarbeitung. Zur Empirie der neugermanistischen Editionsphilologie. In: ebd., S. 93–130, hier S. 101. Heinrich Meyer: Edition und Ausgabentypologie. Eine Untersuchung der editionswissenschaftlichen Literatur des 20. Jahrhunderts. Bern u. a. 1992. Stefan Graber: Der Autortext in der historisch-kritischen Ausgabe. Ansätze zu einer Theorie der Textkritik. Bern, Frankfurt/Main 1998, S. 19f.

54

Anna Busch

Leseausgabe – bleibe auch im Zeitalter der elektronischen Datenverarbeitung unverändert, ist heute zu überdenken. 13 Zumindest muss eine Aufweichung der klar umrissenen Ausgabentypologie, wie er sie in seinem Aufsatz Ausgabentypen und Ausgabenbenutzer festschreibt, konstatiert werden. Für die klassische Editionswissenschaft hat mit der beginnenden Verlagerung in den elektronischen Bereich eine Möglichkeit der Neudefinition zuvor feststehender Kategorien eingesetzt, die neue Formen der editionswissenschaftlichen Arbeit denk- und umsetzbar werden lässt, Mischformen zulassen kann und dem von Hans Zeller vorgeschlagenen ‚Baukastenprinzip‘ unter veränderten Vorzeichen zu neuer Aktualität verhilft.14 Der edierte Text kann – wie von Zeller propagiert – losgelöst von einem Apparat oder Kommentar die Grundlage für unterschiedliche Ausgabentypen, entsprechende Benutzeranforderung und Anzeigemodi werden. Der digital präsentierte editorisch erhobene Datenbefund kann − in Analogie hierzu − losgelöst von einem Apparat oder Kommentar die Grundlage für unterschiedliche Visualisierungsmodelle werden, die den Nutzer zum Ersteller seiner eigenen Edition werden lassen. Tatsächlich lassen sich digital textgenetische Einzelaspekte und -daten und ihre Visualisierung heute nutzergeneriert zusammenfügen und dadurch transmedial das in den Daten gefasste Wissen zu neuen editorischen Modellen zusammenführen. So kann der Nutzer bestimmen, ob ihn der Überblick über die Textgenese und Kontextzusammenhänge oder doch bestimmte textgenetische Einzelaspekte − Stränge oder Ebenen, Textstufen, Fassungen oder Varianten − unter temporalen oder räumlichen Gesichtspunkten interessieren. Dieser virtuelle Baukasten ermöglicht auf der Basis wissenschaftlich fundierter Datenerhebung eine Bewegung des Nutzers auf unterschiedlichen Abstraktionsebenen, skalierbar zwischen Ausschnitts-, Detail- und Quellennähe einerseits und überblicksartiger, übergeordneter (Vogel-)Perspektive andererseits. Die Analyse von Textgenese eignet sich in einer digitalen Umgebung ganz grundsätzlich für eine Informationsvisualisierung, da in beiden Feldern entsprechende Bezugsysteme in Anschlag gebracht werden, die auf temporale, raumbezogene, abstrakte und/oder relationale Größen rekurrieren. Auf einer makroskopischen Ebene kann eine Visualisierung übergeordnete Strukturen aufzeigen, die sich aus Einzeldaten zusammensetzt. Auf einer mikroskopischen Ebene werden Detaileinsichten möglich gemacht.

Digitale Edition und Textgenese Die Anwendung der Richtlinien der Text Encoding Initiative (TEI) in digitalen Editionen impliziert grundsätzlich die Trennung von Auszeichnung (oder Befunderhebung) und Präsentation, d. h. dass eine TEI-Kodierung keine Informationen zur Darstellung bzw. für die Visualisierung des in der Kodierung festgeschriebenen Befundes enthält.

–––––––– 13

14

Dirk Göttsche: Ausgabentypen und Ausgabenbenutzer. In: Text und Edition. Positionen und Perspektiven. Hrsg. von Rüdiger Nutt-Kofoth, Bodo Plachta, H.T.M. van Vliet, Hermann Zwerschina. Berlin 2000, S. 37–63, hier S. 62. Hans Zeller: Für eine historische Edition. Zu Textkonstitution und Kommentar. In: Germanistik – Forschungsstand und Perspektiven. Vorträge des Deutschen Germanistentages 1984. 2. Teil. Hrsg. von Georg Stölzel. Berlin, New York 1985, S. 305–323, hier S. 321.

Visualisierung textgenetischer Phänomene in digitalen Editionen

55

Dennoch liefert die regelgeleitete TEI-Auszeichnung nach dem TEI-eigenen textgenetischen Modell im Rahmen der digitalen Edition formalisierte Ergebnisse der philologischen Untersuchung zur Textgenese. Diese Formalisierung ermöglicht die Ableitung dynamischer Visualisierungen (und statistische Analysen) aus den erhobenen Daten. Zur digitalen Erfassung und Beschreibung genetischer Phänomene und der Rekonstruktion des Schreibprozesses bietet die TEI ein Instrumentarium, das von der Arbeitsgruppe ‚Genetic Editions‘ vorgeschlagen und das unter den Titel A Genetic Encoding Model for Genetic Editions vorliegt.15 Das Dokument enthält umfangreiche Ergänzungen zu den durch die TEI vorgesehenen Elementen, die speziell für die Beschreibung von Textmodifikationen und -umstellungen, für alternative Lesarten sowie Metamarkierungen und Verweise herangezogen werden können. Die Nachzeichnung der Chronologie mit der Verknüpfung von Zuständigkeiten ermöglicht es, unterschiedliche Stadien des Textes abzubilden. Anstatt die lineare Struktur des Textes zu erfassen und darzustellen, zielt das genetische Modell der TEI darauf ab, den Entstehungsprozess zu verfolgen.16 Dazu wird die physikalische Struktur, nämlich die topologischen Merkmale des Textes auf dem Dokument, erfasst und ausgezeichnet. Handwechsel werden ebenso verzeichnet wie Streichungen, Ergänzungen, Ersetzungen und ähnliche redaktionelle Phänomene. In der Darstellung können die Teile der Transkription, z. B. Marginalien oder Zusätze über/unter Zeilen, sowohl an ihrer ursprünglichen Position (diplomatische Ansicht) als auch in den linearen Text (Leseansicht) integriert werden.

Werkzeuge und Beispiele Informationsvisualisierungen werden im wissenschaftlichen Bereich heute in der Regel mit Hilfe computergestützter Werkzeuge erstellt, „deren Spannbreite von Standardsoftware wie Tabellenkalkulationen mit ihren Diagrammfunktionen und Statistikprogrammen über Geoinformationssysteme für raumbezogene Visualisierungen und spezialisierte Software etwas für Netzwerkvisualisierungen bis zu Visualisierungsbibliotheken für Programmiersprachen wie JavaScript, Python oder R reicht“. 17 Spezieller für den Bereich der Textvisualisierung sind in den letzten Jahren zahlreiche Werkzeuge entwickelt worden, die je nach Fokus einen bestimmten Text oder ein ganzes Korpus

–––––––– 15 16

17

https://tei-c.org/Vault/TC/tcw19.html (Abruf am 25.06.2019). Vgl. zum genetischen Modell der TEI auch: Das textgenetische Modell der TEI. Impulsreferat im Rahmen des Expertengespräches zur genetischen Textkritik im Bereich Musik, Joshua Schäuble, http://beethovens-werkstatt.de/prototyp/expertenkolloquium/das-textgenetische-modell-der-tei/ (Abruf am 22.08.2018): „Mit dem textgenetischen Modell der TEI können Textzeugen strukturell in Oberflächen, Zonen und Zeilen erfasst werden. Einfügungen und Transpositionen können durch die Verbindung solcher Oberflächen, Zonen und Zeilen mittels sogenannter Metamarks ausgezeichnet werden. Ferner können in geordneten und ungeordneten Listen Textstufen/Entstehungsstufen in den Metadaten beschrieben werden, welche durch IDs mit den kodierten strukturellen Elementen verknüpft werden können.“ Malte Rehbein: Informationsvisualisierung. In: Digital Humanities (Anm. 4), S. 328–342, hier S. 336.

56

Anna Busch

in den Blick nehmen und auf einer abstrakten Analyseebene bestimmte Phänomene aus Textdaten veranschaulichen. 18 Für die Visualisierung textgenetischer Phänomene sind Kollationstools, die es erlauben automatisierte Textvergleiche vorzunehmen, von besonderem Interesse. Es geht dabei um maschinengestützte Möglichkeiten des Vergleichs von zwei oder mehreren sich unterscheidenden Versionen desselben Textes mit dem Ziel, Unterschiede und Übereinstimmungen zu identifizieren. Es lassen sich mit solchen Werkzeugen Beziehungen bzw. Abhängigkeiten verschiedener Fassungen eines Textes rekonstruieren und je nach verwendetem Werkzeug auch visualisieren. Der Bereich, in dem solche Ansätze häufig genutzt werden, ist der der Plagiatsuntersuchung. 19 Eine der in Deutschland wohl bekanntesten Visualisierungen von ‚text re-use‘ stammt aus dem Jahr 2011 (Abb. 1 und alle folgenden Abb. unter http://aau.at/musil/ publikationen/textgenese/busch/). Der Barcode dokumentiert die Plagiate in der Dissertation des früheren deutschen Verteidigungsministers Karl-Theodor zu Guttenberg und legt offen, dass auf 94,4% der Seiten der Doktorarbeit Plagiate zu finden sind. Die GuttenPlag-Wikiseite, auf der diese kollaborative Plagiatsdokumentation stattgefunden hat und die 2011 mit dem Grimme Online-Award ausgezeichnet worden ist, hat eine weitere interaktive Visualisierung hervorgebracht (Abb. 2). In diesem Fall wird die gesamte Doktorarbeit mit Einzelseiten aufgeführt. Auf der rechten Seite findet sich ein Legende, in der sämtliche plagiierten Werke und Autoren aufgeführt und ihnen eine bestimmte Farbe zugeordnet wird. Die Einzelseiten erhalten eine entsprechende farbige Einfärbung, wo aus dem genannten Werk plagiiert wurde. Es wird deutlich, dass ungekennzeichnete Fremdtextübernahmen das Bild bestimmen. Abgesehen davon, dass das durchaus visuell ansprechend ist, ist hier auf Entscheidendes hinzuweisen, was bei der Visualisierung von textuellen Phänomenen nicht aus den Augen verloren werden darf: – – –

Die Kraft der Bilder ist nicht zu unterschätzen. Visualisierung legt immer Deutung nahe. Eine Visualisierung ist immer nur so gut, wie der ihr zugrunde gelegte Datensatz. Farben sind sprechend.

Die Farben sind in diesem Fall willkürlich gewählt, will heißen, sie besitzen keine intendierte Aussagekraft. Sie suggerieren dem Betrachter durch den ansteigenden Farbverlauf von Grün zu Rot allerdings, dass sich der Schweregrad des Plagiats steigert. Dabei sollen die Plagiate gar nicht gewichtet werden, sondern die Farbe dient hier vielmehr nur der Zuordnung (Abb. 3). Während in diesem Beispiel händisch vorgegangen

–––––––– 18

19

Vgl. Kostiantyn Kucher, Andreas Kerren. Text Visualization Techniques: Taxonomy, Visual Survey, and Community Insights. In: IEEE Pacific Visualization Symposium (PacificVis), 2015, S. 117–121. Vgl. hierzu auch den Abschnitt Text Visualizations for the Digital Humanities. In: Stefan Jänicke, David Joseph Wrisley: Interactive Visual Alignment of Medieval Text Versions, IEEE Conference on Visual Analytics Science and Technology, IEEE VAST 2017 (pre-print): http://www.informatik.unileipzig.de/~stjaenicke/iteal.pdf (Abruf am 22.08.2018). Beispielhaft seien genannt: CheckText.org, WriteCheck, PlagiarismFinder.

Visualisierung textgenetischer Phänomene in digitalen Editionen

57

wurde, indem Fremdtextübernahmen gesucht und bestimmte Textstellen farblich überlagert wurden, lassen auch Kollations- oder diff-tools entsprechende Textvergleiche zu. Bereits in den 1960er Jahren gab es mit Collatio Codicum: An Exercise in COMIT Programming entsprechende Entwicklungen für automatisierte Textvergleiche. In Deutschland folgte dann in den 1970ern die Entwicklung von TUSTEP, dem Tübinger System von Textverarbeitungsprogrammen zur wissenschaftlichen Textdatenverarbeitung innerhalb der Geisteswissenschaften (Abb. 4).20 Besondere Verwendung hat TUSTEP im Bereich der Editionswissenschaft zur Erstellung textkritischer Ausgaben und beim Vergleich verschiedener Textfassungen zur automatischen Generierung der Apparate erfahren. Bei den zwei zurzeit regelmäßig verwendeten Open Source Tools, die besonders im Hinblick auf die Bedürfnisse von Geisteswissenschaftlern hin entwickelt worden sind, sind Collate mit seiner Weiterentwicklung CollateX sowie Juxta zu nennen (Abb. 5–6).21 Während CollateX zwei oder mehr kürzere Textversionen miteinander vergleichen kann, Variantengraphen generiert, parallele Ansichten der Textversionen (linear, tabellarisch, optional segmentiert) zur Verfügung stellt und (unter gewissen Bedingungen) Transpositionen erkennt, unterstützt Juxta den Vergleich von Textversionen als plain text sowie in beliebigem XML-Format (inkl. TEI-P5), visualisiert die Ergebnisse in verschiedenen Ansichten und ermöglicht HTML-Exporte der Ergebnisse als kritischen Apparat (Abb. 7). Als Werkzeuge, die in erster Linie darauf ausgerichtet sind, Textvarianten zu visualisieren, sind sowohl Versioning Machine als auch TRAViz (Text Re-use Alignment Visualization) zu nennen (Abb. 8–9)22. Versioning Machine versteht sich als eine Oberfläche zur Variantendarstellung mehrerer Textzeugen, die nach den TEIRichtlinien kodiert sind. Ziel von TRAViz ist die Variantenvisualisierung zu Analyse von Unterschieden und Gemeinsamkeiten zwischen verschiedenen Editionen eines Textes sowohl für historische als auch moderne Texte. Dabei können Vergleichsergebnisse als ‚Variant Graph‘ visualisiert werden, die es ermöglichen, Werkentstehungsprozesse – Gemeinsamkeiten, Unterschiede und Zusammenhänge von Textzeugen – durch farbliche Zusammenschau nachzuvollziehen (Abb. 10).23 Ebenfalls in diesem Zusammenhang ist der Interactive Timeline Viewer zu nennen, der Vergleiche mehrerer Texte zur Identifizierung von Textvarianzen ermöglicht.24 Diese Werkzeuge bleiben hinsichtlich der Visualisierung der Textebene verhaftet. Ohne Frage ist diese Nähe zur Textebene für eine textgenetische Detailanalyse uner-

–––––––– 20 21 22 23

24

http://www.tustep.uni-tuebingen.de/ (Abruf am 22.08.2018). http://collatex.net/ und http://www.juxtasoftware.org/ (Abruf am 22.08.2018). http://v-machine.org/ und http://www.traviz.vizcovery.org/index.html (Abruf am 22.08.2018). Stefan Jänicke, Annette Geßner, Greta Franzini, Melissa Terras, Simon Mahony, Gerik Scheuermann: TRAViz: A Visualization for Variant Graphs. In: Digital Scholarship in the Humanities (DSH), Volume 30, Issue suppl_1, 1 December 2015, S. i83–i99, DOI: https://doi.org/10.1093/llc/fqv049. Vgl. hierzu: Carlos Monroy, Rajiv Kochumman, Richard Furuta, Eduardo Urbina, Eréndira Melgoza, Arpita Goenka: Visualization of Variants in Textual Collations to Analyze the Evolution of Literary Works in The Cervantes Project. In: Research and Advanced Technology for Digital Libraries, 6th European Conference, ECDL 2002. Hrsg. von Maristella Agosti, Costantino Thanos. Berlin [u. a.] 2002, S. 638–653.

58

Anna Busch

lässlich. Sie erschwert es aber durch das Fehlen von Überblicksdarstellungen, Zusammenhänge zwischen weiter auseinanderliegenden Textteilen, -fragmenten oder auch verschiedenen Textzeugen zu erkennen und Muster zu identifizieren, die sich auf der Detailebene nicht erschließen. Als zusätzliche unterstützende Navigationsebene ermöglichen Überblicksdarstellungen die schnelle Navigation zwischen voneinander entfernten Positionen im Text. Die übergeordnete, gebündelte Sicht auf Befunde auf einer höheren Abstraktionsebene weist zudem auf mögliche, für Detailanalysen relevante Bereiche hin. Ein Beispiel, bei dem sowohl Übersichts- als auch Detailsichten miteinander in Beziehung gesetzt worden sind, ist in der von Jan-Erik Stange erstellten Visualisierung der Kollation der zensierten Erstausgabe von Erich Kästners Roman Fabian mit seiner Originalfassung Der Gang vor die Hunde zu sehen (Abb. 11).25 Die interaktive Visualisierung erlaubt es, die beiden Fassungen Satz für Satz zu vergleichen, wobei visuell hervorgehoben wird, welche Teile des Satzes geändert wurden bzw. ob der Satz gänzlich ersetzt wurde. Gleichzeitig ist durch farbliche Hervorhebungen ein Überblick über unterschiedliche Zensurvorgänge möglich. In diesem Fall erleichtert die Beschränkung auf nur zwei Textzeugen die visuell einleuchtende und eindeutige Darstellung.

Visualisierung der Mikro-, Meso- und Makroebene von Textgenese in digitalen Editionen Tatsächlich sind Beschreibungen von textgenetischen Phänomenen in Printeditionen im Laufe der Zeit immer präziser geworden. Das umfasst die Integration räumlicher Aspekte der Handschrift in die Beschreibung ebenso wie die Auflösung temporaler Gesichtspunkte und Ebenen. Mit der Faksimilierung der Handschrift, wie es z. B. in den Editionen des Verlags Stroemfeld erfolgt (Abb. 12), liegt dem Leser ein effektives Hilfsmittel vor, um die Anordnung von Zeichen auf dem Papier in ihren lokalen Zusammenhängen ebenso zu erfassen wie die materiellen Gegebenheiten und das Layout einzuordnen. Ähnlich verfährt im digitalen Bereich die genetisch-kritische und kommentierte Edition von Theodor Fontanes Notizbüchern (Abb. 13).26 Im Mittelpunkt steht hier die komplexe Überlieferung mit ihren materialen und medialen Kennzeichen. Die Notizbücher werden in dreifacher synoptischer Ansicht publiziert: als Digitalisat, als diplomatische Transkription und als zeichengetreuer edierter Text mit Apparat. Die genaue Wiedergabe des topographischen Befundes erlaubt es, die zeitliche Entstehung des Texts nachzuvollziehen. Auf der Mikroebene sind in erster Linie die durch den Autor zu verantwortenden Korrekturen und Veränderungen in Form von (Durch-)Streichungen, Ergänzungen, Umstellungen, Überschreibungen und Anordnungen von Belang. Die genetische Be-

–––––––– 25 26

http://kaestner.janerikstange.com/ (Abruf am 22.08.2018). Theodor Fontane: Notizbücher. Digitale genetisch-kritische und kommentierte Edition. Hrsg. von Gabriele Radecke. https://fontane-nb.dariah.eu/index.html. Version 0.1 vom 07.12.2015. (Abruf am 22.08.2018).

Visualisierung textgenetischer Phänomene in digitalen Editionen

59

schreibung mithilfe der entsprechenden TEI-Elemente und den zugeordneten Attributen für die digitale Edition erlaubt die Visualisierung als Präsentation des in den Daten festgeschriebenen Befundes. Die Visualisierung bestimmter Aspekte der Mikroebene von Textgenese kann mithilfe von Variant Graphs geleistet werden. Dem gegenüber stehen Modelle, die klassische Word Trees zum Vorbild nehmen (Abb. 14). Wortbäume zeigen ein gewähltes Wort (oder eine Zeichenkette) in seiner Verbindung zu anderen Einheiten durch eine visuelle Verzweigungsstruktur auf der Basis textbasierter Daten. Im Gegensatz zu Wortwolken zeigen Wortbäume die Verbindung von Wörtern im Datensatz visuell an und bieten so auch Kontextinformationen hinsichtlich ihrer Verwendung. Die Schriftgröße gibt dabei generell über die Kombinationshäufigkeit mit anderen Einheiten Auskunft. Die Visualisierung erlaubt es dem Benutzer zu wählen, ob er sich für Verbindungen vor oder nach einem Wort interessiert. Besonders hilfreich sind Wortbäume bei der explorativen Analyse, wenn die verschiedenartige Verwendung eines oder mehrerer vorher festgelegter Wörter im Text untersucht werden soll. Hier können also auf der Wort- und Satzebene Verhältnisse, Abhängigkeiten und Häufigkeitsverteilungen untersucht werden. In Kombination mit genetischen Faktoren, z. B. der Zuordnung der Schreiberhände, chronologischer Textmarker zur Rekonstruktion des Schreibprozesses oder auch lokaler textgenetischer Aspekte, sind hier vielschichtige Visualisierungen denkbar. Die Vorteile einer Visualisierung verschiedener textgenetischer Phänomene ist in erster Linie in der umfassenden Darstellbarkeit unterschiedlicher Stufen des Textbildungsprozesses zu sehen. Es muss dem Nutzer digital weder ein ‚endgültiger‘ noch ein ‚autorisierter‘ Text präsentiert werden. Stattdessen lassen sich unterschiedliche Textstufen parallelisieren, die die temporalen Differenzierungen der Textarbeit des Autors (sowie seines Korrektors, Lektors und Editors) visualisieren. Darüber hinaus ließen sich auch Darstellungsmodi denken, in denen nicht mehr notwendigerweise einzelne Textstufen voneinander abgegrenzt werden müssen, sondern sich Arbeitsprozesse fließend ineinander übergehend abbilden lassen. Zu denken wäre dann auch eine digitale Edition, in der sich die Schrift quasi vor den Augen des Nutzers auf dem Bildschirm videoartig entwickelt. Damit wäre der Nutzer bei einem simulierten Schreibakt des Autors zugegen. Temporale wie lokale textgenetische Aspekte der Textentstehung ließen sich so nachvollziehbar visualisieren. Eine Visualisierung, die entweder nur Entstehungs- oder nur Überlieferungsvarianten aufzeigt sowie eine Kombination beider auch als Zusammenschau – je nach Nutzerfokus – denk- und anwählbar werden lässt, setzt deren Scheidung bei der Datenerfassung voraus. Gleiches gilt – je nach editorischem Konzept – für eine in den Daten erfasste Trennung von Autorvariante, autorisierter Variante und Fremdvariante. Im Zuge einer TEI-Auszeichnung ist eine detaillierte Zuordnung der Schreiberhände

60

Anna Busch

(gegebenenfalls mit beigeordnetem -Attribut oder anderweitiger Spezifikation)27 die notwendige Grundlage für eine facettierte Visualisierung von textgenetischen Phänomenen. Der Vergabe von Ordnungszahlen, wie sie zur Rekonstruktion von Entwicklungsprozessen vollständiger Texteinheiten, den ‚Textstufen‘, in Printeditionen vorgenommen wird, können verschiedene Darstellungsmodi auf Visualisierungsebene entsprechen. Eine konzeptionell-editorische Entscheidung hinsichtlich der Untergliederung von Textstufen auf temporaler Ebene in ‚Arbeitsphasen‘, als ‚Schicht‘ auf Materialebene und als ‚Verband‘ in syntaktische/formale Zusammenhänge, bildet die Grundlage für eine Visualisierung der Mesoebene von Textgenese in digitalen Editionen. Auf der Ebene der makrogenetischen Analyse ist eine synoptische Darstellung der Entstehungsgeschichte durch alle Zeugen hilfreich, um die Variationen des Textes in seinen verschiedenen Stadien aufzudecken. Ein Hin- und Herspringen, um die entsprechenden Teile in verschiedenen Textzeugen zu verbinden, würde damit entfallen. Ein Beispiel für die Visualisierung von Textgenese auf Makroebene mitsamt Detailverknüpfungen – in diesem Fall auf Wortebene – findet sich in der interaktiven Übersicht der unterschiedlichen Auflagen von Darwins Über die Entstehung der Arten (Abb. 15, vgl. Abb. 8).28 Die Visualisierung untersucht die Textgenese von Charles Darwins Evolutionstheorie auf der Basis der durch das The Complete Work of Charles Darwin Online-Projekt29 zur Verfügung gestellten sämtlichen digital zugänglichen Werke. Auf einen Blick erlaubt es die Visualisierung, Überarbeitungsmuster über sechs verschiedene Auflagen hin zu erkennen und dem Text im Zeitraffer bei der Entstehung zuzusehen. Deutlich wird, dass die sechste Auflage des Buches eine Komposition aus verschiedenen, über Jahre hinweg zusammengetragenen Ansätzen ist und dass erst in der fünften Auflage das Konzept zum ‚Überleben des Stärkeren‘ – das Konzept, das dem Buch zu seinem eigentlichen Ruhm verholfen hat – Eingang in den Text gefunden hat. Die Farbcodierung jedes einzelnen Worts von Darwins endgültigem Text in der Farbe der Ausgabe, in der es zum ersten Mal erschien, erlaubt eine intuitive Orientierung über eine komplexe Textentstehung. Eine Edition, die sowohl mikro- als auch makrogenetische Analyse und Präsentation bietet, ist das Samuel Beckett Digital Manuscript Project,30 das mit Ebenen arbeitet und Sätze, Absätze und Abschnitte mit IDs markiert hat, um sie über alle Zeugen hinweg zu verbinden und so ihren Vergleich zu ermöglichen (Abb. 16). Eine Verknüpfung verschiedener Detail- und Übersichten auf Textentstehung lässt sich auch in der Visualisierung des Digital Latin Library Project (DLL) finden (Abb. 17).31 Die Visualisierung,

–––––––– 27

28 29 30 31

Eine solche weitergehende Beschreibung ist dann sinnvoll, wenn nachvollzogen werden kann, dass der Autor bestimmte Fremdvarianten – ausgeführt durch Dritte – möglicherweise beauftragt, erbeten, berücksichtigt oder sie sonst in irgendeiner Weise zu verantworten hat. https://fathom.info/traces/ (Abruf am 22.08.2018). http://darwin-online.org.uk/ (Abruf am 22.08.2018). http://www.beckettarchive.org/ (Abruf am 22.08.2018). https://digitallatin.org/ (Abruf am 22.08.2018). Vgl. hierzu: Bharathi Asokarajan, Ronak Etemadpour, June Abbas, Sam Huskey, Chris Weaver: Visualization of Latin Textual Variants using a Pixel-Based

Visualisierung textgenetischer Phänomene in digitalen Editionen

61

die eine Navigation über mehrere Ansichten bereithält, ermöglicht eine kompakte Darstellung der Textvariation anhand von skalierbaren Textstrukturen. Der Visualisierung liegt die editorische Entscheidung für einen Ausgangstext zu Grunde, der die verschiedenen Visualisierungen zusammenbindet. Über Lemmata und Textzeugen ist per verschiebbarem Auswahlwerkzeug eine Art Lupenfunktion gegeben, die eine Seitenansicht, eine Zeilenansicht und eine wortbasierte Ansicht zur Verfügung stellt. Zahlreiche der hier genannten Visualisierungen von textgenetischen Phänomenen verknüpfen Detailsichten mit Überblickszugängen. Deutlich wird, dass eine Visualisierung ohne Zugang zur Textebene im Bereich digitaler Editionen nicht zielführend ist. Und tatsächlich folgen viele digitale Editionen nicht dem von Ben Shneiderman geprägten Visualisierungsmantra: „Overview first, zoom and filter, then details-ondemand.“32 Stattdessen drehen sie den Zugang zu ihrem Material um und stellen den Einzelbefund ins Zentrum ihrer Präsentation, von dem aus auf übergeordnete Abstraktionslevel (auch stufenlos per Zoom) rekurriert werden kann. Der Text steht nicht am Ende einer Nutzererfahrung, sondern an ihrem Beginn. Das erklärt sich aus dem Selbstverständnis von Editionen. Die Nachvollziehbarkeit von Textentstehung setzt auf der Ebene von Textänderungen, -ergänzungen, -streichungen und -hinzufügungen an. Diese erfolgt folgerichtig auf einer close-reading-Ebene.33

Visualisierung von (textgenetischen) Konzeptzusammenhängen in digitalen Editionen Besonders reizvoll sind im Zusammenhang digitaler Editionen Gedankenspiele, die Erschließung und Visualisierung von Textgenese weiter fassen, als das zurzeit häufig getan wird. Tatsächlich lässt sich im digitalen Medium eine unendliche Anzahl sich aufeinander beziehender Texte miteinander verknüpfen und Beziehungen von Texten untereinander offenlegen. Das muss nicht notgedrungen Zeichenübereinstimmung oder Textidentität bedeuten. Mitunter lässt sich ein textgenetischer editorischer Zusammenhang aus Ideenübereinstimmung oder Konzeptzusammenhängen herleiten. 34 Vielmehr geht es in diesem Fall um die Menge aller Texte eines editorischen Zusammenhangs,

–––––––– 32

33

34

Text Analysis Tool. In: Proceedings of the EuroVis Workshop on Visual Analytics. Hrsg. von Natalia Andrienko, Michael Sedlmair. 2016, S. 19–23, DOI: http://dx.doi.org/10.2312/eurova.20161119. Ben Shneiderman: The Eyes Have It. A Task by Data Type Taxonomy for Information Visualizations. In: Proceedings of the IEEE Symposium on Visual Languages, Washington 1996, S. 336–343, hier S. 337. https://www.cs.umd.edu/~ben/papers/Shneiderman1996eyes.pdf (Abruf am 22.08.2018). Die Untersuchung von Textidentitäten, -ähnlichkeiten, -anleihen oder -übernahmen stellte darüber hinaus einen der Schlüssel für die Analyse von Textgenese dar. Bei der Untersuchung verschiedener Textfassungen und -stufen auf Ähnlichkeiten und Unterschiede liegt der Fokus mitunter auf der Umstellung verschiedener Wörter, Sätze, Argumentationsstrukturen, ganzer Textblöcke oder -absätze. Während es für die ersten beiden Fälle (Wörter, Sätze) geeignete Visualisierungsmethoden gibt, existieren für größere Einheiten keine Visualisierungstechniken, die in der Lage wären, Umstellungen kohärent zu visualisieren. Vgl. hierzu Stefan Jänicke, Greta Franzini, Muhammad Faisal Cheema, Gerik Scheuermann: Visual Text Analysis in Digital Humanities. Computer Graphics Forum, 2016, DOI: https://doi.org/10.1111/cgf.12873. Vgl. hier die Textgenetische Editio princeps von Hermann Burgers erstem Roman Lokalbericht (1970– 72), unter: http://www.lokalbericht.unibe.ch/ (Abruf am 22.08.2018).

62

Anna Busch

die Textgenese konstituieren. Ob dieser editorische Zusammenhang grundsätzlich mit dem Ordnungsbegriff des ‚Werks‘ gleichzusetzen ist, 35 ist im digitalen Raum zu hinterfragen. Womöglich lässt sich der Nachlass als archivarische Einheit, die einen Editionszusammenhang bilden kann, verstehen. Hierfür kann auch der Archivbegriff als textgenetische Ordnungsinstanz gedacht werden. Womöglich ist darüber hinaus eine Gesamtheit aller sich aufeinander beziehender, auch über Textidentität hinausgehender Texte im digitalen Raum zu denken und zu visualisieren.

Ausblick Philologische Deutung des genetischen Sachverhalts, die Entscheidung für ein bestimmtes Editionsmodell, die Festlegung eines editorischen Projektvokabulars und die Entwicklung von Konzepten der Darstellung können nicht voneinander getrennt werden. Stattdessen bilden sie sich bedingende Arbeitsprozesse, die sowohl eines durchdachten wissenschaftlichen Programms bedürfen als auch der visuellen Anschaulichkeit und Nachvollziehbarkeit im digitalen Medium verpflichtet sind. Die durch den Editor zu leistende editorische Erschließungsarbeit und eine darauf aufbauende Visualisierung haben das gemeinschaftliche Ziel, den Nutzer bei seinem eigenen kritisch-vergleichenden Studium der verschiedenen Entwürfe, Fassungen und Textstufen zu unterstützen, ihm eine Beurteilung und Auswertung des Befundes allerdings nicht abzunehmen. 36 Dabei ist es die oft umfassende und komplexe Natur von Textentstehung und -überlieferung, die die Erfassung von Verteilungserscheinungen und Umfangszusammenhängen, Mustern und Beziehungen über eine Vielzahl von Dimensionen hinweg erschwert. Verschiedene, sich ergänzende Visualisierungen können – stilistisch und

–––––––– 35

36

Vgl. hierzu Rüdiger Nutt-Kofoth: Zur Terminologie des textgenetischen Felds. In: editio 30, 2016, S. 34–52, hier S. 46ff., DOI: https://doi.org/10.1515/editio-2016-0003. Die Loslösung vom Werk- und Autorschaftsbegriff als formgebendes Merkmal einer textgenetischen digitalen Edition, reflektiert auch die Edition Briefe und Texte aus dem intellektuellen Berlin um 1800. http://www.berlinerintellektuelle.eu/ (Abruf am 22.08.2018). Siehe: Anne Baillot, Anna Busch: Berliner Intellektuelle um 1800 als Programm. Über Potential und Grenzen digitalen Edierens. In: literaturkritik.de, 9, September 2014, Schwerpunkt: Romantik digital: http://www.literaturkritik.de/id/19678 (Abruf am 22.08.2018): „Grundlegend – und hinsichtlich digitaler Editionen neu – war die Ausgangsidee, dass der Zugang zu literatur- und wissenschaftsgeschichtlichem Wissen im Netz nicht notgedrungen über einen bestimmten Autor oder ein einzelnes Werk zu erfolgen hat. Die einseitige Autorzentriertheit, die den gängigen Druckeditionen zu Grunde liegt, wurde zugunsten unterschiedlicher Annäherungsmöglichkeiten aufgebrochen. Diese konzeptionell entscheidenden Überlegungen ermöglichen dem Benutzer den Einstieg in die Edition – gleichwertig neben dem Zugang über den Autor – über eine Forschungsfrage, einen Zeitpunkt oder eine Zeitspanne, einen bestimmten Ort oder eine Textgattung. […] Tatsächlich bietet eine digitale Edition die Möglichkeit, textsorten-übergreifend aufzutreten. Unterschiedliche Arten von Texten können miteinander interagieren, korrespondieren und verlinkt werden und ergeben so eine Art Textnetzwerk, das ähnlich einem Personennetzwerk Verbindungen zwischen einzelnen Knotenpunkten herstellen kann, Überschneidungen, Entwicklungen und Abgrenzungen sichtbar werden lässt.“ Überlegungen zur Nutzerführung durch komplexe genetische Sachverhalte stellt auch das Projekt Beethovens Werkstatt an (http://beethovens-werkstatt.de/ Abruf am 22.08.2018). Einzelaspekte der Edition sollen dem Nutzer über geführte ‚Touren‘ vermittelt werden. Das Ziel ist es, den Nutzer in seiner eigenständigen vertiefenden Auseinandersetzung mit den Materialien nicht einzuschränken, sondern ihn für besonders relevante Zusammenhänge zu sensibilisieren.

Visualisierung textgenetischer Phänomene in digitalen Editionen

63

funktional aufeinander abgestimmt – auf verschiedene Facetten von Textgenese abstellen, um dieser Schwierigkeit zu begegnen. 37 Die Abbildung einer Kombination temporaler wie lokaler textgenetischer Phänomene in der Zusammenschau stellt hier für digitale Editionen einen zentralen Meilenstein dar. Eine vielschichtige Visualisierung verschiedener textgenetischer Phänomene mit einer zusätzlichen Verknüpfung verschiedener Ebenen (Mikro-, Meso-, Makroebene sowie Kontextzusammenhänge) bietet vielfältige Perspektiven auf koordinierte Daten. Die sich daraus ergebenden alternativen Erkenntnismöglichkeiten können den Blick für textgenetische Zusammenhänge schärfen, indem von Übersichten bis zu Detaildarstellungen, vom Kontinuum bis zu einer synoptischen Darstellung die gesamte Textentstehungsgeschichte in unterschiedlichen Abstraktionsgraden gedacht werden kann. Je komplexer sich der Textentstehungs- und Überlieferungszusammenhang darstellt, desto vielfältiger sind die Perspektiven einer Visualisierung zu denken. Ein breitgefächerter Zugang, der nicht nur eine Ansicht zulässt, erlaubt verschiedene Interpretationen und Analysen auf Basis derselben Erhebungsdaten. Eine Verknüpfung verschiedener Ansichten (evtl. über an entsprechenden Stellen integrierte Vorschauen auf andere Ansichten) durch logische funktionale und ästhetische Zusammenhänge und eine durch den Nutzer durch variable Filtermodalitäten selbstgenerierte Ansichtszusammenstellung kann verschiedene textgenetische Ebenen abbilden. Bedarfsgerechte Sichten, die z. B. die Möglichkeiten des An- und Abwählens temporaler oder lokaler Beschreibungen auf einer textgenetischen Mikroebene zulassen, die es ermöglichen, Anordnungen zu variieren, textgenetische Schichten hervorzuheben und in ihrem jeweiligen Kontextzusammenhang anzeigen zu lassen, Einzelaspekte in den Fokus zu stellen, zusammenzufassen, zu vertiefen, nach Interessenlage des Nutzers zu gewichten oder auch zu verbinden, sind dabei der Schlüssel zu einem interaktiven maßgeschneiderten ‚genetischen Variantenapparat‘. Dass dieser Apparat in einer digitalen Umgebung anders zu denken ist als in einem klassischen Modell der historischkritischen Edition, dass ihm Aufgaben zuwachsen können, die auch im explorierenden und rekodierenden Bereich anzusiedeln sind, und dass hierfür die Möglichkeiten der Informationsvisualisierung einen entscheidenden Beitrag liefern können, eröffnet den (digitalen) Editionswissenschaften neue Möglichkeiten. Einher geht dieser Zugewinn an visueller Variabilität allerdings mit der Notwendigkeit, auch die Implikationen einer in erster Linie digital gedachten genetischen Textedition neu zu reflektieren. Grundsätzlich sind die Repräsentationen – und daran gekoppelt auch ihre Funktionalitäten – als integraler Teil der digitalen Edition anzusehen und entsprechend nachhaltig zu konzipieren und zu sichern.

–––––––– 37

Für komplexe Sammlungszusammenhänge schlagen auch Dörk, Peitsch und Credico einen Visualisierungszugang mit facettenartigen Auffächerungen und Kombinationsmöglichkeiten vor. Vgl. Marian Dörk, Christopher Peitsch, Gabriel Credico: One View is Not Enough. High-Level Visualizations of a Large Cultural Collection. In: Information Design Journal 23.1, 2017, S. 39–47, DOI: https://doi.org/10.1075/idj.23.1.06dor.

Katrin Henzel

Digitale genetische Editionen aus der Nutzerperspektive

Eine Mésalliance? Editionswissenschaftliche Positionen zum Nutzer historisch-kritischer Ausgaben im analogen und im digitalen Medium1 Mit jeder neu zu erstellenden Edition, gleich welchen Typs, stellt sich erneut auch die Frage nach dem tatsächlich vorhandenen wie potentiellen Nutzer. Während sich mit Siegfried Scheibe Wirkung als auch Nutzen historisch-kritischer Ausgaben nicht eindeutig bestimmen lassen,2 so ergibt sich [ihr Nutzen doch; KH] daraus, wie genau, wie praktisch und wie übersichtlich sie die gestellten Aufgaben zu erfüllen vermag und ob sie die Textentstehung des Werks – also im Grunde die historische Entwicklung des Werks und damit indirekt die des Autors – dem Benutzer auf möglichst einfache und zweckmäßige Weise verdeutlichen kann.3

Scheibe hebt die Vermittlungsfunktion historisch-kritischer Ausgaben hervor. Die Edition ist damit nicht Selbstzweck, sondern dient vielmehr als Hilfsmittel zum Verständnis eines literarischen Textes oder Werks und ist damit ein heuristisches Instrument. Doch kann gerade diese Einsicht bei der Erarbeitung und Bereitstellung von Editionen schnell in den Hintergrund geraten, und zwar zugunsten einer einseitigen Berücksichtigung der spezifischen Schreibweise eines Autors, die das Nutzerinteresse nicht selten aus dem Blick verliert. So überfordert manche historisch-kritische Edition mit ihrer Variantendarstellung den Leser und kann damit ihre Vermittlungsfunktion nicht erfüllen. Bezüglich des bestehenden Dilemmas, dass mit zunehmender Komplexität der Darstellung textgenetischer Zusammenhänge Orientierung und Übersichtlichkeit leiden, warnt Hans Zeller vor falschen Schlüssen: Einfachheit ist […] kein absoluter Wert. Es wäre nicht schwer, eine komplizierte Handschrift ‚einfach‘ wiederzugeben, d.h. von vieldeutigen Verhältnissen eine eindeutige Darstellung zu

–––––––– 1 2

3

Die digitale Präsentation zu den Abb. dieses Beitrags finden Sie unter http://aau.at/musil/publika tionen/textgenese/henzel/. „Ihre Wirkung zielt […] in verschiedene Richtungen [...]“. Siegfried Scheibe: Zu einigen Grundprinzipien einer historisch-kritischen Ausgabe. In: Texte und Varianten. Probleme ihrer Edition und Interpretation. Hrsg. von Gunter Martens und Hans Zeller. München 1971, S. 1–44, hier S. 13. Ebd., S. 13. Hervorhebungen KH.

https://doi.org/10.1515/9783110575996-005

66

Katrin Henzel

geben. Das wäre eine Verfälschung des objektiv komplizierten Sachverhalts. Die Kompliziertheit einer angemessenen Darstellung ist nicht dieser anzulasten. 4

Damit ist das Problem benannt, aber aus Nutzersicht nicht wirklich gelöst. Zellers Vorschlag ist die sinnbildlich zur Formel gewordene Trennung von Befund und Deutung, die klar zwischen eindeutigen, materialbezogenen Befunden einerseits und Darlegungen multipler Deutungsmöglichkeiten andererseits unterscheidet: Wenn er [der Editor; KH] den Gegenstand angemessen darstellen soll, muß er die Wiedergabe eindeutig machen, wo die Handschrift für ihn eindeutig ist, und muß ihr eben die Vieldeutigkeit zu geben suchen, die ihm das Original zeigt. Er soll, wo die Handschrift mehrere Deutungen zuläßt, nicht nur diesen Umstand der Mehrdeutigkeit, sondern auch die verschiedenen Deutungsmöglichkeiten mitteilen, explizit oder noch besser implizit, womöglich mit dem Grad ihrer Wahrscheinlichkeit.5

Entsprechend wurde in der Gedichtausgabe C. F. Meyers für die Apparate ein Sonderzeichen in Form eines Sterns eingeführt, um editorische Einordnungen zu kennzeichnen, die die materielle Ebene verlassen, also nicht befundorientiert sind, sondern „philologische, grammatische, stilistische, metrische, biografische oder sonstwie historische Kriterien, kurz: […] bloß textliche Kriterien“ betreffen. 6 Und genau hier wird der Leser zur ‚Mitarbeit‘ aufgefordert: Dieses negativ-deskriptive Zeichen markiert also eine Zone (eventuell eine Zone der Unsicherheit), in der der Benützer eingeladen ist, sich an der editorischen Interpretation zu beteiligen, weil ihm die Grundlagen dazu im überhaupt vorhandenen Umfang verfügbar sind. 7

Editor und Nutzer begegnen sich hier also nahezu auf gleicher Höhe, arbeiten Hand in Hand, was die Interpretation von Textkriterien betrifft, worunter sich demnach auch die Deutung genetischer Prozesse fassen lässt. Man möchte meinen, bei digitalen historisch-kritischen Ausgaben sei die Situation vergleichbar. Doch gibt es, um Klaus Prätor zu zitieren, einen fundamentalen Unterschied zwischen analogem und digitalem Medium: „Im Druckmedium ist das Buch zugleich Speicher- und Präsentationsmedium. In der digitalen Welt treten Aufbewahrung und Präsentation auseinander.“ 8 Statt in digitalen Editionen nun die Vorteile der digitalen Visualisierungsmöglichkeiten zu nutzen, bilden diese sehr oft die Darstellungsweisen der Variantenverzeichnung aus gedruckten Ausgaben ab. Dies mag einerseits dem Umstand geschuldet sein, dass digitale Editionen an den Standards der Druckausgaben gemessen werden. 9 Oft fehlen in Editionsprojekten aber auch schlicht die Zeit

–––––––– 4 5 6 7 8

9

Hans Zeller: Befund und Deutung. Interpretation und Dokumentation als Ziel und Methode der Edition. In: Texte und Varianten (Anm. 2) S. 45–89, hier S. 84. Ebd., S. 85. Ebd., S. 87. Ebd. Klaus Prätor: Ceci n’est pas un texte? Zur Rede über die Materialität von Texten – insbesondere in den Zeiten ihrer Digitalisierung. In: Materialität in der Editionswissenschaft. Hrsg. von Martin Schubert. Berlin, Boston 2010 (Beihefte zu editio. 32), S. 421–428, hier S. 426. Was zum Teil auch daran liegt, dass die Editoren digitaler Ausgaben vorher auch gedruckte Ausgaben hergestellt haben und entsprechend ‚sozialisiert‘ wurden, so argumentiert Daniel Sondheim in seinem

Digitale genetische Editionen aus der Nutzerperspektive

67

und das Personal, neue Formen der Visualisierung, gerade von Textgenese, zu entwickeln. Hinzu kommt das Problem der nicht gewährleisteten Zitierbarkeit von Texten oder Textzuständen beim Einsatz dynamischer Ansichten – etwa, um die Schreibprozesse innerhalb eines Textzeugen nachzuvollziehen oder um verschiedene Textzeugen in einer Synopse einander gegenüberzustellen. Nicht selten passiert es, dass dem Nutzer eingängige Visualisierungsformen, die ihn in die Lage versetzen, komplexe genetische Sachverhalte kognitiv nachzuvollziehen, 10 in editionsphilologischen Debatten als wissenschaftlich unseriös abqualifiziert und verworfen werden. 11 Die Literaturwissenschaft kann hinsichtlich der Darstellungsmöglichkeiten genetischer Zusammenhänge in Editionen von der Musikwissenschaft lernen – so vor allem, dass sich für die nutzerfreundliche Darstellung genetischer Prozesse das digitale Medium besonders eignet. Johannes Kepper, Solveig Schreiter und Joachim Veit benennen im Kontext der Edition von Webers Freischütz die wesentlichen Vorteile einer digitalen Edition bezüglich der Variantendarstellung: die Gleichrangigkeit von Varianten in ihrer Darstellung, die „flexible Darstellung von Bezügen und die Möglichkeit des Wechsels von Perspektiven“. 12 Dem Nutzer wird hier (wie schon von Zeller formuliert)13 die Möglichkeit der aktiven Beteiligung zugestanden, nur dass der Nutzer hier auch tatsächlich aktiv auf die Darstellungsform Einfluss nimmt, seine für ihn relevante Variantenauswahl also optisch vom übrigen Gesamtkorpus getrennt werden kann und damit kognitiv nachvollziehbar wird. Den Vorwurf, sich mit einer ‚bloßen Synopse‘

––––––––

10

11

12

13

Vortrag: Functionalities of Scholarly Editions, from Print to Screen, gehalten auf der Tagung digital humanities 2012 in Hamburg: Ann Blandford u. a.: Designing Interactive Reading Environments for the Online Scholarly Edition (1). Lecture2Go-Video, veröffentlicht am 20.07.2012 unter https://lecture2go.uni-hamburg.de/l2go/-/get/v/14010 (Abruf am 13.04.2018). Für den Hinweis auf diesen Vortrag und weitere Veröffentlichungen zu Nutzerverhalten und Schnittstellen in Editionen danke ich Georg Vogeler. Zu bedenken ist immer auch, dass der Bildschirm (wie auch das Buch) nur einen begrenzten Raum für Informationen bereitstellen kann: „A computer monitor still is a sub-optimal device for prolonged reading purposes, although it’s more than suitable for consultation ones.“ Roberto Rosselli Del Turco: After the editing is done: Designing a Graphic User Interface for digital editions. In: Digital Medievalist 7, 2012, DOI: http://doi.org/10.16995/dm.30, §78. Die geschieht insbesondere beim Einsatz von Animationen, die Textpassagen (etwa Verse) hinzufügen und verschwinden lassen, sowie von mehreren – klar voneinander unterscheidbaren – Farben und Mustern, nach dem Motto: was blinkt oder bunt ist, taugt nicht. So entstand im Kontext der Projektvorstellung der Faust-Edition auf der Editio-Tagung 2010 in Frankfurt am Main eine durchaus kontroverse Diskussion zum Einsatz genau solcher Verfahren, die dann auch nicht Aufnahme in die Edition fanden. Vgl. Historisch-kritische Faust-Edition. Hrsg. von Anne Bohnenkamp, Fotis Jannidis und Silke Henke. 3. Betaversion. Frankfurt am Main, Weimar, Würzburg 2017, http://www.faustedition. net/(Abruf am 15.12.2018). Zur Visualisierung genetischer Prozesse in der digitalen Faust-Edition vgl. Anne Bohnenkamp u. a.: Perspektiven auf Goethes ‚Faust‘. Werkstattbericht der historisch-kritischen Hybridedition. In: Jahrbuch des Freien Deutschen Hochstifts 2011, 2012, S. 23 –67, hier S. 54–65, online verfügbar unter https://opus.bibliothek.uni-wuerzburg.de/frontdoor/index/index/docId/6779 (Abruf am 13.04.2018); sowie Anne Bohnenkamp u. a.: Die digitale „Faust“-Edition. Zur neuen historisch-kritischen Ausgabe von Goethes Drama. In: Goethe-Jahrbuch 133, 2016, S. 150–162. Johannes Kepper, Solveig Schreiter und Joachim Veit: Freischütz analog oder digital – Editionsformen im Spannungsfeld von Wissenschaft und Praxis. In: editio 28, 2014, DOI: https://doi.org/10.1515/editio2014-009, S. 127–150, hier S. 137. Vgl. Anm. 7.

68

Katrin Henzel

der Arbeit und Verantwortung des Editors zu entziehen, relativieren Kepper, Schreiter und Veit: Dem ist sicherlich zuzustimmen – aber geht es nicht gerade darum, die Erkenntnisse, die Editoren am Gegenstand gewinnen, so zu kommunizieren, dass sie einem Kollegen oder einem Musiker mit ihren jeweiligen Interessen ohne unnötige Mühe zugänglich sind? Erkenntnisse entstehen, indem Dinge in Beziehung gesetzt werden. Sollten Editoren also, statt Energien auf die den Gegenstand für den Leser verbal abbildenden Umschreibungen zu verschwenden, lieber in die Beschreibung der Beziehungen zwischen diesen nun digital verfügbaren Gegenständen investieren? 14

Eine Bejahung der Frage bedeutet den Verzicht auf diskursive Darstellungen statischer Ordnungen und stattdessen eine Orientierung hin zur Beschreibung dynamischer Prozesse und Beziehungen zwischen den – dem Nutzer nun digital zur Verfügung stehenden – Gegenständen, seien es nun Partituren oder Handschriften. Neue Perspektiven ermöglichen erste neue Erkenntnisse, bedingen aber zugleich eine digitale Kommentierung in Form von Annotationen. 15 Dank einer „Aufhebung des normativen Anspruchs […] des einen richtigen Textes“ wird es dem Nutzer der Ausgabe möglich, über „Zweckmäßigkeit und Maßgeblichkeit“ des konfigurierten Textes „für seine eigenen Fragestellungen […] individuell [zu] entscheiden“.16 Die Gefahr von ahistorischen Mischfassungen ist für die drei Editoren im digitalen Medium damit nicht gegeben; diese gebe es „nur aus der Perspektive der traditionellen gedruckten, auf der autorisierten Überlieferung beruhenden Ausgabe“. 17 Bezüglich der Theoriebildung digitaler Editionen 18 gibt es noch immer zahlreiche offene Fragen. Beispielhaft hierfür im Hinblick auf die Nutzung von Editionen seien folgende von Patrick Sahle 2017 formulierten Themen aufgeführt: die „Rolle der Editoren und anderer Akteure in der Erarbeitung von Editionen“, die „Öffnung von Editionen für ihr Publikum als aktiver Teil des Editionsprozesses“, „Crowdsourcing“ sowie der „Umgang mit Textvarianz; was wird aus den kritischen Apparaten?“ 19 Auch im Hinblick auf die Bewertung digitaler Editionen in Form von Rezensionen spielt der

–––––––– 14 15 16 17 18

19

Kepper, Schreiter, Veit 2014 (Anm. 12), S. 137. Hervorhebungen KH. Ebd., S. 137, 139. Ebd., S. 140. Ebd. Grundlegend für die Theoriebildung digitaler kritischer Editionen: Peter Robinson: Towards a Theory of Digital Editions. In: Variants 10, 2013, S. 105–31; Elena Pierazzo: A Rationale of Digital Documentary Editions. In: Literary and Linguistic Computing 26, 01.12.2011, H. 4, S. 463–477, DOI: https://doi.org/10.1093/llc/fqr033; Hans Walter Gabler: Theorizing the Digital Scholarly Edition. In Literature Compass 7/2, 2010, S. 43–56; Peter L. Shillingsburg: Scholarly Editing in the Computer Age. Theory and Practice. 3. Aufl. Ann Arbor 1986. Patrick Sahle: Digitale Edition. In: Digital Humanities. Eine Einführung. Hrsg. von Fotis Jannidis, Hubertus Kohle und Malte Rehbein. Stuttgart 2017, DOI: https://doi.org/10.1007/978-3-476-05446-3_17, S. 234–249, hier S. 248. Im vorliegenden Beitrag werde ich weiter unten den Aspekt der an einer Edition beteiligten Akteure aufgreifen und schließlich im Hinblick auf die Darstellung von Genese darauf eingehen, welche neuen Formen das digitale Medium ermöglicht und damit die vom Nutzer als überkomplex empfundenen Apparatformen der Printeditionen überwindet.

Digitale genetische Editionen aus der Nutzerperspektive

69

Nutzer mit seinen Interessen eine große Rolle. 20 Doch wer ist dieser Nutzer und wie können seine Interessen in der Edition aufgegriffen werden?

Der ‚reale‘ Nutzer von Editionen Den Nutzer digitaler genetischer Editionen zu fassen ist ein schwieriges, aber lohnenswertes Unterfangen. Empirische Untersuchungen sind hier vonnöten und wurden lange vernachlässigt. Peter Boot benennt vier Ziele, warum sich die Auseinandersetzung der Editoren mit den Nutzern digitaler Ausgaben lohnt: 1. zur Identifizierung von Nutzerproblemen, 2. zur Ermittlung bevorzugter Komponenten (auch zwecks einer möglichen Verschlankung der Edition durch Auswahl von Features), 3. zur Anpassung der Edition auf die Bedürfnisse des Nutzers durch gezielte Lenkung auf für ihn wichtige Daten, 4. zur genaueren Kenntnis der Nutzer (Nutzertyp, Nutzerinteressen und Zweck des Besuchs der Edition). 21 Als Vorgehensweise haben sich bewährt: allgemeine Nutzerbefragungen nach potentiellen Interessen, konkrete Abfragen bezüglich des Umgangs mit spezifischen Editionen und ihrer aktiven Nutzung als auch die Auswertung von Daten, die Nutzer während ihres Besuchs der Edition erzeugen oder andernorts – beispielsweise in publizierten Forschungsbeiträgen – hinterlassen. Im Folgenden sollen ausgewählte Untersuchungen zu Nutzerverhalten und -interessen bezüglich Editionen summarisch erfasst werden. Der Fokus dieser Untersuchungen lag zumeist auf dem Medium, indem Nutzer digitaler Editionen analysiert wurden, und/oder auf dem Editionstyp, indem man sich in der Regel auf Nutzer der Editionsform beschränkte, die höchsten wissenschaftlichen Ansprüchen genügt (historisch-kritisch, scholarly). Eine spezifische Untersuchung zum Nutzerverhalten hinsichtlich digitaler genetischer Editionen im engeren Sinne, 22 d. h. begriffen als Sonderform der historisch-kritischen, steht meines Wissens hingegen noch aus. Erste Überlegungen zu deren Auswertungsmöglichkeiten werden am Schluss dieses Beitrags skizziert. Allgemeine Nutzerbefragungen bezüglich potentieller Interessen: Dorothy Carr (Dot) Porter untersuchte bereits im Jahr 2002 im Rahmen ihrer Masterarbeit Nutzerinteressen bezüglich elektronischer Ressourcen, darunter auch Editionen, im Bereich

–––––––– 20

21

22

Vgl. Patrick Sahle: Kriterien für die Besprechung digitaler Editionen. Unter Mitarbeit von Georg Vogeler und den Mitgliedern des IDE. Version 1.1, Juni 2014 (Version 1.0, September/Oktober 2012), http://www.i-d-e.de/publikationen/weitereschriften/kriterien-version-1-1/ (Abruf am 13.04.2018), dort insbesondere die Punkte 4.2, 4.15 und 5.6. „1. to identify usability problems with the site; 2. to check the popularity of the site’s components – usage may help decide on which features to include in new editions, or perhaps which features need more work; and 3. to be able to customise the site to the user, displaying more prominently the data that a specific user might be interested in. A more theoretical reason would be the desire to learn about the sorts of visitors attracted to the site, the reasons for their visit and the extent to which the site satisfies that interest.“ Peter Boot: Reading Van Gogh Online? In: Ariadne 66, 2011 http://www.ariadne.ac.uk/issue66/ boot/ (Abruf am 13.04.2018), Abs. Analysing Log Data. Vgl. hierzu die Definition der Genetischen Edition in Katrin Henzel: Genetische Edition. In: Edlex (Editionslexikon). Unter Redaktionsleitung von Roland S. Kamzelak. 2017ff. Online seit 05.02.2018. http://edlex.de/index.php?title=Genetische_Edition (Abruf am 15.04.2018).

70

Katrin Henzel

der Mediävistik. 23 Manche der Resultate scheinen auch heute noch zuzutreffen, wenn Porter den geringen Bekanntheitsgrad elektronischer Ressourcen bemängelt oder aufgrund bestehender Unsicherheiten bei der qualitativen Beurteilung der Angebote Mechanismen der Qualitätssicherung wie Ratings oder Rezensionen fordert. 24 Ihr Einwand, dass im elektronischen Medium das Buch nicht einfach zu kopieren sei, 25 ist ein berechtigter, der auch heute noch Gültigkeit hat. Gleichwohl befindet man sich mit dem Wissen um vertraute Gewohnheiten der Editionsnutzer aus ihrer Erfahrung mit Printeditionen in einem schwer lösbaren Dilemma, da sich diese Gewohnheiten nicht von heute auf morgen ‚umstellen‘ lassen und entsprechend Überlegungen zur idealen Nutzung des digitalen Mediums gerade für genetische Editionen noch immer die größte Herausforderung sind. Im Jahr 2011 wiederholte Dot Porter die Befragung; in einem Aufsatz von 2013 fasste sie die Ergebnisse für den Teilbereich der kritischen digitalen Editionen zusammen. 26 Hier beobachtete sie unterschiedliche Nutzerverhalten in Abhängigkeit der jeweiligen Fachdisziplin. 27 Von besonderem Interesse ist ihr Ergebnis, dass eine hohe (im Vergleich zur Studie 2002 gestiegene) Nachfrage an E-Journals und Faksimilesammlungen festzustellen sei, wohingegen dies nicht für Editionen zutreffe.28 Daraus schließt sie: My findings strongly suggest that there is a disconnect between scholarly interest in electronic resources in general and in reported use of digital scholarly editions, and that this disconnect may be related not only to a relative lack of digital editions but also to a lack of understanding by non-digitalediting medievalists about what exactly a digital scholarly edition is. 29

Diese Schlussfolgerung deckt sich mit den weiter oben dargestellten Forderungen einer Theoriebildung der digitalen Editionen, die auch den Nutzer einzubeziehen hat, als notwendige Voraussetzung für die tatsächliche Nutzung dieser Editionen. Die Ergebnisse einer weiteren, von Greta Franzini durchgeführten Befragung von Nutzern digitaler Text-Editionen (2017) zu deren „Expectations of Digital (Textual) Editions“, 30 steht noch aus.31

–––––––– 23

24 25 26

27 28 29 30

31

Dorothy Carr Porter. Medievalists’ Use of Electronic Resources: The Results of a National Survey of Faculty Members in Medieval Studies. A Master’s paper for the M.S. in L.S. degree. November, 2002, http://hdl.handle.net/2022/14060. Porter befragte hierfür gezielt 92 Personen aus unterschiedlichen Disziplinen an acht Universitäten (ebd., S. 2). Ebd., S. 49. Ebd., S. 51. Dot Porter: Medievalists and the Scholarly Digital Edition. In: Scholarly Editing: The Annual of the Association for Documentary Editing 34, 2013, http://scholarlyediting.org/2013/pdf/essay.porter.pdf. Sie erweiterte für die Umfrage den Kreis der Teilnehmer auf insgesamt 169 (davon 27 gezielt angefragte), und neben gezielten Anfragen fand auch eine offene Befragung statt, die sie auch in den sozialen Medien bewarb. Ebd., S. 6. Ebd., S. 8f. Ebd., S. 12. Ebd., S. 14. Greta Franzini: Expectations of Digital (Textual) Editions. Weitere Informationen zum Stand der Datenauswertung und Datenpublikation unter https://dig-ed-cat.acdh.oeaw.ac.at/survey2017/ (Stand: 02.04.2018). Die Fragen basierten auf einem von ihr erarbeiteten und von der Österreichischen Akademie der Wissenschaften und dem Austrian Centre for Digital Humanities (ACDH) herausgegebenen Katalog digitaler

Digitale genetische Editionen aus der Nutzerperspektive

71

Evaluierung einzelner Editionen: Wie deutlich wurde, können allgemeine Nutzerbefragungen Tendenzen aufzeigen, die sinnvollerweise um Befragungen zu ganz konkreten Editionen erweitert werden sollten. Als eine spezifische Form dieser Evaluierung einzelner Projekte durch den Nutzer zählen auch schon angesprochene Rezensionen digitaler Editionen. Neben Befragungen bieten aber auch nichtreaktive Methoden zahlreiche Möglichkeiten, Editionen zu bewerten – und zwar konkrete Editionen, mit dem Potential dabei Ergebnisse zu erzielen, die sich auch verallgemeinern und gewinnbringend für weitere Editionsprojekte nutzen lassen. Nutzer hinterlassen Spuren, das betrifft nicht nur die vieldiskutierten sogenannten sozialen Medien, sondern auch Editionen. Handelt es sich um eine digitale Edition, lässt sich das Nutzerverhalten direkt aus den Nutzerstatistiken ableiten. Geht es um die Auswertung des Nutzerverhaltens analoger oder mehrerer Editionen (indem beispielsweise das Nutzerverhalten für einen bestimmten Editionstyp ermittelt werden soll), ist die Datenlage ungleich schwieriger. Für beide Fälle soll ein Beispiel zur Verdeutlichung dienen. Peter Boot hat für die digitale Edition der Briefe Vincent van Goghs 32 eine Log Analysis durchgeführt und dokumentiert. 33 Dabei geht er neben dem Potential34 solcher Analysen auch darauf ein, welche Einschränkungen 35 bezüglich der Auswertung der Daten stets in Erinnerung zu rufen sind und dass solche Untersuchungen in starker Abhängigkeit von Konzeption und Aufbau der jeweiligen konkreten Edition stehen. Umso wichtiger scheint es mir, in diesem Kontext auf die Notwendigkeit solcher LogAnalysen hinzuweisen, denn diese bilden die unverzichtbare Grundlage weiterer Forschung. Zahlreiche Einzeluntersuchungen ermöglichen erst den Blick ‚auf das Ganze‘. Welche Daten eine Log Analysis bietet, zeigt Boot ausführlich am Beispiel der genannten Edition der Briefe van Goghs: Es lassen sich Häufigkeiten errechnen, um die Popularität einzelner Seiten bzw. Bestandteile der Edition zu ermitteln. Auch die Dauer der Besuche und die jeweils genutzten Pfade sind eruierbar und aufschlussreich, beispielsweise für die Optimierung der Navigation. Schließlich liefert auch die Auswertung der Suchabfragen wichtige Ergebnisse. Peter Boots Analyse bietet interessante Einblicke in das Nutzerverhalten, die auch für andere Editionen von Bedeutung sind: Offensichtlich ist der ‚typische‘ Nutzer der Edition von van Goghs Briefen stark von Seh- und Lesegewohnheiten des Buchmediums geprägt und eher passiv in seinem Verhalten einzustufen. Darauf weisen Indizien hin wie die sehr häufigen Besuche der

––––––––

32

33 34 35

Editionen. Dieser stellt für den Nutzer „an accessible record of standards and building technologies used“ bereit, die sich durch standardisierte Kategorien vergleichend analysieren lassen (https://dig-edcat.acdh.oeaw.ac.at/, letztes Update am 20.03.2018); Tools stellt Franzini zudem auf Github bereit: https://github.com/gfranzini/digEds_cat (Stand: 02.02.2018). Vincent van Gogh – The Letters. Hrsg. von Leo Jansen, Hans Luijten und Nienke Bakker. 2009. Version Dezember 2010. Amsterdam, The Hague: Van Gogh Museum & Huygens ING, http://vangoghletters.org (Abruf am 15.04.2018). Boot 2011 (Anm. 21). Ebd. So analysiert er in Bezug auf die Edition der Briefe van Goghs z. B. den Einfluss von Suchmaschinen, das Nichterfassen bestimmter Daten, etwa bei Nutzung des back buttons. Ebd., Abs. Possibilities and Limitations.

72

Katrin Henzel

Transkription der Briefe und der Faksimiles und im Gegensatz dazu das kaum vorhandene Interesse an spezifischen Features (wie befundorientierten Transkriptionen mit originalem Zeilenumbruch oder der erweiterten Suchfunktion), die doch eigentlich den Mehrwert der digitalen Edition ausmachen. 36 Auch werden einfache Suchabfragen favorisiert: „It is interesting to note that most of these searches were not started by typing a query (the Search advanced column), but by clicking on a ready-made link to the search results (Search reference).“37 Boots Analyse lässt sich wie folgt zusammenfassen: Zwar wurde die digitale Briefausgabe, die als Teil einer Hybridedition besteht, eigentlich dafür konzipiert, Features bereitzustellen, die die Erforschung der Briefe unterstützt, doch Boot fand heraus, dass „many visitors do read online, passing from one letter to the next“, 38 wofür eigentlich die Buch-Teiledition gedacht war. Was lässt sich aus Boots Beobachtungen für die Gestaltung digitaler genetischer Editionen gewinnen? Offensichtlich muss der Nutzer mit den neuen Features, die er aus Printeditionen so nicht kennt, erst vertraut gemacht werden. Auch müssen (darauf verweist auch Boot)39 aus editorischer Sicht interessante Bestandteile oder Stellen in der Edition (etwa variantenreiche Textzeugen) als solche hinreichend markiert werden, da sie sonst in der Menge an Daten verloren gehen. Ein zweites Analysebeispiel möchte ich nennen, in dem nicht Nutzerstatistiken aus einer Edition ausgewertet wurden, sondern andere Medien hinsichtlich des Nutzerverhaltens: Rüdiger Nutt-Kofoth interessierte, ob Literaturwissenschaftler (der NeuGermanistik) für die eigene Arbeit tatsächlich historisch-kritische Ausgaben nutzen und welche Bestandteile der Edition in diesen Fällen von Interesse sind. 40 Er kam zu einem ernüchternden Ergebnis: In den 476 Fällen, in denen eine HKA herangezogen wurde, bezog sich der Aufsatzverfasser 435-mal auf den edierten Text (also in 91 % der Fälle), 19-mal auf die Entstehungsgeschichte (also in 3,9 % der Fälle), 21-mal auf die Variantenverzeichnung (4,4 % der Fälle), 53-mal auf die Erläuterungen (11,1 % der Fälle) und 24-mal auf sonstige Teile der Edition (5,0 % der Fälle).41

Es wird deutlich, dass die Variantendarstellung, die eben den Kern der genetischen Editionen (als Sonderform der historisch-kritischen) ausmacht, lediglich eine marginale Rolle spielt. Damit besteht ein Missverhältnis zwischen dem Aufwand der Erstellung eines genetischen Apparats und seiner tatsächlichen Nutzung. 42 Es lässt sich so auch

–––––––– 36 37 38 39 40

41 42

Ebd., Abs. Aggregate Data: Types of Pages Accessed. Ebd., Abs. Top Searches. Ebd., Abs. Individual Sessions. Hervorhebungen KH. Ebd., Abs. Conclusions and Next Steps. Rüdiger Nutt-Kofoth: Wie werden neugermanistische (historisch-)kritische Editionen für die literaturwissenschaftliche Interpretation genutzt? In: Vom Nutzen der Editionen. Zur Bedeutung moderner Editorik für die Erforschung von Literatur- und Kulturgeschichte. Hrsg. von Thomas Bein. Berlin, Boston 2015 (Beihefte zu editio. 39), S. 233–245, hier S. 238. Als Untersuchungsgegenstand dienten Nutt-Kofoth drei allgemeine germanistische Zeitschriften: die Zeitschrift für deutsche Philologie, Euphorion und die Deutsche Vierteljahrsschrift für Literaturwissenschaft und Geistesgeschichte (DVjs) mit den Jahrgängen 2000 bis 2013. Ebd., S. 242. Hervorhebungen KH. Vgl. ebd., S. 243f.

Digitale genetische Editionen aus der Nutzerperspektive

73

statistisch belegen, was als Vorwurf gegen genetische Editionen immer wieder im Raum steht, dass nämlich Aufwand und Nutzen einer solchen Ausgabe offenbar in einem ‚schiefen‘ Verhältnis zueinander stehen, wenn selbst Literaturwissenschaftler, die ideale oder potentielle Nutzer einer historisch-kritischen Ausgabe darstellen, weniger bzw. viel zu selten die tatsächlichen Nutzer sind (Abb. 1 mit Übersicht zu den drei Studien – wie alle folgenden Abb. unter http://aau.at/musil/publikationen/textge nese/henzel/). Und so liegt die Vermutung nahe – die freilich auch noch zu belegen wäre –, dass analog zur Situation in der Forschung auch in der Lehre die historischkritischen Ausgaben so gut wie keine Rolle spielen und somit die Studierenden als wichtige Nutzergruppe ebenfalls nur geringfügig vertreten sein dürften.

Der Nutzer als ein Akteur von vielen: Konstellationen und Interessenkonflikte Für wen aber dann sind die Ausgaben gemacht bzw. wie lassen sich diese Projekte mindestens gegenüber dem Geldgeber rechtfertigen? Die Frage nach den Nutzern einer Ausgabe bedingt auch die schon mehrfach angedeutete nach den Ausgabentypen, denn verschiedene Nutzerinteressen spiegeln sich in verschiedenen Ausgabentypen.43 Zugleich bin ich davon überzeugt, dass man im Fall der digitalen Editionen das Verhältnis der verschiedenen Ausgabentypen untereinander noch stärker in den Blick zu nehmen hat, als es bei gedruckten Editionen der Fall ist. Damit verbinden sich auch Möglichkeiten einer Neubewertung des Verhältnisses der verschiedenen Editionstypen. Es gilt, Leseausgaben, wie sie vielfach im Deutschunterricht in der Schule genutzt werden, ins Verhältnis zu historisch-kritischen Ausgaben zu setzen. 44 Florian Radvan kritisiert zu Recht, dass „das Interesse an Schuleditionen, die zehntausendfach verkauft werden und die die Grundlage für literarische Sozialisationsprozesse bilden, gering“ 45 bleibt. Gründe hierfür sieht er in der Konzeption der Ausgaben, den institutionellen Rahmenbedingungen, den Editoren und den marktwirtschaftlichen Rahmenbedingungen.46 Herbert G. Göpfert ruft uns bereits 1971 ins Gedächtnis, für wen denn Literatur geschrieben werde: „[...] bestimmt nicht in erster Linie für Literaturwissenschaftler. Im Gegenteil: Autoren wollen im allgemeinen mit ihrem Werk einen möglichst großen Leserkreis erreichen.“ 47 Warum sollte man den Lesetext, der neben Literaturliebhabern (Laien) auch Schüler, Studierende und Literaturwissenschaftler48 vorrangig (gegenüber anderen Bestandteilen einer Edition) interessiert, nicht stärker in die Diskussion zu

–––––––– 43 44

45

46 47 48

Zum Funktionalitätsgesichtspunkt vgl. ebd., S. 233f. Interessant ist in diesem Zusammenhang auch die Erforschung der Interessen von Amateurnutzern, vgl. hierzu Amanda Visconti: Songs of Innocence and of Experience: Amateur Users and Digital Textes. Diss., School of Information, University of Michigan, 2010, https://deepblue.lib.umich.edu/bitstream/handle/ 2027.42/71380/ViscontiThesisSI.pdf. Florian Radvan: Edition, Didaktik und Nutzungsforschung. ‚Lesen‘ und ‚Benutzen‘ als Paradigmen des Umgangs mit Textausgaben im Deutschunterricht. In: editio 28, 2014, DOI: https://doi.org/10.1515/ editio-2014-004, S. 22–49, hier S. 39. Ebd. Herbert H. Göpfert: Edition aus der Sicht des Verlags. In: Texte und Varianten. Probleme ihrer Edition und Interpretation. Hrsg. von Gunter Martens und Hans Zeller. München 1971, S. 273–283, hier S. 273. Vgl. die Studie von Nutt-Kofoth 2015 (Anm. 40).

74

Katrin Henzel

Sinnhaftigkeit und Aufwand genetischer Ausgaben einbeziehen? Hierin liegt meines Erachtens eine große Chance: Werden die Lesetexte aus historisch-kritischen Ausgaben vermehrt genutzt – und die Chance steht für digitale historisch-kritische Ausgaben aufgrund ihrer einfacheren und schnelleren, oft auch kostengünstigeren Zugangsmöglichkeiten nicht schlecht –, dann ließe sich hier auch geschickt erneut ein Interesse an den genetischen Apparaten wecken. Doch wäre hierfür eine grundlegende editionswissenschaftliche Diskussion über Visualisierungsformen zu führen. Damit ließe sich die von Louis Hay 1998 aus Sicht der ‚critique génétique‘ formulierte Frage, ob eine genetische Ausgabe überhaupt einen Lesetext bereitstellen sollte, 49 mit Blick auf die Nutzerinteressen deutlich mit Ja beantworten. Und dann müsste auch die terminologische Frage nach der Unterscheidung von Leser und Nutzer neu gestellt und diskutiert werden, und zwar gemessen am realen Leser oder Nutzer einer Ausgabe.50 Nutzer stellen eine Gruppe innerhalb eines umfangreichen Netzwerks an Akteuren im Rahmen eines Editionsprojekts dar. Diese einzelnen Gruppen sollen im Folgenden kurz vorgestellt werden, um das komplexe Verhältnis von Interessen an einer Edition differenzierter betrachten zu können (Abb. 2). Neben Experten aus dem Fach und aus anderen Disziplinen wurden für den Nutzerkreis schon Studierende und Schüler genannt. Es sind auch Lehrer zur Nutzergruppe zu zählen sowie interessierte Laien. Holger Runow hat zu Recht darauf hingewiesen, dass der „interessierte Laie“ ein Allgemeinplatz ist.51 Allerdings zieht er die falschen Schlüsse, wenn er meint, sich deshalb mit eben diesem nicht „belasten“ zu wollen. 52 Neben den Nutzern haben wir selbstredend auch die Editoren und Mitarbeiter einer Ausgabe zu berücksichtigen, also die Hersteller der Ausgabe. Dazu zählen (fachspezifische) Editionswissenschaftler und Informatiker gleichermaßen. Mit Kooperationspartnern und externen Beratern und Experten ist eine weitere Gruppe benannt. Diese lässt sich teilweise auch den Dienstleistern zuordnen (beispielsweise im Zusammenhang mit der Digitalisierung von Texten oder Bildern oder der Erstellung von Transkriptionen). Förderer und mögliche Sponsoren bilden eine weitere Gruppe, die Geld oder Sachmittel für die Realisierung eines Editionsprojekts zur Verfügung stellt. Für die dauerhafte Bereitstellung und Distribution der Ausgabe sind in das Projekt involvierte Institutionen notwendig, für die i. d. R. die Herausgeber tätig sind. Gegebenenfalls ist auch ein Verlag am Editionsprojekt beteiligt. Gleiches gilt für Webdesignfirmen oder ähnliche Dienstleister. Gegebenenfalls haben auch Erben und vergleichbare Rechteinhaber ein Wort mitzureden. Und schließlich in einem eher abstrakten Verständnis spielt natürlich der Autor mit seinem Werk die zentrale Rolle.

–––––––– 49 50

51 52

Louis Hay: Drei Randglossen zur Problematik textgenetischer Editionen. In: Textgenetische Edition. Hrsg. von Hans Zeller und Gunter Martens. Tübingen 1998 (Beihefte zu editio. 10), S. 65–79, hier S. 71f. Vorerst würde ich beide Begriffe synonym verwenden. Zur Terminologie Radvan 2014 (Anm. 45), S. 23– 27. „Was zum Beispiel die Repräsentation von Werkgenese betrifft, so ist für das ‚Lesen‘ eine Produktorientierung (entstandener Text), für die ‚Benutzung‘ hingegen eine Prozessorientierung (entstehender Text) leitend.“ Ebd., S. 27. Holger Runow: Wem nützt was? Mediävistische Editionen (auch) vom Nutzer aus gedacht. In: editio 28, 2014, DOI: https://doi.org/10.1515/editio-2014-005, S. 50–67, hier Anm. 10, S. 54f. Ebd.

Digitale genetische Editionen aus der Nutzerperspektive

75

Die wohl größte Kluft, das ist im vorigen Punkt schon deutlich geworden, besteht zwischen Leser und Editor, nämlich dadurch, dass Letzterer die autorspezifischen Interessen gegenüber denjenigen des Nutzers oft höher bewertet. Zu diesem Urteil kommt beispielsweise Harry Fröhlich (in Bezug auf das Marbacher Kolloquium zur Textgenetischen Edition im Jahr 1995): „Die Einbringung des Benutzeraspekts wurde mehr als einmal als minder wichtig abgewiesen, die genetische Fragestellung an einen Text allen anderen (hermeneutischen) Interessen gegenüber favorisiert.“ 53 Dabei hat aber laut Fröhlich der Editor dem Leser gegenüber eine gewisse Verpflichtung: „Vergessen wir nicht, daß die Editionswissenschaft auch eine Art Dienstleistung ist, die mit ihrem Ergebnis (der historisch-kritischen Ausgabe) ja nicht hermetisch ‚bei sich‘ bleibt, sondern editorisch nicht spezifisch ausgebildeten Geisteswissenschaftlern oder interessierten Laien die mühsame Vorarbeit auf dem Weg zum Textverständnis abnehmen will.“54 Schaut man sich Förderbedingungen an, ergibt sich eine ähnliche Forderung, wenngleich dort nicht von Dienstleistungen die Rede ist. In den Förderrichtlinien der DFG für wissenschaftliche Editionen in der Literaturwissenschaft etwa gehört gleich im ersten Punkt zu „Gegenstand und Ausrichtung der Edition“ die Frage nach dem Nutzerkreis zu den entscheidenden. Zudem wird danach gefragt, ob „das Editionskonzept für den Gegenstand passend und dem Nutzerkreis angemessen“ sei.55 Die editionsbezogene Forschungslandschaft hat sich in den letzten Dezennien sehr gewandelt; auch und gerade aufgrund von Digitalisierung ist der Wunsch nach Transparenz und demokratischeren Strukturen, die auch den Leser aktiv einzubinden wissen, gewachsen. Und damit stellt sich erneut die Frage nach dem realen Nutzer digitaler genetischer Editionen.

Systematische Erschließung (potentieller) Nutzerkreise Eine systematische Erschließung potentieller und insbesondere realer Nutzer digitaler genetischer Editionen ist zwingend geboten, wie in den vorigen Kapiteln deutlich geworden sein dürfte. Verschiedene etablierte Vorgehensweisen wurden hierbei vorgestellt. Allgemeine Nutzerbefragungen ohne Spezifizierung des Editionstyps haben sich praktisch bewährt. Auch die Auswertung von Nutzerdaten, die durch das Bedienen einer konkreten digitalen Edition entstehen, stellt ein essentielles Werkzeug zur Evaluierung bestehender Editionen dar, aus der künftige Projekte profitieren können. Digitale textgenetische Editionen sind eine bisher noch relativ selten vorhandene Editionsform, zu der es meines Wissens noch keine verlässlichen Analyseergebnisse

–––––––– 53

54 55

Harry Fröhlich: Zwischen Skylla und Charybdis – Textgenetische Editionen zwischen Schreiber- und Benutzerorientierung. In: Textgenetische Edition. Hrsg. von Hans Zeller und Gunter Martens. Tübingen 1998, S. 294–311, hier S. 295. Ebd. Vgl. auch Nutt-Kofoth 2015 (Anm. 40), v. a. S. 236f. unter Bezugnahme auf Klaus Kanzog u. a. Informationen für Geistes- und Sozialwissenschaftler/innen. Förderkriterien für wissenschaftliche Editionen in der Literaturwissenschaft. Hrsg. von der Deutschen Forschungsgemeinschaft. Ausgabe 11/2015, online abrufbar: http://www.dfg.de/download/pdf/foerderung/grundlagen_dfg_foerderung/information en_fachwissenschaften/geisteswissenschaften/foerderkriterien_editionen_literaturwissenschaft.pdf (Abruf am 15.04.2018), S. 2.

76

Katrin Henzel

gibt. Hier wäre anzusetzen, beispielsweise in Form eines Fragenkatalogs, um die Besonderheiten, die sich aus der Darstellung genetischer Zusammenhänge für die Informationsvermittlung (Visualisierung) ergeben – zumal Peter Boot darauf hingewiesen hatte, wie zaghaft Nutzer auf spezielle Features digitaler Editionen reagieren, die sie aus Printeditionen nicht kennen. 56 Ein solcher Fragenkatalog 57 soll im Folgenden grob skizziert werden. Diesen gilt es in einem nächsten Schritt (der hier nicht mehr geleistet werden kann) auf die jeweiligen Eigenheiten und Bedarfsinteressen für eine konkrete Edition zu verfeinern. Die Fragen lassen sich zehn Bereichen zuordnen 1. Design/Oberfläche, 2. Navigation und Nutzbarkeit, 3. Kommentierung/Erläuterung, 4. Suchfunktionen/Auffindbarkeit, 5. Edierter Text, 6. Werkgenese, 7. Textgenese, 8. Archiv mit Zeugen, 9. Weiternutzung von Daten und 10. Gesamtbewertung der Edition (Abb. 3– 13). Der Fragebogen sollte idealerweise eine Mischung aus skalierten Angaben zwecks schneller und genauer Auswertung und freien Kommentarfeldern sein, um den Nutzer im Antwortverhalten nicht zu sehr zu steuern. 1) Welcher Nutzergruppe würden Sie sich zuordnen? Mehrfachnennungen möglich (Goethe-Forscher/in,58 IT, Editionswissenschaftler/in, Wissenschaftler/in ohne editionswiss. Hintergrund, Student/in, Schüler/in, andere) 2) Design/Oberfläche: a. Spricht Sie das Design an? (skaliert) b. Wenn ja, warum oder worin besonders? (frei) c. Wenn nicht, warum oder wo nicht? (frei) d. Ist die Oberfläche übersichtlich gestaltet? (skaliert) e. Ist die Oberfläche verständlich gestaltet? (skaliert) f. Hindernisse? (frei) 3) Navigation und Nutzbarkeit a. Sind alle von Ihnen probierten Wege möglich? (skaliert) b. Falls nicht, wo gab es Probleme? (frei) c. Haben Sie verschiedene Wege, um zu einem bestimmten Text, zu einer bestimmten Handschrift usw. zu kommen, ausprobiert? (ja/nein) d. Falls ja, welche? (frei) e. Falls nicht, warum nicht? (Vorgabe: Zeitgründe, nicht gewusst, kein Bedarf, Sonstiges) f. Gibt es Redundanzen? (frei) 4) Kommentierung/Erläuterung a. Sind die Erläuterungstexte verständlich? (skaliert) b. Sind die Erläuterungstexte am richtigen Ort? (skaliert) c. Ist die Datenmodellierung ausreichend kommentiert? (skaliert) d. Verbesserungsvorschläge (frei)

–––––––– 56 57 58

Siehe S. 69f. im vorliegenden Beitrag. Der folgende Fragenkatalog basiert auf Überlegungen zu einer Befragung von Nutzern der digitalen Faust-Ausgabe (Anm. 11) aus dem Jahr 2015, die allerdings bisher nicht realisiert wurde. Aus Gründen der Illustration wurden Namen und Zuordnungen zur Faust-Ausgabe (Anm. 11) beibehalten.

Digitale genetische Editionen aus der Nutzerperspektive

77

5) Bereich Archiv (Ort der Dokumentenablage) 59 a. Features in Handschriftenansicht einzeln bewerten (skaliert) b. Ist die Transkriptionsdarbietung so in Ordnung? (Gesamteindruck) (skaliert) c. Einzelkritik an Umschriften gewünscht (frei) d. Ist die Qualität der Bilder der Handschriften online ausreichend? (skaliert) e. Ist die Qualität der Bilder der Handschriften beim Download ausreichend? (skaliert) f. Sind Hinweise auf Quellen und Lizenzinhaber genügend gekennzeichnet? (skaliert) g. Verbesserungsvorschläge (frei) 6) Bereich Lesetext a. Ist die Darbietung des Textes mit Einblendung der Varianten (Abb. 14)60 so gut zu nutzen? (skaliert) b. Ist die Navigation im Text möglich? (skaliert) c. Verbesserungsvorschläge (frei) 7) Bereich Werkgenese a. Haben Sie sich die Übersichten/Visualisierungen zur Werkgenese (Abb. 15–17) angeschaut? (ja/nein) b. Wenn nicht, woran lag das? (frei) c. Sind die vorhandenen Visualisierungen in Form von Übersichten zur Werkgenese d. … ausreichend in der Informationsvergabe? (skaliert) e. … mit zu vielen Informationen ausgestattet? (skaliert) f. Wenn ja, welche Informationen wären verzichtbar? (frei) g. … intuitiv/selbsterklärend? (skaliert) h. Sind die Wege nachvollziehbar? (skaliert) i. Wenn nicht, wo lagen die Probleme? (frei) j. Verbesserungsvorschläge (frei) 8) Bereich Textgenese a. Haben Sie sich die Darstellung von Textvarianten angeschaut? (ja/nein) b. Wenn nicht, woran lag das? (frei) c. Bitte geben Sie zu den folgenden Darstellungsformen ein Votum ab, wie sinnvoll und brauchbar diese jeweils ist … (jeweils Bild anzeigen) d. Variantenanzeige im Lesetext, handschriftenübergreifend (skaliert) e. Variantenanzeige innerhalb einer Handschrift als integrierter Apparat (skaliert) (Abb. 18) f. Sind die vorhandenen Darstellungen von Textvarianz i. … ausreichend in der Informationsvergabe? (skaliert) ii. … mit zu vielen Informationen ausgestattet? (skaliert)

–––––––– 59 60

Die Faust-Ausgabe (Anm. 11) setzt sich aus drei Bereichen zusammen: dem Archiv, dem Text und der Genese. Siehe das Beispiel aus dem Faust-Text (V. 11511ff.), in der Version 1.1 (seit Dezember2018) erreichbar unter http://www.faustedition.net/print/faust.43#scene_2.5.4 (Abruf am 24.06.2019).

78

Katrin Henzel

g.

Wenn zu viele textgenetische Informationen vorhanden sind, welche wären verzichtbar? (frei) h. Welche textgenetischen Informationen sind intuitiv/selbsterklärend? (skaliert) i. Wie lange haben Sie gebraucht, um sich … i. im Stufenapparat zurechtzufinden? (schnell, zu lange, in Ordnung) ii. im integrierten Apparat zurechtzufinden (schnell, zu lange, in Ordnung) j. Verbesserungsvorschläge (frei) 9) Suchfunktionen/Auffindbarkeit a. Wie bewerten Sie die Suchfunktionen hinsichtlich der Möglichkeiten und Optionen? (skaliert: zwischen zu viele und zu wenige) b. Haben Sie alles gefunden, was Sie gesucht haben? (skaliert) c. Falls nicht, warum nicht? Wo lagen die Schwierigkeiten? (frei) d. Ist eine Vorstellung vom Gesamtumfang gegeben? (skaliert) e. Verbesserungsvorschläge (frei) 10) Individuelle Weiternutzung von in der Edition bereitgestellten Forschungsdaten a. Wie bewerten Sie die Downloadmöglichkeiten von Materialien? (skaliert) b. Wie bewerten Sie die Referenzierbarkeit einzelner Teile der Edition (Texte, Bilder)? (skaliert) c. Wie bewerten Sie die Zitierbarkeit der Ausgabe insgesamt? (skaliert) d. Wo gibt es bezüglich der Refenzierbarkeit/Zitierbarkeit Defizite? (frei) e. Was genau interessiert Sie in der Edition besonders? (feste Vorgaben und freie Nennung: Zeugen, IT/Tools, ...) f. Warum interessieren Sie die eben genannten Bestandteile? Welche Forschungsfragen verbinden Sie damit? (frei) 11) Erfüllt die Ausgabe die an sie gestellten Anforderungen … a. … als historisch-kritische Ausgabe? (skaliert) b. Wenn nicht, warum nicht? (frei) c. … als genetische Ausgabe? (skaliert) d. Wenn nicht, warum nicht? (frei) e. … als digitale Ausgabe bezüglich der Kriterien der Nachhaltigkeit, Offenheit, Zugänglichkeit (frei, open source) und Nachnutzung? (skaliert) f. Wenn nicht, warum nicht? (frei) g. Gesamteindruck bzgl. Ästhetik (skaliert) h. Gesamteindruck bzgl. Funktionalität (skaliert) i. Vermissen Sie etwas an/in der Edition? (frei) j. Freies Feld: Kommentar, was verbesserungswürdig ist (frei) k. Werden Sie künftig mit der Edition arbeiten? (skaliert) l. Welche Bestandteile der Edition würden Sie dann nutzen? (frei) m. Würden Sie die Edition anderen (z. B. Studierenden) zur Nutzung empfehlen? (skaliert)

Digitale genetische Editionen aus der Nutzerperspektive

n. o.

79

Wie oft haben Sie die Edition schon besucht? (1x, 2–3x, >3x) Wie lange sind Sie in der Edition geblieben? (konkrete Zeitvorgaben sinnvoll)

Es wäre zusätzlich zur Konkretisierung der Fragen und der Anpassung an die jeweils zu evaluierende Edition in einem Testlauf zu eruieren, inwieweit diese Form und Ausführlichkeit (oder Knappheit?) des Fragebogens auch zielführend ist und funktioniert, bevor eine Umfrage größeren Umfangs erfolgen kann.

Fazit und Ausblick: Von wem können wir lernen? Was lässt sich zusammenfassend zum Nutzer digitaler genetischer Editionen sagen? Er ist ernst zu nehmen. Dies wiederum gelingt nur durch die Ermittlung tatsächlicher Interessen und Bedürfnisse im Umgang mit (genetischen) Editionen. Eine aussagekräftige Untersuchung hierzu steht bislang noch aus und bedarf zahlreicher kleiner, auf konkrete Editionen abzielender Befragungen. Freilich bedarf es dafür auch erst einmal zahlreicher digitaler textgenetischer Editionen, die frei zugänglich sind. Dass manche Ausgaben, insbesondere genetische, noch zu oft an den Bedürfnissen der Nutzer vorbeigehen, ist ein Zustand, den es zu ändern gilt. Das soll nicht automatisch bedeuten, dass sich für Editionsgegenstände nun die Situation umkehrt und Editionen als reine Dienstleistung wahrgenommen werden sollen. Vielmehr ist – das sollte deutlich werden – an eine in höherem Grad zu reflektierende Vermittlungsarbeit zu denken. Editionen sind nicht selbsterklärend, sie bedürfen einer Einführung, die gerade im digitalen Medium neue Möglichkeiten jenseits rein deskriptiver editorischer Berichte findet. Womöglich trägt hier auch die nach wie vor defizitäre und teils inkonsistent gebrauchte Terminologie der Editionswissenschaft eine gewisse Mitschuld am Zustand des bestehenden Desinteresses seitens des Nutzers: „Im Sinne der Wahrnehmung unserer Editionen diente eine solche Terminologiearbeit zunächst einmal einer Anleitung zum Lesen und Verstehen von Editionen und damit einer wesentlichen Vermittlung unserer Disziplin.“61 Zunehmend an Bedeutung gewinnt im Kontext der kritischen (genetischen) Editionen die Erforschung von Schnittstellen, wie beispielsweise der grafischen Nutzeroberfläche. Roberto Rosselli Del Turco wies bereits 2012 darauf hin, „that discussion on the optimal GUI for DE browsing software continues so that there will be a theoretic model ready for those who will try to implement it on such devices.“62 Ein Symposium

–––––––– 61

62

Rüdiger Nutt-Kofoth: Zur Terminologie des textgenetischen Felds. In: editio 30, 2016, DOI: https://doi.org/10.1515/editio-2016-0003, S. 34–52, hier S. 51. Vgl. auch die Überlegungen Dot Porters 2013 (Anm. 26), S. 14. Rosselli Del Turco 2012 (Anm. 10), § 80. Notwendige Voraussetzung hierfür sind nach Rosselli Del Turco die Nutzung von Open Standards, das Veröffentlichen als Web-Publikation, die Verwendung einer allgemein nutzbaren Sprache/Software anstelle von Insellösungen und die Rücksichtnahme auf die gegebenen räumlichen Bedingungen: dass der Raum eben durch die Monitorgröße begrenzt ist, vgl. ebd., § 74–78. Auch zu Kriterien für die grafische Benutzeroberfläche äußert sich Rosselli Del Turco: So muss beispielsweise die sofortige Evidenz von Tools gegeben sein, um den Nutzer nicht durch ein Zuviel an Auswahl (beispielsweise bei der Anzahl von bedienbaren Buttons) zu überfordern, ebd., § 38.

80

Katrin Henzel

an der Grazer Universität im Jahr 2016 zu Schnittstellen in Editionen machte die Dringlichkeit von deren systematischer Erforschung deutlich. 63 Was lässt sich zudem von anderen Disziplinen lernen? Die Einbeziehung beispielsweise von pädagogischen Lernmodellen wie dem Design Thinking, 64 das sich kreative Prozesse für innovative Forschung zunutze macht, oder von Ergebnissen aus Psychologie, Medizin und Neurobiologie65 hinsichtlich kognitiver Verarbeitungsprozesse kann helfen, Fragen wie die nach optimalem Umfang und idealer Visualisierungsform für Informationen über die Entstehung von Kunstwerken (Text- und Werkgenese) zu beantworten und daraus neue Formen abzuleiten, die den Nutzer vor Reizüberflutung und Überforderung bewahren. Auch die Kunst- und Bildtheorie liefern hierfür wertvolle Impulse im Umgang mit grafischen Benutzeroberflächen. 66 Gerade im Bereich der Varianzdarstellung (sei es für literarische Texte oder Partituren oder andere Kunstwerke mit komplexer Entstehungsgeschichte und -überlieferung) ist also das interdisziplinäre Arbeiten keine bloße Floskel, sondern dringende Voraussetzung für gelungene Ausgaben, die tatsächlich auch die Nutzerinteressen bedienen.

–––––––– 63

64

65

66

Vgl. den Tagungsbericht von Roman Bleier, Carina Koch und Gerlinde Schneider: Tagungsbericht: Digital Scholarly Editions as Interfaces, 23.09.2016–24.09.2016 Graz, in: H-Soz-Kult, 17.03.2017, www.hsozkult.de/conferencereport/id/tagungsberichte-7060 sowie das Programm mit den Vortragsfolien und den Link zu den Abstracts unter https://informationsmodellierung.uni-graz.at/de/veranstaltungen/ archiv/digital-scholarly-editions-as-interfaces/ (Abruf am 12.04.2018). Alexander Grots und Margarete Pratschke: Design Thinking – Kreativität als Methode. In: Marketing Review St. Gallen 2, 2009, S. 18–23. Online abrufbar unter: http://improjects.uni-koblenz.de/edschool/ downloads/DesignThinking-Kreativitaet-als-Methode.pdf (Abruf am 15.04.2018). Vgl. etwa Tobias Bonhoeffer: Die zellulären Grundlagen des Lernens. In: Max-Planck-Gesellschaft Jahrbuch 2013, Forschungsbericht online abrufbar unter https://www.neuro.mpg.de/480452/ research_report_6823756 (Abruf am 15.04.2018). Bonhoeffer bezieht sich auf das erstmals von Hermann Ebbinghaus formulierte Prinzip der „Ersparnis“, das besagt, dass einmal Erlerntes im Gegensatz zu neuem Wissen leichter wiederaufgenommen werden kann. Margarete Pratschke: Interaktion mit Bildern. Digitale Bildgeschichte am Beispiel grafischer Benutzeroberflächen. In: Das Technische Bild. Kompendium zu einer Stilgeschichte wissenschaftlicher Bilder. Hrsg. von Horst Bredekamp, Birgit Schneider und Vera Dünkel. Berlin 2008, S. 68–81.

Gerrit Brüning

Was ist und wozu kodiert man Textgenese?

Weil die Weltgeschichte von dem Reichthum und der Armuth an Quellen abhängig ist, so müssen eben so viele Lücken in der Weltgeschichte entstehen, als es leere Strecken in der Ueberlieferung giebt. So gleichförmig, nothwendig und bestimmt sich die Weltveränderungen auseinander entwickeln, so unterbrochen und zufällig werden sie in der Geschichte in einander gefügt seyn. Es ist daher zwischen dem Gange der W e l t und dem Gange der W e l t g e s c h i c h t e ein merkliches Mißverhältniß sichtbar. Jenen möchte man mit einem ununterbrochen fortfließenden Strom vergleichen, wovon aber in der Weltgeschichte nur hie und da eine Welle beleuchtet wird. 1

In seiner Antrittsvorlesung „Was heißt und zu welchem Ende studiert man Universalgeschichte?“ unterscheidet Schiller zwischen einem kausal determinierten Geschehen (Gang der Welt) und demjenigen, was sich von diesem Geschehen in der Quellenlage und der darauf beruhenden historiographischen Darstellung (Gang der Weltgeschichte) niederschlägt. Der Strom des Gesamtgeschehens liegt größtenteils im Dunkeln: Durch Quellen belegte oder hypothetisch erschlossene historische Ereignisse sind nicht die Regel, sondern die Ausnahme, und jede Form der Geschichtsschreibung bleibt daher immer lückenhaft. Das Bild vom dunklen Strom lässt sich auf die Genese von Texten übertragen. Für textgenetische Editionen gleich in welchem Medium bedeutet dies, dass sie trotz ihres Anspruchs auf Vollständigkeit weit davon entfernt sind, die Textgenese in ihrer Gesamtheit abzubilden. Die Frage, was sie abbilden können und sollten, stellt sich im digitalen Medium neu. Bei der möglichen Antwort darauf ist zu berücksichtigen, dass sich im digitalen Medium auch die Nutzungsszenarien ändern. Aus langjähriger eigener Erfahrung plädiert der vorliegende Beitrag dafür, über die Anlage textgenetischer Editionen (und das hieße im Kern: textgenetischer Kodierungen) nicht nur von tradierten editionswissenschaftlichen Standards, sondern in mindestens gleichem Maße auch von digitalen Nutzungsszenarien her nachzudenken. Nur so kann die Chance gewahrt werden, dass aus der in digitalen textgenetischen Editionen angehäuften Datenmenge größerer Nutzen gezogen wird als aus den gedruckten Vorläufern.

–––––––– 1

Friedrich Schiller: Was heißt und zu welchem Ende studiert man Universalgeschichte? Eine akademische Antrittsrede. In: Schillers Werke. Nationalausgabe. Begründet von Julius Petersen†. Hrsg. im Auftrag der Nationalen Forschungs- und Gedenkstätten der klassischen deutschen Literatur in Weimar (Goethe- und Schiller-Archiv) und des Schiller-Nationalmuseums in Marbach von Lieselotte Blumenthal und Benno von Wiese, Bd. 17: Historische Schriften. Erster Teil. Hrsg. von Karl-Heinz Hahn. Weimar 1970, S. 359– 376, hier S. 372.

https://doi.org/10.1515/9783110575996-006

82

Gerrit Brüning

Schillers Vergleich des Geschichtsprozesses mit einem dunklen Strom ist auf die Genese und die weitere Entwicklung von Texten übertragbar, das gilt im Großen (in der Makrogenese) wie im Kleinen (in der Mikrogenese). 2 Im Großen ist dies offensichtlich: Zum einen ist die handschriftliche Überlieferung normalerweise lückenhaft. Doch selbst dann, wenn die Überlieferung einmal lückenlos sein sollte, so kann sie es doch nur in dem Sinn sein, dass sich alle Niederschläge des Schreibprozesses erhalten haben. Die Textgenese mit dem Schreibprozess identifizieren hieße aber, die mentale Seite der Textgenese zu vernachlässigen. 3 Für diese ist es geradezu charakteristisch und typisch, dass ihr Anfangspunkt im Dunkeln liegt: „The beginning is almost never a fixed moment. […] The search for these texts beginning leads to nowhere but an intertextual amalgam.“4 Aussagen über die Textgenese beziehen sich daher oft auf Stadien, die kein überliefertes oder überhaupt kein materielles Korrelat haben (z. B. mentale Tätigkeiten bis hin zu bloßer Lektüre, hypothetische Konzeptionen etc.). 5 Schillers Analogie fortführend ließe sich hier von einer dunklen Urgeschichte eines Textes sprechen. Von einer Textgenese im Kleinen (Mikrogenese) kann nur die Rede sein, wenn Überlieferung vorliegt. Dass auch die Mikrogenese trotz dann ja günstiger Quellenlage in gewisser Weise dunkel sein soll, dürfte deswegen auf den ersten Blick weniger einleuchten. Doch selbst wenn man zunächst nur den Schreibprozess in Betracht zieht, dessen Niederschlag sichtbar ist (d. h. von der mentalen Seite, soweit sie sich nicht unmittelbar daraus erschließen lässt, abstrahiert), so ist die Erkenntnis des Schreibprozesses aus einem Manuskript heraus keineswegs trivial. Der textgenetische Schreibprozess erstreckt sich über einen Zeitraum, der normalerweise so eng begrenzt ist, dass seine einzelnen Stationen meist nicht unmittelbar greifbar sind. Das gilt zum einen für die Grundschicht: Ihr entspricht kein textgenetisch realer Zustand des Textes, da nachträgliche Änderungen oftmals schon während der Niederschrift vorgenommen werden und damit früher als die jeweils nachfolgenden Teile der Grundschicht zu datieren sind. Die zeitliche Reihenfolge der nachträglichen Änderungen (Korrekturfolge) ist meist nur dort sicher, wo an einer Stelle mehrfach geändert wird (absolute Chronologie im Sinne Backmanns). Chronologien dieser Art sind strikt lokal und können nicht auf einen

–––––––– 2

3

4 5

Zu den Begriffen Mikro- und Makrogenese vgl. Dirk Van Hulle: Editing the Wake’s Genesis: Digital Genetic Criticism. In: James Joyce and Genetic Criticism. Genesic Fields. Hrsg. von Genevieve Sartor. Leiden, Boston 2018 (European Joyce Studies. 28), S. 37–54, hier S. 47–53. Vgl. auch die Resümees zum internationalen Workshop Digitale genetische Editionen (in der Praxis) vom 4./5. September 2014 im Schweizerischen Literaturarchiv (SLA), bei dem die Makrogenese im Mittelpunkt stand: http://www.lokalbericht.unibe.ch/hermann_burger/pdf/Resuemees.pdf (Abruf am 24.10.2018). Spürbar wird die Bedeutung der mentalen Seite insbesondere dort, wo Notizen vorliegen, die sich zwar semantisch, aber noch nicht durch Textidentität und Differenz auf spätere ausgeführte Entwürfe des Textes beziehen lassen. Der Zusammenhang zwischen beiden ist klar erkennbar; der Weg, der von der Notiz zum Entwurf führte, jedoch nicht. Dirk Van Hulle: Textual Awareness. A Genetic Study of Late Manuscripts by Joyce, Proust, and Mann. Ann Arbor 2004, S. 156. Vgl. Gerrit Brüning: Modellierung von Textgeschichte. Bedingungen digitaler Analyse und Schlussfolgerungen für die Editorik. In: Digitale Literaturwissenschaft. DFG-Symposium 2017. Hrsg. von Fotis Jannidis u. a. (erscheint 2019). Die auf der Klagenfurter Tagung formulierten grundsätzlichen Überlegungen zum Konzept Textgeschichte sind in den Beitrag zum DFG-Symposium eingegangen und werden hier daher nicht vollständig wiederholt.

Was ist und wozu kodiert man Textgenese?

83

Zustand des gesamten Textes hochgerechnet werden. Mutmaßliche Gleichzeitigkeit von Änderungen, angenommen z. B. aufgrund syntaktischer oder metrischer Zusammenhänge, lässt sich meist ebenfalls nur an relativ dicht benachbarten Stellen nachweisen. Auch der Schreibprozess ist daher mit einem dunklen Strom zu vergleichen, von dem „nur hie und da eine Welle beleuchtet wird“. Die Reichweite editorischer Darstellungen ist dadurch von vornherein begrenzt, unabhängig davon, an welchem editorischen Modell (Faksimile, Umschrift, genetischer Apparat) sie orientiert sind und in welchem Medium sie realisiert werden. Wir sehen, was auf der handschriftlichen Seite steht, aber wir sehen (auch in Faksimile-Editionen) nicht den Vorgang, dessen Ergebnis das ist: den Vorgang mit seinen Stockungen, Beschleunigungen, Unterbrechungen, d. h. die Textgenese auf der syntagmatischen Achse. Was Editionen dagegen relativ gut darstellen können, sind die Vorgänge auf der paradigmatischen Achse, d. h. die Änderungen des einmal geschriebenen Textes – Tilgungen, Hinzufügungen, Ersetzungen, Umstellungen. Editionen setzen damit auf einer recht späten textgenetischen Stufe an, auf welcher nämlich ein Text im Grunde bereits vorliegt, die Genese im engsten Sinn abgeschlossen ist. Die Genese im weiteren Sinn, d. h. die Entwicklung bis hin zur ersten veröffentlichten Fassung, ist damit natürlich noch nicht abgeschlossen. Trotzdem hat der Text bereits ein Stadium erreicht, in dem seine Entwicklung über materiell und zeitlich voneinander getrennte materielle Realisationen hinweg nachvollzogen werden kann. 6 Als Selbstbezeichnung sollte man den Ausdruck ‚textgenetische Edition‘ daher so moderat gebrauchen, dass Missverständnissen über die tatsächliche Reichweite der editorischen Darstellung möglichst vorgebeugt wird. Das digitale Medium hält allerdings gerade die Versuchung bereit, das Dunkle der Textgenese und des Schreibprozesses zu verdecken, etwa durch animierte Visualisierungen der Beschriftung einer Seite.7 Bei Visualisierungen dieser Art ist es kaum zu vermeiden, die Grenze zwischen dem, was man (wie hypothetisch auch immer) behaupten kann, in Richtung des bloß theoretisch Möglichen („so könnte es gewesen sein“) zu überschreiten, ohne dass dieser Grenzübertritt transparent wird. Zum anderen müssen die Visualisierungen stark vergröbern, um noch benutzerfreundlich zu sein. Wo dies geschieht und nach welchen Prinzipien (Ungewissheit oder Willkür zu Darstellungszwecken?), ist wiederum nicht transparent. Schon die Restriktion der Visualisierung auf Seiten oder Doppelseiten ist folgenreich und potentiell irreführend.8 Die vermeintliche visuelle Überzeugungskraft

–––––––– 6

7

8

Dieses Stadium fasse ich als den Beginn der ‚Textgeschichte‘ auf, vgl. Brüning 2019 (Anm. 5). Das entspricht dem Gebrauch des Ausdrucks Textgeschichte in einem weiteren Sinn, wie er sich in der Neuphilologie des 20. Jahrhunderts durchgesetzt hat. Besonders bekannt ist der „Proust Prototype“ von Elena Pierazzo und Julie André (Autour d’une séquence et des notes du Cahier 46: enjeu du codage dans les brouillons de Proust, http://research.cch.kcl.ac.uk/ proust_prototype/, Abruf am 24.10.2018). Beschrieb Marcel Proust erst eine ganze Doppelseite einschließlich Ergänzungen am Rand, bevor er zur nächsten Doppelseite überging? Soll die Darstellung das implizieren oder gerade nicht? Sind Seiten und Doppelseiten als genetische Einheiten relevant, oder verdankt sich die Visualisierung auf Ebene der Doppelseite lediglich der besseren Darstellbarkeit? Oder sind solche Fragen fehl am Platz, weil es sich um eine Spielerei handelt, bei der niemand daran denkt, sie auf ein ganzes editorisches Corpus auszudehnen?

84

Gerrit Brüning

solcher Darstellungen ähnelt den bildgebenden Verfahren der Neurowissenschaft, die im populärwissenschaftlichen Kontext gerade nicht dazu angetan sind, einem tieferen Verständnis dessen den Weg zu bereiten, worum es hier eigentlich geht. Wie wichtig es ist, dass Editionen mit dem eigenen ‚textgenetischen‘ Anspruch nicht zu vollmundig auftreten, möchte ich an einem Beispiel verdeutlichen. Christoph König attestiert der Faust-Edition im Zusammenhang der Genese eine illegitime „Analogisierung“ des Nichtgleichartigen. 9 Unter Analogisierung wird hier zunächst ein Konzept von Materialität verstanden, das sich in spezifischer Weise gegen die von König postulierte ‚selbstbestimmte Seite‘ richtet. 10 Analogisierung bedeutet, Geschriebenes aus dem Kontext der Seite herauszulösen und mit dem Text einer späteren genetischen Stufe (der entsprechenden Stelle im letztgültigen Text) in einer Weise zu identifizieren, welche die Entwicklung vom einen zum anderen geradezu negiert. Grund für diese Behauptung ist (ohne dass König dies ausdrücklich sagt) ein Grundmerkmal digitaler genetischer Editionen: die Verlinkung von sich entsprechenden Texteinheiten in verschiedenen Zeugen. Das können einzelne Verse oder Elemente des Nebentextes sein (wie in der Faust-Edition), Sätze oder satzartige Segmente (wie im Samuel Beckett Digital Manuscript Project), Kapitel (wie in der Klagenfurter Musil-Ausgabe) oder auch Zeilen einer Referenzausgabe (Faust-Edition); andere Einheiten von einzelnen Wörtern bis zu ganzen Textabschnitten wären denkbar. Die gewählte Einheit hängt nicht nur von der Textsorte ab (Drama, Verse, Prosa etc.), sondern auch von der aufgrund der Überlieferungsverhältnisse (relevante genetische Einheit) oder auch aus pragmatischen Gründen für sinnvoll gehaltenen Granularität (je kleiner die Einheit, desto größer der Aufwand). Wenn Textfassungen auf einer bestimmten Ebene miteinander verlinkt werden, führt dies zwangsläufig dazu, dass Veränderungen (und überhaupt Verhältnisse) auf genau dieser Ebene sichtbar gemacht werden, Veränderungen auf anderen Ebenen dagegen nicht. König zeigt dies anhand der Handschrift V H35 (Faust-Edition: 2 V H. 35).11 Sie enthält 51 Verse, von denen sich 48 durch Textidentität auf Verse im letztgültigen Text der Szene „Bergschluchten“ beziehen lassen (die drei übrigen sind kaum zu entziffern). In der Zeilensynopse lassen sich Vers für Vers die übrigen (allesamt späteren) Fassungen des jeweiligen Verses aufrufen. In diesem Feature erkennt König eine problematische Analogisierung, man könnte zugespitzt auch sagen: Identifikation von Versen der einen mit Versen anderer Handschriften. Analogisierung oder Identifikation kommen auch darin zum Ausdruck, dass vor jedem Vers die Nummer des Verses nach der eingeführten Verszählung des Werktextes angezeigt wird. So steht vor dem Vers

–––––––– 9

10 11

Christoph König: Wie man eine Seite liest. Über einige Konzepte zur Materialität, mit Lektüren von Werken Goethes, Nietzsches, Rilkes und Hölderlins. In: Geschichte der Germanistik 51/52, 2017, S. 15– 38, hier S. 19–25. Ebd., S. 15–19. Johann Wolfgang Goethe: Faust. Historisch-kritische Edition. Herausgegeben von Anne Bohnenkamp, Silke Henke und Fotis Jannidis unter Mitarbeit von Gerrit Brüning, Katrin Henzel, Christoph Leijser, Gregor Middell, Dietmar Pravida, Thorsten Vitt und Moritz Wissenbach. Version 1.0rc. Frankfurt am Main, Weimar, Würzburg 2018, 2 V H. 35, http://www.faustedition.net/document?sigil=2_V_H.35 (Abruf am 25.03.2019).

Was ist und wozu kodiert man Textgenese?

85

„Unbezwinglich unser Muth“ die Verszahl 12005. Dieser Vers von V H35 ist sogar vollständig textidentisch mit den späteren Fassungen (V H37c, H). Und doch muss man fragen, ob es legitim ist, ihm auf dieser genetischen Stufe bereits die Bezeichnung ‚Vers 12005‘ zu geben. Denn er ist zwar gleichlautend mit dem Vers 12005 des späteren letztgültigen Textes, doch dieser letztgültige Text ist insgesamt nicht identisch mit dem Text von V H35. Die Verse des Blatts erscheinen dort an unterschiedlichen Stellen (verteilt über eine Passage, die im letztgültigen Text einen um ein Vielfaches größeren Umfang hat (Vers 11866–12103, d. h. 237 Verse). 12 Die Partien haben hier wie dort einen anderen Kontext, sie erscheinen auch in unterschiedlicher Reihenfolge. 13 Zudem, und darauf stellt König in erster Linie ab, sind die Verse in V H35 keinen Sprechern zugewiesen (im letztgültigen Text Pater Profundus und Doctor Marianus).14 Der Text der Handschrift ist also vom Erscheinungsbild her gesehen im wesentlichen lyrisch, nicht dramatisch strukturiert. Daraus folgert König, dass hier ein einziges lyrisches Subjekt betend spreche, und daraus wiederum, dass die Verse „im Grunde keine Vorläufer der jeweiligen Figurenrede sind“. 15 Die Entstehung der späteren Figurenreden deutet König als einen Akt der Dissoziation homologer lyrischer Redeteile. 16 Wie ist darauf aus der Sicht digitalen genetischen Edierens zu antworten? Natürlich ist der Vers „Unbezwinglich unser Muth“ nicht in einem anspruchsvolleren Sinn identisch mit dem Vers 12005 des letztgültigen Textes. Das will die Verszahl am Rand aber auch nicht sagen. Sie soll auf eine im User Interface bestehende Verknüpfung und damit den Weg zu anderen Fassungen hinweisen, auf die der Vers durch Textidentität und Differenz bezogen werden kann (die Herstellung eines solchen Bezugs entspricht traditioneller editorischer Praxis und ist als solche nie kritisiert worden). Nun könnte man überlegen, den bloß hinweisenden, nicht etwa Identität behauptenden Charakter der Verszahlen in allen Zeugen visuell zu kennzeichnen. Da für Relativierungen dieser Art jedoch kein allgemeinverbindliches visuelles Vokabular zur Verfügung steht, gibt es keine Gewähr dafür, dass die Adressaten der Edition ein solches Signal wahrnehmen und richtig deuten. Die wesentliche Frage ist ohnehin eine andere, nämlich die, ob die für die Darstellung gewählte Einheit (in der Faust-Edition: der Vers) im gegebenen Zusammenhang genetisch adäquat ist. Im Grunde kehrt hier das Problem des althergebrachten Einzelstellenapparats wieder, der, wie seinerzeit Ernst Grumach gegen den Apparat Erich Schmidts zum Faust in der Weimarer Ausgabe beklagte, nur „an wenigen Stellen größere Verspartien in ihrem ursprünglichen Zusammenhang gelassen hat“.17

–––––––– 12 13

14 15 16 17

Über diese Spanne informiert jeweils die Zeugenbeschreibung. Das von jedem Zeugen aus über den Breadcrumb in der Kopfzeile erreichbare Balkendiagramm zur betreffenden Szene (hier http://faustedition.net/genesis_bargraph?rangeStart=11844&rangeEnd=12111), macht deutlich, wie bruchstückhaft die Entsprechungen sind, enthält aber keinen Hinweis auf veränderte oder unklare Reihenfolge. Vgl. König 2017 (Anm. 9), S. 24. Ebd., S. 24f. Vgl. ebd., S. 25. Ernst Grumach: Aufgaben und Probleme der modernen Goetheedition. In: Wissenschaftliche Annalen 1, 1952, H. 1, S. 3–11, hier S. 11.

86

Gerrit Brüning

Was also ändert sich wirklich? Ist es der Vers, die Versgruppe, die Figurenrede? Oder liegt ein wesentlicher Unterschied darin, dass ein Vers in einer früheren Stufe noch keinem Sprecher zugewiesen ist? Darüber wird man unterschiedlicher Meinung sein dürfen. König konnte nicht ohne weiteres wissen, dass der Fall von Versen, die eine Entsprechung im letztgültigen Text haben, aber noch nicht Teil von erkennbaren Figurenreden sind, in den Faust-Handschriften sehr häufig vorkommt (ca. 3400 mal). Folgerichtig müsste König dann stets von lyrischen Entwürfen sprechen. Faust wäre dann zumindest in Teilen aus solchen lyrischen Entwürfen erwachsen. Das ist theoretisch möglich, aber wenig wahrscheinlich. Viel wahrscheinlicher ist, dass die fragmentarischen Passagen von vornherein als Teile von Figurenreden angelegt waren und niedergeschrieben wurden, um später in einen dramatischen Text inkorporiert zu werden. Weil die Entwürfe in ihrer Zersplitterung häufig keine Reihenfolge und keinen textlichen Zusammenhang erkennbar werden lassen (V H35 ist ein typisches Beispiel dafür), könnte ohnehin nicht gut von einem lyrischen Entwurf (mit einem lyrischen Subjekt) die Rede sein; man müsste deren mehrere ansetzen. Die momentane Problematik digitaler textgenetischen Editionen liegt aber nicht in solchen Einzelfragen, sondern in der noch nicht bewältigten Herausforderung, Veränderungen auf unterschiedlichen Ebenen zunächst einmal sichtbar zu machen. Königs Kritik ist daher im konkreten Fall zu entkräften, mit Blick auf digitale textgenetische Editionen insgesamt behält sie dennoch ihre Berechtigung. Ohne die von König kritisierte Verlinkung verschiedener Fassungen würden digitale Editionen zu einem digitalen Archiv zusammenschrumpfen, in dem sich die repräsentierten historischen Objekte isoliert voneinander, ohne erkennbaren sinnvollen Zusammenhang darstellen. Erst die Verknüpfung von textidentischen Passagen und die genetische Ordnung der Fassungen ermöglicht, dass ein Zeuge wie die Handschrift V H35 im Rahmen eines realistischen Nutzungsszenarios aufgefunden werden kann. Der Verzicht auf solche Verlinkungen ist für digitale genetische Editionen daher keine vernünftige Option. Das zuvor beschriebene Problem der Einheit tritt je nach Textsorte und Überlieferungslage unterschiedlich auf und verlangt daher nach unterschiedlichen Lösungen. Auf einer grundlegenderen Ebene stellt es sich jedoch editionsübergreifend in ähnlicher Weise. Textgenetische Editionen haben es mit Texten und also mit Einheiten sprachlicher Art zu tun. Ohne steten Bezug auf sprachliche Einheiten wären Entzifferung und Transkription gar nicht möglich: Auftrag von Schreibmaterial wird als Graph, Graphenfolgen werden als Wörter interpretiert usw. Auf welcher Ebene vollzieht sich nun so etwas wie Textgenese? Oder anders gefragt: Auf welcher Ebene wird Textgenese in textgenetischen Editionen repräsentiert? Diese Frage lässt sich gut anhand der Darstellung von Varianten beantworten (Varianten können sowohl innerhandschriftlich als auch im Vergleich zwischen Zeugen auftreten). Wenn Texte verschiedener Zeugen nicht nur synoptisiert (wie in der Faust-Edition), sondern zusätzlich auch im Einzelnen auf Identität und Differenz geprüft, d. h. kollationiert werden (wie im Samuel Beckett Digital Manuscript Project), geschieht dies üblicherweise auf der Ebene von Wörtern.

87

Was ist und wozu kodiert man Textgenese?

Abweichungen und Übereinstimmungen von mehreren Wörtern werden zusammengefasst; wenn aber unterschiedliche Wörter teilweise übereinstimmen, wird nicht zwischen identischem und nichtidentischem Bestandteil differenziert. Das ist zum einen technisch motiviert (Kollationsprogramme zerlegen einen Text in tokens und ordnen die tokens der Texte einander zu), aber auch unabhängig davon sinnvoll: Sind es doch im Wesentlichen Wörter und größere sprachliche Einheiten, die für einen Text konstitutiv sind. Was bedeutet das für die Handschriftenwiedergabe? Im handschriftlichen Entwurf von Robert Musils Rede auf dem „Internationalen Schriftstellerkongreß für die Verteidigung der Kultur“ in Paris am 21. Juni 1935 ist zu lesen: […] Man hat mich darauf vorbereitet, daß ich es hier mit eine#m#\r| besonders intelligenten und vielseitig#en# wachsamen Zuhörerschaft zu tun haben werde, […] 18

Mit den editorischen Zeichen #...# für Gestrichenes und \...| für Hinzugefügtes sind die im Manuskript erkennbaren nachträglichen Änderungen eindeutig festgehalten. Von sprachlichen Einheiten oberhalb der Ebene von Graphen wird dagegen abstrahiert. Folgende genetische Stufen sind wahrscheinlich: (1) einem besonders intelligenten und (a) vielseitigen (Sofortrevision; etwa „ ... Publikum“) (b) vielseitig (2) einer besonders intelligenten und vielseitig Die Annahme der Stufen basiert auf der Überlegung, dass Musil hier zuerst auf eine Konstruktion mit einem Substantiv im Neutrum (vermutlich „Publikum“) hinschrieb und diese Konstruktion dann zugunsten einer Konstruktion mit der femininen „Zuhörerschaft“ wechselte. Ohnehin evident ist, dass die Streichung des „m“ in „einem“ hier nicht ohne die Ersetzung durch „r“ zu denken ist, das an sich sprachlich mögliche Wort „eine“ also textgenetisch hier nicht existiert hat. In jedem Fall vollzieht sich die so dargestellte Textgenese auf der Ebene von Wortformen, nicht von einzelnen Graphen. Es ist nicht sinnvoll zu sagen, Musil habe das „r“ verworfen und durch ein „m“ ersetzt; Musil dachte und schrieb wie jeder andere kompetente Sprecher in Wörtern und Syntagmen. Deswegen hätten anstelle der oben zitierten Transkription auch Apparateinträge der folgenden Form gebraucht werden können, um die innerhandschriftlichen Varianten mitzuteilen: 43 einer] [einem] einer 44 vielseitig] [vielseitigen] vielseitig

19

–––––––– 18

19

Robert Musil: Klagenfurter Ausgabe (KA). Update 2015. Kommentierte Edition sämtlicher Werke, Briefe und nachgelassener Schriften. Mit Transkriptionen und Faksimiles aller Handschriften. Hrsg. von Walter Fanta unter Mitwirkung von Rosmarie Zeller. Klagenfurt 2015, Transkriptionen und Faksimiles, Nachlass, Mappe VI/1, S. 61. Zeilenzählung nach der Klagenfurter Ausgabe.

88

Gerrit Brüning

Das Prinzip der Zeichentreue führt in der üblichen Transkriptionspraxis jedoch wie selbstverständlich zu einer Zeichentreue auch bei der Wiedergabe von Änderungen. 20 Das entspricht dem von der editionswissenschaftlichen Methodendiskussion ererbten, immer höhergetriebenen Genauigkeitsanspruch mit Blick auf inskriptionelle Details. Die Wiedergabe von Änderungen unterhalb der Wortebene ist wohletabliert; sie ist nicht nur in Transkriptionen ganzer Handschriften, sondern durchaus auch in Apparateinträgen anzutreffen. 21 Was soll an einer möglichst genauen Wiedergabe auch fragwürdig sein? Der Benutzer kann ja aufgrund sprachlicher Regeln die sich aus den einzelnen Schreibakten ergebenden Wörter und mögliche textgenetische Stufen feststellen. Dagegen wäre er nicht in der Lage, aus den bloßen Angaben von Wörtern und Syntagmen den inskriptionellen Befund genau zu rekonstruieren – ein irreversibler Informationsverlust. Doch das ist nur die halbe Wahrheit, wenn es um digitale Editionen geht. Auch hier, könnte man argumentieren, kommt es vorrangig auf die editorische Genauigkeit an, und auf den ersten Blick ist kein Grund erkennbar, handschriftliche Änderungen vom allgemeinen Prinzip der Zeichentreue auszunehmen. Wenn nach den Vorteilen digitaler Editionen gegenüber gedruckten gefragt wird, kommen jedoch vor allem grundsätzlich neue Nutzungsszenarien ins Spiel. Digitale Editionen sollen nicht nur leichter, intuitiver benutzt werden können, sie sollen auch andere Arten von Nutzung ermöglichen als gedruckte Editionen. So sollen sie z. B. maschinell durchsuchbar sein. Als Voraussetzung dazu werden, wie schon bei der Kollation (s. o.), Texte in einzelne tokens (Wortformen) zerlegt. Dies wird um ein Vielfaches schwieriger, wenn handschriftliche Änderungen unterhalb der Wortebene festgehalten werden. Gesucht und gefunden werden soll ja zunächst nicht vielseitig#en#, sondern vielseitig oder vielseitigen. Für den menschlichen Leser ist es trivial, welche Wörter an der betreffenden Stelle vorkommen. Nicht so für die Maschine. vielseitig soll als token erkannt, das Zeichen # aber nicht als Tokentrenner, d. h. #en# nicht als token interpretiert, aber auch nicht einfach ignoriert werden. Stattdessen ist vielseitig#en# als Kodierung zweier unterschiedlicher Zustände (1. vielseitigen, 2. vielseitig) aufzufassen. Weil mit #...# nur ein Vorgang kodiert wird, ist die Interpretation unproblematisch. Anders verhält es sich mit eine#m#\r|. Da #m# und \r| benachbart, aber nicht verknüpft sind, werden die Zustände eine und einemr nicht explizit ausgeschlossen. Als Ergebnis der Tokenisierung wären sie jedoch als Fehler anzusehen. Der Fehler wäre dadurch auszuschließen, dass die beiden Vorgänge in der Form

–––––––– 20

21

In Brüning 2019 (Anm. 5) werden diese beiden grundsätzlich verschiedenen Arten der Wiedergabe handschriftlicher Änderungen als ‚Prinzip Transkription‘ und ‚Prinzip Edition‘ bezeichnet. Damit sollen unterschiedliche Grade der Abstraktion vom handschriftlichen Befund bezeichnet werden, nicht aber der Unterschied zwischen philologischer Vorarbeit und Publikationsergebnis. Selbstverständlich kommen Wiedergaben nach dem ‚Prinzip Transkription‘ auch in publizierten Editionen vor. Vgl. Brüning 2019 (Anm. 5) über den Apparat der Kritischen Kafka-Ausgabe. Eine grundsätzlich ähnliche, nämlich die nachträgliche Manipulation einzelner Schriftzeichen wiedergebende Verzeichnungsweise hat der Apparat der historisch-kritischen Goethe-Brief-Ausgabe.

Was ist und wozu kodiert man Textgenese?

89

eine m r

zusammengefasst und entsprechend interpretiert werden. Nicht immer lassen sich aber unmittelbar benachbarte Streichungen und Hinzufügungen auf diese Weise deuten; wenn an einer Stelle des Worts mehrfach oder an verschiedenen Stellen eines Worts geändert wird, verkompliziert sich die Lage entsprechend. 22 Probleme dieser Art dürften nur bis zu einem gewissen Grad und unter Inkaufnahme von Fehlern durch automatisierbare Regeln lösbar sein. 23 Günstiger wäre unter diesem Blickwinkel aber eine Kodierung, in der die textgenetisch anzunehmenden Wortformen von vornherein explizit festgehalten werden: Man hat mich darauf vorbereitet, daß ich es hier mit einem einer besonders intelligenten und vielseitigen vielseitig wachsamen Zuhörerschaft zu tun haben werde, Stärker am Befund orientierte und bewusst interpretationsärmere Wiedergaben stehen in einer ehrbaren Tradition. 24 Die Beschränkung auf sie ist im digitalen Raum jedoch alles andere als ein Ausweis methodischer Reflektiertheit – im Gegenteil: Bestimmte Entscheidungen, denen der Editor aus dem Weg geht, werden bei der späteren maschinellen Verarbeitung in der einen oder anderen Weise automatisch nach mechanischen Regeln getroffen. Ohne solche Entscheidungen sind auf den ersten Blick einfache Features wie eine Volltextsuche nicht zu realisieren. Wenn es nur um solche Features ginge, könnte man sich noch mit dem Gedanken trösten, dass nach Ausdrücken wie einemr aller Wahrscheinlichkeit nach nie gesucht, ein derartiger Fehler in der Tokenisierung also nie gefunden werden würde. Doch liegt der künftige Nutzen digitaler Editionen nicht primär in solchen Features, die sehr gut und vor allem wissenschaftlich valide auch im gedruckten Medium durch Register und Indizes realisierbar sind. Er liegt primär in der Möglichkeit computergestützter Analysen. Digitale Editionen sollten danach streben,

–––––––– 22 23 24

Vgl. die in Brüning 2019 (Anm. 5) gegebenen Beispiele aus dem Apparat der Kritischen Kafka-Ausgabe. Vgl. die Diskussion von https://github.com/faustedition/faust-web/issues/196. ‚Interpretationsarmut‘ bezieht sich in diesem Zusammenhang nur auf die Form der Wiedergabe. Die an einer bestimmten Stelle niedergeschriebenen Zeichen können in vielen Fällen (zu welchen das gewählte Musil-Beispiel allerdings nicht gehört) erst aufgrund des Wissens darüber, welche Wörter und Wortansätze an der Stelle sprachlich möglich oder zu erwarten sind, korrekt entziffert werden. Das Urteil über die inskribierten Wörter geht dem Akt der Transkription dann voraus, anstatt erst im Anschluss an sie gebildet zu werden. Eine Wiedergabe kann nur in dem Sinn ‚interpretationsarm‘ sein, dass in ihr vom vorhandenen Wissen um die Entwicklung des Wortbestands abstrahiert wird.

90

Gerrit Brüning

textgeschichtliche Vorgänge datentechnisch so zu modellieren, dass sie computergestützten Analysen optimal zugänglich sind. Die in den letzten Jahren allgegenwärtigen Schlagwörter „Distant Reading“ und „Macroanalysis“ stehen für eine Entwicklung, deren Fruchtbarkeit gegenwärtig noch nicht abschließend beurteilt werden kann. Es gibt jedoch Anzeichen dafür, dass künftig auch editionsphilologisch und textgenetisch relevante Fragestellungen von den dort entwickelten Ansätzen her neu gestellt und beantwortet werden können. Für solche Methoden sind basale Operationen wie z. B. Tokenisierung und zunächst auch basale Fragen wesentlich, wie z. B. die, welche Wortformen in der Geschichte eines Textes vorkommen. Sind Textfassungen mit Datierungsinformationen verknüpft, kann im Anschluss daran ermittelt werden, welche Wortformen im Verlauf der Textgeschichte häufiger oder seltener werden. Aus vollständigen Tokens bestehende Texte können zusätzlich annotiert werden (POS-Tagging, Lemmatisierung). Alle diese Schritte setzen eine maschinelle Interpretation textgenetischer Kodierungen voraus. Je interpretationsärmer und je stärker diese an inskriptionellen Details statt an den textgenetisch relevanten sprachlichen Einheiten orientiert ist, desto eher läuft sie Gefahr, spätere Annotations- und Analyseschritte zu restringieren. In digitalen Editionen müssen Genauigkeit und Auswertbarkeit abgewogen werden. Die Abwägung können Editionsphilologen nicht delegieren; sie müssen ein zumindest grobes Verständnis für die dabei relevanten Mechanismen entwickeln und ihr Markup davon ausgehend spezifizieren. Das bringt zusätzliche Mühe und Kompromisse mit sich. Doch es gibt für Editionsphilologen ein starkes Motiv, sich der Perspektive computergestützter Analyse editorischer Daten zu öffnen. Wenn momentan auch noch nicht absehbar ist, wie belastbar oder interessant die Ergebnisse solcher Analysen sind, so läge darin, dass sie stattfinden, bereits ein großer Gewinn: Editionen würden erstmals in großem Stil genutzt.

Thorsten Ries

Das digitale ‚dossier génétique‘ Digitale Materialität, Textgenese und historisch-kritische Edition

Digitales Schreiben mit Word Processor Softwares, ihren technischen Vorläufern und Varianten ‚funktioniert‘ anders als analoge Textproduktion.1 Die Unterschiede liegen nicht allein in den materialen Grundlagen wie den zu erwerbenden technischen Fertigkeiten und Kulturtechniken der Bedienung bestimmter Hard- und Software, 2 den Textproduktionswerkzeugen und digitalen Dokumenten, deren Materialität durch Begriffe wie Schreibwerkzeug, Schreibmittel, Beschreibstoff, Textträger und Schriftspur / Text nicht mehr angemessen beschreibbar sind.3 In der Konsequenz wandeln sich die digitalen Arbeitsweisen der Autoren und die Materialität digitaler genetischer Textbefunde. Ansätze Matthew Kirschenbaums4 weiter entwickelnd habe ich in der Vergangenheit zu zeigen versucht, dass digitale ‚dossiers génétiques‘ nicht nur aus durch den Schreiber bewusst gespeicherte, als Backup aufbewahrte oder gar ausgedruckte Textzustände zusammengesetzt sind. 5 Vielmehr sind dem Befund während des Schreibens im Hintergrund gespeicherte Entwurfsstufen und Schreibprozessspuren hinzuzurechnen, welche in der Datenstruktur von Dokument-Dateien, temporären und Systemdateien oder als

–––––––– 1

2

3

4

5

Der vorliegende Beitrag ist ein Auszug aus einem größeren Buchprojekt und wird als Teil eines Kapitels in meinem Buch Textgenese und digitale Forensik erscheinen. Das Buchprojekt wurde ermöglicht durch die Förderung des Flämischen Wissenschaftsfonds FWO für das Forschungsprojekt „Hard Drive Philology / Source Code Philology. Tracing the digital writing and coding process in German literature“. Zum Begriff technischer Fertigkeiten als ‚Kulturtechniken‘ vgl. Bernard D. Geoghegan: After Kittler. On the Cultural Techniques of Recent German Media Theory. In: Theory, Culture & Society 30, 2013, H. 6, S. 66–82. DOI: https://doi.org/10.1177/0263276413488962 (Abruf am 01.11.2018). Thorsten Ries: The rationale of the born-digital dossier génétique. Digital forensics and the writing process. With examples from the Thomas Kling Archive. In: Digital Scholarship in the Humanities 33, 2018, H. 2. Veröffentlicht online am 11.09.2017, S. 391–424. DOI: https://doi.org/10.1093/llc/fqx049 (Abruf am 01.11.2018). Matthew Kirschenbaum: Operating Systems of the Mind. Bibliography After Word Processing. In: The Papers of the Bibliographical Society of America 101, 2014, H. 4, S. 381–412; Matthew Kirschenbaum u. a.: Tracking the Changes. Textual Scholarship and the Challenge of the Born Digital. In: Neil Fraistat, Julia Flanders (Hrsg.): The Cambridge Companion to Textual Scholarship. New York 2013, S. 257–273; Matthew Kirschenbaum: Mechanisms. New Media and the Forensic Imagination. Cambridge, MA und London 2008. Ries 2018 (Anm. 3); ders.: Philology and the digital writing process. In: Cahier voor Literatuurwetenschap 9, 2017, S. 129–158; ders.: Das digitale dossier génétique. Überlegungen zu Rekonstruktion und Edition digitaler Schreibprozesse anhand von Beispielen aus dem Thomas Kling Archiv. In: Katharina Krüger u. a. (Hrsg.): Textgenese und digitales Edieren. Wolfgang Koeppens „Jugend“ im Kontext der Editionsphilologie. Berlin et al. 2016 (Beihefte zu editio. 40), S. 57–84; ders.: „die geräte klüger als ihre besitzer“. Philologische Durchblicke hinter die Schreibszene des Graphical User Interface. Überlegungen zur digitalen Quellenphilologie, mit einer textgenetischen Studie zu Michael Speiers „ausfahrt st. nazaire“. In: editio 24, 2010, S. 149–199.

https://doi.org/10.1515/9783110575996-007

92

Thorsten Ries

wiederherstellbare Daten auf dem Schreibsystem zurückbleiben und mit digitalforensischen Methoden rekonstruiert werden können. Die Materialität digitaler ‚dossiers génétiques‘ ist sowohl von technisch-materialer Vielfalt, aber auch Lücken, Verlusten und Fragmentierungen des genetischen Befunds geprägt. Im Gegensatz zur literarischen Handschrift liegen die Schreibprozess-Befunde nicht in Form einer dem bloßen Auge zugänglichen Spur der Schreibdynamik selbst vor – wie etwa eine Streichung und folgende Ersetzung auf einem Entwurfsmanuskript –, sondern in der Regel als digitalforensisch rekonstruierbare Momentaufnahmen des Textzustands in der Textverarbeitung, das heißt: eine Momentaufnahme aus dem Datenverarbeitungsprozess.6 Erste textgenetische Studien zu digitalen ‚dossiers génétiques‘ sind bereits erschienen. Digitalforensische Ansätze haben unter Philologen inzwischen einige Anerkennung gefunden, gleichwohl ist die Zahl der Arbeiten in diesem Bereich noch überschaubar.7 Der vorliegende Beitrag nimmt John Bryants Wiederaufnahme von Gunter Martens’ dynamischem Textbegriff 8 als „fluidem Text“, 9 Kirschenbaums literarische Geschichte der Textverarbeitung Track Changes,10 Till A. Heilmanns Mediengeschichte der Textverarbeitung 11 und Jean-François Blanchettes Material History of Bits12 zum Anlass, eine medienspezifische Annäherung an digitale Arbeitsweisen, die historische Materialität des digitalen ‚dossier génétique‘ und die in ihm als Spur repräsentierte Dynamik zu unternehmen. 13

Digital schreiben Das Schreiben selbst, die ‚Schreibszene‘, der Ablauf und die Organisation des Schreibprozesses, haben sich im Zuge der Digitalisierung grundlegend gewandelt. Der Personal Computer hat nicht nur die Schreibmaschine faktisch abgelöst. 14 Viele zeitgenössische Autoren verwenden neben Notizbuch und Bleistift den Word Processor auf

–––––––– 6 7

8

9 10 11 12 13 14

Ries 2018 (Anm. 3). Vgl. etwa Carlos Spoerhase: Walter Kempowski empfängt den Olivetti-Mann. In: Frankfurter Allgemeine Zeitung, 14.01.2017, S. 18; Dirk Van Hulle: Digitaal kladwerk. In: De witte raaf 153, Sep. 2011. http://www.dewitteraaf.be/artikel/detail/nl/3682 (Abruf am 01.11.2018); Jean-Louis Lebrave: Computer forensics. La critique génétique et l’écriture numérique. In: Genesis 33, 2011, S. 137–147; Pierre-Marc de Biasi: Pour une génétique généralisée. L’approche des processus à l’âge numérique. In: Genesis 30, 2010, S. 163–175. Gunter Martens: Textdynamik und Edition. Überlegungen zur Bedeutung und Darstellung variierender Textstufen. In: Gunter Martens, Hans Zeller (Hrsg.): Texte und Varianten. Probleme ihrer Edition und Interpretation. München 1971, S. 165–202; ders.: Was ist ein Text? Ansätze zur Bestimmung eines Leitbegriffs der Textphilologie. In: Poetica 21, 1989, S. 1–25. John Bryant: The Fluid Text. Ann Arbor 2002. Matthew Kirschenbaum: Track Changes. A Literary History of Word Processing. Cambridge 2016. Till A. Heilmann: Textverarbeitung. Eine Mediengeschichte des Computers als Schreibmaschine. Berlin 2012. Jean-François Blanchette: A material history of bits. In: Journal of the American Society for Information Science and Technology 62, 2011, H. 6, S. 1042–1057. Zum Begriff der medienspezifischen Analyse vgl. N. Katherine Hayles: Print Is Flat, Code Is Deep. The Importance of Media-Specific Analysis. In: Poetics Today 25, 2004, H. 1, S. 67–90. Christoph Hoffmann: Schreibmaschinenhände. Über ‚typographologische‘ Komplikationen. In: Davide Giuriato u. a. (Hrsg.): „Schreibkugel ist ein Ding gleich mir: Von Eisen“: Schreibszenen im Zeitalter der

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

93

ihrem tragbaren Laptop oder gar Cloud-Textverarbeitungen auf mobilen Geräten als Fixierungsmedium für erste Gedanken und Vorarbeiten zu einem literarischen Text (hybrider Schreibprozess) oder schreiben sogar ausschließlich im digitalen Medium. 15 Der Ablauf und die Organisation des Schreibprozesses, die Interaktion mit der TextRepräsentation in einer modernen Word-Processor-Applikation unterscheiden sich technisch und kognitiv wesentlich vom Schreiben mit analogen Schreibwerkzeugen. Die Arbeit am digitalen Dokument – ein digitales, logisches Objekt, welches innerhalb der ‚formalen Materialität‘ eines Ensembles von Applikation, Datei- und Betriebssystem dynamisch neu definiert, kopiert, geändert und gespeichert werden kann – eröffnet gegenüber der Arbeit auf einem physischen Textträger erweiterte Freiheitsgrade für den kreativen Prozess und zeichnet sich durch gesteigerte Effizienz beim Editieren und Revidieren aus.16 Je nach Software-Applikation können Texte umfangreich formatiert und gestaltet werden, in vielen modernen Textverarbeitungen kann der Nutzer die textuelle Linearität durch Hyperlinks, Grafiken, Multimedia-Inhalte und dynamische Textelemente aufbrechen. Die Textgestalt von digitalen Entwürfen wird – je nach digitaler Arbeitsweise des Autors – auch durch die Nutzung oder das bewusste Abschalten der automatischen Rechtschreibprüfung und -korrektur beeinflusst. Insofern digitale Dokumente logische, nicht physische Objekte sind, können sie nicht nur lokal in einem Text Processor, sondern etwa auch in Cloud-Textverarbeitungen online gemeinsam von mehreren Autoren gleichzeitig bearbeitet werden. 17 Für den Nutzer entfällt hierbei die Notwendigkeit, eine Version ganz neu ‚ins Reine‘ zu schreiben oder Duktus und Größe der eigenen Handschrift dem verbleibenden Schreibraum zwischen den Zeilen, am Seitenende oder in der Randspalte des Papiers anzupassen. Das als logisches Objekt prinzipiell physisch unbegrenzte digitale Dokument lässt sich auf der Benutzeroberfläche der Textverarbeitung endlos, ohne Rücksicht auf physische Begrenzungen des Text- oder Revisionsraums, erweitern, editieren und revidieren, ohne dass sich mehrende Spuren des Arbeitsprozesses in der Textdarstellung den Blick auf den bearbeiteten, zu jedem Zeitpunkt wie gedruckt erscheinenden ‚Text‘ verstellen.

––––––––

15

16

17

Typoskripte. München 2005 (Zur Genealogie des Schreibens. 2), S. 153–167. Zur philologischen Methodologie der Analyse von maschinenschriftlichen Typoskripten vgl. Monika Albrecht u. a.: Editorisches Nachwort. In: Robert Pichl u. a. (Hrsg.): Ingeborg Bachmann: Todesarten-Projekt. Kritische Ausgabe. Bd. 1. München, Zürich 1995, S. 615–647, 639f., 686–690. Anders als maschinenschriftliche Typoskripte können digitale Entwurfsdokumente Zeugen früher Textentstehungsphasen sein. Ihnen haftet nicht der „Ruch des Sekundären“ (Kammer) an, welcher in der dem Dokument ablesbaren Distanzierung des Schreibers vom eigentlichen kreativen Prozess besteht. Vgl. Hoffmann 2005 (Anm. 14), S. 154; Stephan Kammer: Tippen und Typen. Einige Anmerkungen zum Maschinenschreiben und zu seiner editorischen Behandlung. In: Christiane Henkes u. a. (Hrsg.): Text und Autor. Beiträge aus dem Venedig-Symposium 1998 des Graduiertenkollegs ‚Textkritik‘ München. Tübingen 2000 (Beihefte zu editio. 15), S. 191–206, hier S. 194. Kirschenbaum 2016 (Anm. 10), S. 59, 67, 76f., 101–106; ders.: The Book-Writing Machine. What was the first novel ever written on a word processor? In: Slate Book Review, 01.03.2013. https://slate.com/ culure/2013/03/len-deightons-bomber-the-first-book-ever-written-on-a-word-processor.html (Abruf am 15.07.2019). Vgl. auch Ries 2018 (Anm. 3), S. 397.

94

Thorsten Ries

Alan Kay, Erfinder des Dynabook-Konzepts und Entwickler bei XEROX PARC, dessen Ideen zur Entwicklung des Xerox Alto – dem ersten Computer mit mausgesteuerter (sensu Engelbart), grafischer Benutzeroberfläche – führten,18 beschrieb die Design-Leitlinien bei der Entwicklung von Desktop-Metaphern wie folgt: One of the most compelling snares is the use of the term metaphor to describe a correspondence between what the users see on the screen and how they should think about what they are manipulating. My main complaint is that metaphor is a poor metaphor for what needs to be done. At PARC we coined the phrase user illusion to describe what we were about when designing user interface. There are clear connotations to the stage, theatrics and magic – all of which give much stronger hints as to the direction to be followed. For example, the screen as »paper to be marked on« is a metaphor that suggests pencils, brushes, typewriting. Fine, as far as it goes, but it is the magic – understandable magic – that really counts. Should we transfer the paper metaphor so perfectly that the screen is as hard as paper to erase and change? Clearly not. If it is to be like magical paper, then it is the magical part that is important. 19

Kay beschreibt hier das Schreiben am Computer als die Manipulation eines digitalen, logischen Objekts, welche auf der grafischen Benutzeroberfläche als Papier oder vielmehr als ‚remedialisiertes‘ „magisches Papier“ in Form einer „user illusion“ theatralisiert wird. Während das dergestalt konzeptualisierte digitale Schreiben einerseits die Möglichkeiten des Schreibers erheblich erweitert, den Schreibprozess erleichert, unterstützt und effizienter gestaltet, bringt das Schreiben mit Textverarbeitungen auch Einschränkungen der individuellen Arbeitsweise mit sich. So zwingt die Benutzeroberfläche von Textprozessoren und Textverarbeitungssoftware den Nutzer, den Text in einer gewissen typografischen Linearität zu entwickeln und durch das Software-Design definierten oder nahe gelegten Workflows zu folgen – auch wenn Habitualisierung und Internalisierung, so Lori Emerson, diese Einschränkungen durch die grafischen NutzerInterfaces haben „unsichtbar“ werden lassen. 20 Die Dimensionen des Bildschirms und des Textfensters begrenzen das Blickfeld des Schreibers auf das virtuell unendliche digitale Dokument unter Umständen stärker als die Blattgrenzen eines Papiers oder von Papieren, die für eine bessere Übersicht nebeneinander auf dem Schreibtisch ausgebreitet werden können. Man denke etwa an die Zeilen-Displays von elektrischen Schreibmaschinen und frühen Textprozessoren oder auch an grafische Benutzeroberflächen bei geringen Auflösungen und relativ kleinen Bildschirmen. Hubert Fichtes Roman-Wandpläne21 etwa wären in einer Textverarbeitung auf einem handelsüblichen Bildschirm

–––––––– 18 19

20 21

Vgl. Nick Montfort: The Future. London, Cambridge 2017 (MIT Press Essential Knowledge Series). Alan Kay: User interface: A personal view. In: Brenda Laurel (Hrsg.): The Art of Human Computer Interface Design. Reading, MA: Addison-Wesley 1990, S. 191–207, hier S. 199. Zitiert nach Thierry Bardini: Bootstrapping. Douglas Engelbart, Coevolution, and the Origins of Personal Computing. Stanford, CA 2000, S. 165. Lori Emerson: Reading Writing Interfaces. From the Digital to the Bookbound. Minneapolis 2014, S. 1–46. Zum Projekt Geschichte der Empfindlichkeit vgl. Deutsches Literaturarchiv (Hrsg.): Ordnung. Eine unendliche Geschichte. Marbach am Neckar 2007 (Marbacher Katalog. 61), S. 116–117; Cornelia Ortlieb: „Körperzauber kaputtschneiden“. Hubert Fichtes literarische Sektionen. In: Sophie Wennerschied (Hrsg.): Sentimentalität und Grausamkeit: ambivalente Gefühle in der skandinavischen und deutschen Literatur der Moderne. Münster 2011, S. 163–177, hier S. 169.

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

95

nicht sinnvoll denkbar – nicht nur, weil dieser zu klein für die Übersicht wäre, sondern weil selbst die Auflösung heutiger Monitore für die lesbare Darstellung eines solchen Wandplans nicht ausreichen würden. Die digitale Schreibzene, in welcher das logische, digitale Objekt des digitalen Dokuments erzeugt, manipuliert, sein Inhalt geschrieben wird, ist demnach selbst keineswegs immateriell. Ebensowenig ist seine Software-Infrastruktur immateriell basiert, wie Kirschenbaum argumentiert: My argument, then, is this: computers are unique in the history of writing technologies in that they present a premediated material environment built and engineered to propagate an illusion of immateriality; the digital nature of representation is precisely what enables this illusion – or else call it a working model – of immaterial behavior. 22

Jean-François Blanchette hat in A Material History of Bits – hierin anschließend an Kirschenbaum – darauf aufmerksam gemacht, dass das Ziel der Erzeugung und das Aufrechterhalten der „Illusion von Immaterialität“ digitaler, logischer Objekte, Software- und Programmier-Interfaces aus historischer Perspektive zu Design-Entscheidungen für Soft- und Hardwarearchitekturen führte, die mit erheblichem technischen Aufwand an modularen Strukturen und Fehlerkorrektur-Mechanismen und sogar Leistungseinbußen verbunden waren. 23 Blanchette diskutiert vor allem modulare und geschichtete Software-Strukturen des Networking-Stacks und der Konzeption von Dateisystemen, seine Beobachtungen lassen sich auf die digitale Schreibszene übertragen, wenn man etwa an die Arbeitsspeicher-Beschränkungen, daraus resultierende Schwierigkeiten mit der Systemstabilität, Verwaltung von Speicherauslagerungen und Zwischenspeicherungen bei bestimmten historischen Textverarbeitungen denkt (etwa die Overlay-Programmierung von WordStars, welche das Bearbeiten von Dateien ermöglichte, die größer als der Arbeitsspeicher waren, der RAM-Drive von WordStar, die temporären Dateien von Word usw.) – mit dem die Arbeitsweise von Autoren betreffenden Resultat, dass es noch heute viele Nutzer vorziehen, ein längeres Buch in mehreren kleinen digitalen Dokumenten zu verfassen. Alan Kays Idee, das Manipulieren von digitalen Objekten auf der Benutzeroberfläche wie das Beschreiben von „magischem Papier“ erscheinen zu lassen, hat angesichts der Interfaces heutiger Textverarbeitungen eine so starke Suggestivität gewonnen, dass WissenschaftlerInnen wie Jane Winters und Lori Emerson bereits daran erinnern, dass diese Ähnlichkeit oder „Unsichtbarkeit“ des Interfaces trügerisch sei und nicht den wissenschaftlichen Blick auf die Tatsache verstellen dürfen, dass es sich bei digitalen Primärquellen grundsätzlich um Dokumente sui generis handele („that a digit[al] manuscript is an object in its own right, with its own context of production“).24

–––––––– 22 23

24

Kirschenbaum 2008 (Anm. 4), S. 135. Blanchette 2011 (Anm. 12). Zur Einordnung von Blanchettes Zugang als „distributed materiality“ vgl. auch Johanna Drucker: Performative Materiality and Theoretical Approaches to Interface. In: Digital Humanities Quarterly 7, 2013, H. 1. http://www.digitalhumanities.org/dhq/vol/7/1/000143/000143.html (Abruf am 27.01.2013). Jane Winters: Humanities and the born digital: moving from a difficult past to a promising future? Keynote auf der Tagung DHBenelux 2018, Amsterdam, 07.06.2018.

96

Thorsten Ries

In der materialen Struktur digitaler ‚dossiers génétiques‘ bilden sich entsprechend einerseits die konkreten Schreibereignisse als digitale Spur der Datenverarbeitung und die materiale Historizität der verwendeten Daten- und Textverarbeitungssysteme ab. Andererseits lassen sich diesen Befunden wesentliche Aspekte der ‚medienspezifischen‘ Arbeitsweise des Schreibers ablesen, welche sich in individueller, praktischer Auseinandersetzung mit der jeweiligen historischen digitalen Arbeits- und Schreibumgebung entwickelt hat. Diese technikhistorischen und konservatorischen Aspekte der Materialität des digitalen historischen Befundes bilden den Kontext für autorspezifische Faktoren, welche als Kennzeichen ihrer digitalen Arbeitsweise und kognitiven Organisation des Schreibprozesses im Nutzerinterface gelesen werden können. Wie organisiert ein Schreiber seine Dateien in Ordnern, nach welchen Schemata werden sie benannt, wie organisiert er seine Vorarbeiten, Entwürfe und Materialien innerhalb von Dokumenten?25 In welchen Formaten und Kodierungen wird gearbeitet? Werden separate Softwares wie etwa Sticky Notes oder Evernote zur Organisation von Materialsammlungen verwendet? Versioniert der Schreiber aktiv und nach welchem System werden Dateinamen vergeben, werden zusätzliche Programme wie etwa Subversion oder GIT dafür verwendet? Wie regelmäßig26 und aus welcher Arbeitsweise heraus erfolgten die Versionierungen?27 Werden materiale Datenträger von Hand beschriftet und organisiert? Arbeitet der Autor hybrid, also wechselweise handschriftlich auf Papier und digital, bearbeitet er Ausdrucke von Hand und arbeitet er die Korrekturen in den digitalen Text vollständig ein?28 Diese Eigenheiten des Umgangs mit den eigenen Daten und ihrer Organi-

–––––––– 25

26

27

28

Die Online-Umfrage Dirk Weisbrods unter Mitgliedern des PEN-Club ergab, dass 75% der Autoren mit thematisch benannten, 56,2% mit werkbezogen benannten Ordnern arbeiten (Mehrfachauswahl war möglich). 39,2% legten Dateien in nach Objekttypen benannten Ordnern ab, 20,3% hatten chronologisch angeordnete Ordner. Nur 13,7% bewahrten wichtige Dateien im Desktop-Ordner auf. Vgl. Dirk Weisbrod: Die präkustodiale Intervention als Baustein der Langzeitarchivierung digitaler Schriftstellernachlässe. Diss. Humboldt-Universität zu Berlin, Philosophische Fakultät I, 2015. DOI: http://dx.doi.org/ 10.18452/17361 (Abruf am 01.11.2018), S. 392. Die Online-Umfrage Dirk Weisbrods unter Mitgliedern des PEN-Club ergab, dass 28% der Befragten täglich Sicherheitskopien anlegten, 9,6% wöchentlich, 18,6% in anderen regelmäßigen Abständen, 39,1% in unregelmäßigen Abständen. Nur 4,5% der Befragten gaben an, keine Sicherheitskopien zu machen oder sich mit dieser Frage noch nicht beschäftigt zu haben. Vgl. ebd., S. 389. Weisbrods Untersuchung ergab ferner, dass 24,3% der Autoren neue Versionen immer in neuen Dateien speichern, 52% von Fall zu Fall entscheiden, ob eine neue Datei für eine neue Version angelegt wird. Nur 21,1% der Befragten gaben an, keine Versionierung vorzunehmen. Vgl. ebd., S. 393. Bei der Organisation der Versionen gehen die Befragten wie folgt vor: 9,2% gaben an, ihre Versionierung über Versionsnummern im Dateinamen vornehmen, 33,3% vermerken das Datum im Dateinamen. Auch unter den 79%, welche angaben, einen deskriptiven Dateinamen zu verwenden, mögen einige implizite, verbale Versionierungen vertreten sein. Vgl. ebd., S. 391. 58% der Befragten gaben an, die Track-Changes-Funktion schon einmal verwendet zu haben. Vgl. ebd., S. 394. Für die große Mehrzahl der Autoren besteht die Motivation zur Aufbewahrung der eigenen Dokumente vor allem darin, dass sie „weiterhin als Arbeitsgrundlage dienen“, als persönliche, teils sentimentale „Erinnerungsstücke“, „für [das] Werk“ und möglicherweise für die Forschung von Bedeutung sind. Vgl. ebd., S. 374. Die Online-Umfrage Dirk Weisbrods unter Mitgliedern des PEN-Club ergab, dass 68% der Befragten während der Textproduktion Medienwechsel vollziehen und hybrid arbeiten. Fast 50% hiervon verfassen Vorarbeiten und erste Entwürfe von Hand, um dann für die weitere Ausarbeitung zum Computer zu

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

97

sation ist ebenso signifikant für die Charakterisierung der individuellen digitalen Arbeitsweise und prägend für den digitalen Befund wie etwa charakteristische Tipp- und Editierfehler-Muster, der Gebrauch des Spell-Checking, Vorlieben bei der Formatierung und optischen Strukturierung von Texten, Integration von grafischen und Multimedia-Inhalten oder Codes, Umgang mit Interpunktion und Leerzeichen (TrailingSpaces, Auffüllen der Zeile durch Leerzeichen usw.) und anderer stylometrisch auswertbarer Eigenschaften. Die individuellen digitalen Arbeitsweisen der Schreiber werden wiederum maßgeblich formiert durch die Entwicklung der jeweiligen Textverarbeitungs-Interfaces: diese geben bestimmte Darstellungen des digitalen Dokuments vor, ermöglichen oder suggerieren bestimmte Workflows, während sie andere Arbeitsweisen erschweren oder gar verunmöglichen. Für die Überlieferung, materiale Form und chronologische Dichte des digitalen ‚dossier génétique‘ macht es offensichtlich einen Unterschied, ob ein Autor zum Beispiel bereits über ein System mit Apples Time Machine oder Microsofts File History verfügte (und diese auch konfigurierte und benutzte) oder etwa GoogleDocs verwenden konnte. Selbst wenn ein Autor seine digitalen Entwürfe nicht selbst versioniert und archiviert hat, bleiben nicht nur die jeweils letzten Dateiversionen, Backups und Ausdrucke als textgenetischer Befund. Schon der Blick in den ‚Papierkorb‘ des Systems zeigt wiederherstellbare Dateien, auch der ‚Gesendet‘-Order in der MBOX-Datei kann per E-Mail versendete Versionen von Texten enthalten. Oft bleiben dank Systemfehlern zahlreiche temporäre und Autowiederherstellungs- und Backup-Dateien in Dokument- und Systemordnern zurück, vom System automatisch erzeugte Auslagerungs-, Fehlerkorrekturund Ruhezustand-Dateien können auf diese Weise erhalten bleiben. Wird etwa die Festplatte des Original-Systems mit einem so genannten forensischen, bitgenauen Image gespiegelt (forensic imaging, bitstream-preserving imaging), lassen sich mit forensischen Tools oft erhebliche Datenmengen gelöschter digitaler Dokumente, temporärer Dateien, Dateifragmente usw. wiederherstellen. Diese im Original-System verteilten Spuren des Schreibprozesses lassen sich im Kontext der Datenverarbeitungsprozesse des historischen Systems (System-Logs, Metadaten, Systemwiederherstellungspunkte, Crash-Reports, Timeline usw.) unter textgenetischem Blickwinkel analysieren.

Das digitale ‚dossier génétique‘ Laut Almuth Grésillon ist das ‚dossier génétique‘ – oder synonym: Avant-texte – definiert als ein „chronologisch angeordneter Komplex aller schriftlich überlieferten textgenetischen Zeugen eines Werkes“.29 Diese Zeugen wiederum sind bei Grésillon definiert als „schriftliche[ ] Dokument[e], [die] über die Textgenese Auskunft“ geben.30

–––––––– 29 30

wechseln. 19% vollziehen mehrere Medienwechsel während des Schreibens. 12,6% gaben an, durchgängig am Computer zu arbeiten. Vgl. ebd., S. 363. Almuth Grésillon: Literarische Handschriften. Einführung in die ‚critique génétique‘. Aus dem Französischen übers. vonFrauke Rother. Bern u. a. 1999, S. 249. Ebd., S. 300.

98

Thorsten Ries

Versteht man mit Daniel Ferrer Handschriften – oder allgemeiner definiert: die jeweiligen Textzeugen, die Dokumente – nicht reduktionistisch als Träger von (Entwurf-)Texten, sondern als „Protokoll[e]“ des Textentstehungsprozesses, deren spezifische grafische Beschriftung und materiale Eigenschaften als indexikale Spuren, als „Instruktionen“, zur Rekonstruktion des Schreibprozesses gelesen werden können, 31 so kann das digitale ‚dossier génétique‘ wie folgt definiert werden: Das digitale ‚dossier génétique‘ eines Werktextes – oder born-digital dossier génétique32 – besteht aus der Gesamtheit der überlieferten Dokumente und Spuren seines Entstehungs-, Redaktions- und Verarbeitungsprozesses im digitalen Medium. Es ist als Sammlung digitaler, material nachweisbarer Zeugen zu lesen, welche die chronologische Rekonstruktion der Datenverarbeitungsprozesse des Word Processors und somit des Schreibprozesses des Werktextes im digitalen Medium erlaubt. Sofern es sich um digitale Zeugen im Sinne logisch-digitaler Objekte handelt, sind diese nach archivarischen und digitalforensischen Standards zu sichern, mit Bezug auf den historischen Datenverarbeitungskontext zu dokumentieren, zu analysieren und eindeutig mit Blick auf physische Identität und Provenienz (Identifikation des Mediums, archivarische Identifikation, ggf. Position des Datenfragments) und Bitstream-Identität (Hash-Wert des forensischen Abbilds und des Datenobjekts) zu zitieren. Die als digitales ‚dossier génétique‘ zusammengefassten Dokumente, Datenfragmente und Spuren des Schreibprozesses müssen stets im technischen Kontext des verwendeten Original-Systems betrachtet werden, philologisch bezogen auf die Datenverarbeitungsprozesse, Soft- und Hardware-Komponenten, die sie erzeugt haben. System-Logs, Metadaten, Dateiartefakte, Fragmentierung von Dateien und durch automatische Sicherungs- und Speicherauslagerungsmechanismen überlieferte Spuren sind nur in Bezug auf den konkreten technischen Original-Kontext sinnvoll interpretierbar (multi-evidential perspective).33 In der Regel liegt die Gesamtheit der Entwurfstexte und Spuren des Schreibprozesses über multiple Systemebenen, System-Orte, Datenträger und sogar Netzwerke (distributed materiality) verteilt vor. 34

–––––––– 31 32

33 34

Daniel Ferrer: Logiques du brouillon. Paris: Les Editions du Seuil 2011 (Poétique), S. 43. Zur Rekonstruktion des digitalen ‚dossier génétique‘ vgl. Ries 2018 (Anm. 3). In der Vergangenheit habe ich argumentiert, der Begriff ‚born-digital Dokumente‘ sei unglücklich gewählt und nach Möglichkeit zu Gunsten von Begriffen wie digitales Schriftgut, digitale Dokumente, digitale Objekte und Dokument-Dateien zu vermeiden: Ries 2010 (Anm. 5). Vgl. auch Silke Becker: Borndigital-Materialien in literarischen Nachlässen. Auswertung einer quantitativen Erhebung. Berlin 2004 (Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft. 355). http://edoc.huberlin.de/series/berliner-handreichungen/2014-355/PDF/355.pdf series/berliner-handreichungen/2014355/PDF/355.pdf (Abruf am 01.11.2018), S. 11; Weisbrod 2015 (Anm. 25), S. 15. Ich bin weiterhin der Ansicht, dass der Begriff ‚born digital‘ im Archivbereich einen Pleonasmus darstellt, da jedes digital vorliegende Objekt ‚digitally born‘ ist. Gleichwohl ist der Begriff im angloamerikanischen Forschungskontext so weit verbreitet, dass ich ihn ebenfalls verwendet habe, um Verwechslungen mit ‚Digitalisat‘ zu vermeiden: vgl. Ries 2018 (Anm. 3). Eine Alternative im Englischen ist Kirschenbaums Begriff „first generation electronic objects“, der sich allerdings im archivwissenschaftlichen und philologischen Bereich nicht durchgesetzt hat. Vgl. Matthew Kirschenbaum: Editing the Interface: Textual Studies and First Generation Electronic Objects. In: Text 14, 2002, S. 15–51. Jeremy Leighton John: Digital Forensics and Preservation. London: Digital Preservation Coalition, Charles Beagrie 2012. DOI: http://dx.doi.org/10.7207/twr12-03 (Abruf am 01.11.2018), S. 43, 45. Drucker 2013 (Anm. 23), Abs. 21.

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

99

Die folgende Aufstellung gibt einen Überblick zu den Dimensionen der verteilten Materialität des digitalen ‚dossier génétique‘.35 Die Kurzdarstellungen der Befundkategorien stellen jeweils Aspekte der technologischen Historizität der digitalforensischen Befunde dar, welche stets in Bezug auf die Funktionsweise und den Kontext des jeweiligen Ensembles aus konkretem Betriebssystem, Anwendung und Hardware-Plattform zu betrachten sind.

Selbst archivierte digitale Dokumente und Sicherheitskopien Lokal archivierte digitale Dokumente und Objekte (Anwendungsdaten): In diese Kategorie gehören alle vom Autor selbst archivierten Daten: digitale Objekte – zum Beispiel digitale Text-Dokumente, Materialien, Multimedia-Daten und mit Spezialsoftware verarbeitete Dateien (etwa Bean / Scrivener, Final Draft, Celtx, Sticky Notes, Evernote) in Dateiordnern, Dateien in E-Mails, Mailbox-Ordnern, selbst geschriebener Programmcode usw., welche der Urheber auf seinem System selbst in aktiv genutzten Systembereichen oder Backup-Verzeichnissen aufbewahrt hat. Hinzuzurechnen wären beispielsweise auch Textversionen, welche in einem Versionierungssystem wie Subversion oder GIT lokal verwaltet wurden und nicht das Datenformat marktgängiger Textverarbeitungen aufweisen. 36 Auf extern eingebundenen Datenträgern, Online Services oder Cloud archivierte digitale Dokumente und Objekte (Anwendungsdaten): Viele Nutzer verwalten digitale Dokumente, Datei-Versionen und Sicherheitskopien auf extern in das System eingebundenen Speichermedien, zum Beispiel externen Festplatten, USB-Sticks, Disketten, CD- oder DVD-ROM und anderen Laufwerktypen (etwa Wechselplatten-Laufwerke, Magnetband-Laufwerke), Network Attached Storage, Online- oder Cloud-Services, Online E-Mail-Konten.37 Auf diesen externen Datenträgern können selbst in Backups temporäre Dateien und andere Spuren des Schreibprozesses überliefert sein. Selbst Daten früherer Backups können rekonstruierbar sein. Dezentrale Versionierungssysteme wie GIT können Versionen von Texten und Programmcodes in Online Repositories verwalten. Automatisch erzeugte Sicherheitskopien (Anwendungsdaten, Betriebssystemdaten): Digitale Objekte in Versionierungs- oder Backup-Kopien, die automatisch durch vom

–––––––– 35

36

37

Die hier verwendete Kategorisierung ist orientiert am textgenetisch-philologischen Erkenntnisinteresse. Einführungen in die digitale Forensik gehen von abweichenden Einteilungen vor, vgl. etwa Dirk Labudde u. a. (Hrsg.): Forensik in der digitalen Welt. Moderne Methoden der forensischen Fallarbeit in der digitalen und digitalisierten realen Welt. Berlin u. a. 2017, S. 136f. Max Barry griff beim Schreiben seines zunächst als Serie von Kapiteln auf seiner Website entstandenen Romans Machine Man (2011) auf den Plain Text Editor vi und das für die strukturierte Verwaltung von Programmcode entwickelte Versionierungssystem Subversion zurück. Vgl. Kirschenbaum 2016 (Anm. 10), S. 230, 323. Vgl. etwa Bénédicte Vauthiers Studie zu den auf einem USB Stick überlieferten Entwürfen und Materialien zu Robert Juan-Cantavellas Roman El Dorado. Bénédicte Vauthier: Genetic Criticism Put to the Test by Digital Technology: Sounding out the (mainly) Digital Genetic File of El Dorado by Robert JuanCantavella. In: Variants 12-13, 2016, S. 163–186. DOI: https://doi.org/10.4000/variants.353 (Abruf am 01.11.2018).

100

Thorsten Ries

Nutzer zu diesem Zweck konfigurierten Backup-Mechanismen erzeugt wurden. Beispiele für lokal oder auf externe Medien ausleitende, automatisierte Versionierungsund Backup-Lösungen auf aktuellen Systemen sind Microsofts File History, Apples Time Machine oder auch Duplicity unter Linux, welches auch auf Servern synchronisieren kann. Diese Lösungen sind eine relativ junge Entwicklung und in der Regel spezifisch für bestimmte Betriebssysteme ausgelegt. Insbesondere auf mobilen Plattformen werden automatische Backups häufig in der Cloud abgelegt.

Digitalforensische Befunde Logs und Metadaten (Anwendungsdaten, Systemdaten, Konfigurations- und LogDaten, sonstige Nutzerdaten): Archivierte, digitalforensisch als Bitstream gesicherte Originalsysteme enthalten über verschiedene Systemebenen verteilte digitale Spuren und Metadaten, welche Aufschlüsse über Schreibprozesse geben können. Hierzu gehören vor allem System-Metadaten des Dateisystems, Log- und KonfigurationsDateien des Betriebssystems (etwa Log-Dateien, Registry) sowie von Anwendungen (etwa Browser-Verläufe, Meta- und Log-Daten von Cloud-Clients, usw.). Diese Daten ergeben in der Zusammenschau eine Historie der Vorgänge auf einem Computer, in vielen Fällen können forensische Softwares wie Sleuthkit die Zusammenführung der Daten übernehmen. Gleichzeitig ist die unterliegende digitale Materialität des Dateisystems selbst ein historisch-forensisches Faktum, welches Teile der Geschichte von Dateien aufklären kann, etwa durch die sich zwischen verschiedenen Dateisystemen unterscheidenden Zeitstempel und deren Granularität (etwa FAT, NTFS, EXT3, EXT4 usw.).38 Backup- und Fehlerkorrektur-Mechanismen, Speicherauslagerung (Anwendungsdaten, Betriebssystemdaten): Text- und Entwurfsfragmente können in zahlreichen, automatisch durch das Betriebssystem oder die jeweilige Anwendung im Hintergrund gespeicherten temporären und Backup-Dateien überliefert sein, die entweder durch einen Systemfehler oder Systemabsturz nicht gelöscht wurden oder mit forensischen Mitteln wiederherstellbar sind. Diese Daten werden automatisch zwischengespeichert, um den Betrieb des Systems im Falle von Speicherengpässen und Systemfehlern zu gewährleisten, Datenverluste in solchen Fällen zu minimieren oder um bestimmte Funktionen zu realisieren. Die folgenden Beispiele sind Hinweise auf verbreitete Szenarien unter Microsoft Windows mit Microsoft Word. Vollständige Momentaufnahmen von Entwurfszuständen oder deren Fragmenten können etwa überliefert sein in: temporären Speicherauslagerungs-, Cache- und Backup-Dateien (Anwendung:

–––––––– 38

Zeitstempel-Formate in unterschiedlichen Dateisystemen spielen zum Beispiel bei der Analyse von Friedrich Kittlers digitalem Nachlass eine wichtige Rolle. Vgl. Susanne Holl: Friedrich Kittler’s Digital Legacy. In: Digital Humanities Quarterly 11, 2017, H. 2. http://www.digitalhumanities.org/dhq/vol/11/2/ 000308/000308.html (Abruf am 01.10.2018); Heinz Werner Kramski u. a.: „Arme Nachlassverwalter…“. Herausforderungen, Erkenntnisse und Lösungsansätze bei der Aufbereitung komplexer digitaler Datensammlungen. In: Jörg Filthaut (Hrsg.): Von der Übernahme zur Benutzung. Aktuelle Entwicklungen in der digitalen Archivierung. 18. Tagung des Arbeitskreises „Archivierung von Unterlagen aus digitalen Systemen“ am 11. und 12. März in Weimar. Weimar 2014, S. 53–62.

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

101

typischerweise Dateien mit Endungen tmp, wbk, wrd, usw., auf Betriebssystem-Ebene zum Beispiel pagesys-Dateien), Systemwiederherstellungsdaten (System Restore Points unter Windows XP, VSS-Partitionen unter Windows Vista 7), Autowiederherstellen-, Dokumentrettungs- und Dateisystemfehler-Korrektur-Dateien (Anwendungsebene typischerweise .asd und Rescue[...].asd, Betriebssystem-Ebene: CHK-Dateien), System Hibernation Files (etwa hiberfil.sys) und Betriebssystem-Partitionen für die Realisierung des System-Ruhezustands (seit Windows ME).39 Unter Umständen kann auch Malware auf einem System zur Konservierung von Textzuständen führen. Wiederherstellbare Daten (gelöschte Anwendungsdaten, Betriebssystemdaten): Auf modernen Betriebs- und Dateisystemen bleiben gelöschte digitale Objekte in der Regel für bestimmte Zeiträume vollständig oder teilweise rekonstruierbar. 40 Zum einen werden, um irrtümliche Löschungen reversibel zu halten, vom Nutzer durch DesktopLöschbefehl gelöschte Dateien in vielen Betriebssystemen zunächst in einen ‚Papierkorb‘-Ordner verschoben, bevor sie sehr viel später tatsächlich gelöscht werden. Vor allem aber bedeutet auf modernen Betriebssystemen der Umstand, dass ein digitales Objekt gelöscht ist, nicht, dass es tatsächlich nicht mehr existiert. Da eine wirksame Löschung durch Überschreiben sehr ressourcenaufwändig ist, werden aus Performance-Gründen Dateien in der Regel im Dateisystem nur ‚gelöscht‘, indem zunächst der physische Speicherplatz zur erneuten Verwendung freigegeben und der Dateisystem-Verzeichniseintrag als gelöscht markiert oder gelöscht wird. 41 Auf diese Weise bleiben im ‚nichtallozierten Bereich‘ von Datenträgern, insbesondere konventionellen Festplatten und USB-Flash-Drives, gelöschte Daten wie Dokument-Dateien, temporäre und Backup-Daten unter Umständen lange vollständig oder teilweise wiederherstellbar. Insbesondere Dateifragmente im Zwischenraum von Datei- und Block-Grenze (Drive Slack) gelten als langlebig. 42 Nichtallozierte Bereiche und separate Partitionen, in welchen gelöschte Daten überliefert sein können, werden durch bitgenaue, forensische Abbildkopien des gesamten physischen Datenträgers archivarisch gesichert. Bei der Wiederherstellung gelöschter Daten können verschiedene Wege erfolgreich sein: Datenrekonstruktion mit forensischen Tools wie File Carvern (heuristische Datei- und Fragmenterkennung), Undelete-Softwares (Dateirekonstruktion anhand von Dateisystem-Metadaten), Drive Slack-Analyse, Inspektion von Daten im ‚Papierkorb‘ und in Backup-Wiederherstellungspunkten (wenn vorhanden: VSS-Partition, File History, etc.) und anderen Systemdateien (siehe oben), oder auch – im Falle physischer Beschädigung – Datenrettung in einem forensischen Labor. 43 Die Erfolgschancen solcher Datenwiederherstellungen hängen nicht nur vom konservatorischen Zustand des physischen Mediums und der Qualität der verwendeten Werkzeuge, sondern maßgeblich

–––––––– 39 40

41 42 43

Simson Garfinkel: Digital media triage with bulk data analysis and bulk_extractor. In: Computers and Security 32, 2012, S. 56–72. DOI: https://doi.org/10.1016/j.cose.2012.09.011 (Abruf am 01.11.2018). Vgl. Kirschenbaum 2014 (Anm. 4); Ries 2018 (Anm. 3); Ries 2010 (Anm. 5). Vgl. auch C. Wright u. a.: Overwriting hard drive data. The great wiping controversy. In: Lecture Notes on Computer Science (LNCS) 2008, S. 243–257. An dieser Stelle ist an Blanchettes Analyse des Einflusses von physischen Beschränkungen der Hardware und Technologie auf das Software-Design zu erinnern. Blanchette 2011 (Anm. 12). Ries 2010 (Anm. 5). Vgl. Ries 2018 (Anm. 3); Ries 2010 (Anm. 5).

102

Thorsten Ries

auch von der Funktionsweise des spezifischen historischen Systems ab. Auf Systemen mit aktivierter Hintergrund-Defragmentierung etwa werden während der Benutzung ständig gelöschte Daten überschrieben (zum Beispiel bei Windows-7ff-Systemen). Auf den erst seit wenigen Jahren verfügbaren und verbauten Solid State Festplatten (SSD) werden – anders als bei konventionellen Festplatten oder USB-Sticks – auf Grund der speziellen Bauweise als gelöscht markierte Daten in der Regel sehr schnell wirksam gelöscht (Trimming, Garbage Collection), Ausnahmen bilden jedoch der SSD-Drive Slack und Hardware-Implementierungsfehler, die zu Überlieferung führen können.44 Dateistrukturen (Anwendungsdaten, Low Level Struktur): In der Struktur von digitalen Dokumenten und temporären Dateien können – je nach Dateiformat und Speicherverhalten der Version der jeweiligen Applikation – variante Textversionen und -fragmente sowie textgenetisch relevante Metadaten enthalten sein. Bekannte Beispiele sind etwa die im Binary-Datenstrom von Microsoft Word Dokumenten und den während des Schreibens gespeicherten temporären Dateien enthaltenen gelöschten Textpassagen, welche bis zu 14 Speicherzyklen zurückreichen (sog. Fastsave Artefakte, Microsoft Word, etwa bis 2003, später noch in temporären Dateien). Fastsaveund andere Strukturartefakte des ‚komplexen‘ Microsoft Word Binary Formats lassen sich mit einem Hex-Viewer oder einem Binary Parser (etwa Hachoir) auffinden und analysieren. 45 Die ‚komplexen Dokumente‘, welche das Fastsave-Verfahren erzeugte, verkürzten durch inkrementelles Speichern die Zeit, welche Word zum Zwischenspeichern auf langsamen Datenträgern (Festplatten, Disketten) benötigte – ein Mechanismus, dessen Ziel es war, im Sinne von Blanchettes technologiehistorischer Lesart Hardware-Ressourcen für ein immaterielles Nutzererlebnis einzusparen. Dieses Speicherverfahren ließ allerdings gleichzeitig oft die Größe digitaler Dokumente enorm anwachsen und hinterließ ohne das Wissen der Nutzer gelöschte Textversionen im Datenstrom des digitalen Dokuments. In Dokumenten, welche im 2007 eingeführten, ZIP-komprimierten und XML-basierten Office Open Format (docx) gespeichert sind, finden sich keine Fastsave-Artefakte mehr (temporäre Dateien enthalten allerdings immer noch variante Entwurfsversionen von Texten). Dafür allerdings bettet Microsoft Word in Dateien dieses Typs sogenannte RSID-Tags ein, welche – ohne gelöschte Varianten zu überliefern – eine vollständige, in 10-Minuten-Schichten enkodierte Schreibchronologie des vorhandenen Texts abbilden. Der Grund für die Einführung dieser Tags war die Weiterentwicklung des Track Changes-Features: durch RSID-Tags wurde die Genauigkeit der Markierung der Revisionen bei mehreren beteiligten AutorInnen verbessert. 46 Cloud-Daten (Anwendungsdaten): Die Auswertung von Cloud-Daten unter textgenetischer Perspektive ist abhängig von der Funktionalität des jeweiligen CloudDienstes, der dem Nutzer vertraglich zugesicherten Aufbewahrungsfrist und den angebotenen API. Während etwa beim Schreiben in GoogleDocs, wie das Chrome-Plugin

–––––––– 44 45 46

Ries 2018 (Anm. 3). Ebd. Ries 2010 (Anm. 5).

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

103

Draftback demonstriert, die gesamte Änderungshistorie eines Online-Dokuments nahezu in Echtzeit in Form von Basis-Versionen und Datenstrom der Änderungen protokolliert und prinzipiell dem Nutzer mit entsprechenden Rechten zur Verfügung stellt, 47 ist die Versionierungshistorie von auf dem Cloud-Service Dropbox abgelegten Dateien nur bei bezahlten Nutzer-Accounts zeitlich unbegrenzt, bei den kostenlosen Nutzerlizenzen hingegen auf einen Monat beschränkt. Einige Cloud-Services synchronisieren die verwalteten Nutzerdaten zwischen einem lokalen Ordner auf dem Computer des Nutzers und dem Cloud-Account, so etwa Dropbox.48 Thomas Crombez und Edith Cassiers haben exemplarisch den auf einem Dropbox-Account archivierten Arbeitsprozess Luc Percevals und Susanne Meisters mit dem Ensemble des Hamburger Thalia Theaters am Bühnenmanuskript zur Inszenierung der Brüder Karamasow analysiert, rekonstruiert und auf makrogenetischer Ebene visualisiert. 49

Analoge Born digital-Befunde Analoge Textzeugen (Anwendungsdaten): Auch Ausdrucke auf Papier sind zum digitalen ‚dossier génétique‘ zu rechnen, sie sind ‚born-digital‘. Sie überliefern Momentaufnahmen des Schreibprozesses und enthalten in ihrer Materialität Spuren der Datenverarbeitung – etwa in Form von Schrifttypen, typografischen Features oder mit bloßem Auge nicht erkennbaren, vom Farblaser-Drucker zu forensischen Zwecken mit ausgegebenen Metadaten. 50 Datenträger: Beschriftungen und Ordnungen (andere Spuren): Autoren, die mit Wechseldatenträgern wie Disketten, Wechselfestplatten, CD- oder DVD-ROM oder Bandlaufwerken gearbeitet haben, mussten diese physisch organisieren und zu diesem Zweck oft beschriften. Diese Ordnungen und Beschriftungen können als Teil des digitalen ‚dossier génétique‘ angesehen werden.

Hardware und Kontext Hardware (Ensemble, andere Spuren): Archivierte Hardware ist als funktionsfähiges Original-Ensemble wertvoll, um einen Eindruck von der tatsächlichen Benutzungsumgebung, dem haptischen und optischen Look and Feel, dem Reaktionsverhalten, zu

–––––––– 47

48 49

50

Vassil Roussev u. a.: Cloud forensics. Tool development studies & future outlook. In: Digital Investigation 18, 2016, S. 79–95; James Somers: How I reverse engineered Google Docs to play back any document’s keystrokes. 5. Novon2011. http://features.jsomers.net/how-i-reverse-engineered-google-docs/ (Abruf am 01.11.2018). Vgl. u. a. Ries 2018 (Anm. 3). Thomas Crombez u. a.: Postdramatic Methods of Adaptation in the Age of Digital Collaborative Writing. In: Digital Scholarship in the Humanities 14, 12.10.2015, S. 1–19. DOI: https://doi.org/10.1093/llc/fqv 054 (Abruf am 01.11.2018) Electronic Frontier Foundation: DocuColor Tracking Dot Decoding Guide. 14. März 2016. https://web.archive.org/web/20180305181029/https://w2.eff.org/Privacy/printers/docucolor/ (Abruf am 01.11.2018); Timo Richter u. a.: Forensic Analysis and Anonymisation of Printed Documents. In: Proceedings of the 6th ACM Workshop on Information Hiding and Multimedia Security, 14.03.2016, S. 127–138.

104

Thorsten Ries

gewinnen. Emulatoren simulieren unter Umständen die Geschwindigkeit des emulierten Systems und andere Hardware-abhängige Faktoren nicht präzise. Zudem kann die archivierte Hardware unter Umständen bewahrungswürdige materiale Spuren der Benutzung als Schreibwerkzeug aufweisen, etwa individuell modifizierte Tastaturen und Peripherien oder besondere individuelle Gebrauchsspuren. 51 Digitale ‚dossiers génétiques‘ können aus Materialien heterogener digitaler Materialität zusammengesetzt sein, etwa vom Autor selbst archivierte Dateien (digitale Dokumente, Materialien in anderen Formaten, Programmcode, Repositorien, externe und Cloud-Speicher), digitalforensisch rekonstruierbare Versionen und Spuren des Schreibprozesses (System- und Nutzerdaten verschiedener Formen und Formate), aber auch analoge born-digital Materialien wie etwa Ausdrucke. Die Materialität des überlieferten digitalen Befundes ist maßgeblich durch seine technische Historizität, Mehrschichtigkeit, Kontextabhängigkeit und potenzielle Instabilität geprägt.52

Paragenese Anders als die Schriftspur einer Handschrift oder die Lettern eines mit einer mechanischen Schreibmaschine getippten Typoskripts werden digitale Dokumente und digitale Schreibprozess-Spuren durch Datenverarbeitungsprozesse erzeugt, welche nur teilweise, mitunter nur bedingt oder gar nicht der Kontrolle des Nutzers unterliegen. Zwar ist der Druck der Tastenkombination ‚Strg‘ und ‚S‘ oder der Klick auf das ‚Speichern‘-Symbol ein voluntativer Akt, der zum Abspeichern eines bestimmten Dokument-Zustands führt. Dem Verfasser ist jedoch in der Regel nicht bewusst, dass der Schreib- und Revisionsvorgang in der Word-Processor-Applikation im Zusammenspiel mit Betriebssystem und Hardware unter Umständen noch weitere Versionen-Speicherungen und Entstehungsspuren auf seinem System hinterlässt, welche unter Umständen selbst nach ihrer Löschung wiederherstellbar sein werden. Es muss davon ausgegangen werden, dass viele digitalforensisch rekonstruierbare Textstadien, vor allem temporäre Dateien, Dateistrukturartefakte und Dateifragmente nicht auf eine bewusste Autorentscheidung zurückgehen, den jeweiligen Textzustand zu sichern, sondern auf einen automatisch ablaufenden Systemprozess. Dies gilt etwa für in regelmäßigen Zeitabständen vom Word Processor angelegte Sicherheitsbackups oder automatische BetriebssystemSnapshot-Speicherungen, in Dokument-Dateien zurückbleibende Varianten, für durch knapp werdenden Arbeitsspeicher ausgelöste Speicherungen von temporären SwapDateien, beim Auslösen des Löschbefehls angelegte Kopien im ‚Papierkorb‘-Ordner, durch Systemabstürze oder vom Betriebssystem entdeckte Dateisystem-Fehler ausgelöste Sicherungskopien (etwa für Fehlerkorrektur gespeicherte CHK-Dateien) und

–––––––– 51 52

Als Beispiel könnten die Gebrauchsspuren an Friedrich Kittlers Computern genannt werden. Vgl. Kramski 2014 (Anm. 38), S. 55. Matthew Kirschenbaum: The transmissions of the archive. Literary remainders in the late age of print. In: Bitstreams. The Future of Digital Literary Heritage. Lecture Series am KISLAK Center for Special Collections, Rare Books and Manuscripts, Penn Libraries, 14.03.2016. https://youtu.be/6TuA4dkRegQ (Abruf am 01.11.2018), Timecode 30:05.

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

105

Hibernation-Dateien. Diese digitalforensisch analysierbaren Spuren des Schreibprozesses und ihre Überlieferung sind das Ergebnis von automatisch im Hintergrund des Nutzerinterfaces ablaufenden Prozessen, welche durch das jeweilige historische System-Design von Hardware, Betriebssystem und Software bestimmt sind. Aus philologischer Sicht handelt es sich also beim digitalen ‚dossier génétique‘ um eine Kombination aus bewusst gespeicherten Materialien einerseits und unwillkürlich generierten Momentaufnahmen und Spuren des Schreib- und Revisionsvorgangs andererseits, welche entweder zufällig nicht gelöscht oder nicht physisch überschrieben wurden. Im Rahmen der textgenetischen Theoriebildung stellen diese Spuren des Schreibprozesses eine eigene Kategorie dar, welche bislang nicht hinreichend durch die von de Biasi und Van Hulle vorgeschlagenen Unterscheidungen von Endo-, Exo- und Epigenese einerseits und Mikro- und Makrogenese andererseits, erfasst wird.53 Diese Schreibprozess-Spuren entstehen durch nicht dem Autor zurechenbare, während des Schreibvorgangs ablaufende Datenverarbeitungsprozesse, für welche ich – einen Begriff der Mineralogie entlehnend – den Kategorienbegriff der (technisch-medialen) Paragenese vorschlagen möchte. 54 Die paragenetischen Prozesse der Datenverarbeitung laufen parallel zur Endogenese auf der Word-Processor-Benutzeroberfläche ab. Man kann auch sagen, dass etwa die Internet-Recherche des Schreibers als exogenetische Aktivität eine paragenetische Spur im System hinterlässt: die Browsing-History und den Browser-Cache, im Gegensatz zur vom Autor bewusst lokal als HTML-Datei abgespeicherten Website. Entsprechendes gilt für die Epigenese, insofern sie als digitale Weiterverarbeitung eines Textes geschieht. Überträgt man die von Van Hulle eingeführten Perspektiven-Kategorien der Mikro- und Makrogenese auf die digitalforensische Analyse von Schreibprozessen, so fällt auf, dass im digitalen ‚dossier génétique‘ für diese Perspektiven – anders als bei einer Handschrift – unterschiedliche Datenkategorien vorliegen: mikrogenetische Daten etwa sind Entwurfsversionen von Texten, Textfragmente, Dokumente, Varianten usw., während Dateisystem-Metadaten und Log-Dateien als makrogenetische Daten gelten können.

–––––––– 53

54

Die Begriffe Endo- und Exogenese wurden zunächst von Raymonde Debray Genette geprägt und später von Pierre-Marc de Biasi neu definiert. Dirk Van Hulle hat das Begriffsinstrumentarium um den Begriff der Epigenese ergänzt. Vgl. Pierre-Marc de Biasi: Qu’est-ce qu’un brouillon? Le cas Flaubert: Essay de typologie fonctionnelle des documents de genèse. In: Michel Contat u. a. (Hrsg.): Pourquoi la critique génétique? Méthodes, theories. Paris 1998 (Langage & société. 87), S. 31–60; Dirk Van Hulle: Modelling a Digital Scholarly Edition for Genetic Criticism. A Rapprochement. In: Variants 12-13, 2016, S. 34–56. DOI: https://doi.org/10.4000/variants.293 (Abruf am 01.11.2018); ders.: A James Joyce Digital Library. In: European Joyce Studies 25, 2016, S. 226–242. DOI: https://doi.org/10.1163/9789004319622_016 (Abruf am 01.11.2018). Ich habe den Begriff erstmals im Oktober 2018 vorgeschlagen: Thorsten Ries: The challenge of borndigital. The critique génétique and digital forensics. Congrès international du cinquantenaire de l’Institut des textes et manuscrits modernes (1968–2018). Paris, ITEM/ENS. 19.10.2018.

106

Thorsten Ries

Genetische Unvollständigkeit, Rekonstruierbarkeit und Deutung des digitalen Befundes Die chronologische Dichte und Vollständigkeit des überlieferten digitalen ‚dossier génétique‘ kann je nach Arbeitsweise des Autors und verwendetem System, Textverarbeitung und Komponenten stark variieren. Obwohl mit forensischen Mitteln gesicherte digitale ‚dossiers génétiques‘ eine hohe genetische Dichte aufweisen und enormen Datenumfang erreichen können, sind sie als konstitutiv lückenhaft und diskontinuierlich anzusehen. 55 Zahlreiche Änderungen eines Textes werden nicht aus dem Arbeitsspeicher auf die Festplatte geschrieben, weswegen die Rekonstruktion sogleich zurückgenommener Sofortkorrekturen nur im Ausnahmefall möglich ist. Obwohl digitale Evidenz grundsätzlich immer aus einem bestimmten prozesstechnischen Grund entsteht und überliefert wird, können die Systemprozesse grundsätzlich bei der üblicherweise fragmentiert und unvollständig vorliegenden Datenbasis nicht eindeutig auf frühere Systemzustände zurückgerechnet werden. 56 Wiewohl im digitalforensischen Bereich Plausibilitätsargumente nicht angeraten sind („Probability is dubious“), 57 können sie bei der philologischen Rekonstruktion von Schreibprozessen durchaus eine Rolle spielen. 58 Digitalforensische Befunde sind grundsätzlich im Kontext zu betrachten, Rekonstruktionsmethoden grundsätzlich methodologisch kritisch zu evaluieren. Als Beispiele seien hier Systemzeiten und Datenwiederherstellungsergebnisse angeführt. Systemeinstellungen können falsch sein. Jeremy Leighton John führt aus, dass, wenn ZeitstempelMetadaten auf falsch eingestellten Systemuhren beruhen, Daten und Spuren auf anderen überlieferten Ebenen des historischen Systemkontexts (zum Beispiel E-Mails und andere externe Metadaten) zur Kontrolle und Korrektur herangezogen werden können (distributed materiality, multievidential perspective).59 Die Ergebnisse von Datenwiederherstellungswerkzeugen (zum Beispiel File Carver, Undelete-Werkzeuge) können fehlerhaft (false positives, false negatives), fragmentiert (etwa wenn von einem File Carver Dateifragmente nicht als zusammengehörig erkannt werden) oder unvollständig sein (etwa wenn für einen bestimmten vorhandenen Quellentyp, zum Beispiel VSS-

–––––––– 55

56

57 58

59

Vgl. den allgemeinen Hinweis bei Matthew Kirschenbaum u. a.: Tracking the Changes. In: Neil Fraistat u. a. (Hrsg.): The Cambridge Companion to Textual Scholarship. Cambridge, UK 2013, S. 257–273, hier S. 268. Fred Cohen: Column. The Physics of Digital Information. Part 2. In: Journal of Digital Forensics, Security and Law 7, 2012, H. 1, S. 7–14, hier S. 7: „Current state does not always imply unique history. [...] Given initial state and inputs, later outputs and states are known. Given final state and output, inputs and prior states are not unique.“ Ebd., S. 9: „For example, at the level of computer programs in common use, an editor, digital recorder, or user program, may produce the same outputs from different inputs. With incomplete traces, we cannot uniquely determine prior states and inputs. To the extent that traces are more or less complete, we may or may not be able to uniquely determine or bound the set of programs that might have produced the traces. We may not even be able to determine the extent of completeness of traces we have.“ Ebd., S. 11. Vgl. auch Fred Cohen: A tale of two traces – diplomatics and forensics. In: Gilbert Peterson u. a. (Hrsg.): Digital Forensics 2015. Advances in Digital Forensics XI. 11th IFIP WG 11.9 International Conference, Orlando, FL, USA, January 26-28, 2015. Berlin et al. 2015 (IFIPAICT. 462), S. 3–27. John 2012 (Anm. 33), S. 13, Ries 2018 (Anm. 3), S. 391, 394.

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

107

Partitionen, in einem Tool keine Zugangsmethode implementiert ist oder wenn in einem Carver Heuristiken für die Erkennung von Dateien oder Dateifragmenten fehlen).60 Aus diesem Grund bezeichnet Cohen mit solchen Tools wiederhergestellte gelöschte Daten als „constructed traces“ im Gegensatz zum eigentlichen Datenträger-Befund („original trace“).61 Je nachdem, welche Version eines File Carvers verwendet wird, können sich die Erkennungsheuristiken, False-Positive-Filter und somit auch die Ergebnisse nicht nur zwischen verschiedenen Carvern, sondern auch deren Versionen stark unterscheiden. 62 Simson Garfinkel hat daher bereits dafür plädiert, File Carver anhand von standardisierten Corpora zu testen und zu evaluieren. 63 Auch die Verfahren und Implementierungen digitalforensischer Software ist historisch. Für den wissenschaftlichen digitalforensischen Umgang mit Born-Digital-Befunden wäre es zwecks Sicherung der Reproduzierbarkeit sinnvoll, ein dokumentiertes Archiv historischer forensischer Analysesoftware und Methoden aufzubauen. 64

Ethische Dimension Aus den digitalforensischen Analysemöglichkeiten ergeben sich ethische und datenschutzrechtliche Anschlussfragen, auf die in kurzer Form eingegangen sei. Da forensisch gesicherte Datenträger, insbesondere System-Festplatten, hoch sensible persönliche Daten enthalten können und – wie oben dargestellt – die Urheber nicht immer mit Bestimmtheit wissen, welche Daten auf einem archivierten Datenträger tatsächlich gespeichert sind, besteht nach der Sicherung und Archivierung eine wesentliche Aufgabe der Archive darin, die Urheber und Rechteinhaber so vollständig wie möglich über die Gesamtheit der gespeicherten Daten zu informieren und ein Einverständnis darüber zu erreichen, welche Materialien und Aspekte des Materials der Forschung unter welchen Bedingungen und unter Verwendung welcher Methodologien zur Verfügung stehen sollen. In manchen Fällen wird aus ethischen Erwägungen, zur Wahrung des Datenschutzes und auf Wunsch des Urhebers bewusst von der Wiederherstellung gelöschter Daten abgesehen. 65 Eine weitere Aufgabe für die Archive besteht darin, Methoden, Werkzeuge und Umgebungen zu entwickeln, mit denen Born-Digital-Materialien sicher und kontrolliert für Analysen zur Verfügung gestellt werden können, so dass Persönlichkeits-, Privatheits-,

–––––––– 60 61 62 63 64

65

Ries 2018 (Anm. 3). Fred Cohen: Putting the Science in Digital Forensics. In: Journal of Digital Forensics, Security and Law 6, 2011, H. 1, S. 10. Ries 2018 (Anm. 3), S. 407f. Simson Garfinkel u. a.: Bringing science to digital forensics with standardized forensic corpora. In: Digital Investigation 6, 2009, H. 3, S. 2–11. Oya Y. Rieger hat unlängst hierauf aufmerksam gemacht: „Insufficient focus on primary materials and analysis tools. […] How do we preserve the content, context, and tools to be able to reproduce ‚evidence‘?“ Oya Y. Rieger: The State of Digital Preservation in 2018. A Snapshot of Challenges and Gaps. In: Ithaka S+R Blog, 29.10.2018. https://sr.ithaka.org/publications/the-state-of-digital-preservation-in2018/ (Abruf am 01.10.2018). Vgl. die Verfahrensweise mit dem digitalen Vorlass Salman Rushdies, L. Carroll u. a.: A comprehensive approach to born-digital archives. In: Archivaria 72, 2011, S. 61–92, hier S. 68.

108

Thorsten Ries

Datenschutz- und Urheberrechte im Sinne der Vereinbarungen zwischen Urhebern, Erben, Archiv, anderen Rechteinhabern und möglicherweise mit Betroffenen gewahrt sind (etwa das BitCurator Access Projekt). Das zentrale Element für die Ermöglichung solcher Studien ist die Einverständniserklärung (informed consent) der Datensubjekte, der Urheber beziehungsweise der Nachlassverwalter, des Archivs und eventuell betroffener Dritter. Tatsächlich sind Archive und Wissenschaftler diesbezüglich seit der europaweiten Einführung der DSGVO / GDPR Datenschutzrichtlinien im Mai 2018 in einer sehr guten Position, vertrauensvolle Kooperationen mit Vor- und Nachlassern zu stiften. Die neuen Richtlinien stärken und definieren klar die Rechte der Datensubjekte und treffen spezifische Regelungen für Archive und historische Forschung, um diese zu ermöglichen.

Aspekte der Dokumentation: Textgenese und digitale Materialität Der vorliegende Beitrag führt Aspekte historischer und forensischer digitaler Materialität und editionswissenschaftliche beziehungsweise textgenetische Konzeptualisierungen von digitalen Schreibprozessen zusammen, um eine methodologische Grundlage für eine digitale Philologie, textgenetische Studien zu digitalen ‚dossiers génétiques‘ und künftige historisch-kritische Ausgaben zu schaffen. Digitale Word Processor Softwares werden von AutorInnen zunehmend als Werkzeug für Vorarbeiten, Entwürfe und Revisionsvorgänge bis hin zum fertigen Text genutzt, was mit der Entwicklung individueller Strategien im Umgang mit den Möglichkeiten und Begrenzungen digitaler Schreibumgebungen einhergeht. Die digitale Arbeitsweise eines Schreibers kann unter einer ganzen Reihe von Aspekten betrachtet, beschrieben und rekonstruiert werden. So unterscheiden sich Autoren darin, wie sie den prinzipiell unbegrenzten Schreibraum eines digitalen Dokuments in der Textverarbeitung nutzen, organisieren und segmentieren – etwa indem sie Vorarbeiten, Entwürfe und zugehörige Materialien, gar multiple Versionen eines Textes, in einem Dokument statt verschiedenen Dokument-Dateien aufbewahren: zum Beispiel durchmischt, in Abschnitten oder mit Überschriften organisiert usw. Ein weiteres Unterscheidungskriterium kann darin bestehen, inwiefern der jeweilige Schreiber den Text selbst durch Formatierungen, Auszeichnungs- und Layoutfunktionen gestaltet und organisiert hat. Eine für die textkritische Bewertung des Textzustandes wesentliche Frage ist, inwiefern in den Text eingreifende Hilfsmittel, etwa automatische oder semiautomatische Rechtschreibkorrektur, verwendet wurden. Von besonderem Interesse aus Sicht der Textgenese sind ferner Spuren der individuellen Schreibprozess- und Materialorganisation, von Versionierungsstrategien: Wurden spezielle, die kognitive Repräsentation des Schreibprozesses unterstützende Ordnerstrukturen und Dateinamen-Schemata verwendet, hat der Autor planerische MetaDokumente für die Schreibprozess-Organisation angelegt? Wurden spezielle Softwares wie Evernote, GIT, Subversion, Scrivener oder Final Draft verwendet, um bestimmte

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

109

Aspekte des Schreibprozesses und des Materials zu organisieren? Ein weiteres Merkmal digitaler Arbeitsweisen kann das Experimentieren mit Programmcodes66 oder die Entwicklung digitaler literarischer Textformate, Texttypen und Literaturformen sein, zum Beispiel digitale Literatur. 67 Matthew Kirschenbaums Reperspektivierung der medienspezifischen Betrachtungsweise vom „screen essentialism“ hin zur „forensischen Materialität“ des digitalen Befundes erschließt neue philologische Perspektiven für die Editionswissenschaft und die ‚critique génétique‘.68 Auf der praktischen Seite ermöglicht die Einführung digitalforensischer Methoden, die aus Sicht des Schreibers latente Materialitätsebene digitaler Dokumente, Materialien, Datenträger, Systeme und Systemkomponenten zu analysieren und möglicherweise gelöschte Entwurfszustände und -stufen zu rekonstruieren. In konzeptioneller Hinsicht formuliert Kirschenbaums Unterscheidung von „formaler“ und „forensischer [digitaler] Materialität“ einen bibliografisch, archivarisch und textgenetisch grundlegenden Dualismus des digitalen Befundes: Digitale Dokumente und Objekte sind einerseits, wie Dahlström bereits argumentiert, 69 unter funktionaler Perspektive immaterielle logische Objekte, welche anhand ihrer Datenstruktur und Metadaten identifizierbar sind und durch Kopiervorgänge zwischen Speicherzuständen und -medien übertragen, dupliziert, verarbeitet, manipuliert und überliefert werden (bei Kirschenbaum: formale Materialität). 70 Aus einem forensischen Blickwinkel haben digitale Objekte und Befunde im gespeicherten Zustand ein physisch einzigartiges, nicht-flüchtiges, mit bestimmten materialen Eigenschaften verbundenes Komplement, welches an einen physischen Datenträger, dessen Speicherzellen und -adressen gebunden und als Evidenz zitier- und analysierbar ist (forensische Materialität). Das bitgenaue Datenabbild (forensic image) eines Datenträgers repräsentiert dessen physische Datenstruktureigenschaften und ermöglicht etwa die Wiederherstellung gelöschter Daten aus nichtallozierten Bereichen, die Analyse von Dateisystem- und Partitionsstrukturen, Dateisystem-Metadaten und Fragmentierung. Der in dieser Form diplomatisch fixierte Befund dokumentiert den historischen Zustand des Speichermediums und der darauf enthaltenen digitalen Objekte und Datenspuren. Er ist gleichzeitig Zeugnis der forensisch-historischen Materialität des datenverarbeitenden Systems, welche die digitalen Objekte und Spuren in dieser Form erzeugt hat.71

–––––––– 66

67

68 69 70 71

Moritz Hiller: Diskurs/Signal (I). Literaturarchive nach Friedrich Kittler. In: Mediengeschichte nach Friedrich Kittler. Paderborn, München 2013 (Archiv für Mediengeschichte. 13), S. 147–156; ders.: Diskurs/Signal (II). Prolegomena zu einer Philologie digitaler Quelltexte. In: editio 28, 2014, S. 193–212. Hannes Bajohr (Hrsg.): Code und Konzept. Literatur und das Digitale. Berlin 2016; Florian Cramer: Exe.cut(up)able statements. Poetische Kalküle und Phantasmen des selbstausführenden Texts. Paderborn 2011. Kirschenbaum 2008 (Anm. 4), S. 9–11, 35, passim. Mats Dahlström: Drowning by Versions. In: Human IT 4, 2000, H. 4, S. 1–20. https://humanit.hb.se/ article/view/174/187 (Abruf am 01.10.2018). Kirschenbaum 2008 (Anm. 4), S. 9–13. Luciana Duranti: From digital diplomatics to digital records forensics. In: Archivaria 68, 2009, S. 39–66. http://www.emory.edu/EMORY_REPORT/stories/2010/02/22/rushdie_archive.html  (Abruf am 10.09.2018); Luciana Duranti u. a.: Digital records forensics. A new science and academic program for forensic readiness. In: ADFSL Conference on Digital Forensics, Security and Law. 2010. http://arqtleufes.pbworks.com/w/file/fetch/94919918/Duranti.pdf (Abruf am 01.10.2018).

110

Thorsten Ries

Diese Historizität bildet sich im konkreten digitalen Befund einerseits in Form der philologischen Spuren des Schreibprozesses und andererseits in Form der spezifischen technisch-historischen Materialität ab. Die forensischen Eigenschaften des ‚dossier génétique‘ verweisen im Sinne Blanchettes auf die historischen Implementierungen des jeweiligen Datenverarbeitungskontexts und bilden die technikhistorische Signatur des Befundes. Der eigentliche Grund für die Speicherung und Überlieferung digitalforensisch rekonstruierbarer Textzustände liegt vielfach in spezifischen historischen Implementierungen und Software-Architektur-Designs, welche der Verbesserung der Systemleistung bei begrenzten Hardware-Ressourcen (etwa Fastsave Artefakte, temporäre Dateien, Drive Slack) oder der Korrektur von Systemfehlern dienen (etwa CHK-Dateien, ASD-Rescue- und Backup-Dateien, Systemwiederherstellungspunkte). Nicht selten sind für bestimmte Betriebssysteme und Anwendungen typische Systemfehler, Bugs und Systemabstürze ursächlich für die Überlieferung von Textzuständen (CHK-Dateien, nicht gelöschte temporäre Dateien, Swap-Dateien, Hibernation-Dateien usw). 72 Digitalforensisch sicher- und wiederherstellbare Belege von Entwurf-Zuständen liegen entsprechend oft nicht als vollständiger Text, sondern als Dateistrukturartefakte in digitalen Dokumenten und temporären Dateien, als Textfragmente in Systemdateien oder als Fragmente von Dateien vor. Fred Cohen hat in seinen methodologischen Überlegungen zur Interpretation digitalforensischer Befunde gezeigt, dass es – da nicht alle Systemzustände auf Datenträgern gespeichert werden, die Spuren selbst keine zurückverfolgbaren Metadaten enthalten und durch Überschreiben wiederherstellbare Daten unwiederbringlich verloren gehen – nicht möglich ist, aus digitalforensischen Spuren die Datenverarbeitungsprozesse ‚zurückzurechnen‘ oder gar – Fred Cohens Argument philologisch gewendet – jeden Tastenanschlag oder jede Mausbewegung lückenlos zu rekonstruieren. Der Befund des digitalen ‚dossier génétique‘ ist mit Blick auf die Rekonstruktion des jeweiligen Schreibprozesses konstitutiv lückenhaft.73 Wie bei der textgenetischen Interpretation des Handschriftenbefundes ist der digitale genetische Befund als indexikale Spur der Schreib- und Redaktionsereignisse auf einem Word Processor – das heißt: der Datenverarbeitungsprozesse desselben – zu lesen. Da sich der Schreibprozess im digitalen Medium und die Materialität des digitalen Dossier génétique grundsätzlich vom analogen Schreiben und der literarischen Handschrift unterscheiden, sind eine Reihe von Konzepten philologischer Analyse, editorischer Darstellung und Dokumentation in diesem Zusammenhang neu zu denken. Um in einer historisch-kritischen Edition ein digitales Dokument oder ein Dateifragment in einem bestimmten Zustand eindeutig zu zitieren, bedarf es nicht allein einer bibliografischen Angabe des Liegeortes, sondern vor allem eines reproduzierbaren Hash-Wertes beziehungsweise einer digitalen Signatur, 74 Angaben zum Format und dazu, wie dieses Dokument oder Datenfragment geöffnet und analysiert werden kann. Darüber hinaus können die Angaben zur Identifikation des überliefernden Datenträgers

–––––––– 72 73 74

So etwa demonstriert in Ries 2018 (Anm. 3); Ries 2017 (Anm. 5). Ries 2018 (Anm. 3), S. 400f. Vgl. hierzu auch Jean-François Blanchette: Burdens of Proof. Cryptographic Culture and Evidence Law in the Age of Electronic Documents. Cambridge 2012.

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

111

(Modell, Bauart, Seriennummer), zu dessen Formatierung (Dateisystem), zur Integrität des digitalen Objekts (Fragmentierung) und zu physischen Position auf dem Datenträger (Offset) notwendig sein. Bei mit digitalforensischen Mitteln rekonstruierten Varianten ist exakt und nachvollziehbar zu belegen, mit welcher Methode, welcher Software und welcher Version derselben der Befund rekonstruiert wurde. 75 Digitale Evidenz ist stark abhängig von ihrem technischen Entstehungskontext. Historisch in einem bestimmten Zustand gesicherte Dokument-Belege und Datenspuren sind in ihrer konkreten digitalen Materialität ausschließlich im Kontext des bestimmten historischen Ensembles aus Hardware, Betriebssystem und Applikation interpretierbar, welches sie erzeugt hat. Aus diesem Grund ist der Datenverarbeitungs- und Überlieferungskontext von digitalen Quellen und Textträgern stets technisch genau zu dokumentieren, ebenso ihre Sicherung und Rekonstruktion.

Konzeptionelle Überlegungen: Befund, Textgenese, Edition Rüdiger Nutt-Kofoth hat in seiner methodologisch-geschichtlichen Darstellung in verschiedenen Apparatmodellen historisch-kritischer Ausgaben impliziter Text- und Variantenkonzepte den Wandel von Lemma-Apparaten bis hin zu diplomatisch verfahrenden Ausgaben nach dem Vorbild von Reuß’ und Staengles Kafka-Edition nachgezeichnet.76 Nutt-Kofoths Darstellung liegt die Beobachtung zu Grunde, dass im Zuge diese Entwicklung die im Lemma-Apparat implizit angenommene Abhängigkeit der Variante vom konstituierten, edierten Text zunehmend durch die implizite konzeptuelle Annahme der genetischen Eigenwertigkeit von materialen Entwürfen, Textstufen und tatsächlich veröffentlichtem Text ersetzt wird. In Anknüpfung an die editionswissenschaftliche Reflexion von Modellen der Apparatgestaltung seit Texte und Varianten77 weist Nutt-Kofoth darauf hin, dass Stufen-, synoptische und lineare Variantenapparate trotz der zunehmenden Berücksichtigung räumlicher und grafischer Texteigenschaften vom Modell eines „abstrakten“, zu rekonstruierenden Textes („immaterial, abstract text“, „abstract type“) ausgehen, welcher vom „materialen“ Textbefund („concrete token“) zu unterscheiden sei. 78 Die philologische Analyse der Materialität des Manuskripts oder Typoskripts, des texträumlichen, grafischen und typografischen Befundes bildet die Grundlage der Rekonstruktion der Textgenese. Auf diese konzeptionelle Prämisse bauen letztlich Backmanns Unterscheidung von absoluter und relativer Chronologie,79 die Ortsangaben in synoptischen Apparaten 80 und die editorische Praxis der

–––––––– 75 76

77 78 79 80

Ries 2018 (Anm. 3), S. 402. Rüdiger Nutt-Kofoth: Variations in Understanding Variants: (Hidden) Concepts of Text in German Critical Editions. In: Variants 12-13, 2016, S. 148–162. DOI: https://doi.org/10.4000/variants.343 (Abruf am 01.11.2018). Martens, Zeller 1971. Hier insbesondere Martens, Textdynamik und Edition (Anm. 8). Nutt-Kofoth 2016 (Anm. 76), Abs. 6. Reinhold Backmann: Die Gestaltung des Apparates in den kritischen Ausgaben neuerer deutscher Dichter. In: Euphorion 25, 1924, S. 629–662. Gunter Martens u. a.: Einführung in die textgenetische Darstellung der Gedichte Georg Heyms. In: editio 5, 1991, S. 178–198; Hans Zeller: Befund und Deutung. Interpretation und Dokumentation als Ziel

112

Thorsten Ries

Faksimilierung und diplomatischen Transkription in textgenetisch orientierten Ausgaben auf. 81 Für die Analyse und Darstellung digitaler Schreibprozesse gelten offenbar andere Prämissen. Im Anschluss an Nutt-Kofoths Überlegungen zu in der Konzeption von Variantenapparaten erkennbaren Implikationen über den editorischen Status, genetische Relation und Materialität von Varianten folgen hier einige editorische Überlegungen zu digitalen Entwürfen und Varianten. Die textgenetisch relevanten Befunde digitaler ‚dossiers génétiques‘ können, anders als die literarische Handschrift, nicht mehr anhand grafisch-spatialer Eigenschaften von Schreibspur und Textträger (Duktus, Eigenschaften des Schreibgeräts, Verteilung des Textes auf dem Textträger) und deren materialer Merkmale (etwa Papier, Wasserzeichen, Schreibmittel usw.) gelesen werden. 82 Digitalforensische Analyse rekonstruiert die Spuren des Schreibprozesses mittels einer Analyse von Spuren der Datenverarbeitungsprozesse. Der Befund liegt in der Regel in über Systemebenen und -orte, Datenträger und Netzwerke distribuierter Form vor. Schon Begriffe wie ‚Textträger‘, ‚Texträumlichkeit‘ und ‚Materialität‘ wären neu zu definieren: Der materiale Textträger ist der physische Datenträger, das Bitstream-Image dessen diplomatische DatenRepräsentation, innerhalb deren Datenraum Speicher-Inhalte durch Offset-Werte eindeutig angegeben werden. Das Konzept der Materialität des Befundes allerdings verschiebt sich mit der jeweils verwendeten Technologie: Der forensische Auszug von Cloud-Daten oder von Netzverkehr hat wiederum eine anders zu definierende Materialität. Ein digitales Dokument als digitales Objekt hingegen kann streng genommen kein Textträger sein, obwohl es sowohl in seinem Datenstrom als auch innerhalb der Repräsentation innerhalb der Textverarbeitung mehrere Ebenen der Texträumlichkeit aufweist. Die komplex über Systemebenen und Datenstrukturen geschichtete, verteilte Materialität digitaler ‚dossiers génétiques‘, ihre Reichhaltigkeit wie auch ihre konstitutive Lückenhaftigkeit, Fragmentierung und Kontextabhängigkeit sowie der Snapshot-Charakter der textgenetischen Befunde sind der textgenetischen Analyse von handschriftlichen Textstufen und -schichten anhand von Schreibstoff und -gerät, Beschreibstoff und Wasserzeichen, Duktus der Schrift, Ausweichungen, Drängung und Positionierung von Text auf dem Textträger weder konzeptuell direkt vergleichbar noch methodologisch analog. Die Relation von digitalforensischem Befund (Token) und funktionalem digitalem Objekt (Type) kompliziert die philologische Rekonstruktion und die Konzeption einer

–––––––– 81

82

und Methode der Edition. Ein Versuch über die lyrischen Entwürfe Georg Heyms. In: Martens, Zeller 1971 (Anm. 8), S. 45–90. Meine eigene Arbeit zur genetischen Edition der Gedichte Gottfried Benns macht in dieser Hinsicht keine Ausnahme, grafische, materiale und textuelle Aspekte der Handschrift sind Leitindikatoren bei der Rekonstruktion des Schreibprozesses. Vgl. Thorsten Ries: Verwandlung als anthropologisches Motiv in der Lyrik Gottfried Benns. Textgenetische Edition ausgewählter Gedichte aus den Jahren 1935 bis 1953. 2 Bde. Berlin et al. 2014 (Exempla Critica. 4); ders.: „Materialität“? Notizen aus dem Grenzgebiet zwischen editorischer Praxis, Texttheorie und Lektüre. Mit einigen Beispielen aus Gottfried Benns ‚Arbeitsheften‘. In: Martin Schubert (Hrsg.): Materialität in der Editionswissenschaft. Berlin u. a. 2010 (Beihefte zu editio. 32), S. 159–178. Marianne Bockelkamp: Analytische Forschungen zu Handschriften des 19. Jahrhunderts. Am Beispiel der Heine-Handschriften der Bibliothèque Nationale Paris. Hamburg 1982.

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

113

editorischen Darstellung textgenetischer Befunde. Matthew Kirschenbaum hat darauf hingewiesen, dass der Befund der digitalforensischen Materialität (Token) nicht als physisches Dokument ad oculos vorliegt, sondern in der Regel ausschließlich vermittelt durch entsprechende Software als forensisches Datenabbild analysiert und dargestellt werden kann (formale Materialität, Type).83 Entsprechend ist das zu rekonstruierende Geschehen des Schreibprozesses am Bildschirm (zu einem bestimmten Zeitpunkt in der Vergangenheit, formale Materialität) – sofern nicht durch eine Anwendung wie GoogleDocs oder Keylogger aufgezeichnet – lediglich als lückenhafte Folge von abstrakten, anhand der Spuren von Speicherprozessen (forensische Materialität) erschlossenen Textzuständen im Word Processor rekonstruierbar. Nicht immer liegen die Befunde in Form intakter Dokument-Dateien vor, oft handelt es sich um Fragmente von Dateien oder Texten, um Datenreste in Dateien oder um Rohdaten anderer Formate. Die Materialität dieser Token-Befunde ist durch das Datenverarbeitungs- und Speicherverhalten der jeweils verwendeten historischen Kombination von Software, Betriebssystem und Hardware formiert – sie ist nicht zu verwechseln mit der Materialität der Textanzeige, welche sich dem Schreiber zu einem bestimmten Zeitpunkt im Fenster auf dem Graphical User Interface geboten hat (Type, formale Materialität). Betrachtet man forensische und formale Materialität des digitalen Schreibprozesses, so fällt auf, dass während des Schreibens der ‚abstrakte‘ Text, die jeweils aktuelle Textgestalt, tatsächlich im Speicher vorhanden war und auf dem Bildschirm des Schreibers zumindest ausschnittweise angezeigt wurde (formale Materialität). Dies unterscheidet die Analyse digitaler ‚dossiers génétiques‘ von derjenigen der Entwurfshandschrift, deren jeweils aktuelle Textzustände – eben hierauf hat Nutt-Kofoth hingewiesen 84 – aus dem grafischen Befund der Korrekturen, Streichungen, Hinzufügungen, Umstellungen abgeleitete, philologische Abstraktionen darstellen. Gleichzeitig liegen die Spuren dieser digitalen Entwurfszustände (forensische Materialität) meist in einer materialen Form vor, welche – wiederum im Gegensatz zur Entwurfshandschrift – nicht mit der jeweiligen Textgestalt identisch sind. Formatierungen und Sonderzeichen etwa sind oft nicht rekonstruierbar, die Texte können fragmentiert und mitunter mit formatspezifischen, nicht zum Text gehörigen Zeichen durchsetzt sein. Digitalforensische Befunde bilden, wie Entwurfshandschriften auch, im Überlieferungsfall ein indexikales Spuren-Protokoll des Schreibprozesses, welches auf in der Word-Processor-Software angezeigte Textzustände verweist und diese dokumentiert. Dieses ‚Protokoll‘ ist allerdings lückenhaft und seine digitale Materialität muss anhand von digitalphilologischen, historischen Erfahrungswerten als genetischer Befund des Schreibprozesses analysiert und interpretiert werden. Für die historisch-kritische Edition bedeutet dies, dass angemessene Darstellungsund Kommentierungsformen für die forensische Materialität digitaler Befunde einerseits und für die rekonstruierte Textgenese andererseits gefunden werden müssen. Nutt-

–––––––– 83

84

Matthew Kirschenbaum: The .txtual Condition: Digital Humanities, Born-Digital Archives, and the Future Literary. In: Digital Humanities Quarterly 7, 2013, H. 1. http://www.digitalhumanities.org/dhq/ vol/7/1/000151/000151.html (Abruf am 01.11.2018). Nutt-Kofoth 2016 (Anm. 76), Abs. 12.

114

Thorsten Ries

Kofoths Hinweis auf die impliziten Annahmen von genetischen Apparatmodellen ist hier besonders wichtig, wenn man etwa daran denkt, dass Stufen-, synoptische und lineare Apparate inhärent zumindest auf lokaler Ebene eine geschlossene, vollständige Überlieferung der Entstehungsvarianten voraussetzen. Dies ist bei digitalen Befunden nicht der Fall. Auch ist der digitalforensische Befund, anders als bei einer literarischen Handschrift, nicht gleichzusetzen mit dem Textzustand oder Textausschnitt, den der Schreiber im Moment der Niederschrift gesehen und bearbeitet hat (Token, Type). Das Auseinanderfallen der Textdarstellung im Word-Processor-Interface einerseits und der Materialität des aus fragmentierten Momentaufnahmen bestehenden Befundes andererseits erzwingt einen grundsätzlichen Neuansatz der philologischen Konzeption des Bezugs zwischen Befund, variantem Entwurfstext und Schreibprozess. Die Materialität des zumeist aus fragmentierten Momentaufnahmen (mit Ted Nelson: „instantaneous slices“)85 bestehenden forensischen Befundes ist grundsätzlich unterschieden von dem fluiden, dynamischen Zustand des Textes im Word Processor zu einem bestimmten Zeitpunkt (formale Materialität). Jean-Louis Lebrave hat die aus Sicht der ‚critique génétique‘ naheliegende Sorge geäußert, dass angesichts der Materialität digitaler textgenetischer Befunde die genetische informatische Forensik („génétique inforensique“) sich möglicherweise damit begnügen müsse, lediglich eine „Poetik des Übergangs zwischen Zuständen“ zu sein statt eine „Poetik des Prozesses“. 86 In der Tat drängt sich aus der Materialität des textgenetischen digitalen Befundes, welcher zunächst die Spur eines Datenverarbeitungsprozesses ist, die „Rückübersetzung“ in die Dynamik des digitalen Schreibprozesses nicht in derselben Weise auf wie bei einer literarischen Handschrift. Diese „Rückübersetzung“ ist daher umso mehr eine Aufgabe genetischer Ausgaben und der Apparatkonzeption historisch-kritischer Ausgaben, deren Darstellungssystematik und Kommentierung. Eine angemessene Darstellungsform für digitale ‚dossiers génétiques‘ müsste sowohl dem digitalen Schreibmodus auf dem Nutzer-Interface und verbreiteten digitalen Arbeitsweisen als auch der digitalen Materialität des Befundes Rechnung tragen. Eine digitale Edition böte – um einen Vorschlag zu ventilieren – die Möglichkeit, diese Momentaufnahmen chronologisch geschichtet, als eine überlieferte Textteile und Varianten hervorhebende Heatmap palimpsestartig übereinander geschichtet darzustellen. 87 Die Darstellungsweise wird sich allerdings dem jeweiligen digitalgenetischen Spurcharakter des digitalen Befundes anzupassen haben. Bei GoogleDocs-Dokumenten etwa, welche eine vollständige EditHistorie aufzeichnen, oder bei überliefertem Programm-Quellcode können eine dynamische Simulation des aufgezeichneten Schreibprozesses, begleitet durch den materialen digitalen Befund, oder eine einem GIT-Repository ähnliche Darstellung, begleitet

–––––––– 85

86

87

Ted Nelson: Literary Machines. The report on, and of, Project Xanadu concerning word processing, electronic publishing, hypertext, thinkertoys, tomorrow’s intellectual revolution, and certain other topics including knowledge, education and freedom. Sausalito, CA 1980 [u. ö.], S. 2/15. „La génétique inforensique risque donc de devoir définitivement renoncer à être une poétique des processus pour se contenter d’être une poétique des transitions entre états“. Lebrave 2011 (Anm. 7), S. 145, vgl. auch Vauthier 2016 (Anm. 37). Das Konzept zu dieser strukturierten, dynamischen Visualisierung ist inspiriert durch die Tools Juxta (http://www.juxtacommons.org/).

Das digitale ‚dossier génétique‘. Digitale Materialität, Textgenese und historisch-kritische Edition

115

durch eine Laufzeitumgebung, in der das Programm ausgeführt werden kann, sinnvoller sein. Die historisch-kritische editorische Darstellung, Dokumentation und kommentierende Erschließung ist bei born-digital Befunden umso notwendiger, als mit zunehmender zeitlicher Distanz die technikhistorischen Kenntnisse nicht vorauszusetzen sind, die nötig wären, den genetischen Befundcharakter, um ein Beispiel zu nennen, eines im Drive Slack eines Datenträgers überlieferten Textfragments, einzuschätzen und einzuordnen. Mit Blick auf die editorische Darstellung hybrider ‚dossiers génétiques‘ und die systematische Kohärenz von wissenschaftlichen Editionen wird die editorische Darstellung von digitalen Dokument-Quellen und forensischen Befunden anschlussfähig bleiben müssen an die textgenetischen Darstellungsformen analoger Quellen. Um die systematische Kohärenz der Darstellung von Textzeugen unterschiedlich strukturierter Materialität zu gewährleisten und die zu erschließenden Datenmengen in der historisch-kritischen Ausgabe zu bewältigen, dürften Abstraktionen von Textzuständen notwendig und vertretbar sein, sofern die Dokumentation der analogen und digitalen Materialität gegeben ist.

Resümee In Archiven, Archivwissenschaft, Forschungsprojekten zur digitalen Langzeitarchivierung und auf rechtlicher Ebene werden wichtige Voraussetzungen für textgenetische Studien an digitalen Vor- und Nachlässen geschaffen. Internationale Projekte, Archivierungsplattformen, Web-Archive sowie Hard- und Software-Museen leisten einen wichtigen Beitrag zur authentischen Bewahrung und Erforschung des digitalen Kulturerbes und gleichzeitig zur Verbreitung von digitalforensischen Standards für die Archivierung. Den in diesem Zusammenhang aufgebauten Beständen, Strukturen, Mitteln und Kompetenzen in den Gedächtnisinstitutionen steht auf Seiten der Philologie und Editionswissenschaft eine noch im Aufbau begriffene Grundlage an Begriffen, Konzepten, Methoden und technologiehistorischem Wissen gegenüber. Der vorliegende Beitrag skizziert Grundzüge der materialen, historischen Verfasstheit digitaler ‚dossiers génétiques‘, ihrer philologischen Analyse mit digitalforensischen Methoden und der editorischen Darstellung. Ausgehend von einer Bestimmung der Unterschiede zwischen analogem und digitalem Schreiben wurde die geschichtete und verteilte Materialität digitaler ‚dossiers génétiques‘ in Befundkategorien definiert und unter dem Aspekt ihrer spezifischen technischen Historizität betrachtet. Diese dem wissenschaftlichen Leser zu vermittelnde Historizität, distributierte Materialität, forensische Komplexität, Authentizität und konstitutive genetische Lückenhaftigkeit digitaler Befunde sowie das Token-Type-Verhältnis von Befund und Darstellung bilden die Grundlage der Herausforderungen jeder historisch-kritischen oder genetischen Ausgabe, welche born-digital Befunde veröffentlicht. Digitale ‚dossiers génétiques‘ umfassen sowohl bewusst durch den Schreiber gespeicherte Textzustände als auch forensisch rekonstruierte, paragenetische Befunde, welche im Hintergrund der Benutzeroberfläche ohne Wissen oder Einfluss des Schreibers gespeichert und überliefert wurden. Die Analyse derselben erfordert besondere ethische und methodologische Aufmerksamkeit.

116

Thorsten Ries

Historisch-kritische Editionen werden bei der editorischen Aufarbeitung digitaler und hybrider Schreibprozesse vor besondere Herausforderungen der authentischen und standardisierten Dokumentation und Darstellung gestellt. Diese als Disziplin anzunehmen lohnt sich mit Blick auf die Erforschung der historischen Entwicklung des Schreibens im digitalen Medium. Die Arbeit an diesem Beitrag wurde gefördert durch das Marie-Sklodowska-Curie Fellowship DFitHH - Digital Forensics in the Historical Humanities und durch den Flämischen Wissenschaftsfonds, FWO.

Georg Vogeler

Digitale Editionspraxis Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

Digitale Edition als etablierte Form Digitale Editionen sind keine neue Erfindung. Ray Siemens et al., Elena Pierazzo und insbesondere Patrick Sahle haben 2012, 2015 und 2013 eine Übersicht über die Entwicklung gegeben. 1 Sie berichten vom Bemühen, Edition nicht nur als flache elektronische Texte zu verstehen und ihren wissenschaftlichen Charakter auch im Medienwandel zu bewahren. Die Konzepte entwickelten sich von dynamischen Editionen, zunächst als Datenbankabfragen, mit der Verbreitung des World Wide Web in den 1990er Jahren dann als Hypertext, bis zu digitalen Editionen im Web 2.0 als Produkt einer „community of praxis“. Dabei ist eine nennenswerte Zahl an digitalen Editionen entstanden: Patrick Sahle sammelt seit 1995 Nachweise digitaler Editionen. 2 Im Frühjahr 2017 enthielt sein Katalog 412 Einträge. Der Katalog, den Greta Franzini seit 2012 für ihre Dissertation aufbaut, ergänzt weitere 152. 3 Dass diese über 500 digitalen Editionen eine nennenswerte Menge bilden, mag der Vergleich mit den Rezensionen von gedruckten Editionen in den Berliner Beiträgen zur Editionswissenschaft veranschaulichen. 4 Im Zeitraum 2008–2016 sind dort 455 Neuerscheinungen besprochen worden. Digitale Editionen sind also Teil der aktuellen Editionspraxis. Sie haben das gedruckte Buch als Medium zwar noch lange nicht verdrängt, aber Pascale Sutter kann in Erhebungen 2002, 2007 und 2014 für die Geschichtswissenschaft in der Schweiz immerhin eine kontinuierliche Verschiebung hin zu digitalen Formen dokumentieren. 5

–––––––– 1

2 3

4

5

Patrick Sahle: Digitale Editionsformen. Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels, 3 Bde. Norderstedt 2013 (Schriften des Instituts für Dokumentologie und Editorik. 7– 9), Bd. I; Ray Siemens, Meagan Timney, Cara Leitch, Corina Koolen, Alex Garnett: Toward modeling the ‚social‘ edition. An approach to understanding the electronic scholarly edition in the context of new and emerging social media. In: Literary and Linguistics Computing 27, 2012, H. 4, S. 445–461; Elena Pierazzo: Digital Scholarly Editing. Farnham u. a. 2015. Patrick Sahle: A catalog of Digital Scholarly Editions, v 3.0, snapshot 2008ff http://digitale-edition.de/ (letzte Änderung am 19.02.2019). Greta Franzini: A Catalogue of Digital Editions. 2012, https://github.com/gfranzini/digEds_cat. Die 152 Einträge mit dem Vermerk „nicht bei Sahle“: https://dig-ed-cat.acdh.oeaw.ac.at/browsing/editions/? sahle_cat=False. Alfred Noe (Hrsg.): Editionen in der Kritik. Editionswissenschaftliches Rezensionsorgan. Berlin: Bd. 1, 2005 (BBEW 6); Bd. 2, 2008 (BBEW 7); Bd. 3, 2009 (BBEW 8); Bd. 4, 2011 (BBEW 9); Bd. 5, 2012 (BBEW 11); Bd. 6, 2013 (BBEW 13); Bd. 7, 2014 (BBEW 14); Bd. 8, 2016 (BBEW 16). Bd. 9, 2017 (BBEW 17) ist nicht in diese Zahlen mit einbezogen. Pascale Sutter: Auswertung der Bestandsaufnahmen der laufenden historischen Editionsprojekte in der Schweiz (2002, 2007 und 2014). In: Historische Editionen im digitalen Zeitalter. Les éditions historiques à l'ère numérique: Bestandsaufnahme und Ausblick. État des lieux et perspectives. Hrsg. von Pascale

https://doi.org/10.1515/9783110575996-008

118

Georg Vogeler

Digitale Edition ist auch schon monografisch behandelt worden. Die jüngste Arbeit stammt von Elena Pierazzo aus dem Jahr 2015.6 Sie rückt auf dem damaligen Stand der Forschung die Methoden algorithmischer Phylogenese, die von Siemens et al. beschriebene „soziale Edition“ und die Rezeption der Edition in einem interaktiven Prozess in den Mittelpunkt der von digitalen Techniken geschaffenen Möglichkeiten. Basierend auf Willard McCarty’s Analysen der digitalen Geisteswissenschaften im Allgemeinen 7 sieht sie die entscheidende epistemologische Konsequenz der digitalen Edition in der befruchtenden Wechselwirkung zwischen der Vielfalt an Erfahrungen mit Textüberlieferung und der vom Computercode nahegelegten analytischen Reduktion. Sie gibt damit einen guten Einblick in den 2015 aktuellen Stand der Forschung. Die Diskussion wird in thematischen Sammelbänden 8 und einer Unzahl von Einzelpublikationen 9 vorangetrieben. Etwas grundsätzlicher ist Patrick Sahle 2013 das Thema angegangen. 10 Auf einer Analyse der Geschichte der Editionswissenschaft und der Praxis digitalen Edierens aufbauend formuliert er zwei grundsätzliche Eigenschaften, die digitale Editionen von der vom Medium „gedrucktes Buch“ geprägten Edition unterscheiden: Erstens löst digitales Edieren den Text und die Beschreibung von editorischen Erkenntnissen über den Text vom Medium. Es erzeugt eine transmediale Repräsentation des Textes in den Daten.11 Notation auf der Buchseite wird durch abstrakte Kodierung abgelöst. Zweitens bilden digitale Editionsformen die Vielfalt dessen, was man unter ‚Text‘ verstehen kann, ab. Sie unterstützen einen pluralistischen Textbegriff. Insbesondere sein pluralistischer Textbegriff ist ein Modell, das hilft, Entscheidungen, die aus der Pragmatik von Editionsarbeit stammen, in einen theoretischen Zusammenhang zu bringen. Sahle hat seine Vorstellungen vom pluralistischen Textbegriff graphisch als Rad visualisiert. 12 In diesem ‚Textrad‘ vergibt er sechs Namen für in der Editionspraxis typische Perspektiven auf den Text: Der Text als linguistischer Code (TextL), der sich in Lesefassungen oder philologischer Textkonstitution ausdrückt; der Text als Werk (TextW), der sich für die argumentative oder narrative Struktur und die abstrakte Schöpfung interessiert, also z. B. auch Übersetzungen in die editorische

––––––––

6 7 8

9

10 11 12

Sutter und Sacha Zala. Basel (Itinera. 41), im Druck. Vgl. auch die Erhebungen von Dorothy C. Porter: What is an edition anyway?, 2014: http://www.dotporterdigital.org/what-is-an-edition-anyway-mykeynote-for-the-digital-scholarly-editions-as-interfaces-conference-university-of-graz/. Pierazzo 2015 (Anm. 1). Willard McCarty: Humanities Computing. New York u. a. 2005. Z. B. Daniel Apollon, Claire Bélisle, Philippe Régnier (Hrsg.): Digital Critical Edition. Urbana, Chicago 2014 (Topics in Digital Humanities); Tara Andrews, Caroline Macé (Hrsg.): Analysis of Ancient and Medieval Texts and Manuscripts. Digital Approaches. Turnhoult 2014 (Lectio. 1); Matthew Driscoll, Elena Pierazzo (Hrsg.): Digital Scholarly Editing. Theory, Practice and Future Perspectives. Cambridge 2016; Peter Boot u. a. (Hrsg.): Advances in Digital Scholarly Editing. Papers presented at the DiXiT conferences in The Hague, Cologne, and Antwerp. Leiden 2017. Vgl. z. B. die Einträge in der Systematikstelle „Digitale Edition“ meiner Bibliographie zu den Historischen Grundwissenschaften: http://www.hgw-online.net/GHWBibliographie/systematik/Digitale+Edi tion. Sahle 2013 (Anm. 1). Patrick Sahle: Zwischen Mediengebundenheit und Transmedialisierung. Anmerkungen zum Verhältnis von Edition und Medien. In: editio 24, 2010, S. 23–36. Sahle 2013 (Anm. 1), Bd. 3, S. 9–49.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

119

Arbeit mit einbezieht; der Text als Fassung (Text F), der sich für die Varianz des linguistischen Codes interessiert; der Text als Zeichen (TextZ), der eine ganzheitliche Erfahrung des Textes als Bedeutungsträger erfasst und z. B. die performative Funktion von Rechtsdokumenten oder liturgischen Handschriften zu erfassen versucht; der Text als Dokument (TextD), der die Stofflichkeit und Materialität von Text berücksichtigt; und schließlich der Text als Inhalt (Text I), der die Propositionen eines Textes, die von ihm vermittelte Information in den Mittelpunkt der Editionsarbeit rückt. Das Bild des Rades ist gewählt, weil in der editorischen Praxis inzwischen viele dieser Perspektiven fließend in einander übergehen. Elena Pierazzo vertritt eine grundsätzlich ähnliche Position, nur dass sie die Vielfalt der Textkonzepte als Schichten beschreibt. 13 Das Modell ist ein guter Ausgangspunkt für eine Editionsphilologie auch jenseits digitaler Methoden. Editorische Interessen wie der „richtige Text“ 14 sind darin als „Text als Werk“, „Text als kanonische Fassung“ und „Text als linguistischer Code“ ebenso abgebildet wie die Positionen der New Philology, in der die Textzeugen gleichberechtigt nebeneinander stehen und damit der Text als Fassung oder als Dokument im Zentrum des Interesses steht, oder die ‚critique génétique‘, die die Dokumente als Spur der literarischen Arbeit im ‚dossier génétique‘ zusammenfasst. Das Modell geht davon aus, dass diese editorischen Schulen nicht einander ausschließend konzipiert sind. In der Gutenberg-Galaxis muss jedoch jede Edition eine bestimmte Perspektive auf den Text bevorzugen. Die typographische Notation und das Layout der Druckseiten erzwingen eine Entscheidung, welche die editorischen Schulen dann theoretisch rationalisieren. Die These digitaler Edition dagegen ist, dass in der digitalen Kodierung eine transmediale Abbildung in den Daten möglich ist. Patrick Sahles Ausführungen zu den Kodierungsvorschlägen der Text Encoding Initiative liefern gute Argumente für diese These. 15 Es steht also mit dem multiplen Textbegriff ein theoretisches Konstrukt zur Verfügung, das als Grundlage für die Abbildung von Editionsarbeit allgemein verwendet werden kann, aber insbesondere für die Konzeption digitaler Editionen geeignet zu sein scheint. Die grundsätzliche Anwendbarkeit des Modells auch auf neue digitale Methoden zeigt sich z. B. in der Skizze von Tobias Hodel, der automatische Handschriftenerkennung in das Modell einordnet und damit sichtbar machen kann, welchen Ausschnitt von Text diese Methode berücksichtigt. 16 Digitale Edition ist also als Praxis verbreitet und mit Vorschlägen für eine theoretische Grundlage unterlegt. Es stellt sich die Frage, ob die digitale Editionspraxis auch die Ansprüche der Theorie realisieren kann. Im Folgenden möchte ich deshalb ein Teil-

–––––––– 13 14

15 16

Pierazzo 2015 (Anm. 1), S. 41–43. Vgl. dazu jüngst Bodo Plachta: Der ‚edierte‘ Text: Grundpfeiler der Edition oder ‚Zugeständnis‘ an den Leser? In: Digitale Metamorphose: Digital Humanities und Editionswissenschaft. Hrsg. von Roland S. Kamzelak, Timo Steyer. 2018 (Sonderband der Zeitschrift für digitale Geisteswissenschaften. 2): http://zfdg.de/sb002_002. DOI: http://dx.doi.org/10.17175/sb002_002. Sahle 2013 (Anm. 1), Bd. 3, S. 341–390. Tobias Hodel: What is a text? Starting to understand the theory behind Automated Text Recognition. In: READ Blog, 20.11.2017: https://read.transkribus.eu/2017/11/20/what-is-a-text/.

120

Georg Vogeler

modell von Edition entwickeln, das zwischen den konkreten Handlungen einer einzelnen Edition und der Theorie des Edierens als solchem liegt, also ein Modell von Editionspraxis im Allgemeinen ist. Es soll sich auf vordigitale wie digitale Methoden anwenden lassen und in der Anwendung auf konkrete technische Lösungen für digitale Editionen zeigen, wie sie sich dem Anspruch des pluralistischen Textbegriffs annähern können.

Digitale Editionspraxis Es ist wichtig, sich dabei klar zu machen, dass digitale und analoge Editionspraxis sich in vielen Bereichen nicht unterscheiden. Das ergibt sich z. B. aus einer Auflistung der Akteure im System ‚Edition‘. Schon in der vordigitalen Editionspraxis hatten Editorinnen, Archive und Bibliotheken als Orte der Bewahrung der Textzeugen, Leserinnen, Herstellerinnen, Setzerinnen, Verlage sowie Bibliotheken als Orte der Bewahrung und Verfügbarmachung der Produkte jeweils eigene Werkzeuge und Methoden. Nur ein Teil dieser Rollen ist vom Medium des gedruckten Buches bestimmt (Herstellerin, Setzerin, Verlegerin, Bibliotheken). Ein Vergleich mit den Akteurinnen digitaler Editionen zeigt umfangreiche Überlappungen, da die grundsätzlichen Aufgaben gleichbleiben: Natürlich sind Editorinnen, die Gedächtnisinstitutionen und die Leserinnen auch an der digitalen Edition beteiligt. Der Veröffentlichungsprozess ist jedoch anders gestaltet: Softwareentwicklerinnen, Webdesignerinnen, Service Provider/Server Hosts übernehmen die Aufgaben von Verlagen und Buchherstellerinnen. Eine digitale Edition benötigt also nicht notwendigerweise für die Erarbeitung, sicher aber für die Realisierung und Publikation andere Werkzeuge und Kompetenzen. Man kann die beiden Gruppen mit der Unified Modelling Language (UML) in Diagramme bringen, die die Aktivitäten der Akteurinnen beschreiben und damit verdeutlichen, dass die Verbreitung und langfristige Sicherung den entscheidenden Unterschied zwischen beiden Systemen ausmachen.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

121

Graphik 1: UML Use Case Diagramme einer gedruckten Edition

Graphik 2: UML Use Case Diagramme einer digitalen Edition

Die beiden Diagramme beschreiben die Edition natürlich nur auf einer sehr abstrakten Ebene. Insbesondere in der Aktivität ‚Ediert‘ verbergen sich für das jeweilige editorische Problem spezifische Tätigkeiten. Dazu gehört, dass die Editorin einen Text erstellt und ihn kritisch erschließt – und beide Bezeichnungen sind bewusst so allgemein gehalten, dass eine hyperdiplomatische Transkription ebenso als Texterstellung gelten kann wie die Zuordnung von Textvarianten zu Haupttext und kritischem Apparat. Die kritische Erschließung kann ebenso einschließen, ein Handschriftenstemma zu erstellen, wie philologische und historische Kommentare oder die Registererstellung.

122

Georg Vogeler

Das Diagramm beschreibt also gewissermaßen die Rahmenbedingungen, unter denen die Editorinnen ihre jeweiligen Textvorstellungen in die Arbeit am Text übersetzen. Die Ähnlichkeit der beiden Diagramme zeigt, dass der mediale Unterschied zwischen gedruckter und digitaler Edition dann für den Kern der Editionsarbeit zum Tragen kommt, wenn der Editor eigene buchgestalterische Kompetenz und entsprechende Ansprüche in die Editionspraxis mit einbringt, wie das z. B. in der Frankfurter Hölderlin-Ausgabe von Dietrich Sattler der Fall ist.17 Das ist aber in der digitalen Editionspraxis nicht anders: Die Editorin und die Entwicklerin können so eng zusammenarbeiten wie Editorinnen und Setzerinnen. Manchmal fallen diese Rollen sogar zusammen. Um die digitale Edition besser zu verstehen, geht es also weniger darum, ob digitale Werkzeuge für Herstellung, Vertrieb und Langzeitsicherung verwendet werden, sondern darum, ob im Kern der Editionstätigkeit digitale Werkzeuge eingesetzt werden. Maximilian Herberger hat dabei schon 1990 festgestellt, dass beinahe alle Editionen mit digitalen Werkzeugen erstellt werden, denn Standardbürosoftware und Satzprogramme sind selbstverständlicher Bestandteil der Vorbereitung gedruckter Editionen. 18 Diese digitalen Werkzeuge haben aber eine Druckfassung zum Ziel. Für eine digitale Konzeption der Editionspraxis gibt es andere Werkzeuge. Ich möchte im Folgenden einige dieser digitalen Werkzeuge im Kern editorischer Arbeit vorstellen und dabei der Frage nachgehen, ob sie dazu beitragen, den theoretischen Anspruch einer Integration pluralistischer Textvorstellungen in einer Abstraktion zu realisieren. Die Textträger sind Ankerpunkt einer empirisch basierten Editionspraxis. Die Editorin muss sie dem Editionsvorhaben angemessen dokumentieren und repräsentieren. Die zu erhebenden Informationen sind ähnlich den Angaben, welche die bewahrenden Gedächtnisinstitutionen erheben, und können manchmal direkt übernommen werden. Patrick Andrist wies 2015 darauf hin, dass die Handschriftendatenbanken nicht nur Nachweisinstrumente sind, sondern als Ressource für eine qualitätvolle kodikologische Einschätzung ernster genommen müssen. 19 Christoph Flüeler hat 2015 sogar argumentiert, dass ein digitalisiertes Bild zusammen mit einer guten Handschriftenbeschreibung einer kritischen Edition nahekommt, insbesondere wenn der Katalog auf parallele Textüberlieferungen verweist. 20 Für die Editionspraxis ergibt sich daraus die Konsequenz, dass nicht nur die Heuristik durch die Erschließung und Digitalisierung erleichtert wird, sondern dass Daten direkt übernommen werden können. Entsprechend bieten die Gedächtnisinstitutionen ihre Daten auch immer häufiger maschinenlesbar an. Die Bibliotheken verwenden z. B. Software, die ihre Katalogdaten nach den W3C-Standards des Semantic Web bzw. des

–––––––– 17 18

19 20

Friedrich Hölderlin: Sämtliche Werke. Historisch-kritische Ausgabe in 20 Bänden und 3 Supplementen. Frankfurt am Main, Basel 1975–2008. Maximilian Herberger: Plädoyer für eine „elektronische Edition“ – zusätzlich zur gedruckten. In: Mathesis rationis. Festschrift für Heinrich Schepers. Hrsg. von Albert Heinekamp. Münster 1990, S. 337– 348, hier S. 338 Patrick Andrist: Going Online Is Not Enough? Electronic Descriptions of Ancient manuscripts, and the Needs of Manuscript Studies. In: Andrews, Macé 2015 (Anm. 8), S. 309–334. Christoph Flüeler: Digital Manuscripts as Critial Editions. In: Schoenberg Institute for Manuscript Studies Blog, 30.06.2015: https://schoenberginstitute.org/2015/06/30/digital-manuscripts-as-critical-edition/.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

123

Web of Data 21 zugänglich machen: Insbesondere das französische Projekt biblissima arbeitet daran, die französischen Handschriftenkataloge auch als Ressourcen des Semantic Web zur Verfügung zu stellen. 22 Andere bedienen allgemeine Schnittstellen wie Search and Retrieval via URL, in der auch maschinenlesbare Ausgabeformate gewählt werden können. 23 Umfassende Handschriftenkataloge und digitale Bibliotheken wie manuscriptorium.com, e-codices.ch oder das von der DFG bewilligte Handschriftenportal24 stellen Handschriftenbeschreibung in XML/TEI zum Download zur Verfügung (e-Codices) bzw. planen das (Handschriftenportal). Die Bibliotheken und Archive digitalisieren zunehmend ihre Bestände. Das hat einerseits konservatorische Gründe, da die Qualität von Digitalisaten die analoger Reproduktionsverfahren bei gleichen Kosten deutlich überschreitet, und verbessert andererseits die Zugänglichkeit des Materials. Digitale Bilder haben sich aus vielen Gründen auch in der editorischen Praxis gegenüber den meisten anderen Reproduktionsverfahren durchgesetzt: Sie sind einfach zu benutzen, z. B. auch in großen Mengen mobil; sie sind nachträglich manipulierbar und können so bei der Entzifferung schwer lesbarer Stellen helfen; sie erzeugen kaum Materialkosten und sind damit billiger als gedruckte Abbildungen. Insbesondere dokumentieren sie aber als Farbbild Teile der Materialität der Handschrift detaillierter als eine reine Beschreibung. Die Bibliotheken und Archive stellen die Bilder inzwischen nicht nur einfach über ihre Webseiten zum Download zur Verfügung, sondern setzen vermehrt auf eine Publikation nach dem IIIFStandard,25 der es ermöglicht, anwendungsübergreifende Anzeigesoftware zu entwickeln. Das bekannteste Beispiel dafür ist der Mirador-Viewer,26 mit dem z. B. Textzeugen aus unterschiedlichen Bibliotheken synoptisch angezeigt werden können. Damit kann man insbesondere Textvergleich auf der Ebene der Materialität und Bildlichkeit erleichtern. Editionen, die kein materialistisches Textverständnis verfolgen, können sich mit dem einfachen Verweis auf die Beschreibung der Textzeugen bei den Gedächtnisinstitutionen begnügen, während dokumentzentrierte Editionsverfahren die von den Gedächtnisinstitutionen bereitgestellten Bilder in ihre Edition integrieren, ja sogar mit dem Argument von Christoph Flüeler auf weitere Be- und Verarbeitung verzichten könnten.

–––––––– 21

22 23 24 25 26

W3C: Data Activity. Building the Web of Data, 2013ff.: https://www.w3.org/2013/data/. Das Web of Data ist seit 2013 die offizielle Bezeichnung des W3C für die bis dahin unter der Bezeichnung ‚Semantic Web‘ zusammengefassten Aktivitäten. Eine Einführung in das Semantic Web aus Sicht eines Editors bietet Roland Kamzelak: Digitale Editionen im semantic web: Chancen und Grenzen von Normdaten, FRBR und RDF. In: ‚Ei, dem alten Herrn zoll’ ich Achtung gern‘. Festschrift für Joachim Veit zum 60. Geburtstag. Hrsg. von Kristina Richts und Peter Stadler. München 2016, S. 423–435. Die Demoanwendung http://demos.biblissima-condorcet.fr/florus/#rdf-florus erläutert die geplanten Funktionalitäten und zeigt einige funktionierende Beispiele. Z. B. ist die Datenbank des Kalliope-Verbunds über eine SRU-Schnittstelle zugänglich: http://kalliopeverbund.info/de/support/sru.html. http://www.handschriftenzentren.de/handschriftenportal/. http://iiif.io/. Die Abkürzung wird gewöhnlich als „triple-i-f“ ausgesprochen. Entwickelt unter der Leitung von Rashmi Singhal, Harvard and Drew Winget 2014, http://projectmirador.org/, und inzwischen weiterentwickelt als quelloffene Software, https://github.com/ projectmirador/mirador.

124

Georg Vogeler

Es ist Kern der Editionspraxis, anhand der Textzeugen Text zu erstellen. Dazu gehören Aktivitäten wie Transkription und Textkritik. Im Modell des Sahleschen Textrades extrahieren die Editorinnen hier linguistischen Code aus den Dokumenten, sei es als diplomatische Abschrift nahe an der Vorlage oder als konstituierter Editorentext, der z. B. aus der Vielzahl der Überlieferungsträger erzeugt wird. Dabei ist die Übertragung von Zeichen der Vorlage in moderne Buchstabenformen durch die Arbeit am Unicode-Standard deutlich erleichtert worden: Eine Vielzahl von typographischen und paläographischen Besonderheiten historischer Texte sind in diesem Standard zur Zeichenkodierung abgebildet, wie z. B. die Unterscheidung zwischen Schaft-ſ und Rund-s, das e mit Cauda, Geminationsstriche oder Neumen. 27 Aus paläographischer Sicht bildet Unicode vorrangig die typographische Welt ab, weshalb die Medieval Unicode Fond Intiative Ergänzungsvorschläge macht. 28 Unicode ist aber auch schon als Instrument verwendet worden, Allographen in mittelalterlichen Texten zu kodieren. 29 Die Zeichenkodierung ist inzwischen Teil aller modernen Betriebssysteme, so dass eine spezialisierte Editionssoftware den Zugriff auf diese Kodierungen erleichtern kann, nicht aber eigene Codes einführen muss. Klassisch sind dafür ‚Sonderzeichen‘-Erweiterungen von Texterfassungsprogrammen, in denen die wichtigsten Unicode-Zeichen, die nicht leicht über die Tastatur erreichbar sind, aufgelistet sind und per Mausklick in den Text integriert werden können. Die Suche in der Gesamttabelle von Unicode mit seinen über 132.000 Zeichen ist dagegen eher schwer. Graphische Werkzeuge wie der Webdienst Shapecatcher30 könnten eine sinnvolle Unterstützung sein. In der digitalen Editionspraxis hat sich darüber hinaus mit XML eine sehr flexible Kodierung von Texten durchgesetzt, in welcher der Text mit Codes angereichert werden kann. Die Kodierung kann mit jeder Textverarbeitungssoftware erzeugt werden, da sie nur eine Sequenz von Unicode-Zeichen speichert, mit denen sowohl der Text als auch in spitzen Klammern Computercode geschrieben ist. Bei der Erfassung von XML können die Benutzer durch kommerzielle Software wie SyncRO Softs Oxygen XMLEditor,31 Altovas XMLSpy32 oder XMLmind 33 unterstützt werden, die darauf achten, dass die Benutzer das allgemeine Regelwerk von XML und die speziellen Dokumentgrammatiken einzelner Editionen berücksichtigen. Ähnliche Basisfunktionalitäten

–––––––– 27

28 29

30 31 32 33

Unicode Consortium Version 10.0.0, 20. Juni 2017, https://www.unicode.org/versions/Unicode10.0.0/. Die Beispiele entsprechen Schaft-ſ : Ux017F, e mit Cauda: Ux0229, Geminationsstrich: UxAF, Neumen im Bereich Byzantine Musical Symbols (1D000–1D0FF): https://www.unicode.org/charts/PDF/U1D 000.pdf. http://folk.uib.no/hnooh/mufi/. Dominique Stutzmann: Paléographie statistique pour décrire, identifier, dater… Normaliser pour coopérer et aller plus loin? In: Kodikologie und Paläographie im Digitalen Zeitalter 2. Hrsg. von Franz Fischer, Christiane Fritze, Georg Vogeler. Norderstedt 2010 (Schriften des Instituts für Dokumentologie und Editorik. 3), S. 247–277. http://shapecatcher.com/. http://oxygenxml.com/. https://www.altova.com/xmlspy. http://www.xmlmind.com.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

125

bieten auch viele kostenlose und quelloffene Texteditoren,34 doch ist wegen seiner besonders guten Unterstützung von Aufgabenstellungen der Digitalen Geisteswissenschaften der Oxygen-XML-Editor in der digitalen Editionspraxis besonders weit verbreitet. Für XML als Kodierungsformat spricht auch, dass es vom W3C als Austauschformat empfohlen wird. XML ist also im Internet üblich, und das ist die zentrale Schnittstelle digitalen Arbeitens. Die Regeln von XML sind aber so allgemein, dass editionsspezifische Beobachtungen damit nicht zuverlässig von einem digitalen Werkzeug in ein anderes übertragen werden können: XML-Kodierungen wie , , , , , sind für den Menschen gleichbedeutend, nicht jedoch für eine Software. Seit 1987 arbeitet deshalb in der Text Encoding Iniative (TEI) eine stetig wachsende Gruppe von Geisteswissenschaftlerinnen daran, Kodierungsstandards auch für die editorische Arbeit vorzuschlagen. 35 Mit diesen Vorschlägen können z. B. Zeichen, die nicht in Unicode abgebildet sind, oder eine projektspezifische Interpretation des Zeichenvorrats der edierenden Texte kodiert und beschrieben werden. 36 Die TEI bildet große Teile des pluralistischen Modells ab. Sie hat eine Tendenz, Textkonzepte der Buchkultur des 19. und 20. Jahrhunderts zu bevorzugen, wie Patrick Sahle im Jahr 2013 beschrieben hat. 37 Diese Tendenz nimmt aber mit jeder Veränderung der TEI ab. Transkriptionen zu erstellen ist nicht nur eine Aufgabe für die Kodierung, sondern auch für Arbeitsumgebungen für Menschen. In diesem Bereich sind digitale Werkzeuge wie T-Pen38 oder Transcribo39 verfügbar, die eine parallele Bearbeitung von Text und Bild erleichtern. Dabei wird auch der Versuch unternommen, die Transkription von Methoden der Computer Vision unterstützen zu lassen. Automatische Zeilenerkennung ist z. B. Teil von T-Pen. Am weitesten entwickelt ist die Software Transkribus, die es im Umfeld des READ-Projektes 40 erlaubt, mit automatischer Handschrifterkennung zu experimentieren. Die Ergebnisse der Handschrifterkennung sind zurzeit noch nicht so gut, dass eine händische Kontrolle überflüssig würde. Die automatische Layouterkennung von Transkribus ist in der Arbeitspraxis schon hilfreicher und braucht nur noch wenige händische Intervention.41

–––––––– 34

35 36 37 38

39 40 41

Z. B. Atom (https://atom.io/), jedit (http://www.jedit.org/) mit Plugin XML (Slava Pestov et al.), notepad++ (https://notepad-plus-plus.org/) mit XML Tools Plugin, XML-Copy-Editor (http://xml-copyeditor.sourceforge.net/). http://tei-c.org. TEI Guidelines version 3.3, 31.2018, Kapitel 5 Characters, Glyphs, and Writing Modes: http://www.teic.org/release/doc/tei-p5-doc/en/html/WD.html. Sahle 2013 (Anm. 1), Bd. 3, S. 341–390. Erstellt unter der Leitung von James Ginther 2012–2014 am Center for Digital Theology der Saint Louis University: http://www.t-pen.org/ und seit 2016 betreut von Thomas Finan, Center for Digital Humanities, ebd. Erstellt unter der Leitung von Thomas Burch am Kompetenzzentrum für elektronische Erschließungsund Publikationsverfahren in den Geisteswissenschaften der Universität Trier, http://www.transcribo.org/. Erstellt unter der Leitung von Günther Mühlberger an der Universität Innsbruck, https://transkribus.eu/. Der Code ist quelloffen verfügbar auf https://github.com/Transkribus. Zur automatischen Layouterkennung allgemein vgl. David Doermann, Karl Tombre: Handbook of Document Image Processing and Recognition. London u. a. 2014, S. 133–254. Spezieller im Kontext editorischer Aufgaben: Yann Leydier, Véronique Églin, Stéphane Brès, Dominique Stutzmann: Learning-

126

Georg Vogeler

Die Verwendung von Transkribus als Transkriptionswerkzeug zeigt jedoch, dass auch digitale Werkzeuge bestimmte Sichten auf den Text bevorzugen können: Das Speicherformat von Transkribus ist PAGE (Page Analysis and Ground truth Elements),42 ein XML-Format, das an der Dokumentation der graphischen Aufteilung des Textes orientiert ist. Es kann zur sprachlichen Struktur konkurrierende Hierarchien bilden, die mit den linguistischen Strukturen, wie sie z. B. in der TEI kodiert werden, solange unvereinbar sind, solange man unreflektiert XML auf seine Eigenschaft, einen Baum von Daten zu erzeugen, reduziert. Da das Problem überlappender Strukturen für XML schon früh beobachtet worden ist, hat die TEI einige Lösungsvorschläge entwickelt. 43 Sie beruhen auf Kodierungsvereinbarungen, die in XML ausgedrückt werden können. Diese Vorschläge zeigen, dass die Prinzipien der digitalen Methoden die Beschränkungen konkreter Implementierungen (hier XML/TEI) überwinden können, also der transmediale Anspruch digitalen Edierens auch mit XML verwirklichbar ist. Die Etablierung von XML/TEI als Datenaustauschformat von Transkriptionen steht nicht im Widerspruch zu einer wissenschaftlichen Diskussion über dieses Format. Insbesondere wird diskutiert, ob das XML inhärente – und damit auch von der TEI verwendete – Modell von Text als einer „Ordered Hierarchy of Content Obejcts“ angemessen ist. Desmond Schmidt, Tara Andrews und Andreas Kuczera vertreten z. B. die Position, dass aus Knoten und Kanten zusammengesetzte netzwerkartige Graphenmodelle besser geeignet sind, weil sie in den Daten die Textsequenz von seiner Struktur trennen.44 Manfred Thaller und Dino Buzzetti sehen aus theoretischen Gründen Methoden der Stand-Off-Markierung als günstiger an, weil sie Textstrukturen als eine Interpretation von Text neben anderen betrachten. 45 Tara Andrews hat 2013 gut dargestellt, wie die Diskussion über die konkrete Technik an der editorischen Problemstellung vorbeizugehen droht: Sofern das hinter einer Kodierung stehende abstrakte Modell von Text reich genug ist, können die Rohdaten in unterschiedliche Formate konvertiert

–––––––– 42

43

44

45

free text-image alignment for medieval manuscripts. In: 14th International Conference on Frontiers in Handwriting Recognition. Herakleion 2014, S. 363–368. Stefan Pletschacher, Apostolos Antonacopoulos: The PAGE (Page Analysis and Ground-Truth Elements) Format Framework. In: Proceedings of the 20th International Conference on Pattern Recognition (ICPR2010), Istanbul, Turkey, August 23–26, 2010. Washington u. a., S. 257–260: https://ieeexplore. ieee.org/document/5597587/, DOI: https://doi.org/10.1109/ICPR.2010.72. Vgl. das Schema und Programmbibliotheken dazu: http://www.primaresearch.org/tools/PAGELibraries. TEI Guidelines 2018 (Anm. 36), Chapter 20: Non-hierarchical structures: http://www.teic.org/release/doc/tei-p5-doc/en/html/NH.html; James Cummings: A World of Difference: Myths and misconceptions about the TEI, Paper given at the DH2017 in Montréal, https://dh2017.adho.org/ abstracts/529/529.pdf und die Folien: https://slides.com/jamescummings/teimyths/. Desmond Schmidt, Robert Colomb: A data structure for representing multi-version texts online. In: International Journal of Human-Computer Studies 67, 2009, H. 6, S. 497–514; Desmond Schmidt: The Inadequacy of Embedded Markup for Cultural Heritage Texts. In: Literary and Linguistic Computing 25, 2010, H. 3, S. 337–356. DOI: https://doi.org/10.1093/llc/fqq007; Tara Andrews, Caroline Macé: Beyond the tree of texts. Building an empirical model of scribal variation through graph analysis of texts and stemmata. In: Literary and Linguistics Computing 28, 2013, H. 4, S. 504–521; Andreas Kuczera: Graphbasierte digitale Editionen. In: Mittelalter: Opuscula, 19. April/24. August 2016: https://mittelalter.hypo theses.org/7994. Dino Buzzetti, Manfred Thaller: Beyond Embedded Markup. In: Digital Humanities 2012, Annual Conference of the ADHO 16.–22.07.2012 in Hamburg, Book of Abstracts (2012), S. 142–147: http://www.dh2012.uni-hamburg.de/conference/programme/abstracts/beyond-embedded-markup/.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

127

werden. 46 Die digitalen Werkzeuge zur Texterstellung realisieren dann also den theoretischen Anspruch des multiplen Textbegriffs. James Cummings hat 2017 die TEI gegen einige der hartnäckig vorgebrachten Kritikpunkte verteidigt, darunter auch die Annahme widerlegt, dass die TEI Stand-Off-Markup nicht zulassen würde. 47 Auf dem gegenwärtigen Stand der Diskussion ist also die TEI noch das beste Mittel, um sowohl spezialisierte Werkzeuge für spezifische Transkriptionsaufgaben zu verwenden als auch gleichzeitig das Ergebnis der Arbeit als Ausschnitt des pluralistischen Textmodells zu realisieren, der z. B. durch die Einbindung von Faksimiles erweitert werden kann. Ähnliches gilt auch für die Textkritik im engeren Sinn. Für die Guidelines der TEI hat Peter Robinson schon früh ein Modul entwickelt, das klassische kritische Apparate abbildet.48 Das Bewusstsein in der TEI-Community, dass damit nur eine Sicht auf textkritische Arbeit realisiert wird, zeigt die kontinuierliche Diskussion an möglichen Verbesserungen. 49 Die TEI hat auf jeden Fall schon eine Kodierungsform geschaffen, Textvarianten parallelisiert von einer Software in eine andere zu übertragen. Es liegen Werkzeuge vor, die diese einfache Stellenvarianz auf Basis von TEI-Kodierungen visualisieren, wie z. B. die unter der Leitung von Susan Schreibman entwickelte Versioning Machine50 oder das Webangebot „juxtacommons“, das darüber hinaus auch grundlegende Operationen des Textvergleichs automatisiert. 51 Es beruht unter anderem auf der Arbeit des Projekts CollateX, das unter der Leitung von Ronald Dekker und Gregor Middell entwickelt wurde und als Webservice mehrere Algorithmen zum Textvergleich bereitstellt. 52 Es gibt weitere solcher Werkzeuge. 53 Mit kodierten Stellenvarianzen können Algorithmen auch Vorschläge für Stemmata machen, indem sie die Ähnlichkeiten und Unterschiede zwischen Textzeugen statistisch auswerten. 54 Tara

–––––––– 46 47 48 49 50 51 52

53

54

Tara Andrews: The Third Way. Philology and Critical Edition in the Digital Age. In: Variants 10, 2013, S. 61–76. Cummings 2017 (Anm. 43). TEI-Guidelines, Version 3.3, 31.1.2018, Chapter 12: Critical Apparatus: http://www.tei-c.org/release/ doc/tei-p5-doc/en/html/TC.html. https://wiki.tei-c.org/index.php/Critical_Apparatus_Workgroup. http://v-machine.org/. http://juxtacommons.org/. http://collatex.net/, vgl. dazu auch Ronald H. Dekker, Gregor Middell: Computer-Supported Collation with CollateX: Managing Textual Variance in an Environment with Varying Requirements. Paper presented at Supporting Digital Humanities 2011: Answering the unaskable, ed. by B. Maegaard, University of Copenhagen, Denmark. 17–18 November 2011. Vgl. z. B. die Übersicht in André Medek, Marcus Pöckelmann, Thomas Bremer, Hans-Joachim Solms, Paul Molitor, Jörg Ritter: Differenzanalyse komplexer Textvarianten. Diskussion und Werkzeuge. In: Datenbank Spektrum 15, 2015, S. 25–31, DOI: https://doi.org/10.1007/s13222-014-0173-y. Vgl. z. B. einige Beiträge in Andrews, Macé 2015 (Anm. 8): Tuomas Heikkilä: The Possibilities and Challenges of Computer-assisted Stemmatology. The Example of Vita et miracula s. Symeonis Treverensis, S. 19–42, DOI: https://doi.org/10.1484/M.LECTIO-EB.5.102563; Philipp Roelli: Petrus Alfonsi, or: On the Mutual Benefit of Traditional and Computerised Stemmatology, S. 43–68, DOI: https://doi.org/10.1484/M.LECTIO-EB.5.102564; Jean-Baptiste Camps, Florian Cafiero: Genealogical Variant Locations and Simplified Stemma: A Test Case, S. 69–94, DOI: https://doi.org/10.1484/ M.LECTIO-EB.5.102565.

128

Georg Vogeler

Andrews hat ein Werkzeug entwickelt, diese Stemmata miteinander zu vergleichen, 55 ein Werkzeug, dessen technische Entwicklung derzeit noch eher prototypischen Charakter hat. Stefan Jännickes TRAViz bietet verschiedene Visualisierungsformen für Textalternativen an. 56 Derartige Werkzeuge sind zentral für Editionen, die den Text als Fassung in den Vordergrund rücken und könnten dort auch Teil des Benutzerinterfaces werden. 57 Wenn es darum geht, aus einer multiplen Überlieferung einen Text zu (re)konstruieren, sind sie nur Mittel zum Zweck. Die Konstruktion von CollateX als Webservice über eine REST-Schnittstelle58 zeigt dabei einen Weg auf, wie eine solche editorische Praxis auch technisch realisiert werden kann. CollateX ist dann nicht fixer Teil eines abgeschlossenen Softwarepakets zur kritischen Edition, sondern bekommt Daten und Parameter aus einem anderen Softwarepaket, z. B. einer Software zur Verwaltung von mehreren Transkriptionen, übergeben und liefert das Ergebnis der Kollation über das Internet maschinenlesbar zurück. Es bleibt der aufrufenden Software – und insbesondere der sie steuernden Editorin – überlassen, das Ergebnis der editorischen Aufgabe entsprechend zu verwenden, wie z. B. die Vergleichsergebnisse zu benutzen, um einen Stemmavorschlag zu erstellen oder einen Variantenapparat anzuzeigen. Für den inhaltlichen Kommentar haben sich insbesondere im Bereich der Sacherläuterung von Personen und Orten Werkzeuge etabliert, die mit Hilfe von Referenzen auf externe Listen wie den Angaben aus der Gemeinsamen Normdatei der deutschsprachigen Bibliotheken 59 oder von den Editorinnen selbst verwalteten Listen die entsprechenden Textstellen erläutern. Die klassische Funktion dafür ist ein erweiterter Sachindex, 60 wie z. B. in der Carl-Maria-von-Weber-Gesamtausgabe im Personenregister Artikel der Neuen Deutschen Biographie eingeblendet werden. 61 Um solche Indices leichter aufbauen zu können, haben z. B. die digitalen Geisteswissenschaftler

–––––––– 55 56

57

58 59 60

61

Entwickelt im Rahmen des Tree of Text-Projekts unter der Leitung von Caroline Macé, 2010–2012, http://www.stemmaweb.net/. Stefan Jännicke, TRAViz. Text re-use Alignment Visualization, 2014 http://traviz.vizcovery.org/ index.html; die Software ist online auf dem jeweils neuesten Stand und als Open Source verfügbar unter https://github.com/stjaenicke/TRAViz. Ein Experiment der Visualisierung von Textvarianz hat Ben Fry für die digitale Edition von Charles Darwin: Origin of Species (Hrsg. von Barbara Bordalejo). In: John van Wyhe (Hrsg.): The Complete Work of Charles Darwin Online, 2002: http://darwin-online.org.uk/Variorum/) entwickelt: http://benfry. com/traces/. Vgl. zur REST-Schnittstelle z. B. Stefan Tilkov: REST und HTTP. Einsatz der Architektur des Web für Integrationsszenarien. Heidelberg 2009. http://www.dnb.de/DE/Professionell/Standardisierung/GND/gnd_node.html. Gautier Poupeau: De l’index nominum à l’ontologie. Comment mettre en lumière les réseaux sociaux dans les corpus historiques numériques? In: Digital Humanities 2006. The First ADHO International Conference: Conference Abstracts. Université Paris-Sorbonne. Paris 2006, S. 161–164; Gautier Poupeau: Les apports des technologies Web à l’édition critique. L’expérience de l’École des Chartes. In: Digital Philology and Medieval Texts. Proceedings of the Arezzo Seminar 2006, 19–21 January. Hrsg. vonArianna Ciula, Francesco Stella. Ospedaletto (Pisa) 2007, S. 25–32. Carl Maria von Weber Gesamtausgabe, Version 3.2.1, 8.1.2018: Projektbeschreibung, Abschnitt Biographische Informationen zu Weber und zu weiteren Personen: http://www.weber-gesamtausgabe.de/ de/Projekt/Projektbeschreibung.html#d10e199 und die Editionsrichtlinien zur Ausgabe der Briefe, Tagebücher und Dokumente Webers, Abschnitt 3.7–3.11: http://www.weber-gesamtausgabe.de/de/ Projekt/Editionsrichtlinien_Text.html#d10e1739.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

129

an der Berlin-Brandenburgischen Akademie der Wissenschaften eine Erweiterung für den Oxygen-XML-Editor programmiert, die den Namen Ediarum trägt. Ediarum erlaubt es den Editorinnen, menügesteuert auf gemeinsam gepflegte Referenzlisten zuzugreifen und so konsistente Erläuterungen zu erzeugen. 62 Digitale Editionen erzeugen Texte, die natürlich Forschungsobjekt von Linguisten sein können, so wie die linguistischen Eigenschaften der Texte Teil der editorischen Arbeit sein können. Die Computerlinguistik arbeitet schon lange an Werkzeugen, die automatische Analysen von Sprache ermöglichen. 63 Ein Beispiel für die Möglichkeit der Anwendung solcher Werkzeuge auch für Laien ist der CLARIN-Dienst „Weblicht“,64 in dem verschiedene Webservices in eine Verarbeitungskette gebracht werden können, die z. B. die Annotation von Textpassagen mit Wortarten, syntaktischen Funktionen und zugehörigen Lemmata ermöglicht. Mit einer solchen linguistischen Erschließung, wie sie z. B. die Bearbeiterinnen der Fürstinnenbriefen aus der Frühen Neuzeit65 oder der Texte des Abraham von Santa Clara 66 teilautomatisch gemacht haben, verschwimmt die Grenze der kritischen Edition zu linguistischen Corpora historischer Sprache. Es sind also Werkzeuge zur linguistischen Annotation vorhanden, sie befriedigen aber keine geläufigen Kernprobleme der digitalen Edition. Es ist deshalb auch nicht verwunderlich, dass die Schnittstelle zwischen digitaler Editionspraxis und den Werkzeugen automatischer Sprachanalyse nur einfache Texte ohne weiteres Markup sind, also die editorischen XML/TEI-Annotationen ausblenden. Ansätze, das zu verändern, existieren z. B. in der Arbeit eines XML-basierten Tokenizers von Daniel Schopper:67 Mit einer solchen XML/TEI basierten Annotation wird es möglich, aus dem Text z. B. das Datenaustauschformat TCF im Weblicht-Prozess zu erzeugen oder stabile Stand-Off-Annotationen zu machen, die auf Wörter als zentrale linguistische Tokens verweisen. 68 Willard McCarty hat 2005 die Ausdrucksmächtigkeit eines klassischen Stellenkommentars aufgeschlüsselt und angedeutet, wie eine digital modellierte Form diese

–––––––– 62

63 64

65

66 67 68

Stefan Dumont, Martin Fechner: Bridging the Gap: Greater Usability for TEI encoding. In: Journal of the Text Encoding Initiative 8, 2015: http://journals.openedition.org/jtei/1242; DOI: https://doi.org/10.4000/ jtei.1242. Einen Überblick über den Stand der Forschung gibt Ruslan Mitkov: The Oxford Handbook of Computational Linguistics, 2. Aufl. Oxford 2014–2016. https://weblicht.sfs.uni-tuebingen.de, vgl. dazu Erhard Hinrichs u. a.: WebLicht – Web-based LRT services for German. Presentation and abstract for the „Workshop on Linguistic Processing Pipelines“, GSCLPotsdam (2009); Marie Hinrichs, Thomas Zastrow, Erhard Hinrichs: WebLicht: Web-based LRT Services in a Distributed eScience Infrastructure. Paper presented at LREC 2010, Malta. Vera Faßhauer: Compilation, transcription, multi-level annotation and gender-oriented analysis of a historical text corpus. Early Modern Ducal Correspondences in Central Germany. In: Advances in digital scholarly editing. Hrsg. von Peter Boot u. a. Leiden 2017, S. 283–288. Claudia Resch, Ulrike Czeitschner (Hrsg.): ABaC:us – Austrian Baroque Corpus. Wien 2015: http://acdh.oeaw.ac.at/abacus/. https://github.com/acdh-oeaw/xsl-tokenizer. Zum Text Corpus Format (TCF): The TCF Format, 2015, https://weblicht.sfs.unituebingen.de/weblichtwiki/index.php/The_TCF_Format. Das Format ist voll kompatibel zu Linguistic Annotation Format (LAF) und zum Graph-based Format for Linguistic Annotations (GrAF) des ISO/TC37/SC4 technical committee (Nancy Ide, Keith Suderman: GrAF: A graph-based format for linguistic annotations. In: Proceedings of the linguistic annotation workshop. Uppsala 2007, S. 1–8: https://www.cs.vassar.edu/~ ide/papers/LAW.pdf).

130

Georg Vogeler

Textgattung anreichern könnte. 69 Inhaltliche Annotationen erlauben jetzt schon neue Zugänge zu den Editionen: Geographische Koordinaten zu im Text erwähnten Orten münden in kartographische Darstellungen wie z. B. zu den Werken Ilse Aichingers.70 Nicht nur in historischen Editionen werden aus Annotationen Personennetzwerke extrahiert.71 Kommentierende Annotationen können durch die Technologien des Semantic Web weiter angereichert werden, wie es z. B. in Projekten wie Burckhardt-Source der Fall ist.72 Hierfür stehen mit den Standards des W3C zur Webannotation 73 und Annotationswerkzeugen wie Pund-it74 oder hypothes.is75 technische Vorschläge bereit, die online verfügbare Textfragmente mit Kommentaren verbinden. Diese verschiedenen Werkzeuge erlauben die Erschließung sehr unterschiedlicher Perspektiven auf den Text: Eine den Text strukturierende Annotation mit XML/TEI bildet Elemente dessen ab, was den Text als Werk ausmacht. Referenzen auf in anderen Quellen nachgewiesene Personen und reale Orte oder andere mit Hilfe von Semantic Web-Technologien realisierte Annotationen versuchen die inhaltliche Ebene des Textes zu kodieren. Linguistische Annotation beschäftigt sich mit dem Text als linguistischem Code. Allgemeine Annotationstechniken nach dem OAC-Standard des W3C erzeugen unspezifische Kommentare, die in alle Perspektiven auf den Text passen können.

–––––––– 69 70 71

72 73

74

75

Willard McCarty: Humanities Computing. New York u. a. 2005, S. 75–79. Andreas Dittrich: Das Projekt :aichinger. Zu Ilse Aichingers Topoi zwischen Logoi und Graphai. In: ZfdG 2016: http://www.zfdg.de/2016_007, DOI: https://doi.org/10.17175/2016_007. Vgl. z. B. die digitale Edition der Geschichten aus dem Wiener Wald von Ödön von Horváth. Hrsg. von Klaus Kastberger. Graz 2017, URL: http://gams.uni-graz.at/context:ohad, Handle/DOI: http://hdl.handle. net/11471/541.10.5405. Maurizio Ghelardi: The European Correspondence to Jacob Burckhardt, 2015, http://burckhardt source.org/. Die technische Empfehlung des W3C zur Webannotation besteht aus drei Dokumenten, die alle von Robert Sanderson, Paolo Ciccarese und Benjamin Young am 23.2.2017 herausgegeben worden sind: Dem Web Annotation Data Model, https://www.w3.org/TR/annotation-model/, dem Web Annotation Vocabulary https://www.w3.org/TR/annotation-vocab/ und dem Web Annotation Protocol https://www.w3.org/TR/annotation-protocol/. https://github.com/net7/pundit2. Vgl. dazu u. a. Marco Grassi, Christian Morbidoni, Michele Nucci, Simone Fonda und Francesco Piazza. Pundit: Augmenting Web Contents with Semantics. In: Literary & Linguisting Computing 28, 2013, H. 4, S. 640–659, DOI: https://doi.org/10.1093/llc/fqt060; Marco Grassi, Christian Morbidoni und Michele Nucci: A Collaborative Video Annotation System Based on Semantic Web Technologies. In: Cognitive Computation. Berlin, Heidelberg 2012, S. 497–514, DOI: https://doi.org/10.1007/s12559-012-9172-1; Christian Morbidoni, Alessio Piccioli: Curating a Document Collection via Crowdsourcing with Pundit 2.0. In: ESWC 2015: The Semantic Web: ESWC 2015 Satellite Events, S. 102–106, DOI: https://doi.org/10.1007/978-3-319-25639-9_20. Entwickelt unter der Leitung von Dan Whaley seit 2011: http://hypothes.is. Vgl. dazu u. a. Jeffrey M. Perkel: Annotating the scholarly web. In: Nature 528, 2015, S. 153–154: http://www.nature.com/news/ annotating-the-scholarly-web-1.18900, DOI: https://doi.org/10.1038/528153a.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

131

Die digitale Edition von Nutzerseite Den Überlegungen von Inga Hanna Ralle zum „Editorischen Narrativ“ folgend 76 sind aber zur digitalen Edition auch Funktionalitäten zu zählen, die den Editorinnen erlauben, vorab einen Eindruck von der Form zu bekommen, wie ihre Arbeit publiziert aussehen könnte. Eine derartige „Vorschau“ bezieht, wie oben beschrieben, Kompetenzen in den Techniken der Textdarstellung in den Editionsprozess mit ein. Im Bereich der Veröffentlichung hat die allgemeine technische Entwicklung eine Entscheidung getroffen, die eine den digitalen Methoden inhärente Tendenz realisiert hat: physische Datenträger wie CD-ROMs sind weitgehend abgelöst durch die Datenübertragung über das Internet, d. h. die binäre elektronische Abbildung von Information trennt sich zunehmend von individuellen physischen Datenträgern. Die weitgehende Verfügbarkeit des World Wide Web in der Forschungspraxis und im Alltag hat andere Distributionskanäle digitaler Medien obsolet gemacht. Die Verfügbarkeit der Editionen ist damit insgesamt sehr hoch, auch wenn immer noch Benutzungssituationen vorstellbar sind, in denen ein physischer Datenträger (sei es ein Buch oder ein USB-Speicher) Vorteile bietet, wenn z. B. für die Benutzer kein Zugriff auf das Internet zu vertretbaren Kosten möglich ist. Die oben als Stand der Forschung formulierten theoretischen Ansprüche sollten diese unterschiedlichen Formen der Materialisierung der Edition zulassen. In der konkreten Umsetzung ist noch nicht jedes Editionsprojekt soweit, einen Download der Daten zu ermöglichen oder eine Druckvorlage anzubieten. Das Fehlen ist aber nicht nur in der Konzeption der digitalen Edition begründet, sondern in den häufig fehlenden Ressourcen für die Funktionalität und dem unbefriedigten Bedarf an Werkzeugen, mit einfachen Mitteln Offline-Versionen zu erzeugen. Die technischen Möglichkeiten des mobilen Internetzugriffs verschieben die Problemlage aber in eine andere Richtung. Für die Rezensionszeitschrift RIDE 77 ist ein Fragebogen entstanden, der den Rezensentinnen Hinweise gibt, welche Eigenschaften einer digitalen Edition kommentierungswürdig sein könnten. In diesem Katalog wird unter 4.11 gefragt: „Gibt es alternative Ausgabeformen? Dies können z. B. Druckformate sein, aber auch digitale Formate für spezielle Lesegeräte (E-Books, Apps für Smartphones und Tablet-PCs etc.)“.78 Die digitale Edition kann also nicht davon ausgehen, dass ein handelsüblicher Computerbildschirm, dessen Anzeige mit einer Tastatur und einer Maus als Zeigegerät gesteuert wird, die einzige Form ist, in der die digitale Edition benutzt wird. Aodhán Kelly hat 2015 den Stand der Dinge zur Benutzung von

–––––––– 76

77 78

Inga Hanna Ralle: Maschinenlesbar – menschenlesbar. Über die grundlegende Ausrichtung der Edition. In: editio 30, 2016, S. 144–156. Vgl. auch die Position dazu von Magdalena Turska, James Cummings und Sebastian Rahtz: Challenging the Myth of Presentation in Digital Editions. In: Journal of the Text Encoding Initiative 9, 2016: https://journals.openedition.org/jtei/1453, DOI: https://doi.org/10.4000/ jtei.1453. http://ride.i-d-e.de, hrsg. vom Institut für Dokumentologie und Editorik. Patrick Sahle: Kriterien für die Besprechung digitaler Editionen, Version 1.1, Juni 2014: https://www.id-e.de/publikationen/weitereschriften/kriterien-version-1-1/.

132

Georg Vogeler

digitalen Editionen auf Lesegeräten für E-Books oder Apps für Smartphones und Tablet-PCs untersucht. 79 Sie sind relevante Kanäle für digitale Editionen, die als Lesegeräte den Text als linguistischen Code bevorzugen. Peter Boot konnte schon 2011 beobachten, dass die digitale Edition der Briefe van Goghs auch am Stück gelesen wurde, obwohl die Editorinnen davon ausgingen, dass für diesen Zweck die gedruckte Fassung bevorzugt würde, während die Online-Fassung von Forscherinnen benutzt würde. 80 Den Lesefluss erleichternde Geräte wie die E-Book-Lesegeräte lassen es noch wahrscheinlicher werden, dass auch digitale Derivate der digitalen Edition weitere Benutzungsszenarien abdecken, die derzeit noch der Papierform vorbehalten zu sein scheinen. Für die Erzeugung von Webpräsentationen werden die Standardwerkzeuge der X-Technologien eingesetzt. XSLT erlaubt die Transformation von XML-Dokumenten in beliebige andere textbasierte Formate, also z. B. in HTML, der Sprache des WorldWide-Web. XQuery ist entwickelt worden, Corpora von XML-Dokumenten abfragen zu können. Auch dabei können HTML-Dokumente erzeugt werden, die direkt über das WWW betrachtet werden können. Viele digitale Editionen setzen deshalb die XMLDatenbank eXist-db ein.81 Einige Funktionalitäten, die das auf der kommerziellen Software Oxygen-XML-Editor aufbauende Framework Ediarum verwendet, beruhen auch auf einer eXist-DB.82 Auf XSLT bauen Frameworks wie das am Department for Digital Humanities am King’s College London entwickelte ‚kiln‘ auf, das in einer Vielzahl von digitalen Editionen eingesetzt wird. 83 Das Framework stellt einige XSLSkripte und XML-Konfigurationen zur Verarbeitung insbesondere von XML/TEIDokumenten bereit, die für individuelle Projekte angepasst werden müssen. 84 Einen ähnliche Softwarearchitektur hat das am Zentrum für Informationsmodellierung in Graz entwickelte GAMS-Framework, das zusätzlich eine langzeitorientierte Speicherkomponente im Kern verwendet. 85 XSLT und XQuery sind jedoch allgemeine Programmiersprachen, die im oben beschriebenen Modell nicht auf den Kern der editorischen Arbeit spezialisiert sind, sondern allgemeine Lösungen für den Bereich Programmierung und Publikation sind.

–––––––– 79 80 81

82 83 84

85

Aodhán Kelly: Tablet computers for the dissemination of Digital Scholarly Editions. In: Manuscritíca 28, 2015, S. 123–140. Peter Boot: Reading Van Gogh Online? In: Ariadne 66, 2011: http://www.ariadne.ac.uk/issue66/boot/. http://showcases.exist-db.org/exist/apps/Showcases/index.html. Z. B. die meisten an der Berlin-Brandenburgischen Akademie der Wissenschaften realisierten digitalen Editionen. Hier ist auch ein inzwischen nicht mehr weiter entwickeltes Framework SADE (Scalable Architecture for Digital Editions: http://www.bbaw.de/en/telota/projectcollection/digital-editions) entstanden. Weitere Beispiele geben die von Peter Andorfer technisch betreuten digitalen Editionen (http://www.digital-archiv.at/ und insbesondere https://howto.acdh.oeaw.ac.at/blog/books/how-to-build-a-digital-edition-web-app/). Zu Ediarum vgl. http://www.bbaw.de/telota/software/ediarum und Dumont, Fechner 2015 (Anm. 62). http://kiln.readthedocs.io/en/latest/projects.html. https://github.com/kcl-ddh/kiln; Paul Caton, Miguel Vieira: The Kiln XML Publishing Framework. In: Proceedings of XML. In: Web Out: International Symposium on sub rosa XML. Balisage Series on Markup Technologies 18, 2016: http://www.balisage.net/Proceedings/vol18/print/Caton01/Balisage Vol18-Caton01.html, DOI: https://doi.org/10.4242/BalisageVol18.Caton01. http://gams.uni-graz.at, Elisabeth Steiner, Johannes Stigler: GAMS and Cirilo Client: Policies, documentation and tutorial 2014–2017: http://gams.uni-graz.at/o:gams.doku, Handle/DOI: https://hdl.handle. net/11471/521.1.1.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

133

Dass es keine einzelnen Referenzlösungen für die Umwandlung von XML-Daten in Webseiten gibt, liegt daran, dass die Frage, welche Funktionalitäten die Benutzungsoberfläche digitaler Editionen anbieten soll, ungeklärt zu sein scheint. Sebastian Rahtz hat in seinen XSLT-Programmen zur Darstellung von TEI-Dokumenten das klassische Druckbild zu Grunde gelegt. 86 2011 hat sich Roberto Rosselli Del Turco dem Problem aus der Perspektive einer Webanwendung gewidmet und eine allgemeine Navigationsarchitektur skizziert, die dokumentarische Editionen abbildet. 87 Sein Edition Visualisation Toolkit (EVT) realisiert dieses Modell mit Hilfe von XSLT und den Webstandards HTML, CSS und JavaScript. Es ist gut geeignet für die Darstellung von Editionen einer einzelnen Handschrift. EVT erlaubt die parallele Darstellung von Text und Bild, die Darstellung der Transkription in mehreren Detailstufen und elementare Erschließung mit Registern. 88 Die Synopse von Textfassungen unterstützt die oben erwähnte Versioning Machine. 89 Auch Marjorie Burgharts Critical Edition Toolbox zielt darauf, Textvarianz sichtbar zu machen. 90 Alle beruhen auf Texten, die in XML/TEI kodiert sind. Für die Erzeugung von Druckvorlagen stehen z. B. Werkzeuge aus der LaTeXFamilie zur Verfügung, deren Quellcode programmgesteuert aus XML/TEI-Rohdaten erzeugt werden kann. Die TEI selbst bietet mit dem TEI-Processing Model einen Mechanismus an, die Anzeige der TEI-Daten zu steuern. Die Eigenschaften der Darstellung der TEI-Kodierungen werden gemeinsam mit der Projektdokumentation in einer TEI-Datei gespeichert und können dann z. B. vom TEI-Publisher eingesetzt werden, um TEI-Texte als HTML, ePub oder PDF zu veröffentlichen. 91 Einfachere Lösungen bietet die TEI-Boilerplate, die z. B. im TEI-Repositorium TAPAS verwendet wird, die aber nur von einfachen Transkriptionen ausgeht. 92 Diese Softwarelösungen sind vorwiegend textorientiert. Es gibt aber auch editorische Problemstellungen, die andere Benutzerinterfaces nahelegen: kartographierbare Texte könnten auch als Karten ediert werden. 93 Eine Sammlung historischer Dokumente in Brief und Tagebucheditionen könnte kalendarische Darstellung sinnvoll einsetzen. Die Ergebnisse einer Tagung in Graz im Herbst 2016 dokumentieren die Vielfalt der Argumente zur grundsätzlichen Frage des Benutzerinterfaces. 94 Die Beiträge

–––––––– 86

87 88 89 90

91 92 93 94

http://www.tei-c.org/Tools/Stylesheets/. Sebastian Rathz: XSL stylesheets for TEI XML, 2014. http://www.tei-c.org/release/doc/tei-xsl/; Fortgeführt durch die TEI-Community: https://github.com/ TEIC/Stylesheets. Roberto Rosselli Del Turco: After the Editing is Done. Designing a Graphic User Interface for Digital Editions. In: Digital Medievalist 7, 2011, DOI: http://doi.org/10.16995/dm.30. Vgl. z. B. die Edition des Codice Pelavicini, bearb. von Enrica Salvatori. Pisa 2014–2018: http://pelavicino.labcd.unipi.it/evt/. S. o. Anm. 51. Marjorie Burghart: The TEI Critical Apparatus Toolbox: Empowering Textual Scholars through Display, Control, and Comparison Features. In: Journal of the Text Encoding Initiative 10, 2016: http://journals.openedition.org/jtei/1520, DOI: https://doi.org/10.4000/jtei.1520. https://teipublisher.com/. Das TAPAS-Projekt: http://www.tapasproject.org/ und die TEI-Boilerplate von John Walsh, Grant Simpson und Saeed Moaddeli: http://dcl.ils.indiana.edu/teibp/. Vgl. das :aichinger-Projekt oben, Anm. 70. Roman Bleier u. a. (Hrsg.): Digital Scholarly Editions as Interfaces. Norderstedt 2018 (Schriften des Instituts für Dokumentologie und Editorik. 12).

134

Georg Vogeler

von Stefan Dumont,95 Roberto Rosselli Del Turco und Chiara Di Pietro,96 Joshua Schäuble und Hans Walter Gabler,97 Elly Bleeker und Aodhán Kelly,98 Jeffrey Witt,99 und Hugh A. Cayless100 demonstrieren an einzelnen Projekten, wie innovative und für bestimmte Textgattungen und Editionssituationen spezialisierte Benutzungsoberflächen aussehen können. Federico Caria und Brigitte Mathiak steuern eine empirische Erhebung bei, wie Benutzerinnen mit digitalen Editionen umgehen. 101 Schließlich liefert der RIDE-Kriterienkatalog einige Hinweise auf zu erwartende Navigationselmente. 102 Die Praxis zeigt, dass die Synopse des Texts als Transkript und als Bild immer mehr zum Standard digitaler Edition wird. Die Edition der Fontane-Notizbücher hat schon in ihrer Betaversion einige Funktionalitäten, die diese Synopse vertiefen können, z. B. sogar die Transkription, die die Topographie der Vorlage nachbildet.103 Neue Möglichkeiten der Apparatgestaltung erprobt die genetische Herangehensweise der Faust-Edition.104 Auf der Grazer Tagung diskutierte man aber insbesondere, wie sich die durch die digitale Edition erzeugten Daten zu ihren digitalen Präsentationsformen verhalten. Digitale Editionen werden nämlich nicht nur in der Softwareumgebung benutzt, die die Editorinnen selbst erstellen bzw. in Auftrag geben. Die Benutzerinnen können auch die hinter den Softwareanwendungen stehenden Daten weiter nutzen. So hat Anna PowellSmith aus den für die Domesday Explorer CD 105 erstellten digitalen Daten des Domesday Book eine Online-Edition und z. B. eine kartographische Visualisierung der Daten erstellt. Diese Webresource ist offen für neue Anwendungen, da sie eine Webschnittstelle für den Zugriff mit Programmen, ein sogenanntes Application Programming Interface (API), bereitstellt. 106 Diese digitalen Werkzeuge zeigen, dass die Basiskodierung einer Edition in viele verschiedene Darstellungsformen gegossen und die Dokumentation der Kodierung das Aussehen von Textelementen beschreiben kann. Die Vielzahl von Funktionalitäten, die digitale Editionen mit Hilfe von HTML, CSS und JavaScript als den Standards des WWW realisieren, belegen jedoch, dass digitale Editionen einen Werkzeugkasten zur Verfügung haben, der auf die Vielfalt der editorischen Aufgaben und Textkonzepte

–––––––– 95 96 97 98 99 100 101 102 103 104 105 106

Stefan Dumont: Interfaces in Digital Scholarly Editions of Letters. In: ebd. S. 109–132. Chiara Di Pietro, Roberto Rosselli Del Turco: Between Innovation and Conservation: The Narrow Path of User Interface Design for Digital Scholarly Editions. In: ebd., S. 133–164. Joshua Schäuble, Hans Walter Gabler: Encodings and Visualisations of Text Processes across Document Borders. In: ebd., S. 165–192. Elli Bleeker, Aodhán Kelly: Interfacing Literary Genesis. In: ebd., S. 193–218. Jeffrey C. Witt: Digital Scholarly Editions and API Consuming Applications. In: ebd., S. 219–248. Hugh A. Cayless: Critical Editions and the Data Model as Interface. In: ebd., S. 249–266. Federico Caria, Brigitte Mathiak: A Hybrid Focus Group for the Evaluation of Digital Scholarly Editions of Literary Authors. In: ebd., S. 267–286. Sahle 2014 (Anm. 78), Abschnitt 4: Umsetzung und Präsentation, insbesondere 4.2 bis 4.5. Theodor Fontane: Notizbücher. Digitale genetisch-kritische und kommentierte Edition. Hrsg. von Gabriele Radecke, beta-Version 2016: https://fontane-nb.dariah.eu. Johann Wolfgang Goethe: Faust. Historisch-kritische Edition. Hrsg. von Anne Bohnenkamp, Silke Henke und Fotis Jannidis, Betaversion 2017: http://www.faustedition.net. John Palmer, George Slater, Matt Palmer: Domesday Explorer, CD-ROM. Stroud 2000. http://opendomesday.org/.

Digitale Editionspraxis. Vom pluralistischen Textbegriff zur pluralistischen Softwarelösung

135

reagieren kann. Die neuerliche Verarbeitung existierender Daten ist dabei ein Weg, der auch schon beschritten wird.

Fazit Es stehen digitale Werkzeuge für eine Vielzahl von editorischen Aufgaben zur Verfügung. Sie unterstützen nicht alle Teilaufgaben der Editionspraxis gleichermaßen gut, manche Aufgaben sind ohnehin neuartig. Die Digitalisierung der Editionspraxis hat sich bislang eher in den Fällen etablieren können, in denen die digitalen Methoden einen Vorteil gegenüber einem gedruckten Buch bieten. Die typischen Motive für digitale Editionen sind das Bedürfnis nach verbesserter Verfügbarkeit, der Umfang der darzubietenden Informationen, insbesondere das Bedürfnis zur Publikation umfangreicher Mengen von Bildern und eine Änderung des Editionsworkflows mit Vorabpublikation von Teileditionen, eine komplexe Überlieferungslage, die Anwendung von computerlinguistischen und computerphilologischen Methoden und schließlich die allgemeine Neugierde auf neue Methoden. Insbesondere die Komplexität der editorischen Problemstellung und die im Druck kaum zu bewältigende Menge an Material sind Motive für die digitale Edition des Parzival,107 der genetischen Edition der Manuskripte von Samuel Beckett,108 um nur ein paar wenige bekanntere digitale Editionsprojekte zu nennen. Digitale Editionspraxis scheint sich also auf anspruchsvolle Spezialfälle zu konzentrieren. Elena Pierazzo hat deshalb auf der Konferenz der AIUCD in Venedig 2016 gefordert, digitale Werkzeuge zu entwickeln, die auch für den philologisch ausgebildeten Nachwuchs leicht zugänglich sind, der die etablierte Editionspraxis noch einübt. 109 Sie grenzt derartige Methoden von denen ab, die Spezialisten in einem DH-Zentrum benötigen. Es brauche für diese „einfachen“ Methoden passende Software, Veröffentlichungsplattformen und Ausbildung. Der Pluralismus der Textvorstellungen in der Editionstheorie legt jedoch nahe, dass es nicht die eine einzige Editionssoftware und die eine einzige Editionsplattform geben kann, sondern sich auch etablierte digitale Editionspraxis als eine Auswahl aus dem Werkzeugkasten digitaler Methoden darstellt. Der pluralistische Textbegriff impliziert eine Vielzahl an technischen Lösungen für unterschiedliche editorische Aufgaben. Desmond Schmidt hat 2014 versucht, das Problem aus Sicht der Daten zu lösen. Er schlägt vor, sie in Versionen einfachen Volltexts, Textauszeichnung, kommentierende

–––––––– 107

108 109

Michael Stolz (Hrsg.): Parzival-Projekt. Eine neue kritische Ausgabe nach Fassungen, philologischer und phylogenetischer Analyseverfahren und Einbindung digitaler Faksimiles, 2003ff.: http://www.parzival. unibe.ch/home.html unibe.ch/home.html. Dirk Van Hulle (Hrsg.): The Beckett Digital Manuscript Project, Brüssel 2011ff.: https://www.beckett archive.org Elena Pierazzo: Quale futuro per le edizioni digitali? Dall’haute couture al prêt-à-porter. Vortrag auf der Konferenz der AIUCD 2016, Book of Abstracts (Rev. 0.1). Edizioni digitali: rappresentazione, interoperabilità, analisi del testo e infrastrutture / Digital editions: representation, interoperability, text analysis and infrastructures, edited by Federico Boschetti. Venezia 2016, S. 51–53: http://www.himeros.eu/aiucd 2016/c30.pdf.

136

Georg Vogeler

Annotationen und Metadaten zu unterteilen. 110 Diese Aufteilung würde allgemeine Softwarelösungen für digitale Editionen ermöglichen. Aus der Perspektive eines multiplen Textbegriffs scheint das auf der Seite der Textdaten Sinn zu machen. Die editorischen Aktivitäten, die sich aus den unterschiedlichen Textbegriffen ergeben, erfordern jedoch eine Vielzahl an Werkzeugen. In der industriellen Softwareentwicklung ist das Bedürfnis nach Arbeitsteilung und Wiederverwendung schon lange geläufig. Ein Vorschlag ist deshalb die Orientierung von Software an allgemein definierten Programmierschnittstellen, an die verschiedenen Teillösungen anknüpfen können. 111 Eine solche Strategie wird auch in den digitalen Geisteswissenschaften diskutiert. Joris van Zundert hat 2012 argumentiert, dass die digitalen Geisteswissenschaften nicht an großen Infrastrukturen arbeiten, sondern die von ihnen zu lösenden Aufgaben als „Micro-Services“ veröffentlichen sollten, die je nach Bedarf angefragt werden können. 112 Auch wenn die Diskussion über Datenaustauschformate wie XML/TEI manchmal die Diskussion über digitales Edieren zu dominieren scheint, zeigt die obige Bestandsaufnahme digitaler Werkzeuge, dass die interoperable Datenbasis weit besser realisiert ist, als es die Schnittstellen zwischen den verschiedenen Anwendungen sind. Es erscheint mir deshalb entscheidend, dass die Entwicklung von Editionswerkzeugen sich von den allgemeinen Prinzipien guter Softwareentwicklung leiten lässt und sie als Bausteine in einem System von öffentlich zugänglichen und dokumentierten Schnittstellen konzipiert. Die von Elena Pierazzo gewünscht Edition prêt-à-porter wäre dann eine Lösung, die für den ‚Standardeditionsfall‘ entsprechende Komponenten zusammenfügt. Aus der theoretischen Vorstellung eines pluralistischen Textbegriffs, der durch digitale Edition medial realisierbar wird, folgt nämlich nicht, das eine umfassende Editionstool zu entwickeln, sondern es den Editorinnen zu ermöglichen, die jeweils günstigen Werkzeuge für die Teilaufgaben einzusetzen, die dem sich stellenden editorischen Problem am besten gerecht werden.

–––––––– 110 111 112

Desmond Schmidt: Towards an Interoperable Digital Scholarly Edition. In: jTEI 7, 2014. URL: http://jtei.revues.org/979. Florian Cramer, Matthew Fuller: Interface. In: Software Studies: A Lexicon. Hrsg. von Matthew Fuller. Cambridge, Mass. 2008, S. 149–153. Joris van Zundert: If You Build It, Will We Come? Large Scale Digital Infrastructures as a Dead End for Digital Humanities. In: Historical Social Research 37, 2012, H. 3, S. 165–186.

Fallbeispiele

Hans Clausen / Helmut W. Klug

Schreiberische Sorgfalt: Der Einsatz digitaler Verfahren für die textgenetische Analyse mittelalterlicher Handschriften

Dieser Werkstattbericht schließt an die Vorträge und Publikationen an, die im Zuge der Jahrestagung „Textrevisionen“ der Arbeitsgemeinschaft für germanistische Edition 2016 in Graz entstanden sind. 1 Damals wurden ein Katalog der editionswissenschaftlichen Typologie für Revisionsprozesse in mittelalterlichen Handschriften erstellt und erste Möglichkeiten eruiert, wie sich dieses Wissen für die elektronische Auszeichnung von Texten mithilfe der TEI nutzen lässt.2 Auf dieser Arbeit baut dieser Beitrag auf und überführt die ursprüngliche Sammlung der Revisionsprozesse systematisiert in ein Modell von Textrevisionstypen, das für die elektronische Auszeichnung von Texten auf Basis von XML-TEI genutzt werden kann. Die Ausführungen umfassen die Situierung von Schreibprozessen im historischen Kontext mittelalterlicher Textproduktion, die Beschreibung des Modells, dessen Implementierung als Datenmodell und eine exemplarische Anwendung auf die Handschrift Graz, UB, Ms 781.

Historischer Kontext mittelalterlicher Textproduktion Um Revisionsspuren als textgenetische Merkmale im modernen Sinn interpretieren zu können, muss die Entstehung und Produktion mittelalterlicher Texte thematisiert werden: Im Mittelalter waren Autor und Schreiber eines Textes nicht zwingend dieselbe Person; die überwiegende Mehrheit der Texte wurde sogar ohne Beisein des ‚intellektuellen‘ Verfassers verschriftlicht. Dabei war der Schreibprozess in überwiegendem Maße auf die Vervielfältigung bereits verschriftlichter Texte ausgerichtet. Die Grundlage für Textproduktion war aber in jedem Falle Schreib- und/oder Lesekompetenz. Außerdem musste der Zugang zu Textmaterial vorhanden sein, und es

–––––––– 1 2

Die digitale Präsentation zu diesem Beitrag finden Sie unter: http://aau.at/musil/publikationen/ textgenese/clausen-klug/. Andrea Hofmeister-Winter: Beredte Verbesserungen. Überlieferungsphilologische Betrachtungen zu Phänomenologie und Sinnproduktion von Textrevisionen in mittelalterlichen Handschriften. In: editio. 30, 2016, S. 1–13, und Wernfried Hofmeister, Astrid Böhm, Helmut W. Klug: Die deutschsprachigen Marginaltexte der Grazer Handschrift UB, Ms 781 als interdisziplinärer Prüfstein explorativer Revisionsforschung und Editionstechnik. In: editio 30, 2016, S. 14–33, sowie das Vortragshandout von Wernfried Hofmeister, Helmut W. Klug, Astrid Böhm: Vorschläge zur TEI-Annotation von Textrevisionen basierend auf dem Versuch einer prozessorientierten Typologie mittelalterlicher Textrevisionsphänomene. Handout zum Vortrag im Rahmen der Tagung „Textrevisionen“ der Arbeitsgemeinschaft für germanistische Edition am 17.02.2016.

https://doi.org/10.1515/9783110575996-009

140

Hans Clausen / Helmut W. Klug

musste eine Nachfrage nach den abgeschriebenen Texten geben. Zu Beginn des Mittelalters fand man all diese Voraussetzungen vor allem in Klöstern. Ab dem Beginn des 13. Jahrhunderts begann die schrittweise Entwicklung von klösterlichen Schreibzentren zu städtischen und schließlich zu wirtschaftlich orientierten Schreibstuben. In der Mitte des 15. Jahrhunderts existierte mit der Werkstatt Diebold Laubers bereits ein Betrieb, der Handschriften wahrscheinlich sogar auf Vorrat anfertigte und die Produkte zum Kauf bewarb. 3

Der ‚sorgfältige‘ Text Schreiben war im Mittelalter in der Regel ein mechanischer und kein kreativer Prozess: Durch Abschreiben von Vorlagen sollten bestehende Texte vervielfältigt werden. Die Produktion eines Codex war in allen Schritten handwerkliche Tätigkeit, und eine davon war das Schreiben des Textes. Schreibkompetenz erforderte stete Übung, die schlussendlich auch die Qualität des Schreibergebnisses bestimmte: Je geübter ein Schreiber war, desto gleichmäßiger war die Schrift, die er produzierte. Die Fähigkeit, schreiben zu können, bedingte aber nicht automatisch, dass eine Person das Lesen beherrschte – und umgekehrt. Das erforderte natürlich auch eine flexible Rollenverteilung. In der Regel wurden einzelne Schritte in der Produktion eines Codex von Fachleuten ausgeführt. Unter diesen konnte sich ein Kompilator befinden, der für die Auswahl und Zusammenstellung der abzuschreibenden Texte verantwortlich zeichnete; natürlich gab es einen Schreiber, aber auch einen Rubrikator, der für die farbliche Kennzeichnung textstruktureller Merkmale mithilfe von Initialen, Lombarden oder Strichelung verantwortlich war, und einen Revisor, der allfällige Fehler im Text korrigierte – um nur einige der möglichen Beteiligten zu nennen. Mit der Zunahme der Schreib- und Lesekompetenz konnten mehrere dieser Rollen auch in einer Person zusammenfallen. Der mechanische (Ab-)Schreibprozess, das Fehlen einer direkten Autor-TextBeziehung und das Fehlen eines modernen Werk-Begriffs erschweren eine Analyse der überlieferten Texte im Sinne dessen, was in der Editionswissenschaft herkömmlich unter Textgenese verstanden wird. In der Regel haben wir keinen Einblick in die Textgenese, also in die einzelnen Stufen der Textkreation, die von der Konzeption über unterschiedliche Zwischenstufen bis hin zu einer vom Autor genehmigten Fassung reicht: Die erhaltenen Überlieferungsträger sind weder Autographe noch Originale. 4 Auch in die Entstehung der einzelnen autorunabhängigen Fassungen, d. h. der einzelnen Überlieferungsträger, haben wir nur in den seltensten Fällen einen detaillierten Einblick, doch sind zumindest die einzelnen Entstehungsstufen von der Konzeption bis hin zum fertigen Codex bekannt.5

–––––––– 3 4 5

Vgl. Christoph Fasbender: Werkstattschreiber. Aus Anlass der jüngeren Forschung zur Handschriftenproduktion Diebold Laubers. In: Das Mittelalter 7, 2002, S. 110–124, hier S. 112f. Vgl. Thomas Bein: Textkritik. Eine Einführung in Grundlagen germanistisch-mediävistischer Editionswissenschaft. Lehrbuch mit Übungsteil. 2., überarb. und erw. Aufl. Frankfurt am Main [u.a.] 2011, S. 66. Vgl. einführend z. B. Handschriften des Mittelalters. Grundwissen Kodikologie und Paläographie. Hrsg. von Matthias Kluge. 2. Aufl. Ostfildern 2015 (Mittelalterliche Geschichte).

Schreiberische Sorgfalt

141

Der Schreiber galt schon in der Antike als Mittler zwischen Autor und Rezipienten und war aufgrund seiner ‚Macht‘ über die Texte oftmals ‚gefürchtet‘. Im mittelalterlichen Literaturbetrieb ist die Rolle des Schreibers oft wichtiger als die des Autors selbst: Selbstverständlich war sich der Schreiber seiner Verantwortung dem Text gegenüber bewusst.6 In seiner Hand lag die Verantwortung für die nach seinen eigenen Maßstäben bestmögliche Vervielfältigung, und das galt nicht nur für die inhaltliche, sondern auch für die optischen Aspekte eines Textes. Dass mit der Kopie der Texte durch Menschen, wenn auch hochqualifizierten, eine (unbewusste) Veränderung des Textes einherging, war natürlich allen am Literaturbetrieb Beteiligten im Mittelalter bewusst: Ein fehlerloses Kopieren ist nicht möglich!7 Karin Schneider orientiert sich an Paul Gerhard Schmidt, wenn sie zu dieser Thematik festhält: „Je nach Persönlichkeit des Schreibers, seiner Bildung und Sorgfalt und den Umständen des Schreibvorgangs entstand beim Kopieren eines Textes eine mehr oder weniger hohe Fehlerquote; kaum eine mittelalterliche Handschrift ist ganz frei von Fehlern.“ 8 Der Prozess des Korrigierens eines vervielfältigten Textes und die Rolle des Revisors sind daher unumstößlich mit der Textproduktion verbunden, was Klaus Wachtel bereits für die byzantinische Überlieferung des Neuen Testaments feststellt, wenn er Origenes’ Schreiberkritik im Matthäus-Kommentar interpretiert: Erstens zeigt die Stelle, daß Korrektur (Diorthosis) zum sorgfältigen Kopieren eines Textes dazugehörte. Das heißt auch, daß gerade von pflichtbewußten Schreibern immer mit Fehlern gerechnet wurde, – und zwar, so dürfen wir folgern, nicht nur mit eigenen, sondern auch mit denen des Schreibers, der die Vorlage gefertigt hatte. 9

Schreiberschelte und Schreiberidealisierungen ziehen sich als eine Art Topos durch die Texte der Antike und des Mittelalters. 10 Die Ursachen für eine fehlerhafte Textproduktion sind mannigfaltig: Fehler können beim Lesen der Vorlage auf Wort- oder Zeilenebene auftreten. Hörfehler passieren in

–––––––– 6

7

8

9

10

Vgl. Jürgen Wolf: Das „fürsorgliche“ Skriptorium. Überlegungen zur literarhistorischen Relevanz von Produktionsbedingungen. In: Das Mittelalter 7, 2002, S. 92–109. Wolf gesteht die verantwortungsbewusste Haltung nur einigen wenigen Skriptorien zu und skizziert auch die Figur des „nachlässigen Schreibers“ (ebd., S. 99–101). Als „fehlerfrei“ und „nahezu fehlerfrei“ erscheinen nach dem Lachmannschen Modell der Textüberlieferung nur Original und Archetyp (vgl. Bein 2011 Anm. 4, S. 81). Ein Beispiel aus der Praxis: „ Wenngleich Hand I den Text sorgfältig und nahezu ohne fehlerhafte Buchstabenstellungen oder einschneidende, sinnentstellende Fehler abgeschrieben hat, so ist der Text jedoch – wie fast keine mittelalterliche Handschrift – keineswegs vollständig fehlerfrei“. Mareike Temmen (Hrsg.): Das ‚Abdinghofer Arzneibuch‘. Edition und Untersuchung einer Handschrift mittelniederdeutscher Fachprosa. Köln, Weimar, Wien 2006 (Niederdeutsche Studien. 51), S. 69. Zur psychologischen Aspekten von Fehlern und deren Korrektur vgl. Hofmeister-Winter 2016 (Anm. 2), S. 6. Karin Schneider: Paläographie und Handschriftenkunde für Germanisten. Eine Einführung. 3. durchges. Aufl. Tübingen 2014 (Sammlung kurzer Grammatiken germanischer Dialekte B, Ergänzungsreihe. 8), S. 149. Klaus Wachtel: Varianten in der handschriftlichen Überlieferung des Neuen Testaments. In: Varianten – Variants – Variantes. Hrsg. von Christa Jansohn und Bodo Plachta. Tübingen 2005 (Beihefte zu editio. 22), S. 25–38, hier S. 30. Vgl. idealisierende Vorstellungen bei Wolf 2002 (Anm. 6), S. 95, und das ambivalente Verhältnis – zwischen Lob und Tadel – zu Schreibern in deutschsprachigen Überlieferungen auf S. 102.

142

Hans Clausen / Helmut W. Klug

Vorlese- bzw. Diktatsituationen. Es können ungünstige Schreibsituationen in Bezug auf Material oder Licht herrschen. Müdigkeit führt zu Fehlern, und Gleiches gilt auch für inhaltliche Missverständnisse im Zuge der Textrezeption oder in der Kommunikation der Beteiligten. Fehlerquellen sind aber natürlich auch der bisweilen recht freie Umgang mit der Vorlage und der fehlende Respekt vor der Autorität eines Autors oder eines Werks.11 All diese Fehler können in unterschiedliche Fehlertypen, denen man auch prototypische Entstehungsszenarien zuordnen kann, eingeteilt werden: grammatikalische und orthografische Fehler, Fehler im Textfluss (Auslassungen, Doppelungen), semantische Abweichungen (Umstellungen, Änderungen) oder Beschädigungen. Unter der Annahme, dass es in jedem Fall das Ziel war, ein bestmögliches Endprodukt abzuliefern,12 entstanden unterschiedliche Revisionssituationen, um Fehler möglichst schonend zu verbessern. Das Ziel eines Revisionsprozesses ist in der Regel also wohl immer die Verbesserung eines bereits geschriebenen Textes. Textrevisionen überführen somit den regulären Text in zeitlicher Abfolge nach dem eigentlichen Schreibprozess in einen neuen Zustand bzw. schaffen einen neuen, ‚verbesserten‘ Text. Zu beachten ist dabei allerdings, dass die Anzahl der Revisionen keine Aussage über die Qualität eines Textes macht, sondern nur über den Aufwand (die Arbeit, die Mühe), mit dem ein erster Textzustand in einen zweiten, verbesserten überführt worden ist. Da die Revisionsintention immer die Verbesserung eines auf irgendeine Weise fehlerhaften Textes war, könnten Revisionen als Indikator für jene ‚Sorgfalt‘ gewertet werden, die einem Text im Zuge der Produktion zuteilwurde. Andrea Hofmeister sieht diese Sorgfalt zurecht als einen integralen Bestandteil des Schreiber- bzw. Revisorprofils,13 und Sorgfalt ist auch eines der Kriterien, die nach Thomas Bein EditorInnen bei der Wahl einer Leithandschrift anleiten sollte. 14 Daher werden Revisionsspuren laut Kurt Gärtner und Werner J. Hoffmann in der Regel positiv zur Kenntnis genommen: „Die Hs. ist von einer weiteren Hand – neben der des Hauptschreibers – vollständig durchkorrigiert und zeichnet sich damit auch durch Sorgfalt im Detail aus.“15 Katharina Philipowski interpretiert in ihrer Beschreibung der Heidelberger Liederhandschrift Textrevisionen explizit als Kennzeichen für eine sorgfältige Produktion: „Zahlreiche Textkorrekturen und Nota-Zeichen wechselnder Form dokumentieren die Sorgfalt, mit der die Handschrift hergestellt wurde.“ 16 In der Edition des Abdinghofer Arzneibuchs werden die akribischen Verbesserungen ähnlich gewertet:

–––––––– 11

12 13 14 15

16

Als Beispiel für ‚respektlose‘ (das wiederum ist eine Wertung aus moderner Perspektive!) Eingriffe in die Vorlage: Martin Baisch: Gott lert den man daz er sy / Mit truwen sinem dienner by. Gabriel Sattler, der sprechende Schreiber. In: Das Mittelalter 7, 2002, S. 74–91, hier S. 86. So sind nach Schneider auch die Textsorte und der intendierte Verwendungszweck von Relevanz; vgl. Schneider 2014 (Anm. 8), S. 150, ähnlich auch Wolf 2002 (Anm. 6), S. 93. Vgl. Hofmeister-Winter 2016 (Anm. 2), S. 12. Vgl. Bein 2011 (Anm. 4), S. 189f. Konrad von Heimesfurt: „Unser vrouwen hinvart“ und „Diu urstende“. Hrsg. von Kurt Gärtner und Werner J. Hoffmann. Mit Verwendung der Vorarbeiten von Werner Fechter. Tübingen 1989 (Altdeutsche Textbibliothek. 99), S. XXXVII. Katharina Philipowski: Heidelberger Liederhandschrift Cod. Pal. germ. 350. In: Deutsches LiteraturLexikon: Das Mittelalter. Bd. 4: Lyrik (Minnesang – Sangspruch – Meistergesang) und Dramatik. Hrsg. von Wolfgang Achnitz. Berlin 2012, Sp. 559.

Schreiberische Sorgfalt

143

Daß aber die Korrekturen auch im zweiten Arzneibuchteil mit einem gewissen Maß an Sorgfalt ausgeführt wurden, belegt die Streichung eines redundanten Nasalkürzels (fol. 190v), die Tilgung einzelner Buchstabenschäfte (fol. 175v, 191r) und nicht zuletzt die Korrektur eines falsch deklinierten Pronomens (fol. 209r). 17

Auch die Paläografie verwendet den Begriff der Sorgfalt, werden doch die Hauptschriftarten des Spätmittelalters im Beschreibungsmodell von Gerard Isaak Lieftink nach ihrem Grad an Sorgfältigkeit unterschieden. 18 Der Terminus ist zudem ein gängiger Begriff in der paläografischen Beschreibung von Schreiberhänden, wie etwa bei Trude Ehlert: Diese Schreiber lassen unterschiedliche Sorgfalt erkennen. Die Rezepte des ersten Schreibers sind recht gut zu lesen, da er eine gewisse Sorgfalt beim Schreiben an den Tag legt. […] Die Handschrift des zweiten Schreibers ist etwas schwieriger zu lesen. Die einzelnen Wörter und Buchstaben sind aber noch gut zu identifizieren. Die Rezepte des dritten Schreibers hingegen sind zum Teil nur schwer zu lesen. Dieser Schreiber schreibt sehr viel größer, aber auch mit sehr viel weniger Sorgfalt. […] Oft stehen einzelne Buchstaben oder Silben sehr weit auseinander, wodurch die Lesbarkeit noch zusätzlich erschwert wird. 19

Das Charakteristikum ‚Sorgfalt‘ – der Wunsch nach dem ‚sorgfältigen Text‘ – ist bei der mittelalterlichen Textproduktion also nicht nur an den Prozess der Textrevisionen gebunden! Durch den Fokus auf die Textproduktion und den produzierten Text steht bei unserem Untersuchungsmodell die Sorgfalt in der Texterstellung (also nicht die Sorgfalt des Schriftbildes) und das eigentliche Produktionssetting im Mittelpunkt. Darunter verstehen wir die Abläufe im Rahmen der Textproduktion: die eigentlichen Schreibund Revisionsprozesse, eine mögliche Abfolge dieser Prozesse, die damit verbundenen materiellen Aspekte. Die von uns zugrunde gelegten Hypothesen bestehen darin, dass man aus der Performanz des Schreibers Rückschlüsse auf die Sorgfalt bei der Textproduktion ziehen und damit auch Annahmen zum Stellenwert, der dem Text beigemessen wurde, treffen kann. Die Untersuchungsergebnisse können in das Produktionsprofil einfließen, das sich aus den gängigen Größen ‚Schreiberprofil‘ bzw. ‚Revisorprofil‘ zusammensetzt, denn es gibt nicht nur charakteristische Schreibmuster wie z. B. das Setzen von bestimmten Superskripten, die bevorzugte Verwendung gewisser Kürzungszeichen bzw. Kürzungen oder typische Wortbilder, sondern auch die Korrektur von Fehlern weist Charakteristika auf. Diese können zeittypisch sein – wie z. B. die Expungierung 20 – oder typisch für ein bestimmtes Skriptorium bzw. eine bestimmte

–––––––– 17 18 19

20

Temmen 2006 (Anm. 7), S. 69. Schneider 2014 (Anm. 8), S. 17. Trude Ehlert (Hrsg.): Münchner Kochbuchhandschriften aus dem 15. Jahrhundert. Cgm 349, 384, 467, 725, 811 und clm 15632. In Zusammenarbeit mit Gunhild Brembs, Marianne Honold, Daniela Körner, Jörn Christoph Krüger, Robert Scheuble, Mirjam Schulz, Christian Suda und Monika Ullrich. Im Auftrag von Tupperware Deutschland. Donauwörth 1999, S. 230. Schneider 2014 (Anm. 8), S. 149.

144

Hans Clausen / Helmut W. Klug

Person. Andrea Hofmeister bringt diese Überlegungen zum Produktionsprofil präzise auf den Punkt: Sie [die Textrevisionen] gewähren Einblick in die Dynamik der Überlieferung, indem sie das Bemühen um Optimierung eines Textes hinsichtlich sprachlicher Form, Sinn und einer situationsangepassten Ästhetik dokumentieren. Ihre Rezipientenorientierung ist ganz darauf ausgerichtet, eine funktionierende Kommunikation und eine flüssige Performanz (durch Vorlesen) zu gewährleisten. Deutlicher als makellos geratene Schreibprodukte geben Revisionen entstehungs- und überlieferungsgenetische Prozesse preis und lassen Rückschlüsse auf Überlieferungsszenarien (Diktat oder Abschrift nach schriftlicher Vorlage?) sowie auf die Gebrauchs- und Überlieferungssituation von Texten zu.21

Modell von Textrevisionen Die Repräsentation von Textrevisionen in einem Modell verfolgt im Kern zwei Ziele: Einerseits soll das Modell durch die Repräsentation der Textrevisionen das oben beschriebene „Bemühen um Optimierung eines Textes“,22 d. h. die bei der Textproduktion aufgewendete Sorgfalt, abbilden. Anderseits soll das Modell Rückschlüsse auf unterschiedliche Produktionsprofile ermöglichen, indem es die konkreten Realisierungen der Textrevisionen typologisch abbildet. Sowohl die Identifikation von Textrevisionen als auch deren typologische Bestimmung basiert auf den visuellen Eigenschaften bestimmter Ausschnitte des materiellen Textzeugen. Die Überarbeitung des Textes hin zu einem verbesserten Zustand hinterlässt in der Regel visuelle Spuren, die sich vom regulär erwarteten Zeichen- und Zeilenbild des Textes abheben und als Textrevisionen identifizierbar sind. Ausgehend von den unterschiedlichen Ausprägungen dieser visuellen Spuren an der Oberfläche des Textträgers lassen sich für Textrevisionen Klassen und Oberklassen bilden. Die Klassenbildung des Modells von Textrevisionen wird geleitet von dem oben skizzierten Wissen über den historischen Kontext mittelalterlicher Textproduktion. Sie verläuft vom konkreten visuellen Muster in einer mehrstufigen Hierarchie hin zu den fünf verschiedenen Revisionsarten Einfügung, Tilgung, Umstellung, Transformation und Ersetzung. Die Bezeichnung der gebildeten Klassen folgt dem editionswissenschaftlichen Fachvokabular. 23 Im Ganzen zeigt sich das Modell als eine polyhierarchische Klassenstruktur, anhand derer Textrevisionen feingranular typologisiert werden können. 24 Punkte über oder unter einer Textzeile lassen sich z. B. als Expungierung identifizieren, die neben der Schwärzung und Streichung einen Schreibvorgang impliziert, der selbst wiederum neben der Rasur, der Bleichung, der Überklebung und der Ausschneidung eine mögliche Methode des Revisors darstellt, um bestehende Textzeichen zu tilgen. Auf oberer Ebene wird das visuelle Phänomen ‚Punkte unter einer Zeile‘ daher der

–––––––– 21 22 23 24

Hofmeister-Winter 2016 (Anm. 2), S. 12. Ebd. Vgl. die entsprechenden Lemmata im Online-Wiki, Revisionshandlung, http://edlex.de/, 12.02.2018, 17:11. Vgl. die grafische Darstellung des Modells unter: https://www.mindmeister.com/1086040498.

Schreiberische Sorgfalt

145

Textrevisionsart Tilgung zugeordnet. Abb. 1 wie alle folgenden Abb. unter http://aau.at/musil/publikationen/textgenese/clausen-klug/. Textrevisionen überführen einen Text in einen neuen Zustand – zum Zweck einer Textoptimierung. Dies erfolgt in der Regel, indem sie dem bestehenden Text Textzeichen hinzufügen oder vorhandene Textzeichen wegnehmen, neu organisieren oder verändern. Ausgehend von diesen unterschiedlichen Funktionen lässt sich die Klasse der Textrevisionen in folgende fünf Oberklassen untergliedern: – – – – –

Einfügung: Eine Einfügung ist eine Hinzufügung von Textzeichen zum bestehenden Text (Abb. 2). Tilgung: Eine Tilgung ist eine Wegnahme von Textzeichen des bestehenden Textes (Abb. 3–6). Umstellung: Eine Umstellung ist eine Reorganisation von Textzeichen des bestehenden Textes. Transformation: Eine Transformation ist eine Veränderung von Textzeichen des bestehenden Textes (Abb. 7–9). Ersetzung: Eine Ersetzung ist eine Kombination aus einer Wegnahme von Textzeichen einerseits und einer Hinzufügung von Textzeichen zum bestehenden Text anderseits. Während die Hinzufügung dabei stets durch den Revisor erfolgt (Einfügung), kann die Wegnahme von Textzeichen aufgrund einer Beschädigung des Textträgers durch höhere Gewalt (Beschädigung) oder durch den Revisor geschehen (Tilgung). Als Spezialfall einer ‚Wegnahme‘ von Textzeichen kommt außerdem eine Leerstelle infrage, die der Schreiber zum Zweck ihrer späteren Füllung bewusst im Text hinterlässt (Lücke) (Abb. 10–12).

Im Unterschied zu den ersten vier Oberklassen von Textrevisionen handelt es sich bei einer Ersetzung nicht um eine einteilige, sondern um eine zweiteilige Textrevision; zweiteilig in dem Sinne, als von allen Textzeichen, die einer Ersetzung zugeordnet sind, ein Teil der Wegnahme von Textzeichen (Beschädigung, Tilgung, Lücke) zugeordnet ist und ein Teil der Hinzufügung von Textzeichen (Einfügung). Die genannten fünf Oberklassen von Textrevisionen gliedern sich in Unterklassen auf, die wiederum selbst Unterklassen haben können, usw. Diese bilden die Eigenschaften der Textrevisionen auf feingranularer Ebene ab. So spezifizieren die Unterklassen z. B. die Lokalisierung, das verwendete Werkzeug und die individuelle Gestaltung von Textrevisionen. Die Eigenschaften der jeweiligen Klassen orientieren sich am editionswissenschaftlichen Wissen über Textrevisionen. 25 Während die Oberklassen Tilgung, Umstellung und Transformation monohierarchisch sind, d. h. jede vorkommende Unterklasse ist genau einer Oberklasse zugeordnet, ist die Klasse Einfügung polyhierarchisch, d. h. es existieren Unterklassen, die mehreren Oberklassen zugeordnet sind.

–––––––– 25

Für die genauen Definitionen der einzelnen Klassen unseres Modells vgl. die SKOS-Datei auf GitHub: https://github.com/larifarian/Annotationsmodell-Textgenese.

146

Hans Clausen / Helmut W. Klug

Implementation als Datenmodell Die folgende Implementation des Modells von Textrevisionen als Datenmodell ermöglicht eine computergestützte Verarbeitung und Auswertung von Textrevisionen. Texte, die nach den Vorgaben dieses Datenmodells elektronisch ausgezeichnet werden, lassen sich hinsichtlich ihrer Sorgfalt und ihres Produktionsprofils ohne großen Aufwand mit statistischen Methoden analysieren. Die elektronische Auszeichnung von Texten nach den Empfehlungen der TEI ist in den Geisteswissenschaften und der digitalen Editorik weit verbreitet. Die Übertragung des vorgestellten Modells auf die Struktur von TEI verfolgt das Ziel, Textrevisionen innerhalb von TEI-Dokumenten typologisch repräsentieren zu können. Die Veränderung von Texten durch Textrevisionen ist im Kern eine Veränderung ihres Textzeichenbestands. Die Identifikation und typologische Bestimmung der Textrevisionen einerseits und die den Textrevisionen zugrundeliegende Textzeichen andererseits sollen in der elektronischen Auszeichnung miteinander verknüpft werden. Dies lässt sich mit einer Auszeichnung nach dem XML-basierten TEI-Standard realisieren. Nachstehend wird mit der integrierten Auszeichnungspraxis ein TEI-konformes Regelwerk vorgestellt, das es seinen Anwendern nicht nur erlaubt, vorhandene Textrevisionen typologisch zu bestimmen, sondern diese auch an den transkribierten Textzeichenbestand feingranular rückzubinden. Außerdem wird mit der vereinfachten Auszeichnungspraxis ein TEI-konformes Regelwerk vorgestellt, das zwar keine feingranulare Verknüpfung von Textzeichen und Textrevision, jedoch eine vollständige typologische Bestimmung von Textrevisionen ermöglicht. 26 Um dem Paradigma der XML-basierten Textauszeichnung zu folgen, müssen diejenigen Textzeichen, die einer Textrevision zugeordnet werden, von XML-Tags umschlossen und damit in ein XML-Element umgewandelt werden. Im engen Sinne werden der Textrevision diejenigen Textzeichen zugeordnet, die hinzugefügt, weggenommen, neu organisiert oder verändert wurden – gemäß den fünf Oberklassen Einfügung, Tilgung, Umstellung, Transformation, Ersetzung. Handelt es sich dabei um einzelne Textzeichen, sind diese besonders interessant im Kontext ihres zugehörigen ganzen Wortes. Im weiten Sinne wird einer Textrevision daher auch dasjenige Wort (bzw. dessen Textzeichen) zugeordnet, das durch die Textrevision im engen Sinne modifiziert wurde (oberste Klasse Textrevision). Die Textrevision im engen und die Textrevision im weiten Sinne sollen mithilfe von TEI-Elementen als eine Einheit ausgezeichnet werden. In der XML-Repräsentation zeigen sich Textrevisionen daher stets in Form von mindestens zwei ineinander verschachtelten XML-Elementen: Wort< /Textrevision_weit>

–––––––– 26

Vor dem Hintergrund, dass eine möglichst detaillierte Übertragung einer Quelle in eine elektronische Version anzustreben ist, entsteht mit dieser Auszeichnungsvariante allerdings der Nachteil, dass nur ein Teil der vorhandenen Textinformationen übernommen wird.

Schreiberische Sorgfalt

147

Die Auswahl der XML-Elemente ist grundsätzlich der Auszeichnungspraxis des Editors anheimgestellt. Die Richtlinien der TEI empfehlen folgende Auszeichnung: –

Textrevision im weiten Sinne: o Textrevision [Textrevision im engen Sinne | Die übrigen Textzeichen]



Textrevisionen im engen Sinne: o Einfügung [Textzeichen] o Tilgung [Textzeichen] o Umstellung [Textzeichen] o Transformation [Textzeichen] o Ersetzung ▪ Kombination aus Beschädigung und Einfügung • [Textzeichen]27 [Textzeichen]

▪ Kombination aus Tilgung und Einfügung • [Textzeichen] [Textzeichen]

▪ Kombination aus Lücke und Einfügung • 28 [Textzeichen]

Da eine Ersetzung stets eine Kombination aus einer Wegnahme und einer Hinzufügung von Textzeichen ist, enthält das Element (Ersetzung) stets zwei KindElemente; je nach vorliegendem Fall (Beschädigung) und (Einfügung), (Tilgung) und (Einfügung) oder (Lücke) und (Einfügung). Indem dem Eltern-Element zwei Kind-Elemente zugeordnet werden, wird die Zweiteiligkeit des Textrevisionstyps Ersetzung XMLkonform repräsentiert.

–––––––– 27

28

Beschädigungen () sind nach den Empfehlungen der TEI nicht Teil einer Ersetzung (). Unserem Verständnis nach stellen Beschädigungen jedoch eine Wegnahme von Text dar, der durch den Revisor durch Hinzufügung ersetzt wird. Daher erweitern wir das TEI-Schema so, dass eine Beschädigung als Teil einer Ersetzung erlaubt ist. Vgl. dazu die ODD-Datei auf GitHub: https://github.com/larifarian/Annotationsmodell-Textgenese. Lücken () sind nach den Empfehlungen der TEI nicht Teil einer Ersetzung (). Unserem Verständnis nach stellen Lücken jedoch eine „Wegnahme“ von Text dar, der durch den Revisor durch Hinzufügung ersetzt wird. Daher erweitern wir das TEI-Schema so, dass eine Lücke als Teil einer Ersetzung erlaubt ist. Vgl. dazu die ODD-Datei auf GitHub: https://github.com/ larifarian/Annotationsmodell-Textgenese.

148

Hans Clausen / Helmut W. Klug

Da sich die Typologie von Textrevisionen nach unserem Modell mithilfe der Vorschläge der TEI für textgenetische Auszeichnung nur eingeschränkt repräsentieren lässt, schlagen wir folgende TEI-konforme Auszeichnungspraxis vor: 1. Die typologische Bestimmung der Textrevisionen geschieht über den Wert des TEI-Attributs @ana. 2. Die Klasse, der eine Textrevision angehört, wird über ein Kürzel aus 2 Buchstaben referenziert. Z. B. wird die Klasse Expungierung mit dem Kürzel ‚EP‘ referenziert: ana="EP".29 3. Da es sich bei unserem Modell von Textrevisionen um eine polyhierarchische Struktur handelt, ist es notwendig, die komplette Klassenhierarchie und nicht nur die unterste Klasse einer Textrevision anzugeben. Andernfalls wären viele Typen von Textrevisionen unterbestimmt. 4. Die Referenzierung aller Ober- und Unterklassen einer Textrevision wird in einer Reihenfolge von links nach rechts vorgenommen, wobei von der übergeordneten Klasse zur untergeordneten Klasse hin ausgezeichnet wird. Die einzelnen Klassenreferenzen werden durch einen Punkt voneinander getrennt. Die vollständige typologische Bestimmung einer Expungierung hat z. B. folgende Form: ana="TR.DL.WR.EP". Je nach ihrer Position in der Klassenhierarchie des Modells lassen sich Klassen entweder der Textrevision im weiten Sinne oder der Textrevision im engen Sinne zuordnen. Um diese Zuordnung der Klassen im TEI-Dokument zu repräsentieren, wird die Klasse Textrevision (TR) im @ana-Attribut desjenigen Elements referenziert, das die Textrevision im weiten Sinne auszeichnet (), und die fünf Oberklassen (Einfügung (IN), Tilgung (DL), Umstellung (RO), Transformation (TF) und Ersetzung (RP)) werden im @ana-Attribut derjenigen Elemente referenziert, welche die Textrevisionen im engen Sinne auszeichnen (, , , , ). Beispiel 1: Die integrierte Auszeichnung einer Tilgung hat z. B. folgende Form:

gahet (Abb. 13)

Beispiel 2: Die integrierte Auszeichnung einer Ersetzung hat z. B. folgende Form:

margre margarete

(Abb. 14)

–––––––– 29

Für die anderen Klassenkürzel vgl. die SKOS-Datei auf GitHub: https://github.com/larifarian/Annota tionsmodell-Textgenese.

Schreiberische Sorgfalt

149

In der vereinfachten Auszeichnungspraxis wird nur der Typ einer Textrevision bestimmt, ohne seine Klassen feingranular an die zugrundliegenden Textzeichen rückzubinden. Wir schlagen dafür folgende Auszeichnungspraxis vor: 1. Die Textrevision im weiten Sinne wird mit dem Element ausgezeichnet. 2. Der Typ der Textrevision wird im @ana-Attribut des Elements , wie oben beschrieben, referenziert. Im Falle einer Ersetzung werden stets zuerst diejenigen Klassen (inklusive ihrer Unterklassen) referenziert, die Textzeichen wegnehmen (Beschädigung, Tilgung, Lücke). Danach wird die Klasse Einfügung (inklusive ihrer Unterklassen) referenziert. Beispiel 1: Die vereinfachte Auszeichnung einer Tilgung hat z. B. folgende Form: gaht (Abb. 13) Beispiel 2: Die vereinfachte Auszeichnung einer Ersetzung hat z. B. folgende Form: margarete (Abb. 14) Die unterschiedlichen Typen der Textrevisionen eines Textes können über eine Zeichenkette eindeutig identifiziert werden. Diese Zeichenkette entspricht folgendem Muster: TR.RP.DL.WR.ST.IN.LI Im Falle der integrierten Auszeichnungspraxis lässt sich der Identifikator für den Textrevisionstyp mit folgendem Algorithmus aus den Werten der @ana-Attribute der Elemente einer Textrevision erzeugen: Die Werte der @ana-Attribute der Elemente werden bis auf die Ausnahme einer Ersetzung () nach der Knotenreihenfolge der XML-Struktur ausgelesen und zusammengesetzt. Im Falle einer Ersetzung werden die Werte der @ana-Attribute der Elemente , und stets vor dem Attributwert des Elements ausgelesen – unabhängig davon, wie die Reihenfolge der Elemente im XML-DOM30 ist. Wenn zwischen den Buchstaben verschiedener Klassenreferenzen kein Punkt existiert, wird dieser eingefügt. Im Falle der vereinfachten Auszeichnungspraxis kann der Identifikator direkt aus dem @ana-Attribut des Elements ausgelesen werden.

–––––––– 30

Der XML-DOM repräsentiert XML-Dateien als Baumstruktur, deren Elemente in einer definierten Reihenfolge vorliegen.

150

Hans Clausen / Helmut W. Klug

Beispiel einer Auswertung Als Anwendungsbeispiel des vorgestellten Datenmodells haben wir die Handschrift Graz, UB, Ms 781 nach der integrierten Auszeichnungspraxis als TEI-Dokument codiert.31 Mithilfe eines XSLT-Programms 32 wurden anschließend die Typen aller ausgezeichneten Textrevisionen automatisiert ermittelt und nach der Häufigkeit ihres Vorkommens sortiert. Die so generierte Tabelle zeigt alle Textrevisionen, die im Zuge der Produktion der Grazer Handschrift vorgenommen worden sind, als typenspezifische Rangfolge. Unter den Textrevisionstypen finden sich auch sogenannte komplexe Revisionsvorgänge; das sind Textrevisionen, die selbst wieder revidiert worden sind. In der Übersicht zeigt sich dieser Typ als eine Aneinanderreihung einzelner Identifikatoren: RP.DL.BL.IN.MM.IL.AV.DL.BL (Abb. 15). Diese Zeichenkette beschreibt z. B. einen Ersetzungsvorgang, dessen Einfügung in einem weiteren Schritt wieder getilgt worden ist.33 Auf Basis dieser quantitativen Darstellung lassen sich bereits erste Interpretationen zum Produktionsprofil der Handschrift vornehmen: Das geringe Vorkommen von Revisionen des Typs IN.LI (Einfügung innerhalb der Zeile) zeigt z. B., dass Revisionen während der Niederschrift des Textes kaum vorgenommen wurden. Das vermehrte Auftreten von Transformationen am bestehenden Zeichenmaterial (TF.CO.RD, TF.CO.AD etc.) sowie das Fehlen von Einfügungen am rechten oder linken Seitenrand (##.##.MG.RG, ##.##.MG.LF) bestärken den Eindruck, dass bei der Revision des Textes Wert auf die Wahrung eines ‚schönen‘ Layouts gelegt wurde. Die komplexen Revisionsvorgänge lassen vor dem Hintergrund ihrer jeweiligen Realisierungen erweiterte Interpretationen der Textproduktion zu. Neben dieser inhaltlichen Interpretation ließe sich die Handschrift auf Basis der quantitativen Auswertung mithilfe statistischer Methoden hinsichtlich Sorgfalt und Produktionsprofil analysieren. So lassen sich Aussagen über die Verteilungsfrequenz von Revisionen innerhalb der Handschrift machen – gibt es Bereiche in der Quelle, die verstärkt Textrevisionen aufweisen? – oder für zukünftige Projekte Gestaltungsnormen über ein Quellenkorpus hinweg analysieren – wie verändern sich Revisionsmethoden im Laufe der Zeit? Kann man bestimmte Methoden lokal oder zeitlich einordnen?

Conclusio und Ausblick Der vorliegende Artikel gibt einen kurzen Überblick zur Textproduktion im Mittelalter und beschreibt im Detail die Erstellung eines Modells von Textrevisionstypen und dessen praktische Anwendung für die elektronische Repräsentation und Analyse mittelalterlicher handschriftlicher Quellen. Zusammenfassend kann festgestellt werden, dass die elektronische Auszeichnung von Revisionsvorgängen auf Basis unseres Modells

–––––––– 31 32 33

Vgl. die TEI-Datei zur Handschrift Graz, UB, Ms 781 auf GitHub: https://github.com/larifarian/ Annotationsmodell-Textgenese. Vgl. die XSLT-Datei auf GitHub: https://github.com/larifarian/Annotationsmodell-Textgenese. Alternativ ließen sich komplexe Revisionsvorgänge auch als mehrere einzelne Textrevisionen interpretieren und automatisiert ausgeben.

Schreiberische Sorgfalt

151

ein großes Potential in sich birgt: Am Beispiel der Handschrift Graz, UB, Ms 781 konnten wir sowohl die Verteilung als auch die typenspezifische Häufigkeit von Revisionen in einem Text automatisiert ermitteln. Dies stellt die Grundlage für fachwissenschaftliche Interpretationen und statistische Analysemethoden dar. Die geleistete Arbeit soll als Ausgangspunkt für weitere Entwicklungsschritte dienen: Das Modell der Textrevisionstypen sollte so modifiziert werden, dass eine textgenetische Analyse auch für Texte aus anderen Epochen möglich wird. Weiters ist es notwendig zu evaluieren, inwiefern mit statistischen Methoden Hypothesen über die Sorgfalt und das Produktionsprofil von Texten überprüft werden können.

Héctor Canal

Briefkonzepte im digitalen Medium Zur Darstellung komplexer Überlieferung in der Edition Johann Wolfgang von Goethe. Briefwechsel mit Friedrich Wilhelm Riemer

Zur Ausgabe des Goethe-Riemer-Briefwechsels1 Im Goethe- und Schiller-Archiv (GSA) in Weimar wurde im Februar 2013 mit der Arbeit an der als Hybridausgabe angelegten historisch-kritischen Edition Johann Wolfgang von Goethe. Briefwechsel mit Friedrich Wilhelm Riemer begonnen. Sie steht nun kurz vor dem Abschluss. Die Online-Präsentation wird 2019 freigeschaltet und über die Online-Ressourcen des GSA zugänglich sein. 2 Hauptziel des Projekts ist die erste wissenschaftliche Gesamtausgabe der knapp 500 Stücke umfassenden Korrespondenz zwischen Goethe und dem Philologen Friedrich Wilhelm Riemer (1774–1845), der von September 1803 bis zum Tod Goethes im März 1832 einer seiner wichtigsten Mitarbeiter war. 3 Dieser Briefwechsel zeichnet sich durch seine Diskontinuität, die dem regelmäßigen direkten Kontakt in Weimar geschuldet war, und den dezidiert pragmatischen Charakter der Kommunikation zwischen den Briefpartnern aus. In dieser Arbeitskorrespondenz wurden sprachliche und formale Fragen zu Goethes Werken thematisiert, stilistische und metrische Details besprochen und geklärt. Der als pedantisch geltende Riemer wurde zunächst als Lehrer für Goethes Sohn August engagiert (1803–1808), blieb danach als Sekretär und Hausgenosse am Frauenplan (bis 1812) und während seiner Zeit als Gymnasialprofessor (1812–1821) und Bibliothekar (ab 1814) ein enger Mitarbeiter und Lektor Goethes. Riemer brachte nicht nur seine umfassenden Kenntnisse in seinem Spezialgebiet, der Altphilologie und Altertumskunde, in Goethes Schreibstube ein, sondern auch seine Experimentierfreude in naturwissenschaftlichen Fächern, die er sich während des Zusammenlebens mit seinem Arbeitgeber

–––––––– 1 2

3

Die digitale Präsentation zu diesem Beitrag finden Sie unter: http://aau.at/musil/publikationen/text genese/canal/. Johann Wolfgang Goethe. Briefwechsel mit Friedrich Wilhelm Riemer. Historisch-kritische Ausgabe. Im Auftrag der Klassik Stiftung Weimar/Goethe- und Schiller-Archiv hrsg. von Héctor Canal, Jutta Eckle und Florian Schnee, https://ores.klassik-stiftung.de/ords/f?p=408. Das Projekt wird von der Klassik Stiftung Weimar betreut und von der Deutschen Forschungsgemeinschaft (DFG) finanziert. Zu den Hintergründen, Prinzipien und technischen Grundlagen dieser Edition vgl. Jutta Eckle, Nadezhda Petrova: „Wenigstens erlauben Ew Excellenz daß ich bey zu hoffender baldiger Zurückkunft auf dieses Thema das Gespräch lenken darf.“ Zur Konzeption der neuen Edition Johann Wolfgang von Goethe. Briefwechsel mit Friedrich Wilhelm Riemer (Hybridausgabe). In: editio 27, 2013, S. 112–123.

https://doi.org/10.1515/9783110575996-010

154

Héctor Canal

aneignete. Goethe war für Riemers „Asterisken und Obelisken“,4 also für seine akribische Lektüre und für seine Verbesserungsvorschläge dankbar, freute sich aber auch über seine Denkanstöße.5 Aufgrund der vertrauensvollen Arbeitsbeziehung und der philologischen Kenntnisse Riemers setzte Goethe ihn als Verwalter seines literarischen Nachlasses ein. 6 Nach Goethes Tod war Riemer Mitherausgeber der Nachtragsbände der Vollständigen Ausgabe letzter Hand, 7 Herausgeber der Briefwechsel mit Zelter 8 und Knebel9 und profilierte sich als unermüdlicher Bewahrer von Goethes Andenken.10 Die Ausgabe des Goethe-Riemer-Briefwechsels gründet editionsphilologisch auf der neuen historisch-kritischen Ausgabe von Goethes Briefen 11 und übernimmt die dort bewährte Form der Textdarbietung und Apparatgestaltung, die Prinzipien der Variantenverzeichnung und Kommentierung. 12 Im Unterschied zu der (noch) als Printausgabe

–––––––– 4

5

6

7 8 9

10

11

12

So Goethes Ausdruck in den Briefen an Riemer vom 10. November 1812 (WA IV 23, S. 129) und vom 28. März 1816 (WA IV 26, S. 319). (WA = Goethes Werke. Hrsg. im Auftrage der Großherzogin Sophie von Sachsen. 143 Bde. Weimar 1887–1919). Zu Riemers eigenständigen Leistungen vgl. Ida Hakemeyer: Riemers Bearbeitung des Ur-Elpenor. Phil. Diss. Göttingen 1944; [Renate Fischer-Lamberg]: Aus dem Riemernachlaß. In: Goethe. N.F. des Jahrbuchs der Goethe-Gesellschaft 16, 1954, S. 345–346; Franz Schmidt: Neue Aussprüche Goethes und sein Tischgespräch „Über den Wert des Aperçus“. In: Goethe. N.F. des Jahrbuchs der Goethe-Gesellschaft 29, 1967, S. 260–266; Horst Franke, Volker Wahl: Zur Entstehung des Mineralnamens „Göthit“. In: GoetheJahrbuch 95, 1978, S. 241–247; Gunhild Pörksen, Uwe Pörksen: Friedrich Wilhelm Riemer als Autor aphoristischer Notizen zur Sprache und als linguistischer Gesprächspartner Goethes. Mitteilungen aus dem Nachlaß. In: Goethe-Jahrbuch 102, 1985, S. 34–67; Jutta Eckle: „Dieses halb philosophische halb empirische Grillenspiel“ – Zur Entstehung und Bedeutung von Goethes Frankfurter Farbenkreis. In: Jahrbuch des Freien Deutschen Hochstifts 2007, S. 149–169. Vgl. Kai Sina: Die vergangene Zukunft der Literatur. Zeitstrukturen und Nachlassbewusstsein in der Moderne. In: Nachlassbewusstsein: Literatur, Archiv, Philologie 1750–2000. Hrsg. von Kai Sina, Carlos Spoerhase. Göttingen 2017 (Marbacher Schriften, N.F. 13), S. 49–74, bes. S. 70f. Gemeinsam mit Eckermann und Kanzler von Müller gab Riemer heraus: Goethe’s Werke. Vollständige Ausgabe letzter Hand. [Bde. 41–60.] Stuttgart und Tübingen 1832–1842 (Werke C1). Briefwechsel zwischen Goethe und Zelter in den Jahren 1796 bis 1832. Hrsg. von Friedrich Wilhelm Riemer. 6 Bde. Berlin 1833–1834. Aufgrund einer juristischen Auseinandersetzung zwischen Goethes Enkeln und dem Nachlassverwalter Friedrich von Müller konnte der Erstdruck – obwohl von Riemer fertig redigiert – erst nach seinem Tod im Jahr 1845 erscheinen: Briefwechsel zwischen Goethe und Knebel (1774–1832). Hrsg. von Gottschalk Eduard Guhrauer. 2 Bde. Leipzig 1851. Friedrich Wilhelm Riemer: Mittheilungen über Goethe. Aus mündlichen und schriftlichen, gedruckten und ungedruckten Quellen. 2 Bde. Berlin 1841; Friedrich Wilhelm Riemer: Mitteilungen über Goethe. Auf Grund der Ausgabe von 1841 und des handschriftlichen Nachlasses hrsg. von Arthur Pollmer. Leipzig 1921. Briefe von und an Goethe. Desgleichen Aphorismen und Brocardica. Hrsg. von Friedrich Wilhelm Riemer. Leipzig 1846. Johann Wolfgang Goethe: Briefe. Historisch-kritische Ausgabe. Im Auftrag der Klassik Stiftung Weimar, Goethe- und Schiller-Archiv. Hrsg. von Georg Kurscheidt, Norbert Oellers und Elke Richter. Berlin 2008ff. (GB). Die Editionsrichtlinien sind jeweils auf den ersten Seiten der Kommentarbände ausführlich dargelegt. Vgl. hierzu auch Elke Richter: Zur historisch-kritischen Gesamtausgabe von Goethes Briefen. In: GoethePhilologie im Jubiläumsjahr – Bilanz und Perspektiven. Kolloquium der Stiftung Weimarer Klassik und der Arbeitsgemeinschaft für germanistische Edition 26. bis 27. August 1999. Hrsg. von Jochen Golz. Tübingen 2001 (Beihefte zu editio. 16), S. 123–145; dies.: „schreibe nur wie du reden würdest ...“. Probleme der Textkonstitution und Textdarbietung bei Briefausgaben, erläutert an Beispielen aus der historisch-kritischen Ausgabe von Goethes Briefen. In: Was ist Textkritik? Zur Geschichte und Relevanz eines Zentralbegriffs der Editionswissenschaft. Hrsg. von Gertraud Mitterauer, Ulrich Müller, Margarete Springeth und Verena Vitzhum in Zusammenarbeit mit Werner M. Bauer und Sabine Hofer. Tübingen

Briefkonzepte im digitalen Medium

155

konzipierten Goethe-Briefausgabe werden in der Ausgabe des Goethe-Riemer-Briefwechsels sämtliche Daten (Brieftexte, Varianten, Kommentar, Auszeichnungen von Namen, Orten und Werken) strukturiert in XML nach den Richtlinien der TEI 13 aufgenommen: Für jeden Textzeugen wird eine einzelne XML-Datei erstellt und dem Editionsschema zugewiesen. Aus den Daten der kodierten Briefe entsteht eine dynamische Webpräsentation – die Erstellung einer Druckdatei wäre ebenfalls möglich (single source-Prinzip). In der dynamischen Webpräsentation sind folgende vier Ansichten vorgesehen (Abb. 1–4 und folgende auf http://aau.at/musil/publikationen/textgenese/canal/): 1) Edierter Text (Abb. 1): Der konstituierte Text wird in der linken Spalte als Fließtext geboten, und zwar für jeden einzelnen relevanten Textzeugen mit Angabe der Art der Textgrundlage (Ausfertigung, Konzept, Abschrift, Druck); in der rechten Spalte wird der Kommentar mit Angaben zur Überlieferung und Datierung, zu den Beilagen sowie mit den Einzelstellenerläuterungen präsentiert. 2) Transkription/Manuskript (Abb. 2): Parallele Darstellung der zeilengetreuen Transkription der einzelnen Textzeugen in der linken Spalte und der beschnittenen Digitalisate der dazugehörigen Einzelseiten in der rechten Spalte. 3) Textzeugen (Abb. 3): Diese Ansicht, die einen Vergleich von zwei Textzeugen ermöglich, steht im Mittelpunkt dieses Aufsatzes und wird im Folgenden erläutert. 4) Faksimiles (Abb. 4): Die nicht ausgeschnittenen, mit Farbkeil versehenen Digitalisate ergänzen die Handschriftenbeschreibung, indem sie den Nutzern die Materialität des Textträgers in Gänze vor Augen führen.14 Hier werden auch die leeren Seiten, die beschriebenen Doppelseiten, ggf. Umschläge und Beilagen präsentiert. Allen Ansichten gemeinsam ist das Navigationsmenü am linken Rand, der Briefkopf mit Angaben zum Adressaten, Datum, Absende- und Empfangsort am oberen Rand, die Verlinkung zum Bezugs- und Antwortbrief sowie zu den Registereinträgen am rechten Rand. Für Goethes Briefe greift die Ausgabe des Goethe-Riemer-Briefwechsels auf das im Vorfeld der Goethe-Briefausgabe erarbeitete elektronische Repertorium sämtlicher Goethe-Briefe zurück, 15 für Riemers ca. 140 Briefe auf die Regestausgabe.16 Sie stellt

–––––––– 13 14

15

16

2009 (Beihefte zu editio. 28), S. 49–67; dies.: Goethes Briefe neu ediert. Zur historisch-kritischen Gesamtausgabe. In: Goethe-Jahrbuch 134, 2017, S. 221–236. Text Encoding Initiative: http://www.tei-c.org/ (Abruf am 04.06.2018). Zur Bedeutung der Digitalisate als Ergänzung der Handschriftenbeschreibungen in Brief-Editionen, indem sie Informationen zu Papier, Format, Faltung, Schreibmaterial oder Schreibduktus anschaulich vermitteln, vgl. Elke Richter: Goethes Briefhandschriften digital – Chancen und Probleme elektronischer Faksimilierung. In: Brief-Edition im digitalen Zeitalter. Hrsg. von Anne Bohnenkamp und Elke Richter. Berlin, Boston 2013 (Beihefte zu editio. 34), S. 53–74. Johann Wolfgang Goethe: Repertorium sämtlicher Briefe. 1764–1832. Hrsg. von der Klassik Stiftung Weimar, Goethe- und Schiller-Archiv. Bearb. von Elke Richter unter Mitarbeit von Andrea Ehlert, Susanne Fenske, Eike Küstner und Katharina Mittendorf (https://ores.klassik-stiftung.de/ords/f?p=402). Briefe an Goethe. Gesamtausgabe in Regestform. Hrsg. von der Klassik Stiftung Weimar, Goethe- und Schiller-Archiv. Weimar 1980ff. (RA).

156

Héctor Canal

somit in kleinem Maßstab ein wegweisendes Pilotprojekt für PROPYLÄEN. Forschungsplattform zu Goethes Biographica dar. In diesem Forschungsprojekt werden die Langfristvorhaben des GSA, die historisch-kritischen Gesamtausgaben von Goethes-Briefen (GB) und Tagebüchern (GT) 17 sowie die um Volltexte bereicherte Regestausgabe der Briefe an Goethe (RA)18 gemeinsam mit der Edition der Begegnungen und Gespräche19 in eine digitale Forschungsplattform integriert. Goethes Biographica werden so vollständig samt Erschließungsmitteln wie Registern und Erläuterungen Forschern und einem breiten Publikum zugänglich gemacht. 20 Die Forschungsplattform öffnet neue Perspektiven für die Editoren selbst. Gerade die elektronische Edition ermöglicht die virtuelle Zusammenführung der Editionen nach Goethes persönlichem Archiv. 21 Die Ausgabe des Goethe-Riemer-Briefwechsels greift ebenfalls die neuen Möglichkeiten einer digitalen Edition auf, wie im Folgenden gezeigt wird. Dies betrifft sowohl die Briefbeilagen als auch die Darstellung komplexer Textüberlieferung. Im Anschluss daran wird anhand ausgewählter Beispiele von Riemers und Goethes Briefkonzepten unser Lösungsansatz für die Auszeichnung und Visualisierung intertextueller Varianz präsentiert und zur Diskussion gestellt. Abschließend folgt ein Ausblick auf die Goethe-Briefausgabe und die PROPYLÄEN. Forschungsplattform zu Goethes Biographica.

Digitale Edition des Goethe-Riemer-Briefwechsels Der Briefwechsel zwischen Goethe und Riemer zeichnet sich durch die häufige Zusendung von Arbeitsmaterialien wie Manuskripten und Druckfahnen aus. Sie wurden als Briefbeilagen im Vorfeld einer Arbeitsberatung im Haus am Frauenplan ausgetauscht. Diese Briefbeilagen stehen in Zusammenhang mit der Entstehungs- oder Publikationsgeschichte von Goethes Werken und ermöglichen somit einen Einblick in dessen Schreibwerkstatt. Zu der kommentierten Briefedition gehört die Dokumentation und, nach Möglichkeit, die digitale Präsentation der zahlreichen Beilagen, die in der

–––––––– 17 18

19

20

21

Johann Wolfgang Goethe: Tagebücher. Historisch-kritische Ausgabe. Im Auftrag der Stiftung Weimarer Klassik [ab Bd. V (2007): Klassik Stiftung Weimar]. Stuttgart, Weimar 1998ff. Die bisher neun erschienenen Bände bieten Inhaltsangaben und Register, jedoch keine Transkription der Briefe, sodass RA für Riemers Briefe auf die Ausgabe des Goethe-Riemer-Briefwechsels zurückgreifen kann. Goethe: Begegnungen und Gespräche. Bd. 1–2. Hrsg. von Ernst Grumach und Renate Grumach. Berlin 1965–1966; Bd. 3‒6, 8, 14. Begründet von Ernst Grumach und Renate Grumach. Hrsg. von Renate Grumach. Berlin u. a. 1977ff. Das langfristige Kooperationsvorhaben der Klassik Stiftung Weimar, der Sächsischen Akademie der Wissenschaften zu Leipzig und der Akademie der Wissenschaften und Literatur in Mainz wird seit April 2015 mit Mitteln des Akademienprogramms gefördert. Zu den Herausforderungen der Zusammenführung unterschiedlicher, nicht genuin digitaler Editionen vgl. Margrit Glaser, Claudia Häfner, Yvonne Pietsch, Bastian Röther, Anja Stehfest: Kein Kommentar? – Hyperlinks und Normdaten am Beispiel der „Propyläen“. In: Denkströme. Journal der Sächsischen Akademie der Wissenschaften 20, 2018, S. 49– 64. Das gilt insbesondere für die 15 thematischen Faszikeln, die Goethe selbst anlegen ließ und in denen ausgegangene und eingegangene Briefe, Beilagen und Arbeitsmaterialien abgelegt wurden, vgl. Elke Richter, Alexander Rosenbaum: Ein „buntes, wunderbares, sehr verschiedenartiges Ganzes“ – Goethes thematische Faszikel und neue Möglichkeiten ihrer Edition. In: editio 29, 2015, S. 103–129.

Briefkonzepte im digitalen Medium

157

Regel in den umfangreichen Nachlässen der beiden Briefpartner im GSA überliefert sind. In der Ausgabe des Goethe-Riemer-Briefwechsels werden die ausführlichen Konzepte, Druckmanuskripte, Aushänge- und Korrekturbogen erschlossen, beschrieben und ggf. mit bibliographischen Angaben verzeichnet. Zusätzlich werden die handschriftlichen Beilagen (auch die mit handschriftlichen Korrekturen versehenen Druckbogen), deren Verbleib nachgewiesen werden konnte, nach Möglichkeit faksimiliert und die Digitalisate an den entsprechenden Briefdatensatz angebunden. Somit wird das Arbeitsarchiv des Dichters in einer Weise sichtbar, wie es in einer gedruckten Ausgabe nicht möglich wäre. Die mitgeschickten Bücher werden mit bibliographischen Angaben, die mitgeschickten Kunstwerke mit Inventarnummern verzeichnet und mit Digitalisaten verlinkt. 22 Der Goethe-Riemer-Briefwechsel öffnet die Türen zur Werkstatt des Dichters Goethe und schafft durch die Bereitstellung der beigelegten Arbeitsmaterialien eine neue Grundlage für das Studium textgenetischer, entstehungs- und publikationsgeschichtlicher Vorgänge; die kritische Edition der Konzepte und die Darstellung der Außenvarianz ermöglichen ihrerseits einen Einblick in die Werkstätten der Briefschreiber Goethe und Riemer, wobei Erstere eher in den Fokus der literaturwissenschaftlichen Forschung geraten dürfte.23 Darüber hinaus zeigt die Ausgabe einen möglichen Weg für die zukünftige digitale Darstellung von Konzepten in der Goethe-Briefausgabe auf. Die Ausgabe des Goethe-Riemer-Briefwechsels strebt eine parallele Darstellung der Ausfertigung – der an den Adressaten gesandten Reinschrift eines Briefs – und einem oder mehreren Konzepten an, wie es von einer historisch-kritischen Ausgabe zu erwarten ist. Die Bedeutung von Briefkonzepten wurde in der Forschung bislang kontrovers diskutiert, zumal sie den Empfänger nicht erreichten. 24 Bisher beschäftigten sich Editoren mit den Briefkonzepten meist nur dann, wenn eine Ausfertigung nicht überliefert war und das Konzept sie bei der Textkonstitution ersetzte. Dass „[e]iner critique genétique des Epistolaren weniger Bedeutung eingeräumt werden [kann] als der eines literarischen Texts“25 leuchtet zwar ein, und doch ist die Relevanz von Briefkonzepten nicht von der Hand zu weisen. Denn Briefe – dies ist ein zentrales Anliegen des Kommentars in der jeder Briefausgabe26 – geben Auskunft über das Verhältnis der Briefpartner.27 An der Binnen- und Außenvarianz lässt sich nicht nur die Arbeitsweise des

–––––––– 22

23

24 25 26 27

Zu einem späteren Zeitpunkt wäre die Verlinkung mit weiteren digitalen Erschließungsprojekten der Klassik Stiftung Weimar (KSW) denkbar, etwa bei den Büchern aus Goethes Bibliothek (Forschungsverbund Marbach-Weimar-Wolfenbüttel) oder bei Objekten aus Goethes Kunst- und naturwissenschaftlichen Sammlungen (KSW, Direktion Museen). Auch wenn eine genauere quantitative und qualitative Auswertung erst mit dem Abschluss der historischkritischen Goethe-Briefausgabe möglich sein dürfte, sind Albrecht Schönes Studien wegweisend, vgl. Albrecht Schöne: Der Briefschreiber Goethe. München 2015. Vgl. mit weiteren Literaturhinweisen Jochen Strobel: Der Brief als Prozess. Entwurf und Konzept in der digitalen Edition. In: Bohnenkamp, Richter 2013 (Anm. 14), S. 133–146. Vgl. ebd., S. 135. Strobel weist zu Recht darauf hin, dass die Darstellung briefgenetischer Prozesse erst im digitalen Medium möglich sei, unterbreitet aber keine konkreten Vorschläge zur Realisierung. Vgl. Georg Kurscheidt: Überlegungen zur Kommentierung von Briefen mit Beispielen aus Goethes Briefen. In: Golz 2001 (Anm. 12), S. 147–165. Dorothea Kuhn hat im Kommentar ihrer kritischen Ausgabe des Briefwechsels zwischen Goethe und Cotta mit Recht auf die Bedeutung gerade auch der Konzepte für das Verständnis dieser Korrespondenz

158

Héctor Canal

Briefschreibers ablesen, vielmehr zeigt sich (und dies gilt insbesondere für die Außenvarianz), wie der Briefschreiber seine Botschaft inhaltlich und stilistisch anpasst, etwa um ihre Wirkung zu erhöhen oder um den Erwartungen des Empfängers zu entsprechen. Diese Anpassungen und Überarbeitungsspuren sind gerade nicht in den reinschriftlichen, ausgefertigten Briefen, sondern vor allem in den Briefkonzepten fassbar. Wenn Riemer seine Briefkonzepte stark überarbeitete, war das zwar symptomatisch für die akribische Arbeitsweise des Philologen, lässt sich aber auch als Ausdruck von Unsicherheit im Umgang mit seinen Adressaten interpretieren. Zu den Vorteilen der Online-Präsentation gegenüber der klassischen gedruckten Ausgabe gehört die parallele Wiedergabe mehrerer Textfassungen auf verschiedenen Textträgern. Die synoptische Präsentation ermöglicht eine anschauliche Darstellung der Außenvarianz, mit der sich textgenetische Vorgänge nachvollziehen lassen. Anschaulicher als dies in einem lemmatisierten Einzelstellenapparat möglich wäre – auf einen integrierten Apparat wird verzichtet, um einen eindeutig zitierbaren Text darzubieten –, wird intertextuelle Varianz visuell dargestellt: Im Reiter Textzeugen wird die jeweils letzte Schicht der Fließtexte beider Transkriptionen präsentiert (Abb. 5). Durch das Anklicken des Feldes Intertextuelle Varianten werden alle voneinander abweichenden Stellen blau unterlegt, sodass sich die Quantität der varianten Passagen auf einen Blick erfassen lässt (Abb. 6). Sobald eine intertextuelle Variante angeklickt wird, verändern die zusammengehörigen Stellen ihre Farbe in Grau, um einen detaillierten Vergleich und damit eine qualitative Bewertung der differierenden Stellen zu erlauben (Abb. 7). Eine eventuelle Unterscheidung zwischen semantischer, orthographischer oder interpunktioneller Varianz wird dem Nutzer überlassen. Auf eine Kodierung dieser Unterscheidung, die eine maschinelle Auswertung ermöglicht hätte, wurde verzichtet, zumal stilistische und inhaltliche Überlegungen nicht in allen Fällen eindeutig voneinander zu unterscheiden sind. In der synoptischen Ansicht – wie auch in den weiteren Ansichten Edierter Text und Transkription/Manuskript – wird die Binnenvarianz dargestellt, d. h. die autorisierten Korrekturen, die ebenfalls Auskunft über die Genese des Briefes geben (Abb. 8). Durch einen Klick auf das Feld Innertextuelle Varianten, danach auf eines der aufscheinenden diakritische Zeichen (blaue Asterisken) lässt sich jede Variante einzeln einblenden. So viel zur Präsentationsoberfläche, deren Aussehen mit relativ geringem Programmierungsaufwand verändert werden könnte – und mit großer Wahrscheinlichkeit bei den regelmäßigen Aktualisierungen der Online-Ressourcen des GSA an den veränderten Nutzererwartungen zukünftig anpasst werden wird. Grundlage der Präsenta-

–––––––– hingewiesen. So bekam Cotta etwa nie den an Riemer diktierten „Wutbrief“ vom 24. Dezember 1806 zu sehen, in dem sich Goethe scharf über die Veröffentlichung eines Berichtes von der Plünderung Weimars durch französische Truppen und von seiner Hochzeit mit Christiane Vulpius in einer Zeitung seines Verlegers beklagte. Goethe hielt den Brief zurück und setzte einen neuen am darauffolgenden Tag an, vgl. Schöne 2015 (Anm. 23), S. 223–251, hier S. 226; Goethe und Cotta. Briefwechsel 1797‒1832. Textkritische und kommentierte Ausgabe in drei Bänden. Hrsg. von Dorothea Kuhn. Stuttgart 1979–1983, hier Bd. 3/1, S. 225–229.

Briefkonzepte im digitalen Medium

159

tionsoberfläche sind die strukturiert in XML/TEI kodierten Daten. Wie wird die anschauliche Darstellung von Binnen- und Außenvarianz in den zugrundeliegenden XML-Dateien kodiert? Im der XML-Datei werden Binnenvarianten und Erläuterung zum Brieftext kodiert. 28 Dieses Element gliedert sich in , und . Varianten und Einzelstellenerläuterungen werden im Brieftext mit Verweisen (Pointers) verlinkt . Jeder dieser Pointer ist durch das Attribut @type mit dem Wert "app" (für Varianten) oder "kom" (für Kommentare) ausgezeichnet. Das im integrierte Element enthält alle Varianten, die im Tag mit einem @xml:id kodiert sind. Der Wert des @xml:id muss den Wert des Attributs @target des zugehörigen Elements entsprechen. Diese Werte enthalten die Ident-Nummer des Briefdatensatzes und Angaben zur Seite und Reihenfolge der Varianten. Für die Auszeichnung von Außenvarianz wird für jede Fassung, d. h. für Konzept bzw. Konzepte und Ausfertigung, jeweils eine zweite XML-Datei erstellt, die mit der ID-Nummer des jeweiligen Briefes, ggf. mit dem Zusatz k für Konzept und mit dem Zusatz „-mit-inter“ genannt werden. Diese zweiten Dateien werden ausschließlich für die Generierung der Ansicht Textzeugen benutzt, um zu verhindern, dass die Hauptdatei zu unübersichtlich wird. Im Gegensatz zu den innertextuellen Varianten werden die intertextuellen Varianten nicht mit dem Element ausgezeichnet, sondern das variante Textsegment wird mit dem Element umschlossen, das mit dem Attribut @type und dem Wert "inter" spezifiziert wird. Die eindeutige Zuordnung der jeweiligen Varianten in den zwei Dateien wird durch das Attribut @xml:id hergestellt: Der Wert des @xml:id enthält die Ident-Nummer der jeweiligen Datei und die Nummer der intertextuellen Variante. Im folgenden Beispiel ersetzte Riemer in der Ausfertigung die im Konzept verwendete Konjunktion „wenn“ durch „im Fall“: wenn ich Bücher29 im Fall ich Bücher30

Riemers Briefkonzepte – Beispiele Von Riemers Briefen an Goethe ist in sieben Fällen neben der Ausfertigung ein Konzept überliefert. Außerdem sind in weiteren zehn Fällen ein bzw. zwei Konzepte, aber

–––––––– 28 29

30

Vgl. zum Folgenden Nadezhda Petrova: Darstellungsmöglichkeiten der in XML kodierten Briefe in einer digitalen Edition am Beispiel des Goethe-Riemer-Briefwechsels. Master-Arbeit, TU Darmstadt 2014. ID 55024k-mit-inter (H: GSA 78/1265, vgl. RA 4, S. 343, Nr. 1115). – In vorliegenden Beitrag werden die Briefdatensätze nach der projektinternen ID benannt, die auch bei der Online-Präsentation sichtbar sein wird, da die Reihenfolge der Briefe mit der endgültigen Nummerierung noch bis zur Freischaltung der Online-Präsentation während der Endredaktion verändert werden kann. Die bereits in der WA abgedruckten bzw. in der RA verzeichneten Briefe werden zusätzlich mit dem entsprechenden bibliographischen Nachweis versehen. ID 55024-mit-inter (H: GSA 28/42, Bl. 578r).

160

Héctor Canal

keine Ausfertigung überliefert. Riemers Briefkonzepte befinden sich in seinem Nachlass im GSA. In den meisten Fällen sind die Konzepte nur fragmentarisch erhalten, denn Riemer beschnitt die verworfenen Reinschriften, um die leeren Rückseiten der Blätter für andere Zwecke als Konzept- oder Schmierpapier wiederzuverwenden. Dadurch wurde die nachträglich beschrifteten Verso-Seiten zu Recto-Seiten, was der Logik der archivalischen Verzeichnung, die der letzten Stufe von Riemers Arbeit auf diesem Bogen und somit dem eigenen, sorgfältig angelegten Archiv des Philologen entspricht. Auch wenn diese Art der vielfachen Verwendung der Textträger in Beständen aus dieser Zeit, in der das Papier ein teures Gut war, sehr häufig vorkommt, ist doch dieses Festhalten, Sammeln, Wiederverwenden, Sortieren und Archivieren bezeichnend für Riemers Arbeitsweise. In seinen umfassenden Arbeitsmaterialien (Riemers Nachlass im GSA liegt in vorläufiger Verzeichnung vor und hat einen Umfang von 49 298 Blatt in 49 Archivkästen) stößt man häufig auf den Rückseiten auf verworfene Brief- und Gedichtfragmente. So wurde auch ein bisher unbekanntes Goethe-Porträt auf der Rückseite von Aufzeichnungen zu einer griechischen Grammatik gefunden. 31 Die bei der summarischen Verzeichnung des Bestandes in den 1970er Jahren erschlossenen Briefkonzepte an Goethe wurden dem Überlieferungszusammenhang entnommen und zusammengelegt (GSA 78/1265), damit sie im Findbuch leichter auffindbar waren. Mit aktuellen Erschließungsmethoden lassen sich komplexe Überlieferungen nutzerfreundlicher verzeichnen, ohne den ursprünglichen Überlieferungszusammenhang aufzulösen: In solchen Fällen werden weder die neu bzw. tiefer erschlossenen Archivalien umsigniert noch die Konvolute umbenannt, vielmehr werden die Angaben zu den noch im Konvolut enthaltenen Materialien in der Archivdatenbank des GSA 32 vermerkt und somit durch die facettierte Suchfunktion auffindbar gemacht. Im Falle von Briefen ist dies außerdem über den verzeichneten Briefdatensatz und die Funktion Brief-Suche möglich. Bei einem neu erschlossenen Briefkonzept, das aufgrund der fragmentarischen Überlieferung ein ausgesprochen komplexes Beispiel darstellt, ist dies der Fall: Unter den Verzeichnungseinheiten „Wissenschaftliche Arbeiten zur Philologie / Griechische Grammatik und Lexikologie“ befindet sich ein 229 Blatt starkes Konvolut mit „Eigennamen: Beispielsammlung in alphabetischer Ordnung“ (GSA 78/183), das einen Eindruck von Riemers eigenem Archiv vermittelt (Abb. 9). 33 Auf den Rückseiten von neun Oktavblättern konnten Fragmente eines undatierten Briefkonzepts an Goethe gefunden werden (ID 55159). Sie gehörten ursprünglich zu drei Foliobögen Konzeptpapier, auf denen Riemer einen brisanten Brief an Goethe entwarf, und zwar in zweispaltiger Beschriftung. Die Bögen mit dem verworfenen Konzept wurden später längs und quer in Oktavbögen geschnitten. Von der ersten Seite in Folioformat sind zwei Arbeitsphasen überliefert, von der ersten (ID 55159K1) konnten die zwei oberen

–––––––– 31 32 33

Vgl. Héctor Canal, Christian Hecht: Ein unbekanntes Goethe-Porträt von der Hand Friedrich Wilhelm Riemers. In: Goethe-Jahrbuch 131, 2014, S. 166–176. https://ora-web.swkk.de//archiv_online/gsa.entry (Abruf am 04.06.2018). Typisch für Riemer ist das noch mit dem Konvolut überlieferte Streifenband mit der eigenhändigen Beschriftung: „Nomm. Propp. Simplicia. Promiscua“ (Sammlung einfacher Eigennamen), mit dem er seine alphabetisch sortierten Notizen zusammenhielt.

Briefkonzepte im digitalen Medium

161

Oktavbögen gefunden werden, von der zweiten (ID 55159K2) alle vier Oktavbögen. Von der zweiten Seite des Konzepts ist nur eine Arbeitsphase überliefert, von der noch drei Oktavbögen vorhanden sind. In diesem Briefkonzept beschwerte sich Riemer über Christian August Vulpius, Riemers Vorgesetzten in der Herzoglichen bzw. Großherzoglichen Bibliothek. Eine Ausfertigung ist nicht überliefert, vermutlich wurde sie gar nicht niedergeschrieben, da Riemer sich wohl im Klaren gewesen sein dürfte, dass eine solche Beschwerde über den Schwager des Adressaten ausgesprochen problematisch war. Mit dem überarbeiteten Konzept schrieb sich Riemer den Frust von der Seele, dass Vulpius ihm den „Schlüssel zu dem Zimmer welches die deutsche Literatur verwahrt, vorenthält, dergestalt daß die Gewinnung eines dahin einschlagenden Buchs […] mit großen Anstalten verknüpft ist […].“ 34 An der Anzahl der Korrekturen, also an der intertextuellen Varianz in den Briefkonzepten, lässt sich Riemers Liebe zum sprachlichen Detail, zur exakten Formulierung nachvollziehen. Die Korrekturvorgänge dienten der Glättung von stilistischen Unebenheiten und unzulänglichen Ausdrücken. Dies lässt sich anhand eines weiteren, stark korrigierten Konzepts veranschaulichen, das insofern eine Ausnahme darstellt, als Riemer es aufbewahrte und mit einem Absendevermerk versah (Abb. 10).35 Hier sei der Schluss des Konzepts () zitiert, das als Textgrundlage der Edition dient, da die Ausfertigung nicht überliefert ist: Mich Ew. Excellenz zu Gnaden empfehlend. / Weimar den 7 Novembr 1813. ☉. / den 8. abgesendet. ☾ Nach 8 Uhr. 36

Der Inhalt des Briefkonzepts ist heikel: Riemer formuliert hier seine Absage gegenüber Goethe, wieder ins Haus am Frauenplan einzuziehen. Umso mehr war Riemer daran gelegen, den Wortlaut seiner Absage möglichst genau in seinem Privatarchiv zu dokumentieren – im Gegensatz zu Goethe bewahrte er ansonsten Briefkonzepte nicht auf. Der linksspaltig beschriebene Foliobogen Konzeptpapier ließ in der rechten Spalte Platz für Korrekturen und Ergänzungen. Papierformat, Beschriftung und Absendevermerk dieses Konzepts erinnern an die gehefteten Konzepte in Goethes Briefregistratur, mit welcher Riemer seit Beginn seiner Tätigkeit im Haus am Frauenplan vertraut war: Laut den aktuellen Angaben aus dem Goethe-Briefrepertorium sind bis zu dessen Auszug am 24. März 1812 1091 Ausfertigungen und 226 Konzepte von Goethe-Briefen von Riemers Hand nachgewiesen. Nachdem er aus dem Haus am Frauenplan ausgezogen war, versah Riemer nur noch gelegentlich Schreiberdienste für Goethe; es sind nur 42 Briefe nachgewiesen, bei denen entweder die Ausfertigung oder das Konzept von Riemers Hand stammt.

–––––––– 34 35 36

GSA 78/183, Bl. 141v. ID 55015K (vgl. RA 6, S. 270 f., Nr. 763). ID 55015K (H: GSA 28/746, St. 20). Die astronomischen Zeichen (Sonne und Mond), die für die Wochentage Sonntag und Montag stehen, werden mit Unicode wiedergegeben.

162

Héctor Canal

Ein typisches Beispiel für Riemers Briefkonzepte bietet das fragmentarisch überlieferte Konzept vom 8. Dezember 1815 (ID 55006K). 37 Der als Ausfertigung vorgesehene Bogen wurde bei der Durchsicht verworfen. Denn Riemer bemerkte offenbar, dass er sich zu ausführlich über seine Verbesserungen im Manuskript von Ueber Kunst und Alterthum geäußert,38 seine Hoffnung auf Goethes baldige Rückkehr aus Jena nicht deutlich genug zum Ausdruck gebracht und sich nicht beim Adressaten für das Buch bedankt hatte, von dessen Lektüre er im Brief berichtete. Daher verwarf Riemer die erste Reinschrift, deren Rückseite er später, nach dem Beschneiden des Bogens, als Notizzettel verwendete (sie enthält Notizen auf Griechisch). Er schrieb den Brief erneut auf einen neuen Bogen und nahm dabei weitere geringfügige Änderungen vor, die Interpunktion und Satzbau betreffen. Entscheidend sind die drei grau hinterlegten Passagen, die Anlass zur abermaligen Niederschrift der Ausfertigung gaben (Abb. 11) – die beiden ersten fehlen in K, die dritte in H: Für die Mittheilung der kleinen Schrift von Diez sage ich Ew. Excellenz höchlichen Dank.39 In Betreff der folgenden würde ich mir eine mündliche Bemerkung erlauben, wenn Ew. Excellenz uns bald wieder den Trost Ihrer Gegenwart gönnen wollen.40 u außer ein paar Partikeln und einem Hülfsverbum wüßte ich durchaus nichts zu ändern.41

Dass es sich bei dem Textzeugen K um eine verworfene Reinschrift handelt, lässt sich anhand des Briefpapiers wie der fehlenden Innenvarianz feststellen. Die fehlende Anrede in K ist dem nachträglichen Beschneiden des Bogens geschuldet.

Goethes Briefkonzepte – Beispiele Von Goethes Briefen an Riemer ist in 74 Fällen neben der Ausfertigung mindestens ein Konzept überliefert. In 13 Fällen sind die Ausfertigungen verschollen, die Konzepte aber überliefert, in zwei Fällen sogar zwei Konzepte. Die (Brief-)Schreibszene42 war bei Goethe in der Regel eine Diktierszene: 43 Zunächst diktierte er seinem Sekretär ein Konzept des Briefes, das er eigenhändig korrigierte; allerdings kommen auch Korrekturen der Schreiber in den Konzepten häufig

–––––––– 37 38 39

40 41 42 43

Vgl. RA 6, S. 603, Nr. 1799. Vgl. Ueber Kunst und Alterthum. Von Goethe. 6 Bde., jeder Bd. in 3 Heften. Stuttgart 1816–1832. Hier Bd. I/1: Ueber Kunst und Alterthum in den Rhein und Mayn Gegenden (1816), S. 101–119. ID 55006-mit-inter (H: GSA 28/746, St. V). – Die in vorliegendem Beitrag zitierten Stellen aus dem Goethe-Riemer-Briefwechsel enthalten ausschließlich die TEI-Auszeichnungen der Varianten. Der Übersichtlichkeit halber wurde auf weitere in den Quelldateien vorhandene Auszeichnungen (Zeilenumbrüche, Registereinträge usw.) verzichtet. Ebd. ID 55006K-mit-inter (H: GSA 78/1265). Zur ‚Schreibszene‘ vgl. den Beitrag von A. Bosse im vorliegenden Band. Diktierte Briefe waren ab den 1790er Jahren die Regel, vgl. Schöne 2015 (Anm. 23), bes. S. 423–436. Aber bereits früher, nach der Übersiedlung nach Weimar, diktierte Goethe immer häufiger Briefe, zumal

Briefkonzepte im digitalen Medium

163

vor. Das korrigierte Konzept diente als Grundlage für die Ausfertigung durch einen Schreiber. Die Ausfertigung wurde von Goethe unterschrieben; gegebenenfalls nahm er noch weitere geringfügige Korrekturen vor und fügte eine Grußformel ein. In einigen Fällen – insbesondere wenn kein Konzept vorhanden war – wurde auch eine Abschrift der Ausfertigung erstellt bzw. wurde das Konzept von Goethes Sekretär mit einem Vermerk des Absendedatums versehen und als Kopie, die vom Absender verwahrt wurde, in der Registratur abgelegt. Unklar ist, nach welchen Kriterien über die Aufnahme von Konzepten bzw. Abschriften in die Registratur entschieden wurde und inwiefern Goethes Sekretäre an dieser Entscheidung beteiligt waren, denn es wurde bei weitem nicht von allen Briefen ein Konzept bzw. eine Abschrift abgelegt. 44 Abgesehen von den diktierten Konzepten sind auch eigenhändige, in der Regel flüchtig mit Bleistift geschriebene Briefkonzepte überliefert. Goethes Briefkorpus ist bekanntlich von stattlichem Umfang: Bereits die von 1887 bis 1912 erschienenen 50 Bände der vierten Abteilung der WA enthalten etwa 13.400 Briefe, nach neuerem Kenntnisstand sind rund 15.000 Briefe an über 1.400 Adressaten überliefert.45 Neben den Ausfertigungen ist jedoch auch eine große Zahl von Briefkonzepten erhalten, die Goethe meist eigenhändig korrigierte, bevor die Ausfertigungen erstellt wurden. Der Dichter ließ für sein persönliches Archiv ab August 1807 bis zu seinem Tod im März 1832 die Konzepte seiner Abgesendeten Briefe in insgesamt 53 chronologisch geordneten gehefteten Faszikeln sammeln. Hier finden sich über 8.000 Entwürfe sowie, in späteren Jahrgängen, auch Abschriften von Briefen. 46 Die Briefe an Goethe wurden bereits seit 1792 in chronologisch geordneten Quartalsheften archiviert. In den Jahrgängen bis 1804 legte Goethes Sekretär Johann Ludwig Geist hier auch Konzepte zu den von Goethe geschriebenen Briefen ab. Hinzu kommen Konzepte, die an anderer Stelle überliefert sind. Im Aufsatz Archiv des Dichters und Schriftstellers (1823) berichtete Goethe von der Anlage eines Verzeichnisses seines persönlichen Archivs durch den Bibliothekssekretär Theodor Kräuter. Das Repertorium über die Goethesche Repositur (GSA 39/I,1a) enthielt auch die Briefrepositur: [E]in junger, frischer, in Bibliotheks- und Archivsgeschäften wohlbewanderter Mann hat es diesen Sommer über dergestalt geleitet, daß nicht allein Gedrucktes und Ungedrucktes,

––––––––

44 45 46

er sich mit der Zunahme seiner Amtsgeschäfte, für deren Erledigung ihm Kanzleischreiber zur Seite standen, auch im privaten und literarischen Bereich angewöhnte zu diktieren, vgl. Ernst Robert Curtius: Goethes Aktenführung. In: Neue Rundschau 62, 1951, S. 110–121. Dass der eigenhändige Brief als Zeichen persönlicher Achtung vor dem Adressaten galt, ist ausreichend bekannt. Sieht man von den Briefen an höhergestellte Personen wie Carl August oder an wichtige Bezugspersonen wie Charlotte von Stein ab, die eigenhändig sein mussten (und die den Großteil der überlieferten Briefe aus dem ersten Weimarer Jahrzehnt ausmachen), lässt sich schon in den frühen 1780er Jahren eine zunehmende Tendenz zu diktierten Briefen beobachten. Für diese Hinweise bin ich Elke Richter (GSA, Abteilung Editionen) dankbar. Vgl. Goethe: Repertorium sämtlicher Briefe (Anm. 15). Die chronologischen Faszikel bestehen aus ineinandergelegten und -gehefteten Foliobögen, meist aus Konzeptpapier, in die auch andere Formate und Papiere eingeheftet wurden. In den ersten Jahrgängen sind sie überwiegend halbbrüchig beschrieben; auch diese Praxis hat Goethe aus dem amtlichen Kanzleigebrauch übernommen.

164

Héctor Canal

Gesammeltes und Zerstreutes vollkommen geordnet beisammen steht, sondern auch die Tagebücher, eingegangene und abgesendete Briefe in einem Archiv beschlossen sind, worüber nicht weniger ein Verzeichniß […] vor mir liegt, so daß mir sowohl jede vorzunehmende Arbeit höchst erleichtert, als auch den Freunden, die sich meines Nachlasses annehmen möchten, zum besten in die Hände gearbeitet ist. 47

Der sich allmählich „selbst historisch“ 48 werdende Dichter bemühte sich, die Zeugnisse seiner über Jahrzehnte hin währenden Tätigkeit dauerhaft zu bewahren. Beeinflusste Goethes nachlassbewusste Selbstreflexion über den Vorgang des Archivierens den Diskurs über Literaturarchive und Schriftstellernachlässe nachhaltig,49 stellen seine Arbeitsweise und Archivierungspraxis die Editoren aufgrund der schier unfassbaren Materialfülle vor große Herausforderungen. Sie sollen hier mit Beispielen aus dem Goethe-Riemer-Briefwechsel in Umrissen angedeutet werden. Erstes Beispiel. Die Ausfertigung von Goethes Billet an Friedrich Wilhelm Riemer vom 5. Dezember 1830, die die Sendung eines „unschuldige[n] Kunstwerk[s]“50 – laut Goethes Tagebuch handelte es sich um einen „geschnitzten Becher“ 51 – begleitete, lässt den Editor keine Komplikationen ahnen. Das eigenhändige Billet weist keine Varianz auf (Abb. 12) und doch ging dem vermeintlich banalen Billet eine ausgesprochen komplexe Genese voraus (ID 13093). Dem Goethephilologen fällt zuerst die Eigenhändigkeit des Billets auf, was bei einer scheinbar nebensächlichen Mitteilung an einen subalternen Adressaten in Goethes späten Schaffensjahren eine Seltenheit ist. Die Eigenhändigkeit ließe sich mit Zeitmangel erklären, etwa weil der Bote wartete oder weil kein Schreiber greifbar war. Dies war hier jedoch nicht der Fall und in der Tat ist die Eigenhändigkeit dieses Briefes kommentierungswürdig, denn neben der Ausfertigung sind zwei Konzepte überliefert. Erstens ist ein eigenhändig mit Bleistift auf Konzeptpapier flüchtig geschriebener und korrigierter, undatierter Entwurf überliefert: K1 (Abb. 13). Auf dem gleichen Bogen befindet sich ein weiteres Briefkonzept, adressiert an Johann Friedrich Gille, Ausfertigung mit Datum vom 12. Dezember 1830. Die Briefkonzepte stehen auf der Rückseite eines Paralipomenons zu Faust.52 Es lässt sich heute nicht mehr sagen, ob das Blatt zunächst für die Briefkonzepte oder für das FaustSchema verwendet wurde und wie es anschließend von Goethe oder seinen Sekretären archiviert wurde, zumal dieses Blatt nach den Archivgrundsätzen des GSA als Paralipomenon zu Faust im Bestand Goethe/Werke und nicht unter den Briefkonzepten im Bestand Goethe/Ausgegangene Briefe abgelegt wurde. Typisch sind die Striche, mit denen die Konzepte als verworfene, bereits überarbeitete Fassung markiert wurden. Das zweite Konzept K2 stammt von Johann Johns Hand, es weist Korrekturen von Schreiberhand mit Bleistift und mit Tinte auf (Abb. 14). Es ist auf einem Doppelblatt

–––––––– 47 48 49 50 51 52

WA I 41/2, S. 25–28, hier S. 27. Das berühmte Diktum wird zum ersten Mal im Brief an Schiller vom 22. Mai 1803 formuliert, vgl. WA IV 16, S. 233. Vgl. zuletzt die Aufsätze in: Sina, Spoerhase 2017 (Anm. 6). WA IV 48, S. 29, Nr. 22. WA III 12, S. 339. GSA 25/W 1802 (Schema zu Faust II,5: H P196: www.faustedition.net/document?sigil=H_P196&page =1&view=structure [Abruf am 07.04.2019]).

Briefkonzepte im digitalen Medium

165

überliefert, das weitere Briefkonzepte enthält, in einem gebundenen Faszikel (87 Bl.), welches auf der Vorderseite des blauen Umschlags die Aufschrift trägt: „Abgesendete Briefe / September / October. / November. / December. / 1830“ (GSA 29/49). Ein Vergleich der Konzepte mit der Ausfertigung zeigt, dass sie eher dem ersten Konzept K1 folgt, auch wenn sie, nicht nur in der Abschiedsformel, leicht davon abweicht. An der Reihenfolge der Entstehung von K1 und K2 dürfte nicht zu zweifeln sein: Die Korrekturen im eigenhändigen Konzept (K1)53 wurden in dem von John niedergeschriebenen Textzeugen K2 berücksichtigt. Da aber die Ausfertigung näher an K1 als an K2 steht, muss die Bedeutung des Textzeugen K2 hinsichtlich der Überlieferungsgeschichte hinterfragt werden: Handelt es sich um ein abgeschriebenes oder diktiertes Konzept, oder vielmehr um eine Abschrift für das Repositorium? Das bereits erwähnte Problem der Unterscheidung von Konzept und Abschrift ist, wie solche Fälle zeigen, eine editorische Aufgabe, zumal eine Abschrift für die Textgenese und daher für die Textkonstitution in der historisch-kritischen Ausgabe nicht relevant wäre. Dass es sich nicht nur um eine Abschrift, sondern um ein Konzept handelt, lässt sich an der Außenvarianz darlegen. Folgende Abweichung zwischen K1 und K2 lässt sich weder als Abschreibfehler noch auf Hörfehler des Schreibers erklären: das unschuldige Kunstbild54 dies unschuldige Kunstwerck55

K2 ist also keine direkte Abschrift von K1. Vielmehr wurde K2 von Goethe auf der Grundlage von K1 diktiert, vermutlich zwar vordergründig mit Hinblick auf das Repositorium, aber auch zur Erprobung alternativer Formulierungen, die er dann doch bei der eigenhändigen Niederschrift der Ausfertigung teilweise rückgängig machte. Die Korrektur des Datums mit Tinte in K2 erfolgte nachträglich und ist dem Charakter des Konvoluts als Repositorium geschuldet. Sie verzeichnet das Absendedatum der Ausfertigung (25).56 Dieser zeitliche Abstand erklärt im Übrigen die Varianz in der Abschiedsformel: Goethe hatte am 25. November 1830, fünfzehn Tage nachdem er vom Tod seines Sohnes erfahren hatte, 57 mitten in der

–––––––– 53

Hier sind die entscheidenden Binnenvarianten von K1 (Ersetzungen), die in K2 berücksichtigt wurden (ID 13093K1-mit-inter [H: GSA 25/1802]: gedencken erfreuen; darandes Anblicks; grüßendschönsts begrüßend.

54 55 56 57

ID 13093K2-mit-inter1 (H: GSA 29/49, Bl. 236v). ID 13093K1-mit-inter (H: GSA 25/W 1802). ID 13093K2 (H: GSA 29/49, Bl. 237r). Die Nachricht von August von Goethes Tod war ihm am 10. November 1830 übermittelt worden, vgl. WA III 12, S. 329.

166

Héctor Canal

Nacht einen schweren „Bluthusten“ erlitten und war mehrere Tage sehr krank gewesen.58 Riemer hatte die erste Nacht mit Kanzler von Müller und den Ärzten bei Goethe verbracht. Fühlte sich Goethe am 2. Dezember noch „recht leidlich“ (K1) bzw. „rechtleidlich“ (K2), war die Krise am 5. Dezember, als er die Ausfertigung schrieb, bereits überstanden, womit die in den Konzepten vorgesehene Abschiedsformel obsolet war. Dankbarkeit für den Beistand in einer schweren Stunde und Freude über die Genesung waren der Anlass für das persönliche Geschenk, das dem vorliegenden Briefbillet an Riemer beigelegt wurde – die Wirkung dieser Botschaft wurde durch die Eigenhändigkeit des Briefes verstärkt. 59 Zweites Beispiel. Von Goethes Brief an Riemer vom 24. August 1828 aus Dornburg (ID 2456) ist neben der Ausfertigung von Eckermanns Hand auch ein Konzept von Johns Hand in der Repositur überliefert (Quartalheft Juni–August 1828, GSA 29/42) (Abb. 15–16).60 Das Konzept weist lediglich eine Sofortkorrektur des Schreibers auf: Entweder hatte Goethe nichts an dem kurzen diktierten Text zu verbessern, oder es handelte sich doch nicht um ein Konzept, sondern um eine Abschrift der an Eckermann diktierten Ausfertigung, die John zu den Akten legte. Die halbbrüchige Beschriftung weist mit hoher Gewissheit darauf hin, dass es sich hier um ein Konzept handelt. Die ganzseitige Beschriftung ist allerdings kein hinreichendes Kriterium, um von einer Abschrift auszugehen. Denn bei der in der Repositur abgelegten Niederschrift handelt es sich – so meine These – doch um ein Konzept, auch wenn das Fehlen von Korrekturen für eine Abschrift sprechen würde: Goethe diktierte John das Konzept am Morgen oder Vormittag und musste auf eine Durchsicht dieser Mitteilung verzichten, weil er vom Besuch seiner Enkel um 13 Uhr – in Begleitung Eckermanns und Riemers – überrascht wurde. 61 Dass er trotz der persönlichen Begegnung noch schnell eine Ausfertigung erstellen ließ, ist der Komplexität des dort formulierten Auftrags geschuldet: Goethe trug dem Bibliothekar Riemer darin auf, schwer auffindbare Manuskripte des Naturforschers Christian Wilhelm Büttner in der Großherzoglichen Bibliothek aufzuspüren. Dafür beschreibt er im Brief die Konvolute, die er für seine botanischen Studien brauchte, und gibt Riemer einige Hinweise, wo sich diese Konvolute befinden könnten. Der Brief wurde also gar nicht abgeschickt, sondern dem Adressaten Riemer persönlich ausgehändigt, bevor dieser am Abend wiederum in Begleitung Eckermanns, des Schreibers der Ausfertigung, und Goethes Enkeln nach Weimar zurückfuhr. Bei Eckermann konnte Goethe offenbar davon ausgehen, dass er etwaige Hörfehler oder Schreibversehen Johns in der Ausfertigung stillschweigend verbessern würde, was er auch tat, und Goethe selbst musste die Ausfertigung nur noch unterschreiben. Die Sofortkorrektur und die Überschreibung Eckermanns in der Ausfertigung sind auf

–––––––– 58 59

60 61

WA III 12, S. 336. Die Symptome traten an der darauffolgenden Nacht wieder auf. Am 30. November 1830, nachdem bereits die schwerste Krise überstanden war, schickte der „gar löblich wieder genesende“ Goethe Riemer das Manuskript des vierten Teils von Dichtung und Wahrheit mit einem eigenhändigen Billet zu (WA IV 48, S. 25), und zwar, wie Riemer in seinem Tagebuch notierte, „als frohes Zeichen seiner zunehmenden Gesundheit“ (Friedrich Wilhelm Riemer: Tagebücher [Abschrift von Robert Keil]. H: Goethe-Museum Düsseldorf, Sign.: KK 3773, S. 624). Vgl. WA IV 44, S. 270 (Lesarten). Vgl. WA III 11, S. 268.

Briefkonzepte im digitalen Medium

167

kleine Verschreibungen beim raschen Abschreiben vor der Rückfahrt nach Weimar zurückzuführen. Die Außenvarianz betrifft lediglich Rechtschreibung, Getrennt- oder Zusammenschreibung und abgekürzte oder ausgeschriebene Wörter. In einem Fall verbesserte Eckermann stillschweigend einen Fehler der Kasuskongruenz, ohne sonst ins Konzept einzugreifen: in länglich aufstehendem Folio Format 62 in länglich aufstehenden foℓ. Format 63

Die Einschätzung der in der Repositur abgelegten Textzeugen – Konzept oder Abschrift – ist also von Fall zu Fall vorzunehmen. Der Editor kann sich nicht auf die Analyse des Textbefunds beschränken, er muss auch die Entstehungsgeschichte, ja die Schreibsituation rekonstruieren. Drittes Beispiel. Das im darauffolgenden Faszikel von September–Dezember 1828 (GSA 29/43) überlieferte Konzept (ID 2462K), das Goethe sechs Tage später, am 30. August 1828, John diktierte,64 weist im Gegensatz zum oben beschriebenen Beispiel (ID 2456K) mehrere eigenhändige Korrekturen auf (Abb. 17). Das ganzseitig beschriftete Manuskript ist eindeutig als Konzept anzusehen, auf dessen Grundlage John die Ausfertigung erstellte, die Goethe eigenhändig mit Grußformel und Unterschrift versah (Abb. 18). Die Außenvarianz ist eher gering: Sie betrifft eine minimale Abweichung im Text, weitere geringfügige Abweichungen im Datum sowie am Schluss, in der Abschiedsformel und der Unterschrift in der Ausfertigung. Auffällig ist die nachträgliche Tilgung einer Passage in der Ausfertigung, die bereits im Konzept vorlag und die wiederum textexogen, also mithilfe der Rekonstruktion der Schreibsituation und äußeren Bedingungen, zu erklären ist. Hier folgen die Binnenvariante in H und die intertextuelle Variante aus K: Paket mit Bindfaden umwunden65 Paket mit Bindfaden umwunden66

Der Brief und die Beilagen wurden nicht mit einem Boten oder mit der Post verschickt, sondern von Goethes Schwiegertochter, die Goethe in Begleitung ihrer Schwester Ulrike von Pogwisch und ihres Sohnes Wolf an diesem Tag in Dornburg besuchte, nach

–––––––– 62 63 64 65 66

ID 2456-mit-inter (H: GSA 29/401,I,8, Bl. 28). ID 2456K-mit-inter (H: GSA 29/42, Bl. 186). Vgl. WA IV 44, S. 297, Nr. 226. ID 2462-mit-inter (H: GSA 26/LV,8, Bl. 5). ID 2462K-mit-inter (H: GSA 29/43, Bl. 197).

168

Héctor Canal

Weimar mitgenommen und wahrscheinlich dem Adressaten persönlich ausgehändigt.67 Vermutlich war diese persönliche Zustellung – das Paket musste nicht mehr aufwendig verpackt werden – der Grund für die Tilgung.

Ausblick Die hier präsentierten Vorschläge, Außenvarianz durch den synoptischen Vergleich von verschiedenen Textzeugen (Ausfertigung und Konzept) anschaulich darzustellen, bieten eine Grundlage für die Untersuchung der (Brief-)Schreibszene. Auch wenn die editorischen Prinzipien der Ausgabe des Goethe-Riemer-Briefwechsels in der Variantendarstellung keine Unterscheidung von Textschichten und somit keine textgenetische Entstehungsgeschichte vorsehen, ermöglicht doch der anschauliche textuelle Vergleich (bei gleichzeitiger Darstellung der Binnenvarianz) die Rekonstruktion der Briefgenese, zumal für den wissenschaftlichen Nutzer. Insbesondere die drei aufgeführten Beispiele von Goethes Konzepten vermitteln einen Eindruck der mitunter vorkommenden Komplexität der Überlieferungslage, angesichts derer die Unterscheidung von Abschrift und Konzept in Goethes Briefregistratur von Fall zu Fall und mit äußerster Sorgfalt zu treffen ist. Bedenkt man überdies die ausufernde Materialfülle, wird die Herausforderung im Hinblick auf die anstehenden Bände der Goethe-Briefausgabe evident. In den seit 2008 erschienenen sechs Bänden der Goethe-Briefausgabe gibt es nur fünf Fälle, in denen zusätzlich zu dem Textzeugen, der dem edierten Text zugrunde liegt, noch Konzepte überliefert sind.68 Den Ansprüchen einer historisch-kritischen Ausgabe gemäß werden sie dokumentiert und darüber hinaus im Volltext abgedruckt. In den dem Kommentarteil des Bandes vorangestellten „Hinweisen zur Benutzung“ heißt es dazu: Diese [Konzepte] werden in einem gesonderten Teil des Textbandes mitgeteilt. Sie tragen die Nummer des dazugehörigen Briefes mit nachgestelltem ‚K‘ […]. Im Unterschied zum edierten Text, dessen Varianten im Hinblick auf die bessere Zitierbarkeit in den Fußnoten mitgeteilt werden, erfolgt die Variantendarstellung der Konzepte in einem integrierten Apparat, doch unter Verwendung derselben Schriftarten, Siglen und Zeichen. 69

Diese Lösung, also die Konzepte komplett mit Binnenvarianten abzudrucken, ist die gründlichste. Zu berücksichtigen ist dabei, dass die Überlieferungslage ab den 1790er Jahren beträchtlich komplexer wird als bei den bereits erschienenen Bänden, die die

–––––––– 67

68 69

Der Wortlaut von Goethes Tagebucheintrag vom 30. August 1828 lautet, zumindest was im Zusammenhang mit der Sendung an Riemer betrifft: „John fing an das geologische Thermometer abzuschreiben. Ich bereitete Sendungen nach Weimar und Jena. […] Gegen Mittag kamen Ottilie, Ulrike und Wolf. Brachten manches Angekommene mit. Besprachen manches. […] Wir speisten zusammen und sie fuhren Abends wieder fort. […] Mitgegeben ward Nebenstehendes: […] Herrn Professor Riemer, Aufsatz über den Aberzahn; Verzeichniß der wünschenswerthen Bücher. […]“ (WA III 11, S. 271.) GB 3, Nr. 489K; GB 3, Nr. 490K; GB 8, Nr. 4K; GB 8, Nr. 88K; GB 8, Nr. 103K. GB 3 II, S. XXIII; GB 8 II, S. XVI.

Briefkonzepte im digitalen Medium

169

Briefe aus den Jahren 1764 bis 1779 (Band 1–3) und 1785 bis 1790 (Band 6–8) enthalten. Bei dem letzten der derzeit in Arbeit befindlichen Bände, der die 1799 und 1800 entstandenen Briefe enthält, sind bereits 34 Konzepte zusätzlich zum edierten Text aufzunehmen. Es ist abzusehen, dass für die Jahre nach 1807 ein vollständiger Abdruck aller überlieferten Konzepte mit integriertem Variantenapparat allein durch deren große Anzahl nicht mehr praktikabel sein wird, zumal sie den Rahmen des Buchs sprengten. Daher liegt die Frage nahe, ob nicht auf die zusätzlichen Möglichkeiten einer digitalen Edition zurückgegriffen werden müsste: Im Druck könnte der edierte Text des Textzeugen mit dem höchsten Grad an Autorisation angeboten und die dazugehörigen Konzepte nur in Auswahl vollständig abgedruckt werden – ein vollständiger Nachweis der Konzepte erfolgt selbstverständlich im Kommentarband, im Abschnitt zur Überlieferung. Ergänzend dazu würden alle Konzepte im digitalen Medium der PROPYLÄEN. Forschungsplattform zu Goethes Biographica als Digitalisate und als Volltexte zur Verfügung gestellt. Dies ist ein Ansatz, der nach den Erfahrungen mit dem GoetheRiemer-Briefwechsel sinnvoll erscheint.

Elisa Novara / Maja Hartwig

Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt am Beispiel des Duetts mit zwei obligaten Augengläsern WoO 32 Ein Werkstattbericht Einleitung (Abb. 1)1 Die in der Beethoven-Forschung als „Kafka-Skizzenkonvolut“ bekannte Sammlung von Skizzen und Manuskripten aus der früheren Bonner und Wiener Zeit beinhaltet eine aus vielen Gründen bis heute rätselhaft gebliebene Niederschrift zu einem Streichduo, welches keine Instrumentenangaben, aber eine Überschrift enthält: Duett mit zwei obligaten Augengläsern von l. v. Beethoven (Abb. 1).2 Die unvollendet gebliebene und deswegen als WoO 32 (Werk ohne Opuszahl 32) aufgelistete Komposition bietet ein gutes Beispiel, um Fragestellungen zum editorischen Umgang mit einem nicht abgeschlossenen Werk zu skizzieren: Welche Probleme treten bei der Betrachtung auf? Wie sind sie aus den verschiedenen Perspektiven der Skizzenforschung, der genetischen Textkritik und der digitalen Musikedition zu behandeln? Innerhalb des Projektes Beethovens Werkstatt stellt die digitale Darstellung des Duetts die bislang größte Herausforderung dar: Sie ist der erste Versuch, nicht nur einzelne genetische Varianten, sondern die Niederschrift zu einem vollständigen Satz textgenetisch zu bearbeiten und digital darzustellen. Ziel des vorliegenden Beitrages ist es, am Beispiel dieses Duetts eine Fallstudie vorzulegen, anhand derer die Zielrichtungen, die Denk- und Arbeitsweise sowie die theoretischen und praktischen Überlegungen des Projektes Beethovens Werkstatt erläutert werden können.

–––––––– 1

2

Die digitale Präsentation mit den Abbildungen finden Sie unter http://aau.at/musil/publikationen/ textgenese/novara-hartwig/. – Elisa Novara ist Autorin der ersten Beitragshälfte (Einleitung bis Transkription und Codierung: Abwandlung der Arbeitsmethoden), Maja Hartwig ist Autorin der zweiten Beitragshälfte (Die „Augengläser“ des (digitalen) Editors bis Fazit). Die Niederschrift befindet sich auf fol. 135r–137v, 119r des Skizzenkonvoluts. Das sog. ‚Kafka-SkizzenKonvolut‘ wird heute im British Museum in London aufbewahrt (Add. MS 29801); es wurde 1875 aus dem Besitz von Johann Nepomuk Kafka erworben. Vgl. ausführlich dazu die Skizzenausgabe in Faksimile und Transkription von Joseph Kerman: Ludwig van Beethoven. Autograph Miscellany from circa 1786 to 1799. British Museum Additional Manuscript 29801, ff. 39–162 (The „Kafka-Sketchbook“). London 1970.

https://doi.org/10.1515/9783110575996-011

172

Elisa Novara / Maja Hartwig

Das Projekt Beethovens Werkstatt3 In einem Brief an den Maler Alexander Macco schreibt Beethoven: „Mahlen sie – und ich mache Noten und so werden wir – ewig? – ja vieleicht ewig fort-leben“.4 Dass Beethoven schreibt, er „mache“ Noten, ist aus der Sicht unseres Forschungsprojekts bemerkenswert: zum einen, weil er die handwerkliche und schreibbezogene Herstellung von Notentexten (und eben nicht die Komposition von Musik) für sich reklamiert; und zum anderen, weil er damit implizit die bekannte Frage, ob wegen ihrer Realisierung in der Dimension der Zeit auch die Musik – wie Theater und Tanz – überhaupt zum Forschungsbereich der ‚critique génétique‘ gehören könne, positiv beantwortet zu haben scheint.5 Zu den zentralen Fragestellungen des Projektes gehört die Erforschung der schriftlichen Fixierung des Notentextes, welcher in der Dimension der Zeit mit jeder Aufführung wieder auflebt. Textgenetische Untersuchungen fragen nach dem Prozess des Schreibens, der sich in musikalischen Handschriften niederschlägt. Beethovens Werkstatthandschriften, Arbeitsmanuskripte und Entwürfe sind deshalb Ausgangspunkt der genetischen Betrachtung. 6 Ziel ist es, Beethovens Schreibprozesse und Kompositionsstrategien anhand der erstarrten Schreibspuren der Handschriften zu erforschen, zu rekonstruieren und digital zu vermitteln. Vergeblich wäre allerdings der Versuch, jeden einzelnen Schritt der Partiturentwicklung in einem zeitlichen Ablauf rekonstruieren zu wollen, ohne andere Hilfen wie z. B. weitere Textstufen, die vergleichend herangezogen werden, oder ausreichende skripturale Indizien einbeziehen zu können. Was wir erkennen können – selbst wenn die Rekonstruktion der Zeitlichkeit des Schreibpro-

–––––––– 3

4

5

6

Das im Jahr 2014 begonnene Projekt Beethovens Werkstatt. Genetische Textkritik und Digitale Musikedition wird von der Akademie der Wissenschaften und der Literatur Mainz für eine Laufzeit von insgesamt 16 Jahren gefördert. Der vorliegende Aufsatz erwuchs aus den Forschungsergebnissen des ersten Projekt-Moduls, das sich mit der digitalen Darstellung von genetischen Varianten befasst hat. Auf der Webseite www.beethovens-werkstatt.de sind alle bearbeiteten Fallbeispiele digital veröffentlicht. Es handelt sich jeweils um Varianten aus den Arbeitsmanuskripten zur Klaviersonate op. 111, zum Streichquartett op. 59/3, zum Lied Neue Liebe, neues Leben op. 75/2, zum ersten Satz der 8. Symphonie op. 93 und schließlich um alle Varianten in der Niederschrift des Duetts mit zwei obligaten Augengläsern WoO 32. Brief von Ludwig van Beethoven an Alexander Macco vom 2. November 1803 (BGA 169). In: Ludwig van Beethoven. Briefwechsel. Gesamtausgabe. Hrsg. von Sieghard Brandenburg. Bd. 1. München 1996, S. 196. Hervorhebungen i. O. Diese Frage stellt sich einer der Mitbegründer der ‚critique génétique‘, Jean-Louis Lebrave, in seinem Aufsatz: Can Genetic Criticism Be Applied to the Performing Arts? In: Genetic Criticism and The Creative Process. Essays from Music, Literature, and Theater. Hrsg. von William Kinderman und Joseph E. Jones. Rochester 2009, S. 68–80, allerdings mit Fokus auf ein Beispiel aus dem Bereich Theater. Die musikbezogene genetische Textkritik ist eine Teildisziplin der Musikphilologie: Sie greift einerseits die Methoden der im 19. Jahrhundert entstandenen Skizzenforschung auf, andererseits wurzelt sie in der aus den 60er Jahren stammenden und literarisch ausgerichteten ‚critique génétique‘. Über ihre Methoden und Zielsetzungen in der Musikwissenschaft wurde bisher wenig geschrieben. Vgl. besonders die Beiträge von Bernhard R. Appel: Sechs Thesen zur genetischen Kritik kompositorischer Prozesse. In: Musiktheorie 20, August 2005, H. 2, S. 112–122; und ders.: Über die allmähliche Verfertigung musikalischer Gedanken beim Schreiben. In: Die Musikforschung, 56, 2003, H. 4, S. 347–365.

Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt

173

zesses lückenhaft bleibt –, sind Handlungsmuster, Routinen und kompositionsstrategische Konstanten, die gattungsspezifisch die Modalitäten des Schreibens bestimmen. Hierauf liegt der Fokus des Projektes; hiervon erhofft es sich Erkenntnisgewinn. Um musikalische Komposition anhand ihrer in den Manuskripten überlieferten Schreibspuren zu erforschen, wurden im ersten Modul des Projektes, das sich mit Variantendarstellung in symphonischen, kammermusikalischen und vokalen Werken beschäftigt hat, sogenannte ‚Textnarben‘ 7 als Erkenntnisquellen für die Rekonstruktion der Schreibprozesse betrachtet: In diesen graphisch auffälligen Zonen des Manuskriptes, in denen der Komponist seinen Text beispielsweise überschrieben, gestrichen oder etwas aufgeklebt, aus denen er etwas herausgeschnitten oder die er einfach auch nur kommentiert hat, konzentrieren sich Indikatoren, die Auskünfte über die ihnen zugrundeliegenden Schreibprozesse geben können. Solche Indizien bezeichnen wir als ‚Metatexte‘, 8 weil sie etwas über den Notentext und seine Entstehung erzählen, ohne selbst Notentext zu sein. Aus der deutenden Verknüpfung zwischen dem sinntragenden Notentext und der Interpretation der Metatexte werden die verschiedenen Textvarianten rekonstruiert.

Multiperspektivischer Ansatz Um diese hochkomplexe Textdynamik überhaupt erforschen zu können, wird die Variantenbildung quasi in Standbilder zerlegt, wodurch sie aus verschiedenen Perspektiven betrachtet werden können: Ein und dieselbe Variante kann unter der Perspektive der Zeitlichkeit (Chronologie der Variantenabfolge), der skripturalen bzw. materiellen Schreiboperation (Streichung, Um-Schreibung, Neuschreibung usw.) oder auf der textuellen Ebene (z. B. als Textoperation der Tilgung, Ersetzung, Umstellung, Erweiterung) untersucht werden. Im Fall des Duetts mit zwei obligaten Augengläsern sind alle im Manuskript enthaltenen ‚Textnarben‘ systematisch untersucht worden, wobei über die genannten Perspektiven die zugrundeliegenden Prozesse mehr oder weniger klar erkannt und betrachtet werden konnten. Wird eine Variante aus der Perspektive des Textes, also hinsichtlich ihres musikalischen Inhalts betrachtet, wird sie als ‚Cleartext‘-Transkription 9 wiedergegeben; darüber hinaus kann man sie aber auch noch daraufhin untersuchen, ob und inwieweit zwischen ihr und den vorangehenden bzw. nachfolgenden Varianten eine partielle

–––––––– 7

8 9

Textstellen, an denen der Komponist Veränderungen vorgenommen hat, werden im Projekt als ‚Textnarbe‘ bezeichnet, weil hier der reguläre Textfluss durch Interventionen des Komponisten gleichsam ‚verletzt‘ und gleichzeitig diese ‚Verletzung‘ auch wieder ‚geheilt‘ worden ist. Zur projekt-spezifischen Beschreibung dieses und der nachfolgenden Begriffe siehe die Definitionen im online verfügbaren Glossar (http://beethovens-werkstatt.de/glossary/). Zum Begriff ‚Textnarbe‘ siehe auch die Abschnitte Textnarben als Erkenntnisquelle und Varianten und Variantenbildung von Richard Sänger. In: Expertengespräch zur genetischen Textkritik im Bereich Musik. Mainz 2015 (https://beethovenswerkstatt.de/prototyp/expertenkolloquium/textwachstum-und-variantenbildung/). Vgl. Glossar (Anm. 7). Vgl. ebd.

174

Elisa Novara / Maja Hartwig

Textidentität besteht. Diesen auf die genetische Verwandtschaft des Notentextes bezogenen Blick bezeichnen wir als ‚Invarianz‘-Perspektive. 10 Wird dieselbe Variante aus dem Blickwinkel ihres skripturalen Entstehungsweges betrachtet, so werden die einzelnen Schreibschichten isoliert, um daraus die Mikrochronologie des Schreibens zu ermitteln. Darüber hinaus lässt sich in günstigen Fällen feststellen, welche Schreiboperation einer Variantenbildung zugrunde liegt. Dabei zeigt sich etwa, ob der Komponist beim Schreiben arbeitsökonomisch vorgeht, indem er das bereits Geschriebene weiterhin nutzt, oder ob er durch Neu-Schreibung einen neuen Schreibansatz bevorzugt. Aus der Verknüpfung dieser einzelnen Betrachtungsaspekte kann man den schöpferischen Dialog, den Beethoven im Zuge des Schreibens mit seinem eigenen Text geführt hat, und somit sein kompositorisches Denken mehr oder weniger deutlich erkennen. Mit diesem auf Komplexitätsreduktion gerichteten multiperspektivischen Ansatz sind die Methoden der digitalen Musikedition aufs engste verknüpft: Nur das digitale Medium ermöglicht es, Einzelaspekte detailliert und aus verschiedenen Blickwinkeln betrachten zu können, ohne dabei den Gesamtüberblick zu verlieren.

Verschiedene Disziplinen – verschiedene „Augengläser“ (Abb. 2–3) Das Projekt Beethovens Werkstatt befindet sich an der Schnittstelle zwischen zwei Disziplinen, die einander ergänzen und sich wechselseitig beeinflussen: Die Erschließung der Handschrift zum Duett mit zwei obligaten Augengläsern ist aus der Sicht der genetischen Textkritik symbiotisch an die Methoden der digitalen Musikedition gekoppelt. Die Niederschrift des Duetts11 ist der Beethoven-Forschung schon seit Ende des 19. Jahrhunderts bekannt und vielfach untersucht worden. 12 Sie liegt auch in verschiedenen Editionen vor: Der erste Satz wurde erstmals 1912 bei Peters von Fritz Stein veröffentlicht; 1963 publizierte Willy Hess in den Supplementen zur Beethoven Gesamtausgabe sowohl den ersten Satz als auch die in der gleichen Sammelmappe überlieferten anderen Sätze (Menuett und Trio und einen fragmentarisch gebliebenen langsamen Satz). 1970 machte Joseph Kerman die Niederschrift in seiner grundlegenden Skizzenedition des ‚Kafka-Skizzenkonvoluts‘ als Quellenedition zugänglich. Und 2009 wurde das Werk schließlich von Emil Platen als praxisorientierte UrtextAusgabe herausgegeben. 13

–––––––– 10

11

12

13

Vgl. ebd. Eine digitale Darstellung von ‚Invarianz‘ ist für die Fallbeispiele des Liedes Neue Liebe, neues Leben op. 75/2 und des Streichquartetts op. 59/3 erprobt worden; beide sind ebenfalls auf der Webseite des Projektes verfügbar. Eine ausführliche Beschreibung zu Quelle und Werk befindet sich innerhalb der im Projekt entwickelten Software VideApp in der Kommentar-Ansicht. Aus diesem Grund wird hier auf eine erneute Quellenbeschreibung verzichtet und auf die entsprechende Seite der Software verlinkt: http://videapp.beethovens-werkstatt.de. Vgl. dazu besonders Alexander Wheelock Thayer: Ludwig van Beethovens Leben, nach dem Originalmanuskript deutsch bearbeitet von Hermann Deiters, neu bearbeitet und ergänzt von Hugo Riemann. Bd. 2. Leipzig 1910, S. 38–39 und 188–190. Vgl. dazu die entsprechenden Ausgaben: Duett mit zwei obligaten Augengläsern: Sonatensatz für Viola und Violoncello von L. van Beethoven. Für die Aufführung eingerichtet und hrsg. von Fritz Stein. Leipzig

Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt

175

Es handelt sich um ein besonderes Stück, da die einzige erhaltene Quelle zum Werk – die Londoner Niederschrift in der Skizzenmappe innerhalb des ‚KafkaSkizzenkonvoluts‘ – eine noch offene Werkstatt zeigt: Beethoven hat das Werk noch vor der Redaktionsphase abgebrochen. Es fehlen fast durchweg dynamische Angaben und Artikulationszeichen; die Handschrift ist an einigen Stellen sehr schwer lesbar; sie enthält einige Schreibversehen, unklare Textwegweiser sowie schreibökonomische Abkürzungen, die sich nicht eindeutig erschließen lassen – deutliche Anzeichen dafür, dass Beethoven die Komposition aufgegeben hat. Zwischen 1796 und 1797 soll die Komposition – der Überschrift zufolge für zwei Brille tragende Musiker – in Wien geschrieben worden sein. Aus der in der Handschrift vorhandenen Schlüsselung kann man ableiten, dass das Stück für Viola und Violoncello gedacht ist. Doch die zwei Musiker hinter den „obligaten Augengläsern“ lassen sich nicht eindeutig ermitteln: Lange Zeit hat die Beethoven-Forschung vermutet, dass Beethoven, der in den Bonner Jahren Viola spielte und selber eine Brille trug, das Duett für sich selbst und seinen Freund Nikolaus Zmeskall – einen gleichfalls Brille tragenden Amateur-Cellisten – geschrieben haben könnte. 14 Doch aufgrund der Datierung des Autographs und nicht zuletzt wegen der anspruchsvollen Cellopartie stellt Beethovens Begegnung mit den beiden berühmten Cellisten-Brüdern Jean-Louis und Jean-Pierre Duport, die er während einer Reise nach Berlin 1796 kennengelernt hatte, einen plausibleren Entstehungsanlass für die Komposition dar, zumal auch das aus Berlin stammende Notenpapier von Menuett und Trio in diese Richtung deutet. 15 Besonders Hugo Riemann hat sich in seiner revidierten Auflage von Thayers Beethovens Leben mit den auffälligen Einflüssen der sogenannten ‚Mannheimer

––––––––

14

15

1912; Ludwig van Beethoven. Supplemente zur Gesamtausgabe, Bd. 6. Hrsg. von Willy Hess. Wiesbaden 1963; Kerman 1970 (Anm. 2); Ludwig van Beethoven: Duett mit zwei obligaten Augengläsern WoO 32 für Viola und Violoncello. Hrsg. von Emil Platen (Urtextausgabe). München 2009. Als biographische Verknüpfung wurde ein Brief Beethovens an Zmeskall angeführt (BGA 35): „Je vous suis bien obligè pour votre faiblesse de vos yeux“ („Ich bin Ihnen sehr verbunden wegen der Schwäche Ihrer Augen“. Brief ohne Datum, vermutlich um 1798 geschrieben). In: Brandenburg 1996 (Anm. 4), S. 43. Zur Begegnung Beethovens mit den Duport-Brüdern vgl. Lewis Lockwood: Beethoven’s Early Works for Violoncello and Contemporary Violoncello Technique. In: Beiträge 76–78. Beethoven-Kolloquium 1977. Dokumentation und Aufführungspraxis. Hrsg. von der Österreichischen Gesellschaft für Musik. Kassel u. a. 1978, S. 174–182, sowie ders.: Beethoven’s Early Works for Violoncello and Pianoforte: Innovation in Context. In: The Beethoven Newsletter, Nr. 2, Bd. 1, Sommer 1986, S. 17–21. Übrigens sind auf dem Menuett-Blatt (fol. 119r) noch Skizzen zu den Cellosonaten op. 5 überliefert, die ebenfalls in Berlin komponiert und von Beethoven selber am Klavier und von Jean-Louis Duport am Violoncello im Sommer 1796 in Berlin am Hof Friedrich Wilhelms II. uraufgeführt worden sind. Schließlich ist die Ähnlichkeit zwischen Beethovens Menuett aus WoO 32 (fol. 119r) und der Übung in Es-Dur Nr. 16 aus dem berühmten Lehrwerk Jean-Louis Duports Essai sur le doigté du Violoncelle et sur la conduite de l’archet – 1806 in Paris veröffentlicht, aber sicherlich früher angefangen – noch ein Zeichen dafür, dass Beethoven aus dieser Begegnung in Berlin vermutlich viel über die aktuelle Cello-Technik seiner Zeit gelernt haben dürfte. Vgl. auch die weiteren Verknüpfungen mit Jean-Louis Duport im ‚Kafka-Skizzenkonvolut‘ auf fol. 57v („Billet an Duport Morgen frühe“, von Beethovens Hand), die VioloncelloÜbungen von fremder Hand auf fol. 109r sowie den heute noch inhaltlich unklaren, einzig erhaltenen Brief Duports an Beethoven von ca. 1798 (BGA 34a). In: Brandenburg 1996 (Anm. 4), S. 42f.

176

Elisa Novara / Maja Hartwig

Schule‘16 beschäftigt, wie sie beispielsweise die Gestaltung des ersten motivischen Einfalls erkennen lässt (Abb. 2). Riemann verweist ferner auf den „gewundene[n] Abstieg der Mannheimer“, der mehrfach im Duett vorkommt (Takt 7–8, 82–83) (Abb. 3). Riemann ist außerdem der Erste, der auf die Ähnlichkeit der motivischen Einfälle im Duett und denen des Quartetts op. 18/4 in c-Moll hinweist:17 Eingedenk fehlender Skizzen zu diesem Quartett vermutet er, dass das unabgeschlossene Duett als Ideensammlung zu op. 18/4 diente und dafür quasi ‚recycelt‘ wurde. 18 Aus textgenetischer Sicht ist diese zentrale, werkbezogene Fragestellung allerdings weniger entscheidend: Wenn der Fokus nur auf dem Prozess des Schreibens liegt, repräsentiert die im Manuskript letztgültige Formulierung nur einen unter vielen möglichen Zuständen des Textes, der Auskünfte über Beethovens Schreibgewohnheiten und Kompositionsstrategien offenbaren kann.

Die „Augengläser“ des Textgenetikers (Abb. 4–19) Die Brille des Textgenetikers entspricht eher einer Lupe: Er untersucht einen bestimmten kleinen Ausschnitt, diesen aber sehr gründlich. Die schriftliche Fixierung des ersten melodischen Einfalls des Duetts, der laut Riemann eine „Mannheimer Physiognomie“ besitzt, vollzieht sich durch verschiedene ‚Textzustände‘ (Abb. 4–8):19 In der Handschrift in Abb. 4 kann man deutlich erkennen, dass die dritte Note umgeschrieben worden ist: Sie war ursprünglich keine Halbe, sondern vermutlich eine Viertelnote, die zu einer halben Note schreibökonomisch umgewandelt worden ist – ein ‚skripturales Recycling‘.20 Abb. 5: Zur halben Note gehörte später ein Punkt, der allerdings gestrichen wurde, als sich Beethoven für die

–––––––– 16

17 18

19 20

Der Begriff ‚Mannheimer Schule‘ bezeichnet allgemein einen Musikerkreis, der sich in Mannheim in dem Zeitraum vom 1774 bis 1778 bildete. In den zeitgenössischen Aussagen wird der Begriff verwendet, um sowohl eine bestimmte Orchesterschule als auch eine Kompositionsschule zu definieren, die sich besonders auf die Figur des Komponisten und Violinisten Johann Stamitz beziehen. Im 20. Jahrhundert erhielt der Begriff durch Hugo Riemann eine spezifischere Bedeutung, die teilweise kontrovers diskutiert wird. Der Kompositionsstil der ‚Mannheimer Schule‘ ist laut Riemann von einigen auffälligen Merkmalen geprägt, deren Einflüsse auf die folgende Komponisten-Generation in der Forschung häufig thematisiert wurde: in diesem Fall bezeichnet Riemann z. B. das Eröffnungs-Thema des Duetts „ein Thema von so starker Mannheimer-Physiognomie, daß es direkt auf Cannabich oder Carl Stamitz weist.“ Vgl. Thayer 1910 (Anm. 12), S. 188. Zur Relativierung der Forschungen Riemanns vgl. Ludwig Finscher: Die Mannheimer Hofkapelle im Zeitalter Carl Theodors. Mannheim 1992. Joseph Kerman zitiert Riemann und schlägt selber einen ähnlichen hypothetischen Weg vor. Vgl. dazu Joseph Kerman: The Beethoven Quartets. New York 1967, S. 65f. Vgl. die Anmerkung Riemanns in der von ihm revidierten Auflage von Thayer (Thayer 1910, Anm. 12, S. 188f.): „Das gänzliche Fehlen von Skizzen für das c-Moll-Quartett ist auffällig und legt den Gedanken nahe, daß wir in demselben eine ältere Arbeit vor uns haben. Vielleicht finden sich aber doch für den einen oder den anderen Satz noch Ansätze in den Skizzenbüchern, die bisher auf andere Werke bezogen worden sind (eine Möglichkeit, die gar nicht selten vorliegt). Für den ersten Satz ist aber nunmehr eine ganz zweifellose Beziehung nachweisbar, wenn auch vielleicht keine Wurzel, geschweige eine Skizze, nämlich in dem noch unveröffentlichten ‚Duett für zwei obligate Augengläser‘ in dem Kaffkaschen [sic] Sammelbande (Brit. Museum add. MSS. 29801) über das oben (S. 38f.) bereits einige Bemerkungen gemacht sind.“ Vgl. Glossar (Anm. 7). Vgl. ebd. den Begriff ‚Um-Schreibung‘.

Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt

177

Wiederholung anstelle der Verlängerung der Note entschied: Eine Viertelnote wird also vor der Halben neu hinzugeschrieben. Abb. 6: Beethoven entscheidet sich aber nochmal um. Die Note wird zusätzlich mit einem Oktavsprung verknüpft. Dafür wandelt der Komponist die letztgeschriebene Note abermals durch Um-Schreibung in eine Achtel um und fügt davor eine Achtelnote hinzu. Der skripturale Weg ist quasi rückwärts zu lesen. Dies wird durch die Schreibgewohnheit Beethovens ermöglicht, immer ein wenig Platz am Anfang jedes neuen Taktes zu lassen, um eventuelle Umformulierungen ad hoc und an Ort und Stelle vornehmen zu können. Abb. 7: Bei einem erneuten Blick auf die Partitur lässt sich zudem konstatieren, dass die Parallelstelle in der Violoncellostimme (Takt 10) eine ähnliche Variantenbildung aufweist. Zwischen den beiden Variantenstellen besteht also ein logischer Zusammenhang, der Auskünfte über die Mikrochronologie des Schreibens liefert: Diese Varianten sind zeitlich parallel entstanden. Solche Variantenzusammenhänge bezeichnen wir als Varianten-‚Kohärenz‘.21 Es gibt in dieser Handschrift zwei besondere Takte, die sowohl Beethoven als auch alle Editoren offensichtlich intensiv beschäftigt haben: Abb. 8. Aufgrund der Streichungen wurde diese Textpassage in der ersten Edition von 1912 gänzlich weggelassen: Sie wurde als getilgt interpretiert und deshalb ausgelassen. In den anderen erwähnten Ausgaben wurde sie zwar wiedergegeben, aber der letzte Takt (Takt 82) als fragliche Lesart gekennzeichnet. Allerdings stellt die Rekonstruktion eines (aufführbaren) Werktextes – und damit die Frage nach der Gültigkeit dieser Textpassage – nur eine Möglichkeit dar, die Handschrift zu lesen, nämlich im Sinne einer herkömmlichen Musikedition. Ziel des Projektes Beethovens Werkstatt ist es jedoch, den Fokus auf den Schreibprozess und damit auf Beethovens Schreibstrategien zu legen, wobei die letztgültige Gestalt des Notentextes von sekundärer Bedeutung ist. Über die Analyse metatextlicher Elemente wurde in diesem Abschnitt versucht, die verschiedenen Schreibprozesse zu isolieren, um ihre Mikrochronologie zu rekonstruieren. Dazu wurden alle Bestandteile der ‚Textnarbe‘ für sich untersucht und voneinander getrennt. Im Projekt werden grundsätzlich drei verschiedene Ebenen innerhalb einer handschriftlichen Partitur22 unterschieden: – – –

der sinntragende Notentext, explizite Metatexte, also die von Beethoven selbst eingetragenen Anmerkungen verschiedenster Art wie z. B. Streichungen, Verweiszeichen, Tonbuchstaben, aber auch verbale Kommentare zum Notentext, und implizite Metatexte, also die unabsichtlichen Begleiterscheinungen des Schreibprozesses wie z. B. verschobener Notenuntersatz, Veränderung der Tintenfarbe usw.

–––––––– 21 22

Vgl. ebd. den Begriff der ‚Kohärenz‘. Vgl. ausführlich dazu Bernhard R. Appel: Textkategorien in kompositorischen Werkstattdokumenten. In: „Ei, dem alten Herrn zoll’ ich Achtung gern’“. Festschrift für Joachim Veit zum 60. Geburtstag. Hrsg. von Kristina Richts und Peter Stadler. München 2016, S. 49–59.

178

Elisa Novara / Maja Hartwig

Die genannte, aufgrund der Notierung schwierig zu lesende Textpassage in Takt 79–82 (Abb. 8) enthält alle diese Textebenen, die im Folgenden aufgelistet und gedeutet werden. Diese Stelle textgenetisch zu betrachten ermöglicht es, das Manuskript so minuziös wie möglich zu beschreiben und daraus Beethovens Schreibgewohnheiten, -strategien und -spuren abzuleiten: 23 –

– –



– – –

Ein implizites Metatext-Element, nämlich Beethovens Schreibgewohnheit, die Takte immer ungefähr gleich groß zu gestalten, liefert einen wichtigen Hinweis (Abb. 9): Die zwei ausgestrichenen Takte in der 2. Akkolade waren zunächst nur ein einziger Takt: Wie im vorherigen Beispiel schon beobachtet, lässt Beethoven konsequent einen kleinen freien Platz links innerhalb des Taktes für eventuelle textuelle Umentscheidungen. Die Tatsache, dass dieser Platz hier in Takt 79–82 (Abb. 8) fehlt, zeigt, dass diese beiden Takte ursprünglich ein Takt waren. Noch ein weiteres implizites Metatext-Element liefert Informationen zum Schreibprozess in Takt 79–82 (Abb. 10): der Notenuntersatz in der Cellostimme, also die Berücksichtigung des gleichzeitig Erklingenden in einer korrespondierenden räumlichen Disposition des Notats. Es scheint offensichtlich, dass der Bass erst dann geschrieben worden sein kann, als der Takt schon in zwei Takte aufgeteilt worden war, denn er korrespondiert im Untersatz genau mit der hinzugekommenen ersten Hälfte des Taktes. Dies belegt eine ad-hoc vorgenommene Variantenbildung (aus einem Takt werden zwei), die entstanden ist, als der Takt noch unvollständig war. Noch ein weiterer Metatext, der Schreibraum, gibt Auskunft über die Reihenfolge dieser Schreibprozesse (Abb. 11–13): Zu irgendeinem Zeitpunkt arbeitete Beethoven besonders intensiv den Sechzehntellauf in der 2. Takthälfte um. Aus Platzgründen weicht er unten auf der Seite auf das 15. System aus und schreibt eine neue Variante nieder. Diese zeigt aber wiederum, wie schon oben, einen eingeschobenen Takt: Demnach vergrößerte Beethoven auch diesen Textabschnitt. Abb. 14: Der in Beethovens Manuskripten am häufigsten benutzte Textwegweiser „vi=de“ macht darauf aufmerksam, dass der Text an anderer Stelle fortfahren soll, nämlich unten im 15. System. Abb. 15: In einem weiteren Revisionsvorgang schreibt der Komponist dann eine neue Variante nieder, die aus fünf Takten besteht. Abb. 16: Die verbale Anmerkung Beethovens „gut“ – ebenso ein expliziter Metatext wie der „vi=de“-Verweis – verrät etwas über die Zeitlichkeit des Schreibprozesses: Die Restituierungsmaßnahme ist am Ende der Umformulierungen entstanden, nachdem Beethoven schon die andere Möglichkeit – in der darüber liegenden Zeile – ausprobiert haben dürfte, und nachdem er sie auch schon gestrichen hatte.

–––––––– 23

Vgl. Quellen-Ansicht und Kommentar-Ansicht der VideApp unter: http://videapp.beethovenswerkstatt.de (Abruf am 26.01.2019).

Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt



179

Abb. 17: Schließlich sei noch auf ein weiteres explizites metatextliches Element hingewiesen: Der durchstrichene Kreis, der ähnlich wie der „vi=de“-Verweis wie ein Wegweiser im Text funktioniert, verbindet den ausgelagerten Notentext unten auf der Seite (15. System, vor dem letzten Takt) mit dem oberen. Somit ist der Notentext in seiner regulären Abfolge zu lesen.

Zusammenfassend lässt sich über die Schreiboperationen sagen, dass aus einem ursprünglichen Einzeltakt zunächst zwei, dann drei, vier und fünf Takte werden. In der stufenweisen Ausdehnung des Taktumfangs – also: auf einer skripturalen Ebene – spiegelt sich zudem der kompositorische Hintergrund dieser ‚Textnarbe‘ wider. Auf der Ebene des Textes besteht die Variantenbildung aus einer allmählich ausgedehnten Wiederholung des Dominantseptakkords, die die angestrebte Auflösung zur Tonika immer weiter verschiebt und verzögert. Dabei verlängert Beethoven den Text stufenweise um je einen Takt sowohl nach hinten als auch nach vorne, aber Harmonie und musikalischer Inhalt bleiben unverändert. Er dehnt die ursprünglich aus einem Takt bestehende Modulation auf bis zu fünf Takte aus, um am Ende zu einer Lösung mit drei Takten zurückzukehren, die nun verbindlich werden sollte. Der musikalische Kern der Variantenbildung – eine Figuration mit vier Achteln und einem Sechzehntellauf – bleibt dabei konstant; er wird lediglich nach vorne verschoben.

Transkription und Codierung: Umwandlung der Arbeitsmethoden Was der Textgenetiker mit Hilfe dieser Interpretation vorlegen kann, sind philologische Konstrukte, die in eine Transkription sorgfältig übersetzt und in eine angemessene Darstellungsform gebracht werden müssen. Das Gewicht, das vermutlich jeder Textgenetiker auf die Erstellung einer entsprechenden Transkription legt, wird allerdings im Umgang mit digitalen Arbeitsmethoden verlagert: Die zunächst handschriftliche Transkription durch den Textgenetiker reicht nur ansatzweise aus für die im Projekt angestrebte Verknüpfung von Beethovens Schreibprozessen und deren Codierung in dem Datenformat MEI, das als musikbezogene Parallelentwicklung zum Textformat TEI konzipiert wurde. 24 Wie es Jean-Louis Lebrave formulierte, ist die Transkription immer „zugleich reicher und ärmer als die zugrundeliegende Handschrift“.25 Sie ist reicher, weil sie die Handschrift in klar lesbaren Notentext überträgt, und gleichzeitig auch ärmer, weil die metatextlichen Elemente, die zur Rekonstruktion der Variantenstelle geführt haben, schon übersetzt worden sind. Die Transkription zeigt nur eine mögliche Interpretation, nämlich die textuelle bzw. inhaltliche Ebene der Variantenstelle, die durch die Codierung – zusammen mit allen anderen Erkenntnissen – einen umfassenderen Blick auf die Handschrift gewährt. In der Transkription sind alle metatextlichen Informationen schon ‚übersetzt‘ worden und nicht mehr als eigentlicher Metatext vorhanden. Diese Art von

–––––––– 24 25

http://music-encoding.org (Abruf am 12.09.2018). Zit. aus Almuth Grésillon: Literarische Handschriften. Einführung in die ‚critique génétique‘. Bern u. a. 1999 (Arbeiten zur Editionswissenschaft. 4), S. 157.

180

Elisa Novara / Maja Hartwig

Transkription wurde im Projekt Beethovens Werkstatt ‚Cleartext‘ genannt, denn damit wurde der Text in einer ‚klaren‘, eindeutigen und Konventionen folgenden Notation wiedergegeben: Er ist zum einen von allen Metatexten befreit, und zum anderen ‚klärt‘, übersetzt und deutet er den Befund. In der Codierung aber wird der Fokus zunächst wieder auf die Handschrift und auf all das, was zum Prozess des Schreibens gehört, gelegt: Das Lokalisieren und Festhalten aller Zeichen, die aus der Transkription im ‚Cleartext‘ ausgeklammert worden sind, ist ein wesentlicher Bestandteil der Codierung. Die Handschrift wird dort wieder in allen erfassbaren Zeichen festgehalten.

Die „Augengläser“ des (digitalen) Editors (Abb. 18–27) Ein zentrales Anliegen des Projekts Beethovens Werkstatt ist an diesem Punkt erreicht: Das inhaltliche Aufschlüsseln und ‚Entziffern‘ einer Handschrift und somit die Bestimmung einer möglichen Reihenfolge von Schreibprozessen sowie deren Dokumentation und Präsentation in digitaler Form sind Ziele der Arbeiten an der Schnittstelle zwischen Musikwissenschaft und angewandter Informatik. Im Grundlagenforschungsprojekt Beethovens Werkstatt ist dies aus der Perspektive der Digital Humanities ein Ansatz, um Konzepte und Methoden für diese neuartige Verbindung zu entwickeln. Die Methoden und Tools einer digitalen Edition können für den Textgenetiker den Umgang mit den beschriebenen Problemen erleichtern und ihn in seiner Arbeit unterstützen, da sie mitunter den Blickwinkel auf bestimmte Fragestellungen verändern oder auch ganz neue Perspektiven aufzeigen. Im Folgenden werden diese anhand einiger Beispiele sowie einer Beschreibung des mittlerweile etablierten Workflows innerhalb des Projektes Beethovens Werkstatt ausgeführt. Um musikalische Schreibprozesse Beethovens nachvollziehen zu können, müssen die vorliegenden Handschriften in der vorstehend beschriebenen Form genauestens untersucht werden. Wie erwähnt, wurden dafür im ersten Modul des Projekts einzelne ‚Textnarben‘ ausgewählt, deren jeweilige Bestandteile erfasst und die dabei zu beobachtende Variantenbildung in Standbilder zerlegt. Zu den Bestandteilen einer ‚Textnarbe‘ gehören nicht nur die sichtbaren musikalischen Inhalte wie Noten, Pausen etc., sondern auch die sogenannten metatextlichen Informationen, deren Betrachtung Voraussetzung dafür ist, Schreib- und Textoperationen sowie die Zeitlichkeit von Schreibprozessen zu deuten. In einer ‚analogen‘ Ausgabe würden hier rasch Grenzen erreicht; eine adäquate Umsetzung sämtlicher Informationen in traditioneller Form, d. h. in statisch beschreibender Buchform, erscheint nahezu unmöglich. Daher wurde für das Projekt Beethovens Werkstatt bewusst eine andere Methode gewählt, die es erlaubt, über die (in der Regel einen aufführbaren Werktext avisierenden) Bucheditionen hinauszugehen, um textgenetische Prozesse in Beethovens Schaffen darstellen zu können. Diese Methode basiert auf digitalen Techniken und ist auch für die Darstellung auf eine maschinenverarbeitbare Erfassung der Phänomene angewiesen. Innerhalb der Musikwissenschaft ist Beethovens Werkstatt das erste Grundlagenforschungsprojekt, das einen solchen Ansatz verfolgt: die Verknüpfung der Analyse textgenetischer Prozesse mit den Möglichkeiten, die durch die digitale Edition eröffnet werden. Um

Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt

181

stabile und nachhaltige Ergebnisse gewährleisten zu können, haben die Projektbeteiligten daher zunächst Methoden und Konzepte zur Umsetzung ihrer Beobachtungen in den Manuskripten entwickeln und erproben müssen. Die erste Fallstudie, die die Variantenabfolge einer Textpassage aus dem Autograph zur Klaviersonate op. 111 (Abb. 18) darstellt, brachte eine zügige Entwicklung der Software mit sich; ein erster Prototyp konnte rasch erscheinen. 26 Darauf aufbauend wurden weitere Beispiele erarbeitet, fallspezifische Darstellungsformen als eigene Prototypen veröffentlicht und die Software kontinuierlich erweitert und verbessert. So bezog sich die zweite Fallstudie auf einen Ausschnitt aus dem Autograph zum zweiten Satz des Streichquartetts op. 59/3, mit bereits komplexeren Formen der Variantenabfolge (Abb. 19). Hier wurden erstmals sowohl das Konzept von Invarianz als auch jenes zur Erfassung von Schreibprozessen im Faksimile digital erprobt, um in der Darstellung strikter zwischen Produkt (bezogen auf die Textebene) und Prozess (auf der skripturalen Ebene) unterscheiden zu können. Damit verbunden wurden grundsätzliche Leitfäden in Bezug auf die Visualisierung festgelegt. Die jüngsten Fallbeispiele, die nun in der sogenannten VideApp (Abb. 20) dargestellt werden, beziehen sich auf die textgenetische Untersuchung der Schluss-Varianten des ersten Satzes der 8. Symphonie op. 93 sowie des Liedes Neue Liebe, neues Leben op. 75/2 und der Bearbeitung des vollständigen ersten Satzes aus dem Duett mit zwei obligaten Augengläsern WoO 32. Wie sich genetische Textkritik konkret im musikalisch-digitalen Bereich umsetzen lässt, sei nachfolgend erläutert. Die Manuskripte Beethovens wurden, wie oben beschrieben, zunächst sehr detailliert untersucht und aufbereitet; danach wurde im (noch analogen) Arbeitsprozess eine handschriftliche Transkription der einzelnen Varianten erstellt, die jeweils als Diskussionsgrundlage diente. Gleichzeitig wurden XMLCodierungen der zu bearbeitenden Werkausschnitte vorbereitet und bereitgestellt.27 Um die Integration in die Software und eine optimale Grundlage zur weiteren Verarbeitung zu gewährleisten, werden alle Beispiele, die Gegenstand genetischer Forschung sein sollen, im MEI-Format28 vorgelegt. MEI hat sich mittlerweile als Standard in der Musikcodierung etabliert und wird daher in zahlreichen nationalen und internationalen Projekten angewendet. Es handelt sich dabei um eine Auszeichnungssprache, die sich formal der XML-Strukturen29 bedient. Da es im Gegensatz zur Textauszeichnung im Digitalen keine bedeutungstragende bildliche Entsprechung für einzelne Noten und andere musikalische Zeichen gibt, werden diese tatsächlich beschrieben und nicht nur –

–––––––– 26

27 28 29

Dieser erste Prototyp stellt eine Variantenstelle aus dem I. Satz der Klaviersonate op. 111 von Beethoven dar. Die Bearbeitung zeigt den Schreibprozess in den Takten 132–134 auf den S. 14 und 17 des autographen Manuskripts durch Einfärbungen im Faksimile und durch (mit den damals noch sehr eingeschränkten Möglichkeiten der MEI-Darstellungsbibliothek Verovio erstellte) Transkriptionen der acht textgenetisch aufbereiteten Varianten in der rechten Spalte. Letzteres geschieht in der Regel durch das automatische Generieren aus anderen, bereits vorliegenden Datenformaten, so dass zunächst nur ‚Rohdaten‘ vorhanden sind. http://music-encoding.org/ (Abruf am 12.09.2018). https://www.w3schools.com/xml/xml_whatis.asp (Abruf am 12.09.2018).

182

Elisa Novara / Maja Hartwig

wie in einem sprachlichen Text – mit Markup markiert (Abb. 21).30 Dies geschieht für jedes auf einer Manuskriptseite geschriebene Zeichen. Eine solche Überführung der Papier-Transkription in eine menschen- und rechnerlesbare Repräsentation durch die XML-Codierung ist notwendig, um die textgenetische Rekonstruktion der Schreibprozesse sowie der Varianten digital sichtbar machen zu können. Ziel ist es, philologische Erkenntnisse und methodologische Konzepte zur Werkgenese durch das digitale Medium transparent(er) zu machen. Dabei wird eben nicht nur die letztgültige Version eines Schreibvorgangs angeboten, sondern auch der gesamte Prozess – also sämtliche Stationen. Die strikte Trennung zwischen Dokument und Text, d. h. zwischen dem auf dem Faksimile basierenden Befund und dessen Deutung durch die Codierung, erfordert zur Erfassung und Zuordnung der graphischen Einheiten des Faksimiles die Verwendung des Formats SVG. 31 Gegenwärtig wird dabei jedes einzelne Zeichen innerhalb des Manuskripts mithilfe eines Tablets „nachgemalt“, um seine Umrisse und Gestalt zu erfassen; daraus generierte sogenannte SVG-Shapes werden dann in die MEI-Codierung eingebettet. In der Codierung werden also musikalische Inhalte und explizite Metatexte sowie sämtliche SVG-Pfade aller einzelnen Zeichen abgespeichert und miteinander verknüpft (Abb. 22: Video). Ein innerhalb von Beethovens Werkstatt entwickeltes Werkzeug ist die sogenannte ‚genetische Sandbox‘ (Abb. 23), 32 die dazu dient, bereits vormarkierte einzelne SVGPfade dem daraus zusammenzusetzenden jeweiligen Zeichen oder einer zusammenhängenden Zeichenfolge zuzuordnen (etwa durch die Gruppierung von Notenköpfen und Hälsen zu einer Note oder von mehreren Zeichen zu einer Notengruppe) und die somit die Transkription unmittelbar mit dem Faksimile verknüpft. Dadurch wird es möglich, einzelne Noten oder auch ganze Schreibschichten später in der Anwendung gezielt hervorzuheben; darüber hinaus wird eine zweifelsfreie Identifikation eines Zeichens bei z. B. mehrfacher Um-Schreibung garantiert – wie im oben beschriebenen Fall aus dem Duett mit zwei obligaten Augengläsern WoO 32, Takt 2. Ferner ist durch eindeutige Identifikationsnummern für jeden einzelnen Eintrag im Faksimile die Möglichkeit gewährleistet, auf eben diese Zeichen referenzieren zu können. Um die einzelnen Varianten strukturiert zu erfassen, bietet MEI Elemente und Attribute zur Definition bzw. Beschreibung von Tilgungen, Ersetzungen, Umstellungen und Erweiterungen an. Doch es wurde sehr bald deutlich, dass die Möglichkeiten, die MEI zur Codierung bietet, zwar sehr reichhaltig sind und weit über die Angebote anderer Formate hinausgehen, für die Erfassung textgenetischer Prozesse jedoch erwei-

–––––––– 30

31 32

Der gewöhnlich aus ASCII-Zeichen zusammengesetzte sprachliche Text kann mit bedeutungstragendem Markup angereichert werden, das sich ebenfalls aus ASCII-Zeichen zusammensetzt. Dagegen brauchen musikalische Zeichen für die Bearbeitung im Rechner eine Übersetzung in den ASCII-Zeichensatz, d. h. ein grafisches Notensymbol wird hier durch die verbalsprachliche Bezeichnung „note“ mit entsprechenden Attributen repräsentiert. http://beethovens-werkstatt.de/glossary/svg/. Außerdem ist die Sandbox ein überaus nützliches Werkzeug zur Ermittlung der verschiedenen Schichten eines Schreibprozesses, indem unterschiedliche Möglichkeiten der Zusammensetzung von Einträgen durch Einfärben der Zeichen ‚ausprobiert‘ werden können.

Zur digitalen Variantendarstellung im Projekt Beethovens Werkstatt

183

tert werden müssen. Durch die bearbeiteten Beispiele und deren inhaltliche Erschließung erweiterte sich daher jeweils auch das Codierungsmodell. Ein Beispiel dafür sind die von Beethoven oft – wie etwa im Duett mit zwei obligaten Augengläsern WoO 32 – benutzten durchstrichenen Kreise für die Markierung von Anschlussstellen (Abb. 24). Sie geben Aufschluss darüber, welche musikalischen Abschnitte zusammengehören bzw. zu welchem Zeitpunkt welcher Teil gültig sein soll. In der Codierung wird diese Form von Metatext mit dem ‚neuen‘ Element erfasst, das zudem genaue Beschreibungen zu dessen Funktion enthält. 33 Um die Varianten, welche in der Codierung erfasst sind, als Notentext wieder anzeigen zu können, wird die Rendering-Software Verovio34 genutzt. Das Programm ist als Paket in die Software eingebunden und transformiert die MEI-Codierungen wieder in lesbaren Notentext. So können die einzelnen Schichten einer ,Textnarbe‘ auch einzeln angezeigt werden. Dies geschieht über eine textgenetische Navigation innerhalb der Anwendung (Abb. 25). Durch Anklicken der einzelnen Variantenstellen kann beliebig vor- und zurückgesprungen, können chronologische Abläufe nachvollzogen und im Faksimile sichtbar gemacht werden – immer mit der Option, eine Transkription unmittelbar oder synchron ansehen zu können. Für all diese Funktionen sind neben einer sehr komplexen Softwarearchitektur äußerst detailliert erfasste und ‚saubere‘ Daten vonnöten. Schließlich wird auch die Chronologie der Schreiboperationen in der Codierung erfasst, indem im MEI-Head35 sogenannte ‚Container‘ angelegt werden, die den Prozess tatsächlich beschreiben, um schließlich durch Rückbezug zum Notentext miteinander verknüpft werden zu können. Innerhalb von -Elementen werden die jeweiligen Schichten der ,Textnarbe‘ beschrieben. Sie bekommen eine eindeutige Identifikationsnummer und einen Namen sowie weitere Attribute zugewiesen, die Aufschluss darüber geben, zu welchem Zeitpunkt die Schreiboperation stattfand. Eine Operation A wurde z. B. definitiv vor einer Operation B ausgeführt, dazwischen könnte aber noch x, y, z ausgeführt worden sein. Enthalten ist außerdem eine sogenannte (Abb. 26), die es ermöglicht, dieser Beschreibung der Operationen alle mit SVG erfassten Zeichen, die zu einer einzelnen Schicht gehören, zuzuordnen. Dabei kann ein Zeichen durchaus auch Bestandteil verschiedener Schichten sein, aber dennoch separat angesprochen werden. All diese Informationen sowie die Einbindung des Faksimiles in die Codierung sind Grundlage für die Programmierung der Software, vermittels derer die Schreiboperationen Beethovens visualisiert und tatsächlich ‚beweglich‘ gemacht werden. In

–––––––– 33

34 35

Die VideApp ist so programmiert, dass ein Anklicken des Symbols dem Nutzer erlaubt, dem Verweis zu folgen und an die entsprechende Anschlussstelle zu gelangen. Dies geschieht zum Beispiel durch die XML-basierte Abfragesprache XQuery, welche dazu dient, aus großen XML-Datensammlungen einzelne Einträge oder Abschnitte herauszusuchen. Sie ermöglicht es, den durchstrichenen Kreis und den dazugehörigen Anschluss aus dem Beispiel in der MEI-Datei zu finden. http://www.verovio.org/index.xhtml. ‚Kopf‘ einer MEI-Datei, in dem sämtliche bibliografischen Angaben sowie generelle Beschreibungen und Anmerkungen ihren Platz finden (https://music-encoding.org/guidelines/v4/content/metadata.html).

184

Elisa Novara / Maja Hartwig

der Rekonstruktionsansicht36 der VideApp kann durch die Aktivierung einer speziellen Funktion der Schreibprozesse nach und nach in einem dafür gezielt manipulierten Digitalisat der Handschrift eingeblendet werden. Das besprochene Beispiel aus dem Duett mit zwei obligaten Augengläsern ist nicht nur inhaltlich eine Herausforderung, sondern auch technisch. Für Beethovens Werkstatt stand hier erstmals nicht – wie bis dahin – eine ausgewählte einzelne Variantenstelle im Mittelpunkt; vielmehr rückte nun ein vollständiger Satz in den Fokus, was die Visualisierung mehrerer Variantenstellen innerhalb des Gesamtwerks erforderte. Die entsprechend komplexere Umsetzung der Inhalte auf Codierungsebene sowie die Entwicklung einer Software mit nutzerfreundlicher Führung waren – und sind nach wie vor – eine Herausforderung. Für die Nutzerführung sind sogenannte ‚Touren‘ entwickelt worden, die es dem Nutzer erlauben, Schritt für Schritt durch die Anwendung zu klicken und Hinweise zur formalen Benutzung zu erhalten (Abb. 27). Die Erfahrungen während der Entwicklung der vorangegangenen Prototypen für die Beispiele aus op. 111, 59/3, 93 und 75/2 führten schließlich zum Entschluss, die Software neu aufzusetzen und nicht prototypisch skizzierte Einzel-Werkzeuge, sondern ein einheitliches Gesamtpaket anzubieten, um im Hinblick auf die inhaltlichen Anforderungen Stabilität und Nachhaltigkeit der Software gewährleisten zu können.

Fazit Ein grundlegendes Prinzip von Beethovens Werkstatt ist es, Möglichkeiten des Experimentierens mit verschiedenen Darstellungsformen zu erschaffen, die die Denkweisen, Methoden und Konzepte des Projektes sichtbar machen. Dabei hat sich gezeigt, dass innerhalb der verschiedenen Forschungsansätze – genetische Textkritik und digitale Musikedition – zunächst terminologische Klarheit 37 geschaffen werden muss, um die oben angesprochene Multiperspektivität adäquat umsetzen zu können. Denn hier liegt auch einer der größten Vorteile der Verbindung von digitaler Arbeitsweise mit genetischer Textkritik: Die Möglichkeit, die gleiche Variante aus verschiedenen Blickwinkeln zu betrachten und darzustellen – in einer Form, wie sie traditionell im Buch nicht möglich war. Wichtig ist dabei nicht nur, die zugrundeliegenden philologischen Erkenntnisse und methodologischen Konzepte nun durch das digitale Medium in neuer Form zu vermitteln, sondern auch durch die Verwendung eines maschinelle Zugriffe und Operationen erlaubenden Codierungs-Standards die Grundlagen für künftige Forschungsansätze und -perspektiven zu schaffen und nachhaltig zu verankern.

–––––––– 36

37

Diese Funktion ist gegenwärtig nur in dem Beispiel op.75/2 nutzbar. Hier ist es möglich in der QuellenAnsicht einen Schieberegler zu benutzen, der die Schreibschichten chronologisch nacheinander einblendet. Um diese terminologische Klarheit gewährleisten zu können, wird sowohl ein philologisches als auch ein technisches Glossar innerhalb von Beethovens Werkstatt entwickelt (vgl. Anm. 7).

Margret Jestremski / Torsten Roeder

Verschränkte Wege zum Ziel Zum Workflow der Hybridedition Richard Wagner Schriften (RWS)

Zielsetzung Gegenstand des Forschungsprojekts Richard Wagner Schriften1 ist die wissenschaftliche Erschließung und historisch-kritische Edition der Schriften Wagners, also jener knapp 200 Texte, die der Komponist oft begleitend – man könnte auch sagen: kommentierend – zu seinen musikalischen Werken verfasst hat. Geplant ist die Veröffentlichung einer gedruckten Ausgabe in Verbindung mit digitalen Bestandteilen, also eine hybride Edition. Dort wird angestrebt, bereits im Arbeitsablauf die Vorteile von Printund Digitalmedien gleichermaßen auszuschöpfen – d. h. den Begriff ‚Hybridedition‘ sowohl als Merkmal des Endprodukts als auch der Arbeitsabläufe zu verstehen. 2 Wie dies in der Praxis aussehen kann, zeigt der folgende Beitrag anhand mehrerer Beispiele.3

Textgenese bei Wagner In der Regel ist das Schreiben von Texten bei Wagner anlassbedingt. Die Bandbreite reicht dabei von kurzen, kaum eine Seite umfassenden Artikeln oder tagespolitischen Glossen bis zu weitausgreifenden Abhandlungen über kunsttheoretische und ästhetische Fragen. Wagner unternahm mehrere Anläufe zur Bündelung verschiedener Einzeltexte oder Textgruppen, 4 ehe er schließlich um 1869/70 eine Auswahl seiner in den

–––––––– 1

2

3

4

Editionsvorhaben Richard Wagner Schriften (RWS). Historisch-kritische Gesamtausgabe am Institut für Musikforschung der Julius-Maximilians-Universität Würzburg unter Leitung von Prof. Dr. Ulrich Konrad und in Trägerschaft der Akademie der Wissenschaften und der Literatur Mainz; Laufzeit 2013–2028. – Näheres zu Konzept und Aufbau des Projekts siehe: Ulrich Konrad [mit Exkursen von Margret Jestremski und Christa Jost]: Richard Wagner Schriften (RWS). Historisch-kritische Gesamtausgabe. Dimensionen und Perspektiven eines Editionsvorhabens. In: Wagnerspectrum 10, 2014, H. 1, S. 205–236. – Weitere Informationen zu dem Projekt unter: http://www.musikwissenschaft.uni-wuerzburg.de/rws. Das Verhältnis zwischen analoger und digitaler Edition kann sehr unterschiedlich gestaltet werden; vgl. dazu die Idee des Spin-Off bei Patrick Sahle: Digitale Edition. In: Digital Humanities. Eine Einführung. Hrsg. von Fotis Jannidis u. a. Stuttgart 2017, S. 234–249, hier S. 243; DOI: https://doi.org/10.1007/9783-476-05446-3_17. Vgl. auch den Symposiumsbeitrag von den Autoren zum gleichen Thema: Richard Wagner Schriften (RWS): Hybridedition und hybrides Edieren, in: Symposiumsbericht „Stand und Perspektiven musikwissenschaftlicher Digital Humanities-Projekte“. Hrsg. von Berthold Over und Torsten Roeder. Mainz 2018 (Beitragsarchiv des Internationalen Kongresses der Gesellschaft für Musikforschung, Mainz 2016 – Wege der Musikwissenschaft), URN: urn:nbn:de:101:1-2018091210164428241542. Siehe dazu Konrad et al. 2014 (Anm. 1), S. 206f.

https://doi.org/10.1515/9783110575996-012

186

Margret Jestremski / Torsten Roeder

vorangegangenen 35 Jahren entstandenen und an verstreuten Stellen, meist in Zeitschriften, veröffentlichten Schriften in einer neunbändigen Ausgabe Gesammelte Schriften und Dichtungen (GSD)5 zusammenstellte und eigens dafür überarbeitete. Wagner verstand seine Schriften nicht zuletzt – dies offenbart auch die in GSD verfolgte Dramaturgie – als integralen Bestandteil seines Gesamtschaffens und zudem als Dokumente seiner Künstlerbiographie. Diese Zielsetzung Wagners bedingt den spezifischen Materialstand zur Entstehungs-, Überarbeitungs- und Überlieferungsgeschichte. Später, drei Jahrzehnte nach Wagners Tod, wurden außerdem die von ihm nicht in GSD aufgenommenen Schriften sowie diverse andere Textsorten wie Briefauszüge, Meldungen, öffentliche Berichtigungen etc. innerhalb einer orthographisch angepassten Neuauflage unter dem Titel Sämtliche Schriften und Dichtungen (SSD)6 als Supplement herausgegeben. GSD/SSD samt den dort vorliegenden Textfassungen sind seitdem bestimmend für die Rezeption des ‚Schriften‘-Korpus.

Editionskonzept Das Konzept der Edition sieht vor, den Erstdruck einer jeden Schrift Wagners ins Zentrum zu stellen, d. h. Grundlage der Edition bilden die Texte in der Gestalt, in der sie der Autor erstmals öffentlich machte und in der sie ursprünglich rezipiert wurden. Dies hat Konsequenzen für die philologische Aufarbeitung und die gestalterische Umsetzung: Der Erstdruck als ‚historischer Ort‘ ist quasi die zentrale Schnittstelle der Edition und wird als Lesefassung präsentiert, während die späteren textkritisch relevanten Drucke sowie sämtliche zugehörige handschriftliche Textzeugen im Apparat der Ausgabe dargestellt werden. Dieser Ansatz schlägt sich in der Anlage des Apparats und der Verzeichnungssystematik insgesamt nieder. Einer der Schwerpunkte der Überlegungen zur Textkritik war, wie sich wesentliche Aspekte der Entstehung einer Schrift Wagners, seines Schaffensvorgangs und seiner Überarbeitungen bis hin zur Herstellung der Sammelausgabe Gesammelte Schriften konzentriert und transparent darstellen lassen. Was kann z. B. die Verzeichnung von Varianten – und in welcher Präsentationsform – über die Werkstatt des Autors zutage fördern? Welche Rolle spielten äußere Einwirkungen, beispielsweise durch Korrektoren? Als Grundlinie zur Variantenerfassung und -darstellung wurde erstens die Gewichtung der Quellen nach ihrer Funktion bei der Konstituierung von Textstufen festgelegt. So werden beispielsweise Quellen zur Entstehung eines Textes stärker gewichtet als solche, die in erster Linie als Korrekturexemplare beim Druckvorgang fungierten. Des Weiteren waren die Wiedergabeprinzipien en détail zu modellieren:7 Ist eine statische oder eine prozessuale, eine topographische oder eine genetisch orien-

–––––––– 5 6 7

Richard Wagner: Gesammelte Schriften und Dichtungen. 9 Bde. Leipzig 1871–1873. Richard Wagner: Sämtliche Schriften und Dichtungen. Leipzig [1911–1914]. Die Verzeichnungsweise textkritischer Phänomene (jedoch innerhalb des Apparats, nicht als integrale Darstellung von Editionstext und Varianten) orientiert sich weitgehend an dem Vorbild der Edition von C. F. Meyers Briefwechsel. Historisch-kritische Ausgabe. Hrsg. von Hans Zeller † und Wolfgang Lukas. Göttingen 1998ff.

Verschränkte Wege zum Ziel. Zum Workflow der Hybridedition Richard Wagner Schriften (RWS)

187

tierte Variantendarstellung dem Gegenstand angemessen? Eine topographische Verzeichnung erschien zunächst als ein pragmatischer Weg; Erläuterungen zur Genese können dort gegebenenfalls angeschlossen und die Abfolge der Schreibschichten durch Ziffern o. ä. gekennzeichnet werden. Diffiziler fällt die Darstellung von überlagerten oder verschränkten Korrekturen aus.8 Darüber hinaus soll der Apparat aber auch den gedanklichen (Schreib-)Prozess mit in das Blickfeld aufnehmen – immer dessen eingedenk, dass dieser sich nicht unbedingt eindeutig aus den rein graphischen Befunden ergibt.

Hybrid-Workflow: Trennung von Konzeption und Präsentation Die Erstellung einer Hybridedition bringt aus arbeitsökonomischen und konzeptionellen Gründen eine bereits hybride Konzeption der Arbeitsprozesse prinzipiell mit sich, ist aber alles andere als selbstverständlich. Denn hybrides Arbeiten erfordert sowohl inhaltlich als auch technisch eine äußerst differenzierte Planung der editorischen Vorgänge, und jeder Arbeitsschritt muss sowohl die Belange des späteren Drucks als auch der späteren Online-Präsenz bedienen können, um schließlich auf einer gemeinsamen Datengrundlage beiden Medienformen gerecht zu werden. Die editorische Arbeit findet notwendigerweise auf einer abstrakten, konzeptionellen Ebene statt, während die präsentativen Aspekte separat zu definieren und der jeweiligen Medienform anzupassen sind.

Abb. 1

–––––––– 8

Beispielsweise wenn Wagner einzelne Wortbestandteile getilgt und überschrieben oder (über, unter der Zeile oder an anderem Ort) neu geschrieben hat, dabei aber andere Teile des Wortes bestehen ließ, also für die Korrekturversion weiterverwendete.

188

Margret Jestremski / Torsten Roeder

Die Aufteilung des Workflows zwischen ‚print‘ und ‚digital‘ erfolgt erst nach dem Abschluss der editorischen Arbeit, wenn die medienspezifischen Formate erstellt werden (siehe Abb. 1). Ein XML-Format wie TEI bietet dafür die beste Grundlage, da sowohl moderne Printformate als auch Webformate vollständig XML-basiert sind. Die Texterfassung und die Erstellung des kritischen Apparats verlaufen deshalb zunächst unabhängig von der Darstellung, auch wenn die Editor-Oberfläche visuell aufbereitet ist, um die Bearbeitung zu erleichtern.

Hybrid-Workflow: Konsequenzen für das TEI-Markup Die TEI-Richtlinien bieten verschiedene Ansätze zur Kodierung eines textkritischen Apparats. Daher war – ganz ähnlich wie beim Entwurf der Editionsrichtlinien – zunächst eine ‚best practice‘ für das Projekt zu entwickeln, die erstens die textkritischen Prinzipien der Richtlinien ideal abbildet und zweitens ein projektweit konsistentes Markup gewährleisten kann (bei der Heterogenität der Textsorten kein leichtes Unterfangen). Dies geschah zunächst durch die Erarbeitung eines Prototyps für das XMLbasierte Arbeiten mit der Zielsetzung, einen exemplarischen Workflow für die Variantenverzeichnung und die Quellenbeschreibung zu implementieren, und zwar von der Einspeisung der Texte bis hin zu einem der möglichen Ausgabeformate. Bereits hier offenbarte sich die mediale Hybridität des Unterfangens, denn es war nicht nur ein digitaler Workflow, sondern es waren auch Übergänge zwischen Papier-, Word- und verschiedenen XML-Formaten zu organisieren. Die aus dem Umgang mit dem Prototyp gewonnenen Erkenntnisse warfen erneut methodische Fragen auf: Wie und in welcher Art wollen und können die unterschiedlichen Medien eingesetzt werden? Welche Auswirkungen haben die jeweiligen editorischen Entscheidungen auf die beabsichtigte Erschließungstiefe? Welche technischen Strukturen sind notwendig, um diese abzubilden? Und was bedeutet dies wiederum – technisch und arbeitsökonomisch betrachtet – für die Arbeitsabläufe? Gibt es ferner Phänomene, die prinzipiell immer explizit verzeichnet werden sollen, und lassen sich gleichzeitig auch generische Beschreibungen erzeugen, die ein Phänomen summarisch für eine oder auch mehrere Quellen beschreiben? Trotz der prinzipiellen Offenheit des Ausgabeformats beim XML-basierten Arbeiten folgt aus den editorischen und arbeitspraktischen Entscheidungen auch eine gewisse Begrenzung der nach oben offenen Möglichkeiten. Bereits die Festlegung auf eine Kodierungsmethode kann darüber entscheiden, welche Ausgabeformen sich aus dem Code generieren lassen und welche schwieriger oder auch gar nicht erzeugbar sind. 9 Möchte man sich hier im Sinne der Nachhaltigkeit die Möglichkeiten offen halten, wird die Kodierung komplexer und steht bald im Widerspruch zur gebotenen Arbeitsökonomie. Die Kodierungspraktiken definieren insofern die Bandbreite der erzeugbaren

–––––––– 9

Vgl. Elena Pierazzo: Textual Scholarship and Text Encoding. A New Theoretical Framework. In: A New Companion to Digital Humanities. Hrsg. von Susan Schreibman, Ray Siemens und John Unsworth. Malden, Mass. 2016, S. 307–321, hier S. 310f.

Verschränkte Wege zum Ziel. Zum Workflow der Hybridedition Richard Wagner Schriften (RWS)

189

Darstellungen und stellen einen Versuch dar, technische, personelle und editorische Aspekte in Balance zu bringen.

Beispiel aus der Werkstatt: Workflow-Modell Nachfolgend wird erläutert, welche Methoden zur Kodierung einer Hybridedition im Projekt verfolgt und welche Technologien dafür eingesetzt werden, ferner welche Möglichkeiten dies auf der Ausgabeseite eröffnet. Zur groben Orientierung dient das abstrakte Modell des Workflows (siehe Abb. 1). Das Projekt befand sich zum Zeitpunkt der hier wiedergegebenen Überlegungen – im April 2017 – auf dem mittleren Pfad, ungefähr an der Station ‚Textvergleich in Oxygen‘. An den ersten Stationen erfolgte hauptsächlich die Erfassung der Vorlagentexte, d. h. der Erstdrucke. Diese wurden innerhalb des Projekts händisch oder mit OCR-Unterstützung im Word-Format erfasst, also mit einer Technik, die allen Bearbeitern vertraut ist, und anschließend kollationiert. Parallel dazu wurden die Gesammelten Schriften und Dichtungen von einem externen Dienstleister im Double-Keying-Verfahren aufbereitet. Nach einer ersten Auswertung des gesamten Textbestands erfolgte die Erarbeitung der Editionsrichtlinien – zunächst unabhängig von der technischen Konzeption. Als die Entscheidung anstand, wie weit und in welchem System künftig digital ediert werden sollte, stellte sich zunächst die Frage nach der projektgerechten Datengrundlage und einer geeigneten Eingabeschnittstelle. Der Schritt zum digitalen Edieren sollte einerseits alle Projektmitarbeiter mit vertretbarem Schulungsaufwand mitnehmen und andererseits möglichst flexibel im Hinblick auf Arbeitsabläufe und mögliche Endprodukte sein. 10 Aufgrund von Empfehlungen und eigenen Erfahrungen fiel die Entscheidung zugunsten einer Untermenge der TEI-Proposals. Von großer Bedeutung sind dabei die TEI-Module für textkritischen Apparat (apparatus) und HandschriftenBeschreibung (msDesc). 11 Vor allem aus diesen beiden Modulen wurden Elemente und Strukturen ausgewählt, die für die Umsetzung der Editionsrichtlinien geeignet erschienen und als projekteigenes TEI-Schema zusammengefasst. Dieses Schema umfasst derzeit ca. 200 Sachverhalte aus den Bereichen Textstruktur, Typographie und Handschrift; weitere Elemente kommen für Apparatstruktur und Quellenbeschreibung hinzu. Außerdem wurden zur Unterstützung von projektinternen Arbeitsabläufen vereinzelt eigene Elemente und Attribute in einem separaten XML-Namensraum angelegt. Zusätzlich wird Schematron zur Überprüfung der Eingaben und Felderstrukturen verwendet.12

–––––––– 10

11

12

Vor Beginn des ‚hybriden‘ Arbeitens haben alle Mitarbeiter einen teilweise auf die Projektbelange zugeschnittenen XML-Kurs besucht. Teile des zu bearbeitenden Materials wurden nach und nach – den Projektanforderungen und dem Entwicklungsstand des digitalen Workflows entsprechend – von der einen (Word-basierten) in die andere (XML-basierte) Arbeitsebene überführt. TEI Consortium: Critical Apparatus. In: P5: Guidelines for Electronic Text Encoding and Interchange. Version 3.4.0 (http://www.tei-c.org/release/doc/tei-p5-doc/en/html/TC.html); Manuscript Description. In: ebd. (http://www.tei-c.org/release/doc/tei-p5-doc/en/html/MS.html). Schematron (http://schematron.com) bietet sich an, wenn man bereits ein solides XML-Schema hat und darauf aufbauend die Inhalte zusätzlich validieren möchte, ohne Änderungen am Schema vornehmen zu

190

Margret Jestremski / Torsten Roeder

Zur Bearbeitung der Texte in XML wird im Projekt der weit verbreitete Oxygen XML Editor eingesetzt. 13 Dieses Programm diente zunächst zur Konvertierung der Word-Dokumente nach TEI-XML – ein Schritt, der mithilfe der beim Editor mitgelieferten Routine leicht zu bewältigen ist. 14 Vor allem aber lässt sich dieses Programm individuell so konfigurieren, dass Editionsmitarbeiter mit einer an die Bedürfnisse des Projektes angepassten grafischen Oberfläche arbeiten können, die im Hintergrund validen TEI-Code erzeugt. Sowohl für den Bedienkomfort als auch für die Lernkurve ist dies vorteilhaft. Beispielsweise wurden eigene Buttons für Besonderheiten der Handschrift oder der Typographie eingerichtet, insbesondere aber für komplexe Funktionen (vor allem zur Apparaterstellung) wurden spezielle Kommandos eingeführt und durch Erprobung verfeinert. Auch nutzerfreundliche Metadaten-Formulare für die Quellenbeschreibung lassen sich mit dem Oxygen-Editor erstellen. Für den Übergang zwischen XML-basiertem Arbeiten und einer graphischen Benutzeroberfläche stellt diese Lösung einen sehr günstigen Kompromiss dar. Die beiden folgenden Beispiele demonstrieren an den Arbeitsfeldern von Variantenerfassung und Quellenerschließung, wie Kodierung und Editionsrichtlinien ineinandergreifen und was dies konkret mit der Quellensituation in Bezug auf Textgenese bei Wagner zu tun hat. Beides wird in ein und derselben XML-Datei kodiert (wie in TEI grundsätzlich vorgesehen). Text, Apparat und Quellenbeschreibungen liegen daher nah beieinander und können auf der Oberfläche bzw. auf der Ausgabeseite direkt in Beziehung gebracht werden, wodurch eine hohe Kohärenz der Daten gewährleistet ist.

Beispiel aus der Werkstatt: Textkritischer Apparat – Variantenverzeichnung Bei der Feststellung von Varianten sind analoge und digitale Verfahren eng miteinander verwoben. Wie das Workflow-Schema zeigt (siehe Abb. 1), geschieht die Verzeichnung von Varianten aus handschriftlichen Quellen in Handarbeit. Dabei werden die durch Quellenkollation ermittelten Varianten zunächst auf Papier (Kollationsexemplar) festgehalten und anschließend sukzessive Lemma für Lemma in die XML-ApparatEbene eingetragen. Die Papierverzeichnung ist hier als Vorstufe nötig, um die Varianten zusammenzutragen, welche anschließend in die XML-Datei entsprechend den Richtlinien der Edition nach gewichteten Kriterien übergetragen werden. Bei Druckfassungen ist die Verzeichnung hingegen rein digital durchführbar. Beim Vergleich der Erstdrucke mit GSD kann dies sogar durch automatisiertes Verfahren unterstützt werden: Da GSD bereits projektintern vollständig in validem TEI vorliegt,15 können beim Vergleich zwischen Erstdruck und der späteren GSD-Fassung auch

–––––––– 13 14 15

müssen. Auch komplexere Validierungsszenarien sind leicht realisierbar, z. B. lässt sich eine Warnung ausgeben, wenn einem französischsprachigen Druck die Schrifttype Fraktur zugeordnet wird. Oxygen XML Editor (Syncro Soft, Craiova 2002ff., https://www.oxygenxml.com). Die im Oxygen XML Editor integrierte Routine stammt von Sebastian Rahtz und ist frei verfügbar auf der Website oxGarage (http://oxgarage.tei-c.org). Wurde in der ersten Projektetappe in Zusammenarbeit mit Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften der Universität Trier erarbeitet.

Verschränkte Wege zum Ziel. Zum Workflow der Hybridedition Richard Wagner Schriften (RWS)

191

digitale Werkzeuge zum Einsatz kommen. Ausprobiert wurden die bewährten Vergleichstools CollateX, Juxta und LERA, sowie die entsprechenden Funktionen in TUSTEP und Oxygen.16 Während sich die Erfassung der rein textuellen Unterschiede als durchaus befriedigend erwies und z. B. in Juxta sogar ein valider TEI-Apparat erzeugt wird, werden typographische Varianten, wie beispielsweise später hinzugefügte Hervorhebungen, von keinem der Programme ausreichend berücksichtigt. Diese Funktionalität stand lediglich in Microsoft Word zur Verfügung, das wiederum kein TEI ausliefern kann. Dies gab den Anlass, an der Universität Würzburg gemeinsam mit dem Editionsprojekt Narragonien digital und dem Lehrstuhl für Informatik VI ein Varianzanalysetool zu entwickeln, das sowohl textliche als auch typographische Varianten identifizieren und diese in einem TEI-konformen Apparat ausliefern kann.17 Außerdem sollte es die Varianten synoptisch visualisieren können, so dass es zudem als technische Hilfe zur semiautomatischen Variantenverzeichnung der verglichenen Fassungen eingesetzt werden kann. Von den unterschiedlichen Methoden, die in den TEI-Richtlinien zur Variantenverzeichnung dargelegt werden, wird hier die sogenannte parallele Segmentierung bevorzugt. Das Spezifische daran ist, dass die Varianten direkt nach den Lemmata der Haupttextschicht eingefügt werden. Diese Methode bietet den Vorteil, dass sie für einen Bearbeiter ohne zusätzliche Technik lesbar und somit kontrollierbar bleibt, zugleich aber für einen Programmierer relativ leicht zu implementieren ist. Ergänzend dazu wird gelegentlich die sogenannte Double-End-Point-Methode genutzt, 18 wenn es zu einer Überschneidung mehrerer Verzeichnungsbereiche kommt. Das dafür erzeugte Lemma verweist dann auf zwei freistehende Ankerpunkte im Text und steht selbst unabhängig von diesen an einer anderen, sinnvoll gewählten Stelle im Text – beispielsweise dort, wo man das Lemma später in der Ausgabe erwarten würde. Mit diesen beiden Methoden in Kombination können sowohl synoptische, interlineare als auch separate Apparatausgaben erzeugt werden. Die Alternative – eine reine Standoff-basierte Methode, bei der die Varianten von der Haupttextschicht getrennt wären – brächte größere Freiheiten im Hinblick auf sich überschneidende Hierarchien, ist jedoch deutlich komplexer zu implementieren, d. h. diese Methode benötigte zum einen avancierte Eingabetools und minderte zum anderen die Menschenlesbarkeit der XML-Kodierung. In der alltäglichen Praxis des digitalen Edierens erfolgt die Verzeichnung in XML in dem Projekt vor allem mithilfe einer umfangreichen Palette von Werkzeugen, die alle bislang identifizierten Sachverhalte in XML abdecken und über Buttons oder auch

–––––––– 16

17

18

CollateX (Huygens ING, Amsterdam 2010ff., https://collatex.net); Juxta (University of Virginia, 2009ff., http://juxtacommons.org); SaDA/LERA (Martin-Luther-Universität Halle-Wittenberg, 2012ff., http://lera.uzi.uni-halle.de); TUSTEP (Zentrum für Datenverarbeitung der Universität Tübingen, 1987ff., http://www.tustep.uni-tuebingen.de). Der sogenannte Variance Viewer wurde von Nico Balbach programmiert und steht zur Verfügung unter http://variance-viewer.informatik.uni-wuerzburg.de/Variance-Viewer. Der Programmcode ist auf GitHub einsehbar unter https://github.com/NesbiDevelopment/Variance-Viewer. Vgl. TEI Consortium: The Double End-Point Attachment Method (http://www.tei-c.org/release/doc/teip5-doc/en/html/TC.html#TCAPDE).

192

Margret Jestremski / Torsten Roeder

Tastaturbefehle aufrufbar sind. Farbige Hervorhebungen helfen dort bei der Unterscheidung der Sachverhalte; beispielsweise sind Lemmata in Blau, Variantentext in Rosa und Siglen in Rot wiedergegeben. Der Oxygen XML Editor erleichtert die Arbeit, indem er den Text wie in einer gedachten Ausgabe darstellt. Dabei steht aber immer das Arbeitsinstrument mit seinen vielen Funktionen im Vordergrund. Transformationen des XML-Codes, wie sie später für die tatsächliche Ausgabe verwendet werden, sind während der Bearbeitung nicht möglich. Der Editor wird der angestrebten Darstellungsform allerdings so weit wie möglich angepasst. Wenn man so will, ist dies hybrides Arbeiten in Reinform: einerseits die druckbildnahe Abbildung im Oxygen XML Editor, andererseits die starke Semantisierung durch TEI im Hintergrund. Bei besonders diffizilen Sachverhalten, die auf der Oberfläche nicht adäquat abgebildet werden, können die Bearbeiter in die XML-Ansicht umschalten und dort die Kodierung kontrollieren und gegebenenfalls Details korrigieren.

Beispiel aus der Werkstatt: Quellenbeschreibung im TEI-Header Für die Quellenbeschreibung wird durchgehend der TEI-Header verwendet, allerdings auf einem relativ basalen Level. 19 Während es innerhalb der TEI-Proposals detaillierte Schema-Vorschläge zur Manuskript- und Druckebeschreibung gibt, ist die Struktur zugunsten eines stärker an das Projekt angepassten Aufbaus der Quellenbeschreibung relativ flach gestaltet (aber grundsätzlich TEI-valide). Die Eingabemaske im Oxygen XML Editor ist ähnlich wie ein Datenblatt gestaltet, erlaubt aber innerhalb der Felder weiteres Markup. Zusätzlich helfen vordefinierte Auswahllisten, die Konsistenz der Eingaben zu bewahren. Wie bei der Arbeit im Textbereich tritt auch hier die typische Baumstruktur von XML in den Hintergrund. Durch die Eingabemaske erhalten die Bearbeiter eine komplexe, aber noch relativ überschaubare Möglichkeit, die zu einem Text gehörigen Quellen einschließlich aller Materialien systematisch zu beschreiben.

Beispiel aus der Werkstatt: Ausgabeformen Die Vorteile des hybriden Arbeitens seien abschließend anhand der unterschiedlichen Ausgabemöglichkeiten von Text und Apparat erläutert. Erstens bildet das XML die Grundlage zur Erzeugung eines Lesetextes, der den Erstdruck in einer Form abbildet, wie er auch in der gedruckten Ausgabe im Textband erscheinen könnte. In einer OnlinePräsentation könnte dieser Lesetext die Apparateinträge gleich direkt an Ort und Stelle vorzeigen: Variante Textteile können farblich oder grafisch kenntlich gemacht und die jeweiligen Varianten beim Berühren der Stelle mit dem Mauszeiger als Marginalie angezeigt werden. Zweitens lässt sich auf derselben Grundlage aber auch ein vollständiger Apparat in klassischer Form, separat vom Lesetext erzeugen. Drittens bestünde im Prinzip die Möglichkeit, eine synoptische Fassung zu erzeugen, in der beide Texte

–––––––– 19

TEI Consortium: The Source Description (http://www.tei-c.org/release/doc/tei-p5-doc/en/html/HD.html #HD3).

Verschränkte Wege zum Ziel. Zum Workflow der Hybridedition Richard Wagner Schriften (RWS)

193

parallel zueinander gelesen werden können. 20 Hier besteht also die Option, verschiedene Ausgabeformen zu erzeugen, von denen eine mehr in Richtung Druck und die beiden anderen mehr in Richtung Web verweisen. Analog zu den verschiedenen Apparat-Ausgabeformen können aus den ausgefüllten Datenblättern unterschiedlich aufgebaute Quellenbeschreibungen generiert werden. Dies wurde in zwei Varianten umgesetzt: Im einen Fall wird eine tabellarische Auflistung erzeugt, die mehr systematischen Zwecken dient. Im zweiten Fall wird aus den Feldinformationen eine Ausgabe in fortlaufendem Text erzeugt, die für einen Lesetext besser geeignet ist. Dies setzt eine einheitliche Beschreibungssyntax voraus, benötigt sehr präzise Vorstellungen vom strukturellen Aufbau einer Quellenbeschreibung und ist aufgrund der Heterogenität der Quellen eine konzeptionell und ggf. auch programmiertechnisch äußerst komplexe Arbeit. Der Vorteil der datenblatt-basierten Erfassung geht jedoch über die Erzeugung einer einheitlich gestalteten und strukturierten Druckvorstufe weit hinaus. Erstens kann eine projektweit einheitliche Quellenbehandlung und -bewertung leichter geprüft und sichergestellt werden. Zweitens können, ganz automatisch, systematische Auswertungen vorgenommen und korpusbezogene Übersichten erstellt werden, etwa Konkordanzen, verschiedene Bibliographien oder eine Chronologie des Schriftwerkes (die außerdem später mit weiteren, entsprechend angereicherten biographischen Informationen zusammengeführt werden kann).

Fazit: Hybrides Arbeiten – hybrides Projektergebnis Greifen wir abschließend noch einmal eine der Ausgangsüberlegungen auf. Prämisse des Editionsvorhabens ist die Erarbeitung einer kritischen Hybridedition der Schriften Richard Wagners – ein wissenschaftliches Produkt in zwei Medien, dem gedruckten Buch auf der einen Seite und einem digitalen Komplement auf der anderen Seite, die sich gegenseitig ergänzen. Beim Stichwort „Hybridität“ geht es in diesem Projekt deshalb vorrangig darum, die strukturellen Möglichkeiten des digitalen Mediums im Projektrahmen auszunutzen. Potenziale dafür liegen sowohl im Einsatz digitaler Werkzeuge in verschiedenen Bereichen des Workflows, als auch in der Präsentation von Text(en) und ihrer Genese. Hybridität – dem Begriff nach als Gekreuztes – bietet die Chance, die Vorteile zweier Prinzipien sowohl im Arbeitsprozess als auch im Arbeitsergebnis, der Publikation, miteinander zu verbinden.

–––––––– 20

Neben den hier genannten Formen sind natürlich weitere denkbar, z. B. eine graphisch orientierte Darstellung der Handschriften, gegebenenfalls mit beigefügtem Faksimile, oder eine rein resultative, leseorientierte Fassung usw.

Ingo Börner / Isabella Schwentner

Blumen, neu arrangiert Die historisch-kritische Ausgabe von Arthur Schnitzlers Frühwerk auf dem Weg von der Buch- zur Hybridedition. Am Beispiel des Bandes Blumen

Seit 2010 entsteht an der Universität Wien unter der Leitung von Konstanze Fliedl und gefördert vom FWF1 die historisch-kritische Ausgabe von Arthur Schnitzlers Frühwerk.2 Bisher sind zehn Bände in Print erschienen: Lieutenant Gustl (2011), Anatol und Sterben (2012), Liebelei (2014), Frau Bertha Garlan (2015), Die Frau des Weisen, Die Toten schweigen und Ein Abschied (2016), Der Ehrentag (2017) und Blumen (2018). Derzeit wird an den Bänden Reigen, Der grüne Kakadu und Paracelsus gearbeitet. Kürzlich wurde eine weitere Fortsetzung des Projekts genehmigt, das aktuelle Vorhaben 3 zielt nun auf eine Umstellung auf eine Hybrid-Edition. Der Band Blumen wird als erster um eine digitale Komponente erweitert. 4

Die Buchausgabe Die Buchausgabe der historisch-kritischen Edition von Arthur Schnitzlers Frühwerk ist bisher im Verlag De Gruyter erschienen und soll dies auch weiterhin tun. Die Ausgabe versteht sich als Dokumentation der Textgenese im Sinne der ‚critique génétique‘ und enthält sämtliche für den jeweiligen Band relevante und erhaltene Zeugen zur Entstehungsgeschichte, die im Frühwerk – im Gegensatz zu späteren Arbeitsphasen – überwiegend handschriftlich, nur gelegentlich zusätzlich in Typoskripten, überliefert sind. Wie bei den klassischen Faksimile-Ausgaben von D. E. Sattler, Roland Reuß und Peter Staengle wird auf eine wirkungsgeschichtliche Darstellung verzichtet.

–––––––– 1 2 3 4

Die Edition entsteht im Rahmen der FWF Projekte „Arthur Schnitzler – Kritische Edition (Frühwerk) I bis III“ (P 22195, P 27138, P 30513). Arthur Schnitzler. Werke in historisch-kritischen Ausgaben. Hrsg. von Konstanze Fliedl. Im Folgenden auch abgekürzt als Schnitzler-HKA. FWF Projekt P 30513 „Arthur Schnitzler – Kritische Edition (Frühwerk) III“, Beginn im März 2018. Das Projekt wird in Kooperation mit dem Austrian Centre for Digital Humanities (ÖAW) durchgeführt. Arthur Schnitzler: Blumen. Historisch-kritische Ausgabe. Hrsg. von Isabella Schwentner. Berlin, Boston: De Gruyter 2018 (Werke in historisch-kritischen Ausgaben). Ab hier abgekürzt als Blumen-HKA. Seitenverweise und Siglen im folgenden Text beziehen sich sowohl auf die Print- als auch auf die Open Access-Publikation, die über die FWF e-book Library unter http://e-book.fwf.ac.at/o:1135 sowie die Webseite des De Gruyter-Verlages https://www.degruyter.com/view/product/495647 abgerufen werden kann. Weitere Illustrationen zu diesem Beitrag finden sich unter http://aau.at/musil/publikationen/text genese/boerner-schwentner/.

https://doi.org/10.1515/9783110575996-013

196

Ingo Börner / Isabella Schwentner

Der Inhalt der einzelnen gedruckten Bände richtet sich naturgemäß bis zu einem gewissen Grad nach dem nachgelassenen Material aus dem Entstehungskontext; grundsätzlich enthalten aber alle Ausgaben eine editorische Vorbemerkung inklusive Entstehungs- und Druckgeschichte. Der erste Abschnitt bietet die Faksimiles der nachgelassenen Handschriften in Originalgröße – aus Kostengründen leider nicht in Farbe – und daneben die Transkription in einem eigens entwickelten Umschriftsystem, das Schnitzlers schwer lesbarer Handschrift 5 gerecht zu werden versucht und im Wesentlichen Almuth Grésillons Forderungen für eine diplomatische Umschrift 6 folgt. Im Fußnotenbereich der Handschriften befinden sich gegebenenfalls Beschreibungen auffälliger Materialphänomene (Beschädigungen, Schreibmittelwechsel) oder auch Kommentare, die unter anderem der Plausibilisierung der Entzifferung (z. B. BlumenHKA S4), der Auflösung von Abkürzungen (H2 2) oder der Erklärung von metadiskursiven Angaben (H2 18) dienen. Textkritisch relevante Typoskripte werden ohne Faksimiles in edierter Form präsentiert. Abschnitt zwei bringt den im Regelfall nach dem Erstdruck erstellten Drucktext mit einem Variantenapparat mit allen Abweichungen bis zur letzten noch von Schnitzler selbst überprüften Ausgabe. Die wenigen, aber notwendigen Herausgebereingriffe werden in einer eigenen Liste angeführt. In einem dritten Teil findet sich der Kommentar zum Drucktext, der vor allem auf kulturhistorische Besonderheiten, Austriazismen oder mundartliche Ausdrücke eingeht, gegebenenfalls mit Verweisen auf korrespondierende Stellen im Handschriftenteil. Abschnitt vier variiert je nach Werk und nachgelassenem Material: Er enthält je nach Gegebenheit weitere Dokumente aus dem Entstehungsprozess 7 oder zusätzliches Material wie Buch-Illustrationen früherer Ausgaben oder zeitgenössische Straßenkarten und jedenfalls das Siglenverzeichnis. Die historisch-kritische Edition von Blumen bietet in diesem Abschnitt den Abdruck der Transkription der Haupthandschrift – im Gegensatz zur überlieferten Archiv-Ordnung, die im ersten Teil (H2) geboten wird – in der rekonstruierten genetischen Abfolge der Handschriften (*H2), ohne Faksimiles.

Überlegungen zur Umstellung von Print auf Hybrid Die Edition soll nun einerseits wie bisher im De Gruyter-Verlag weitergeführt werden. Mit der Buchausgabe können bekannte Probleme digitaler Ausgaben wie Langzeitverfügbarkeit oder Zitierbarkeit und Nachhaltigkeit umgangen werden. Erfreulicherweise

–––––––– 5 6

7

Vgl. dazu Gerhard Neumann und Jutta Müller: Der Nachlaß Arthur Schnitzlers. Verzeichnis des im Schnitzler-Archiv der Universität Freiburg i. Br. befindlichen Materials. München 1969, S. 17. Vgl. dazu Almuth Grésillons Definition der diplomatischen Umschrift als „maschinenschriftliche oder gedruckte Wiedergabe einer Handschrift, die sich strikt an die Topographie des beschriebenen Raumes einer Seite hält: jedes Schriftzeichen erscheint an derselben Stelle der Seite wie auf dem Original. Insbesondere Randnotizen, Streichungen und interlineare Einfügungen müssen als solche auch in der Transkription visuell erkennbar sein.“ Almuth Grésillon: Literarische Handschriften. Einführung in die „critique génétique“. Bern u. a. 1999 (Arbeiten zur Editionswissenschaft. 4), S. 294. Vgl. dazu etwa die „Texte aus dem Anatol-Umkreis“ in Abschnitt 4 der Anatol-HKA, die u. a. Kurzdramen und Fragmente aus dem Entstehungsprozess, wie auch Gedichte und Material zu „Anatol als Operettenstoff“ beinhalten.

Blumen, neu arrangiert

197

war selbst auf der Tagung zur „Textgenese in der digitalen Edition“ zu vernehmen, dass die Buchausgabe noch nicht ausgedient hat. Andererseits sollen die Daten open access zur Verfügung gestellt und in einer digitalen Komponente der Edition mit zusätzlichen Features zugänglich gemacht werden. Die digitale Komponente erlaubt die Bereitstellung der Scans von Handschriften, Drucken und zusätzlichem Material aus dem Entstehungskontext. Die Scans der Handschriften, die in der Buchausgabe aus Kostengründen nur schwarz-weiß gedruckt wurden, werden digital als hochauflösende Farbfaksimiles zur Verfügung gestellt. Das ermöglicht zunächst eine Vergrößerung von Schnitzlers ohnehin schwer entzifferbarer Handschrift, vor allem aber eine bessere Unterscheidbarkeit von verschiedenen Überarbeitungsvorgängen und damit (auch) das Differenzieren von mehreren Textschichten. „Schichten“ werden an dieser Stelle verstanden im Sinne von Hans Zellers rein graphischer Definition von Schichten, die „unterschieden [sind] durch Schreibgerät, Schreibstoff, Schreiberhand oder Schriftduktus“, wobei eine Schicht durchaus auch „aus einem einzigen Graphem bestehen“ 8 kann. In diesem Zusammenhang sind vor allem Schnitzlers „Verdeutlichungen“ von Interesse, das nachträgliche Nachziehen einzelner Graphe. 9 Der digitalen Komponente der Hybridedition werden auch Scans aller Drucktexte beigegeben. Sie wird es also erlauben, den Text späterer Ausgaben nicht nur als verzeichnete Varianten zum Erstdruck im Apparat wiederzufinden, sondern den gesamten Text integral lesen zu können; gleichzeitig ist die Genese an jeder Stelle des Textes abrufbar. Während ein paralleles Aufschlagen der entsprechenden Seiten in der Buchedition selbst bei zweibändigen Ausgaben wie Anatol oder Liebelei durch die Grenzen, die bei der Buchbindung gesetzt sind, nicht möglich war, wird die Hybridausgabe auch ein paralleles Lesen von Handschrift und Drucktext ermöglichen. Die Überlegung, wieviel Kontextmaterial einem gedruckten Band beigegeben werden kann, ist zum Teil eine Kostenfrage. 10 Dass die Publikationsbedingungen im Internet „mit nahezu unbegrenzten Speicherkapazitäten für Digitalisat und Kommentare“ 11 aber auch Gefahren bergen, hat Grésillon schon früh festgestellt: Wenn es dem Speicher möglich ist, nicht nur alle handschriftlichen Vorstufen in Form digitaler Bilder sowie der entsprechenden diplomatischen Umschriften, sondern überdies auch alle Exzerpte, Notizbücher, vom Autor konsultierte Quellenmaterialien, Typoskripte, korrigierte Druckfahnen, Originalausgaben,

–––––––– 8 9 10 11

Hans Zeller: Bericht des Herausgebers. In: Conrad Ferdinand Meyer: Sämtliche Werke. Besorgt von Hans Zeller und Alfred Zäch. Historisch-kritische Ausgabe. Bd. 2. Bern 1964, S. 101. Vgl. dazu beispielsweise die auffällige Nachzeichnung von „anfänglich hindern“ auf S 4,4, Blumen-HKA, S. 58f. Die zweibändigen Ausgaben von Anatol und Liebelei sind gleichermaßen material-, druckseiten- als auch kostenintensiv. Gabriele Radecke: Notizbuch-Editionen. Zum philologischen Konzept der Genetisch-kritischen und kommentierten Hybrid-Edition von Theodor Fontanes Notizbüchern. In: editio 27, 2013, S. 149–172, hier S. 155.

198

Ingo Börner / Isabella Schwentner

vom Autor revidierte Ausgaben, Raubdrucke, Übersetzungen, kritische Kommentare, Deutungen, Sekundärliteratur und Angaben zur Rezeption12

in sich aufzunehmen, dann liegt die Gefahr „nicht in der begrenzten, sondern in der entgrenzten Speicherfähigkeit“ 13 – und es stellt sich die Frage, wie sich die Benutzerin / der Benutzer in diesen Unmassen an Informationen zurechtfinden soll. Die Antwort sieht Grésillon im Hypertext, in der Möglichkeit der Vernetzung beliebig vieler Objekte, um so „klar definierte Verknüpfungen zwischen den jeweiligen Stadien einer Textgenese zu repräsentieren“.14 Beziehungen zwischen Entwürfen, Fragmenten, Textstellen, Briefen und anderen Quellen müssen herausgestellt, müssen „explizit konstruiert“ werden. Einige davon sieht Grésillon als „sozusagen selbstverständlich“ an, wie die „Korrelation zwischen einem Faksimile und der entsprechenden diplomatischen Umschrift oder die Chronologie der genetischen Dokumente, die meist schon vorher von der Forschung eruiert wurde“;15 in manchen Fällen – und Blumen scheint ein solcher zu sein – erfolgte die Rekonstruktion der Chronologie gleichzeitig mit dem Vorgang des Verknüpfens bzw. diente der Arbeitsschritt des Markups und der Verknüpfung als Bestätigung der zuvor nur angenommenen Abfolge. Durch die verbreiteten „Methoden der Tiefenerschließung durch Metadatenerfassung und komplexe Visualisierungsmöglichkeiten“ 16 wie auch durch eine (semantische) Annotation können neue Zugangsmöglichkeiten zum Material geschaffen werden. Nicht zuletzt erlaubt die digitale Komponente eine bessere und sichtbare Vernetzung zu anderen Projekten. Alle diese Faktoren tragen zu einem wesentlichen Punkt bei: der besseren Sichtbarmachung von textgenetischen Prozessen. Es sei nicht verschwiegen, dass der Umstieg auf eine Hybridausgabe auch pragmatische Gründe hat: Einerseits ist mittlerweile ohne open access-Stellung der Daten eine öffentliche Förderung beinahe unmöglich geworden, andererseits legte die Entwicklung des Workflows der bisherigen Projekte diesen Schritt nahe: Im Projekt Frühwerk I, in dem die Editionsrichtlinien der Ausgabe entwickelt wurden, lag der Schwerpunkt vor allem auf der Entzifferung und Transkription der schwer lesbaren Handschrift Schnitzlers. Die Transkription wurde in Microsoft Word erstellt, mit Formatvorlagen formatiert und das Dokument dann dem Verlag zum Satz übergeben. Das Einrichten der Transkription machte dabei mehrere intensive Korrekturphasen notwendig; vor allem die Nachahmung komplizierter Streichungen verursachte einen hohen Arbeitsaufwand. Der Drucktext wurde entweder durch OCR von eingescannten Drucken gewonnen, was vor allem bei Fraktur-Texten fehlerhafte Resultate lieferte, oder durch Übernahme von bereits digital verfügbaren Texten und nachfolgendem manuellem Zeugenrückvergleich erstellt; die Kollationierung erfolgte manuell. Drucktext, Apparat, Kommentar und die Liste der Herausgebereingriffe

–––––––– 12

13 14 15 16

Almuth Grésillon: Literarische Handschriften im Zeitalter ihrer technischen Reproduzierbarkeit. Von der Mimesis zur Simulation. In: Mimesis und Simulation. Hrsg. von Andreas Kablitz und Gerhard Neumann. Freiburg im Breisgau 1998, S. 255–275, hier S. 267. Ebd. Ebd. Ebd., S. 271. Radecke 2013 (Anm. 11), S. 155.

Blumen, neu arrangiert

199

waren in separate Dokumente getrennt, und die händisch vorgenommene Übereinstimmung der Zeilennummerierung barg ein großes Fehlerpotential. Im Projekt Frühwerk II wurde der Workflow umgestellt. Ziel war es, die elektronischen Daten nachhaltig verfügbar zu machen und weitere Verwertungsmöglichkeiten zu erschließen; ein Umstieg auf im Bereich der digitalen Edition etablierte und bewährte Standards – insbesondere die Guidelines der Text Encoding Initiative (TEI) 17 – war somit der logische Schritt. Dennoch sollte die Printedition in der bestehenden Form fortgesetzt werden. Die Umstellung auf ein Encoding entsprechend der TEI für den Drucktext gestaltete sich noch relativ einfach; doch die Produktion der diplomatischen Transkription der handschriftlich überlieferten Texte, wie sie für die Printedition entwickelt wurde, 18 stellte das Projekt vor einige Herausforderungen. Vor allem Positionierungen (z. B. von interlinearen Einfügungen) und nachahmende Streichungen machen es erforderlich, die Transkriptionen und den Drucktext auf unterschiedliche Weise zu behandeln: Der Drucktext wird als TEI-XML erfasst und anschließend in LaTeX transformiert; auf diese Weise lässt sich die Druckvorlage mit wenigen manuellen Eingriffen aus der Datengrundlage generieren. Für den Satz des Variantenapparats und des Kommentars wird auf das LaTeX-Paket „reledmac“19 zurückgegriffen. Die Transkriptionen werden hiervon abweichend behandelt, nämlich in Transkribus 20 erstellt und als TEI-XML exportiert. Dass die weitere Erfassung nicht unmittelbar als TEI, sondern in einem „Zwischenformat“ 21 erfolgt, ist durch den Einsatz des LayoutProgramms Adobe Indesign bedingt: Das beim Import automatisch vorgenommene Tag to Style-Mapping, die Zuordnung von XML-Elementen und „Formatvorlagen“ stellt gewisse Anforderungen an das XML, die die Entwicklung dieses Importformats notwendig machten. 22 Das Zwischenformat ist am Output orientiert, beschreibt also die gewünschte Wiedergabe im Druck – im Unterschied zu einer TEI-konformen Erfassung, die auf eine adäquate Wiedergabe des Materials abzielt. Die Dateien, die importiert werden, sind aber durchaus TEI mappable, d. h. sie lassen sich per XSLT in TEI-XML transformieren, enthalten dann aber nicht die in Indesign eingebrachten Formatierungen, Positionierungen und Einweisungszeichen.

–––––––– 17 18 19 20

21

22

TEI Consortium: TEI P5. Guidelines for Electronic Text Encoding and Interchange. Version 3.3.0. http://www.tei-c.org/Vault/P5/3.3.0/doc/tei-p5-doc/en/html. Vgl. dazu die HKA von Lieutenant Gustl, S. 3f. und Blumen, S. 9f. Maïeul Rouquette, Peter R. Wilson: reledmac. Typeset scholarly editions. LaTeX-Package. https://ctan.org/pkg/reledmac, https://github.com/maieul/ledmac. https://transkribus.eu. Transkribus ist eine frei zugängliche Plattform zur Erkennung und Transkription von v. a. historischen Dokumenten. Eine automatische Handschriftenerkennung ist bei Schnitzlers schwer lesbarer Schrift allerdings momentan noch nicht möglich. Zur Software allgemein vgl.: Philip Kahle, Sebastian Colutto, Günter Hackl und Günter Mühlberger. Transkribus. A Service Platform for Transcription, Recognition and Retrieval of Historical Documents. In: International Conference on Document Analysis and Recognition (ICDAR): 2017, S. 19–24, DOI: https://doi.org/10.1109/ICDAR.2017.307. Das relaxNG Schema kann unter folgendem Link eingesehen werden: https://github.com/acdhoeaw/schnitzlerxml. Eine Beispielkodierung des Blattes H2 32 findet sich hier unter https://github.com/ac dh-oeaw/schnitzlerxml/tree/master/test-data. Adobe Indesign unterstützt lediglich XML-Dateien, die höchstens drei Ebenen tief geschachtelt sind und den Strukturebenen Seite – Absatz – Zeichen entsprechen. Darüber hinaus kann auf Informationen, die in Attributen der XML-Elemente abgelegt sind, nicht zugegriffen werden.

200

Ingo Börner / Isabella Schwentner

Mit den veränderten technischen Voraussetzungen sollen nun in der dritten Projektphase für die Hybridausgabe Editionsprinzipien erarbeitet werden, mit deren Hilfe textgenetische Fragestellungen konkreter formuliert und Vorgänge exakter nachvollziehbar gemacht werden können. So ist etwa eine komplizierte ‚Materialwanderung‘ von Textschichten in spätere Fassungen 23 – wie am Beispiel der Erzählung Blumen zu zeigen sein wird – digital weitaus besser zu veranschaulichen. Gleiches gilt für eine Verästelung, Verschiebung oder Separierung von bestimmten Stoff- und Motivkomplexen im Laufe der Entstehungsgeschichte verschiedener Werke, wie etwa bei den Stücken Der einsame Weg und Professor Bernhardi. Für solche Fälle soll ein Modell für den Datenaustausch mit anderen Projekten entwickelt werden. Die chronologischen Überlagerungen der Entstehungsgeschichten sollen sich ebenso darstellen lassen wie Vor- und Rückverweise auf Personennamen, Motive oder wörtliche Formulierungen; ebenso ließen sich die Kommentare koordinieren. Mit der Zusammenführung der Daten soll das technische und philologische Modell einer werkübergreifenden Textgenese bei Schnitzler realisiert werden. Obwohl an den grundlegenden Editionsprinzipien festgehalten wird, müssen naturgemäß für den digitalen Teil bzw. die Kombination beider Teile der Hybrid-Ausgabe neue Überlegungen angestellt werden. Durch den verstärkten Fokus auf die digitale Komponente und durch das technologische ‚Werkzeug‘ ergeben sich neue Fragestellungen, die auch die Arbeitsweise beeinflussen: „Tools always shape the hand that wields them; technology always shapes the minds that use it.“ 24 Das betrifft einerseits die Ebene des Markups, das nun über eine reine Formatierung, wie sie für eine Printausgabe notwendig war, hinausgeht, andererseits Fragen der Visualisierung und der Konzeption des Interfaces. Nicht zuletzt geht es um grundsätzliche Überlegungen, welches und wieviel Material man zur Verfügung stellen will. Die Benutzerin / der Benutzer kann von zusätzlichen Informationen durch die Anreicherung mit Normdaten und Verknüpfung von Textstellen innerhalb eines Corpus und der Vernetzung zu anderen Schnitzler-spezifischen Projekten profitieren, ebenso von der Erweiterung des Kommentars durch veranschaulichende Belege. Die fallweise Ausweitung der Dokumentation durch die Rezeptions- und Wirkungsgeschichte wird die Edition zudem bereichern. Gleichzeitig droht vor allem im Bereich des Kommentars stets die Gefahr, RezipientInnen dazu zu verleiten, durch die bloße Möglichkeit der Verknüpfung zu weiteren Belegstellen Fiktives und Reales in Verbindung zu setzen. Über der Möglichkeit, etwa reale Schauplätzen oder Personen identifizieren zu können, darf nicht der Vorsatz einer möglichst interpretationsfreien Dokumentation der Materialien vergessen werden.

–––––––– 23

24

Der Begriff der „Fassung“ wird verstanden im Sinne von Siegfried Scheibes Definition der Textfassungen als „vollendete oder nicht vollendete Ausführungen eines Werkes, die voneinander abweichen“ und „durch Textidentität aufeinander beziehbar und durch Textvarianz voneinander unterscheidbar“ sind. Vgl. dazu Siegfried Scheibe: Terminologie und editorische Praxis. In: Editorische Begrifflichkeit. Überlegungen und Materialien zu einem „Wörterbuch der Editionsphilologie“. Berlin 2013 (Beihefte zu editio. 36), S. 57–64, hier S. 60. Michael Sperberg-McQueen: Text in the Electronic Age. Textual Study and Text Encoding, with Examples from Medieval Texts. In: Literary and Linguistic Computing 6, 1991, H. 1, S. 34–46, hier S. 34.

Blumen, neu arrangiert

201

Die Blumen-Edition – Print und digital Als erster Band der Schnitzler-HKA wird die 2018 veröffentlichte und als selbständige Open-Access-Publikation25 vom FWF geförderte historisch-kritische Ausgabe von Blumen um eine digitale Komponente26 erweitert werden. Der im Folgenden vorgestellte Prototyp zu Schnitzlers Erzählung lotet dazu die entsprechenden Möglichkeiten aus. Der Schritt ins Digitale erfolgt in Kooperation mit dem Austrian Centre for Digital Humanities an der ÖAW 27 auf der technischen Grundlage der XML-Datenbank eXist-DB.28 Die Editionsdaten werden durch eine Ablage im Repositorium ARCHE29 langfristig verfügbar gemacht. Entsprechend Almuth Grésillons Vorgaben für die Darstellung eines „dossier génétique“ 30 wird zunächst in die Genese des Textes eingeführt, etwa durch die Schilderung der äußeren Umstände, also der Schreibsituation des Autors, der Produktionsbedingungen usw., soweit sie z. B. aus Selbstaussagen Schnitzlers v. a. im Tagebuch, aus der Korrespondenz oder anderen Quellen rekonstruierbar sind. Gleichzeitig erfolgt eine genaue Beschreibung der handschriftlichen Materialien – ihres Aufbewahrungsortes, ihrer gegebenenfalls vorhandenen Datierungen, Paginierungen usw. – und die Analyse von z. B. motivischen oder syntaktischen Zusammenhängen, die sich etwa aus dem Auffinden von Seitenanschlüssen ergeben. Während die Printedition diese Informationen in einer Vorbemerkung zusammenfasst, bietet sie die digitale Edition angepasst an das Medium Internet, an entsprechender Stelle und in Form von materialbezogenen Multimedia-Daten an. Diese Präsentation, die die Möglichkeiten des Hypertexts 31 nutzt, macht der Userin / dem User vor allem das Material und die Quellen, auf die in der Darstellung der Textgenese Bezug genommen wird, einfach zugänglich. Insbesondere ist ein direkter Aufruf der zitierten Textstellen aus Handschrift und Drucktext möglich, so dass die beschriebenen textgenetischen Phänomene (z. B. Seitenanschlüsse, Blockstreichungen etc.) direkt am Material nachvollzogen werden können. Personen, Orte oder Organisationen wurden, wenn möglich, mit verfügbaren Normdaten, beispielsweise im Falle von Personen mit der Gemeinsamen Normdatei (GND), verknüpft. 32 Ebenso wurden Verknüpfungen zu online verfügbaren Quellen wie Tagebucheinträgen 33 und Briefen34 gelegt. Die digitale Komponente stellt ferner strukturierte Daten etwa der Handschriftenbeschreibungen

–––––––– 25 26 27 28 29 30 31 32

33 34

Die Publikation ist abrufbar, vgl. Anm. 1. Arthur Schnitzler: Blumen. Digitale Edition. Hrsg. von Ingo Börner und Isabella Schwentner. http://hdl.handle.net/21.11115/0000-000B-D071-A. https://acdh.oeaw.ac.at. eXist-db. The Open Source Native XML Database. http://exist-db.org. A Resource Centre for Humanities Related Research in Austria. https://arche.acdh.oeaw.ac.at. Grésillon 1999 (Anm. 6), S. 168. Vgl. Grésillon 1998 (Anm. 12), S. 271. Weitere Verknüpfungen, insbesondere mit am ACDH erarbeiteten oder gehosteten Daten aus Editionsprojekten zu Arthur Schnitzler, werden über einen „Entity Hub“ zugänglich gemacht, der technisch auf der Datenbanklösung APIS aufsetzt (https://acdh-oeaw.github.io/apis-core). Vgl. dazu: https://schnitzler-tagebuch.acdh.oeaw.ac.at/. Vgl. dazu die digitale Aufbereitung des Briefwechsels von Hermann Bahr und Arthur Schnitzler, hier die Einträge zu Blumen: https://bahrschnitzler.acdh.oeaw.ac.at/id/A020317.

202

Ingo Börner / Isabella Schwentner

und zu Datumsangaben zur Verfügung. Nicht zuletzt wird auf Archivbestände, Rezensionen und Sekundärliteratur verwiesen und, wenn digital vorhanden, verlinkt. Der erste Abschnitt der Printedition präsentiert das ‚dossier génétique‘, die vollständige faksimilierte und transkribierte Handschrift mit Anmerkungen zum Material im Fußnotenbreich in chronologischer Folge. Während allerdings in der Printedition in einzelnen Zweifelsfällen der archivalischen Ordnung gefolgt wurde, 35 wird die digitale Edition die Textträger sowohl in archivalischer als auch in chronologischer Abfolge präsentieren. Online ist ein direkter Vergleich der verschiedenen Ordnungen möglich; darüber hinaus kann mit verschiedenen Reihenfolgen experimentiert werden. Dies ist bei Blumen um so mehr von Bedeutung, als sich die Genese des Textes vor allem durch einen weitreichenden Umordnungsprozess des Materials auszeichnet. Die Erzählung Blumen entstand zwischen November 1893 und Februar 1894 und wurde 1894 in der Wiener Literaturzeitschrift Neue Revue36 erstveröffentlicht. Sie berichtet in tagebuchähnlichen Eintragungen aus der Perspektive eines Ich-Erzählers über die allmonatlichen Blumensendungen seiner ehemaligen – ihm untreuen – Geliebten. Seltsamerweise treffen die Blumen der Verlassenen auch noch nach deren Tod ein, von dem er nur zufällig erfahren hat. Im Gegensatz zur gedruckten Version erhält der Protagonist in der ersten längeren Ausarbeitung *H2 mehrere posthume Blumenlieferungen, was eine deutlich düsterere Stimmung erzeugt. Die morbide, beinahe gespenstische Atmosphäre der ersten Niederschrift nahm Schnitzler durch eine komplizierte Umschichtung und Überarbeitung des Textmaterials etwas zurück. Die erhaltenen Handschriften zu Schnitzlers Erzählung Blumen befinden sich als Teil des Werknachlasses an der Cambridge University Library in Mappe „A 150“. Diese enthält neben den Deckblättern zwei weitere Umschläge: In Konvolut A 150,1 befinden sich sieben undatierte Skizzen (S1–S7), eine erste Ausarbeitung (H1), die mit November 1893 datiert ist und 14 Blatt umfasst, und ein undatiertes einseitiges Konzept (K). Mappe A 150,2 enthält eine weiter ausgearbeitete Handschrift (H2), die 74 Blatt umfasst und mehrere Datierungen von Dezember 1893 bis Februar 1894 trägt. Die Blätter sind allesamt unpaginiert; H2 weist allerdings eine – nicht fortlaufende – Abschnittsnummerierung mit 19 Unterteilungen auf. Die Rückseiten der Blätter sind mit einer Ausnahme (S3 1v) leer. Die nachgelassenen Materialien belegen eine für Schnitzlers Frühwerk bisher ungewöhnliche Textgenese: Während in den Skizzen noch mit einem Wechsel von Erzählperspektiven experimentiert wird, ist die Geschichte in der ersten ausgearbeiteten Niederschrift (H1) in eine Rahmenhandlung eingebettet: Ein Freund berichtet dem IchErzähler im Kaffeehaus von den Blumensendungen seiner ehemaligen Geliebten. Erst in der späteren und längeren Ausarbeitung (H2) erhielt die Erzählung ihren tagebuchähnlichen Charakter.

–––––––– 35 36

In Blumen wurde, wie oben bereits erwähnt, die Handschrift H2 im ersten Abschnitt in der archivalischen Ordnung präsentiert, die chronologische Abfolge (*H2) in Abschnitt IV ohne Faksimiles. Arthur Schnitzler: Blumen. In: Neue Revue (Wiener Literatur-Zeitung), Jg. 5, Nr. 33 (1. August 1894), S. 151–157. Ab hier abgekürzt als: ED (Erstdruck).

Blumen, neu arrangiert

203

Textgenetische Besonderheiten der Erzählung Blumen Durch die komplizierte Umschichtung des Materials liegen die textgenetischen Besonderheiten von Blumen im Bereich der Makrogenese, die folgenden Beispiele konzentrieren sich daher auch auf entsprechende Phänomene. Wiewohl auf der Klagenfurter Tagung weiter an der Begrifflichkeit der „Makrogenese“ gearbeitet wurde, fehlt weiterhin eine einheitliche Definition. Wie Grésillon richtig festgestellt hat, ist eine solche – bzw. das Einigen auf eine gemeinsame Herangehensweise vor allem in Hinblick auf die Kodierung, die neue Probleme aufwirft – notwendig. Als alternative und pragmatische Vorgehensweise schlägt sie vor, sich zunächst auf den „rein materiellen Unterschied“ mit dem Blatt als Unterscheidungseinheit zu beschränken. 37 Ein ähnlicher Ansatz der Wuppertaler digitalen Schnitzler-Edition mit dem Begriffspaar Intra- vs. Interdokumentrelation wurde vom deutsch-britischen Editionsteam aber selbst verworfen38 und durch eine allgemeinere Definition ersetzt. Diese betrifft als makrogenetische Dimension einerseits „die genetische Relation größerer Einheiten wie der überlieferten Dokumente selbst“,39 also etwa „die Serie: erster Plan – Skizze/Entwurf – erste Werkniederschrift/-fassung – erneuter Plan – etc.“;40 das hieße bei Blumen die Relation der Skizzen S1 bis S7, H1, K und H2. Andererseits ist sie auch für die Beziehung „von ganzen Textsegmenten, die in der Regel als gattungs- bzw. genrespezifische Einheiten des discours vorgegeben sind“41 von Bedeutung, wie etwa Akte beim Drama oder Kapitel bei Prosatexten. Geht man vom veröffentlichten Text aus, so ist Blumen als „Tagebucherzählung“ 42 zwar in (unterschiedlich lange) Segmente unterteilt, die sich als einzelne Tagebucheinträge lesen lassen; da diese aber weder datiert noch nummeriert sind, ist ein Miteinander-in-Beziehung-Setzen bzw. ein nachvollziehbares Verweissystem, das sich auf einen gesamten Eintrag bezieht, schwer möglich. Demgegenüber enthält die Handschrift H2, die die Vorlage für den Drucktext bildet, Abschnittsnummerierungen von 1 bis 19, die als Identifikatoren herangezogen werden könnten. Gerade diese Zählung deutet allerdings auf den Kern der textgenetischen Komplexität von Blumen hin: Die Zählung verläuft nicht kontinuierlich und weist – auch auf hintereinander liegenden Blättern – Sprünge auf; so folgt etwa dem Abschnitt 14 auf H2 40 Abschnitt 5 auf H2 41. Wie noch gezeigt werden wird, ist diese Abschnittsnummerierung nicht als Kapitelzählung zu verstehen, sondern diente Schnitzler zur Markierung von Textpassagen, die er umgruppierte. Das zeigt sich etwa auch daran,

–––––––– 37

38

39 40 41 42

Vgl. dazu Almuth Grésillons Resümee „Gedanken zu unserem internationalen Workshop“, abgehalten am 4./5. September 2014 am Schweizerischen Literaraturarchiv in Bern zum Thema „Digitale genetische Editionen (in der Praxis)“. Abzurufen unter: http://www.lokalbericht.unibe.ch/hermann_burger/work shops.html. Thomas Burch u. a.: Text[ge]schichten. Herausforderungen textgenetischen Edierens bei Arthur Schnitzler. In: Textgenese und digitales Edieren, Wolfgang Koeppens „Jugend“ im Kontext der Editionsphilologie. Berlin, Boston 2016 (Beihefte zu editio. 40), S. 87–105, hier S. 89. Ebd. Ebd. Ebd. Peer Trilcke: Der Sohn (1892) und Blumen (1894). In: Schnitzler-Handbuch. Leben – Werk – Wirkung. Hrsg. von Christoph Jürgensen, Wolfgang Lukas und Michael Scheffel. Stuttgart, Weimar 2014, S. 167f., hier S. 167.

204

Ingo Börner / Isabella Schwentner

dass nach Abschnitt 19, ab dem Schnitzler offenbar das Material nicht mehr umstellte, sondern kontinuierlich weiterschrieb, keine weitere Nummerierung vorgenommen wurde, obwohl auch danach noch vergleichbare tagebuchähnliche Einheiten festzustellen sind. 43 Folglich kann auch auf diese Abschnitte nur bedingt bzw. nicht ausschließlich zurückgegriffen werden. Eine Konzentration auf „Einheiten der histoire wie z. B. isolierbare Handlungssequenzen“ 44 erscheint sinnvoll, bei Blumen bietet sich allerdings stattdessen noch besser ein Fokus auf bestimmte Motive – beispielsweise das der posthumen Blumensendung – an. Eine pragmatische Lösung wäre eine Kombination dieser beiden Einheiten: eine Sequenzierung von Handlungselementen oder Motiven und ein Verweis auf nummerierte Abschnitte – wo immer es möglich ist –, da diese einzelne Einheiten einfacher identifizierbar machen und „benennen“. Im Folgenden soll die Makrogenese von Blumen – das neue „Arrangement“ von verschobenen Textpassagen – näher betrachtet werden. Bereits während der Niederschrift von H2 nahm Schnitzler eine weitreichende Überarbeitung und Umordnung von Erzählpassagen vor; sowohl einzelne Blätter als auch ganze Abschnitte wurden verschoben. Die Reihenfolge der Lage der Blätter in der Mappe A 150,2 entspricht im Wesentlichen dem Verlauf des Textes des Erstdruckes, nicht aber der Chronologie ihrer Genese, wofür es zahlreiche textgenetische Indizien gibt. Zunächst verläuft der Text in einigen Fällen diskontinuierlich und weist fehlende Seitenanschlüsse auf: So ergibt sich etwa am Übergang von H2 45 zu H2 46 ein syntaktisch nicht korrekter Satz. Der Satzbeginn „Ich warte im̄er drauf, dass der“ in der letzten Zeile auf H2 45 wird fortgesetzt mit „auf der45 Antwort.“, dem Beginn der ersten Zeile auf dem folgenden Blatt H2 46. Neben der bereits erwähnten diskontinuierlichen Abschnittsnummerierung finden sich auch zum Teil achronologische Datierungen, so ist z. B. H2 30 mit dem 13. 1. 1894 datiert, H2 36 aber mit 2. 1. 1894. Nicht zuletzt wurden zahlreiche Passagen – mitunter ganze Abschnitte – gestrichen, und von einigen dieser Stellen finden sich Abschriften oder Neufassungen auf eigenen Blättern, wie etwa der gestrichene obere Absatz auf H2 44 „auch unter den Menschen werde sein können, ohne den Zusam̄enhang mit ihnen zu fühlen, alle Fäden die Fäden alle reißen langsam ab. – “, der auf das davor liegende Blatt H2 43 neu übertragen wurde: „Unter Menschen bin ich selten, und wen̄ ich unter ihnen bin, so fühle ich keinen rechten Zusam̄enhang mit ihnen; die Fäden alle reißen ab.“ Das Verfolgen der textgenetischen Hinweise ermöglicht die Rekonstruktion der ursprünglichen Lage der Blätter und damit – zumindest teilweise – der Makrogenese der Handschrift. So lässt sich etwa durch das Aufspüren von Seitenanschlüssen die ursprüngliche Reihung der Blätter H2 40 bis H2 46 feststellen: Der abgebrochen wirkende Satz von H2 40: „Ich erwiderte gar nichts, und sie bestand auch nicht“ wird fortgeführt in der ersten Zeile des zuvor erwähnten Blattes, „auf der Antwort.“ (H2 46) Auch das handschriftliche Material an sich erlaubt Rückschlüsse auf die ursprüngliche

–––––––– 43 44 45

Vgl. die Einträge, die auf H2 63,1; H2 67,1 oder H2 71,1 beginnen. Burch u. a. 2016 (Anm. 38), S. 90. Grau gesetzte Einheiten sind Erschließungen indistinkter Zeichen. Vgl. dazu Blumen-HKA, S. 9.

Blumen, neu arrangiert

205

Lage, etwa wenn die Fortführung von Streichungen auf einem Blatt (H2 57) auf einem anderen (H2 59) zu erkennen ist, bei einem eingeschobenen Blatt (H2 58) aber fehlt. Die Umordnung des handschriftlichen Materials wurde in der Buchausgabe beschrieben und in einer Tabelle46 visualisiert: Sie zeigt die rekonstruierte genetische Reihenfolge der Blätter von H2 (als *H2) und dokumentiert die betreffenden Verschiebungen. Die Bezeichnung der einzelnen Blätter erfolgt nach ihrer Lage in der NachlassMappe und zusätzlich durch die Angabe ihrer Position in der rekonstruierten ursprünglichen Reihenfolge. Die Darstellbarkeit stößt hier aber deutlich an ihre Grenzen.

Die Makrogenese als Herausforderung für die digitale Edition Was die Darstellung und Visualisierung im Digitalen betrifft, sollte es das Medium Internet vermeintlich ermöglichen, alternative Ordnungen und Lektürewege durch das Material als eine netzförmige Struktur abzubilden. In den TEI Guidelines finden sich vereinzelt Hinweise zur Auszeichnung makrogenetischer Phänomene, die allerdings nicht ausführlich durch Kodierbeispiele belegt sind. In den letzten Jahren wurden etliche digitale Editionsprojekte in Angriff genommen, die textgenetische Aspekte berücksichtigen: Bei dem Beckett-Manuscript-Project47, dem Shelley-Godwin-Archive,48 der digitalen Faust-Edition49 und der Fontane-Notizbuch-Edition50 liegt der Fokus allerdings vor allem auf dokumentenzentrierten diplomatischen Transkriptionen. Die TEI Guidelines bieten seit etwas mehr als zehn Jahren eine Reihe von Elementen, mit denen sich textgenetische Phänomene entsprechend kodieren lassen. Insbesondere ist hier das Kapitel 11 „Representing Primary Sources“ zu nennen, in dem vor allem Wege zur Auszeichnung von Mikrogenese beschrieben sind. Elemente zur Kodierung typischer Phänomene von Manuskripten – wie beispielsweise Hinzufügungen und Tilgungen – waren bereits vor 30 Jahren in der ersten Version der TEI Guidelines (P1)51 enthalten. Strategien und Mittel zur Auszeichnung von Textvarianz werden in Kapitel 12 „Critical Apparatus“ zum textkritischen Apparat eingeführt. Zu dokumentenübergreifenden Relationen – die Grundlage zum Verständnis von Makrogenese – finden sich derzeit keine konkreten Beispiele in den Guidelines. Wie mit Mitteln der TEI eine Edition erarbeitet werden kann, die den Prinzipien der ‚critique génétique‘ folgt, lässt sich dem Konzeptpapier „An Encoding Model for

–––––––– 46 47 48 49 50 51

Blumen-HKA, S. 7. The Beckett Digital Manuscript Project. Hrsg. von Dirk Van Hulle, Shane Weller und Vincent Neyt. Brüssel: University Press Antwerp 2018. http://www.beckettarchive.org. The Shelley-Godwin Archive. Hrsg. von Elizabeth C. Denlinger und Neil Fraistat. 2013. http://shelleygodwinarchive.org. Historisch-kritische Faust-Edition. Hrsg. von Anne Bohnenkamp, Silke Henke, Fotis Jannidis. Frankfurt am Main [u. a.] 2017. http://www.faustedition.net/. Theodor Fontane: Notizbücher. Digitale genetisch-kritische und kommentierte Edition. Hrsg. von Gabriele Radecke. 2015. Version 0.1. https://fontane-nb.dariah.eu. TEI P1 Guidelines for the Encoding and Interchange of Machine Readable Texts. First draft 16 July 1990. Abrufbar unter http://www.tei-c.org/Vault/Vault-GL.html.

206

Ingo Börner / Isabella Schwentner

Genetic Editions“52 entnehmen, das auf eine Initiative der Special Interest Group (SIG) Manuscript studies, der Arbeitsgruppe ‚task force on Genetic Editions‘ zurückgeht. Diese Modifikation der Guidelines bildet in Teilen die Grundlage für die heutige Form der entsprechenden Kapitel. Das Dokument ist nach wie vor relevant, macht es doch nachvollziehbar, wie Ansätze aus der ‚critique génétique‘, die in dem Konzept explizit erwähnt werden, verallgemeinert und in die TEI Guidelines integriert wurden. So wurde beispielsweise die vorgeschlagene , die zur Kodierung einer Textschicht vorgesehen war, als „Theorie-neutrales“ Element übernommen. Dem Vorschlag der SIG nach sollte „one or more descriptions of the stages which have been identified in the genesis of a text“ enthalten. In der aktuellen Version der Guidelines dient nun sowohl zur Auszeichnung von Überarbeitungsvorgängen am kodierten Material – also im Sinne der ursprünglichen Konzeption des Elements – als auch zur Erfassung von Änderungen an der Datei selbst: „ documents a change or set of changes made during the production of a source document, or during the revision of an electronic file“. 53 Aus besagtem Konzeptpapier stammt auch der Vorschlag, zur Kodierung dokumentenübergreifender Beziehungen auf die im Kapitel „Graphs, Networks and Trees“ 54 beschriebenen Mittel zurückzugreifen und ‚genetic graphs‘ zu erstellen. 55 Die digitale Komponente der Blumen-Edition ermöglicht der Nutzerin / dem Nutzer eine Interaktion mit den Ordnungen: In der Ordnungsansicht besteht die Möglichkeit, zwischen der archivalischen und der rekonstruierten Reihenfolge umzuschalten bzw. diese parallel anzuzeigen. Bewegt die Userin / der User den Mauszeiger über eines der Blätter, wird die Position des Blattes in der jeweils anderen Ordnung hervorgehoben. Neu hinzugekommene Blätter werden zudem farblich markiert. Diese Möglichkeit eines direkten Vergleichs erleichtert es, die (vermuteten) Umordnungsvorgänge am Material nachzuvollziehen. So lässt sich beispielsweise zeigen, dass beim Hinzufügen neuer Blätter die inhaltlichen und syntaktischen Zusammenhänge bei Textstellen über Seitenanschlüsse hinaus verloren gehen (z. B. von Blatt H2 40 auf 46). Die Nutzerin / der Nutzer kann dann selbst das Material nach passenden Textanschlussstellen durchsuchen und alternative Ordnungen erproben. Eine Schwierigkeit in der Erarbeitung dieser Komponente der Edition ist nicht so sehr das Interface als die Frage, wie sich die alternativen Reihenfolgen mit Mitteln der TEI im Markup abbilden lassen. Die Ordnung der Blätter von H2 entspricht der Lage der Blätter in der Mappe und über weite Strecken dem Verlauf des Drucktexts. Die Folge H2 lässt sich somit relativ leicht aus dem TEI-Dokument bei der Transformation

–––––––– 52 53 54 55

Elena Pierazzo, Lou Burnard, Fotis Jannidis, Malte Rehbein. 2010. An Encoding Model for Genetic Editions. 2010. https://tei-c.org/Vault/TC/tcw19.html. Vgl. die Dokumentation von http://www.tei-c.org/Vault/P5/3.3.0/doc/tei-p5-doc/en/html/refchange.html. Vgl. ebd. Vgl. Abschnitt 4.2. in Pierazzo u. a. 2010 (Anm. 52): „Looking at the documents which constitute a given dossier, there are many types of relationships which can be identified, both amongst complete documents, and amongst parts of those documents, including alterations, revisions, stages and other compositional phenomena [...] We propose to model the ‘genetic relations’ one can deduce from such penomena by means of a graph.“

Blumen, neu arrangiert

207

in eine HTML-Präsentation ableiten; schwieriger gestaltet sich die Kodierung der rekonstruierten Folge. Um das Navigationselement zu erzeugen, ist eine einfache Liste ausreichend, die die rekonstruierte Reihenfolge notiert und die entsprechenden Verweise auf die einzelnen Blätter enthält. Zur Auszeichnung von Umstellungen halten die TEI Guidelines das Element bereit. Dieses Element kodiert „a single textual transposition as an ordered list of at least two pointers specifying the order in which the elements indicated should be re-combined“.56 In der Dokumentation zu finden sich allerdings nur Beispiele zur Mikrogenese, in denen als größtes Segment Zeilen ausgetauscht werden, und lediglich dann, wenn dies durch Einweisungszeichen angezeigt wird. Die Guidelines definieren nämlich eine Umstellung wie folgt: „A transposition occurs when metamarks are found in a document indicating that passages should be moved to a different position.“ 57 Eine Übernahme der Kodierung für die Umschichtung in Blumen ist somit nicht ohne Weiteres möglich. In H2 finden sich zwar metatextuelle Hinweise wie (nicht fortlaufende) Abschnittsnummerierungen und (achronologische) Datierungen; fraglich ist dennoch, ob Umordnungsvorgänge, die nicht durch metatextuelle Hinweise gekennzeichnet sind, durch die Beispiele in den Guidelines abgedeckt werden. Konkret stellt sich die Frage: Kann das Element zur Kodierung einer rekonstruierten Folge von Manuskriptblättern ( bzw. ) verwendet werden? Als Zwischenlösung wurde deshalb bei der Texterfassung für den Prototyp Blumen im TEI-Header in der unter eine Überarbeitungsphase der ‚Umordnung‘ angesetzt. Die Liste der Überarbeitungsvorgänge enthält einen Überarbeitungsvorgang , in dem die Umordnungsprozesse als Freitext beschrieben werden und die rekonstruierte Folge als einfache mit einem für jeweils ein Blatt aufgelistet ist. Aus dieser Liste lässt sich dann eine Ansicht von *H2 generieren. Ein weiteres makrogenetisches Phänomen, das sich am überlieferten Material zu Blumen feststellen lässt, bietet ein Beispiel für „die genetische Relation größerer Einheiten wie der überlieferten Dokumente selbst“.58 In Konvolut A 150,1 befindet sich ein für Schnitzlers Frühwerk ungewöhnliches Dokument: ein undatiertes Blatt, das ein Konzept (K) für die Umarbeitung der Erzählung enthält und sich auf die Abschnittsnummerierung in *H2 bzw. H2 bezieht, wobei Abschnitt 19 nicht angeführt wird. Auf diesem Konzept findet sich unter anderem die konkrete Anweisung „12 – 12 und 4 verbinden u entsprechen aendern. –“. In der digitalen Aufbereitung werden die entsprechenden Textpassagen verlinkt. Die Nummerierung der Abschnitte 1 (*H2 bzw. H2 1,2) bis 19 (*H2 50,7 = H2 56,7) erfolgte nachträglich, nach der Niederschrift von *H2. Das zeigt sich etwa an der Positionierung der Zahl „1“ am äußersten linken Blattrand (vgl. *H2 bzw. H2 1,2) bzw. der Überschreibung mit „13“ (vgl. *H2 40,8 = H2 39,8); in einem Fall – bei Abschnitt

–––––––– 56 57 58

Vgl. http://www.tei-c.org/Vault/P5/3.3.0/doc/tei-p5-doc/en/html/ref-transpose.html. http://www.tei-c.org/Vault/P5/3.3.0/doc/tei-p5-doc/en/html/PH.html#transpo. Burch u. a. 2016 (Anm. 38), S. 89.

208

Ingo Börner / Isabella Schwentner

8 (vgl. *H2 33,9 = H2 25,9) – wurde die Ziffer über eine gestrichene Passage gesetzt. Danach wurde die Reihenfolge umgestellt, der oben erwähnte Plan „12. – 12 und 4 verbinden u entsprechen aendern. –“ wurde umgesetzt: Im Gegensatz zu H2 und dem Text des Erstdruckes erhält der Erzähler in *H2 noch drei Blumensendungen nach der Todesnachricht. Abschnitt 4 (*H2 19–25 = H2 32–33, 36–38 und 51–52) berichtet über eine erste, „seltsame“ posthume Sendung, die den Empfänger zunächst noch „rührt“ (*H2 19,6): „Und die Blumen sind wieder gekomen . . . . als . . als . . . als hätte sich nichts verändert“ (*H2 19,9f.). Der gestrichene Abschnitt 12 (*H2 38–40 = H2 30–31 und 39) beschreibt dann, einen Monat später, den Erhalt einer erneuten Blumensendung – „Und die Blumen sind wied gekom̄en!“ (*H2 38,5f.) –, auf die der Empfänger zunächst mit Schrecken – „Ich bin zusam̄en gefahren, ich habe gezittert, wie ein kleines Kind“ (*H2 38,6f.) –, dann mit Widerwillen – „Eigentlich eine widerliche Komödie“ (*H2 39,9f.) – reagiert. In Abschnitt 19 lässt die dritte Blumenlieferung – „Wieder sind die Blumen da“ (*H2 50,7) – im Empfänger Erinnerungen an ein „langst vergangnes Gluck“ (*H2 51,8a f.) wach werden. Auch diese Passage ist gestrichen, Abschnitt 19 ist in K nicht angeführt, stattdessen folgt dort nach der Nennung des letzten Abschnitts (18) die Notiz „die Blumen kom̄en nicht wieder. –“ (K,5) Für die in K vorgegebene Umordnung wurde Abschnitt 4 nach hinten verschoben und in zwei Teile getrennt: Nach Blatt *H2 37 (= H2 29), das zu Abschnitt 11 zählt, folgen die beiden zu Abschnitt 12 gehörenden Blätter *H2 38 und 39 (= H2 30 und 31). Vor dem letzten Blatt von Abschnitt 12, *H2 40 (= H2 39), wurde der erste Teil von Abschnitt 4 (*H2 19–23 = H2 32–38) mit den zwei neuen Blättern H2 34 und 35 eingeschoben. Die letzten zwei Blätter von Abschnitt 4, *H2 24 und 25 (= H2 51 und 52) wurden nach hinten verschoben und folgen nun auf das neue Blatt H2 50, das die letzten und ersten Zeilen von *H2 38 und 39 (= H2 30 und 31) zusammenfasst bzw. ersetzt. Auf diese Weise wurden Abschnitt 4 und 12 miteinander verbunden und geändert, und in der neuen Anordnung H2 erhält der Ich-Erzähler nur mehr eine Blumensendung nach dem Tod der Geliebten. Damit wurde auch die Anweisung nach Abschnitt 18 – „die Blumen kom̄en nicht wieder“ – umgesetzt. In der digitalen Edition wird der Zusammenhang der Textzeugen durch ein Einbringen von Ankerpunkten , die mittels des Attributs @corresp auf die korrespondierenden Stellen verweisen, hergestellt. Durch die Verknüpfung einander mehr oder weniger entsprechender Segmente aus Handschriften und Drucktext kann der Umstellungsprozess besser nachvollzogen werden. Die Benutzerinnen und Benutzer erkennen, welche Teile in den Drucktext übernommen wurden und aus welcher Position sie an welche Stelle verschoben wurden. Während die Entstehungschronologie von *H2 und damit die ursprüngliche Anordnung der Blätter mit einiger Sicherheit rekonstruiert werden kann, bleibt vielfach

Blumen, neu arrangiert

209

unklar, ob Änderungen 59 schon während der Niederschrift oder erst im Zuge der nachträglichen Überarbeitung zu H2 erfolgt sind, ob sie also der Mikro- oder Makrogenese zuzurechnen sind. Einer der interessantesten Änderungsvorgänge innerhalb des genetischen Prozesses, der nicht der Makrogenese alleine zugeordnet werden kann, ist zweifelsohne die Streichung. Sie ist laut Grésillon „einer der Parameter, mit deren Hilfe die zeitliche Dimension des Schreibens faßbar wird.“60 In der Printedition werden Streichungen typographisch wiedergegeben („Blumen“). Sofern sie nicht vollständig durchgeführt wurden – also einzelne Zeichenfolgen in einem Schwung nicht mit erfasst wurden –, werden sie als „intentional“ 61 verstanden. Auch bei wortübergreifenden Streichungen kann im Normalfall davon ausgegangen werden, dass ein gesamtes Wort als gestrichen ‚gemeint‘ war. Während zeilenübergreifende Streichungen in der Transkription optisch nachgeahmt werden, muss in der digitalen Edition für jeden Fall einzeln entschieden werden, wo genau die Streichung angesetzt wird. Gestrichene Passagen innerhalb von Zeilen werden mit markiert; für Blockstreichungen wird das Element verwendet und das Ende der gestrichenen Passage durch einen verknüpften Ankerpunkt markiert. Die Benutzerin / der Benutzer kann sich jene Stellen anzeigen lassen, in denen gestrichene Passagen enthalten sind, schon allein, um diese weitreichenden Änderungen am Text quantitativ erfassen zu können. Aus einer Zusammenschau dieser gestrichenen Passagen wird beispielsweise deutlich, wie sehr Schnitzler im Überarbeitungsprozess die düstere, beinahe gespenstische Atmosphäre der früheren Niederschrift gegenüber dem veröffentlichten Text zurücknahm („Gespenster, wandernde Gespenster“, *H2 59,1 = H2 67,1) oder die Charakterisierung der untreuen und reuigen Geliebten („wie sie vor mir auf dem Boden lag,“, ( *)H2 6,3) etwas ‚entschärfte‘. Hier zeigt sich, wie sehr die Streichung zugleich „Verlust und Gewinn“ bedeutet, denn „[d]ie negative Geste verwandelt sich für den Textgenetiker in einen Schatz an Möglichem, die Tilgungsfunktion eröffnet den Zugang zu dem, was der Text hätte werden können.“ 62 Es lässt sich erkennen, dass auch jene Abschnitte gestrichen wurden, die die Reaktionen auf die verwelkenden Blumen der ersten Sendung beschreiben, die in der neuen Anordnung an dieser Stelle gar nicht eingetroffen waren. Andere Streichungen lassen sich wiederum mit Schnitzlers Tendenz zur Zurücknahme von Details mit wiedererkennbarem biographischen Hintergrund erklären, so etwa Anspielungen auf die Lebensumstände von Helene Kanitz („ihre Gesangsstudien habe sie ja schon vor bald einem Jahr unterbrochen“, H2 12,10f. = H2 14,10f.), mit der Schnitzler, neben

–––––––– 59 60 61 62

Zur Unterscheidung der Begriffe „Änderung“ und „Korrektur“ vgl. Rüdiger Nutt-Kofoth: Zur Terminologie des textgenetischen Felds. In: editio 30, 2016, S. 34–52, hier S. 40ff. Grésillon 1999 (Anm. 6), S. 92. Vgl. Blumen-HKA, S. 10 Grésillon 1999 (Anm. 6), S. 90.

210

Ingo Börner / Isabella Schwentner

Marie Glümer, vor bzw. zur Entstehungszeit der Erzählung ein Verhältnis hatte, das nach eigener Aussage63 auf die Erzählung Einfluss nahm. Der in der Handschrift gestrichene Text wurde in den meisten Fällen nicht in den Drucktext übernommen. Eine interessante Ausnahme findet sich auf H2 56: Hier wurde zunächst die gesamte Seite durchgestrichen, die Streichung auf dem oberen Teil des Blattes, der mit einer Art Klammer markiert ist, allerdings durch den metanarrativen Hinweis „bleibt“ wieder zurückgenommen. Dieses „bleibt“ steht – anders als ein tatsächlich gestrichenes und durch „blieb“ ersetztes „bleibt“ am Beginn der Zeile – in Lateinschrift. Der ursprünglich gestrichene Text auf der oberen Hälfte des Blattes wurde – im Gegensatz zum unteren Teil, der den Beginn von Abschnitt 19 bildet – in den Drucktext übernommen. Durch Gegenüberstellung von Handschrift und Drucktext ermöglicht es die digitale Edition, jene Stellen auszumachen, die erhalten geblieben sind. So wurde etwa das Motiv der Blumen, die „wie in einem Sarge“ daliegen, aus dem gestrichenen Abschnitt 12 (H2 30,12f.) auf H2 32,12b nachträglich interlinear eingefügt, dort ebenso gestrichen und schließlich ein weiteres Mal interlinear – also nachträglich – auf H2 33,7a eingefügt; dort wurde es nicht mehr gestrichen und dann an der entsprechenden Stelle in den Drucktext übernommen. Auch durch diesen Abgleich von gestrichenen Passagen mit dem Drucktext lassen sich genetische Prozesse verdeutlichen. Für die automatische Kollationierung von Drucktext und Handschrift in der digitalen Edition wird das Kollationierungstool collateX 64 eingesetzt. Es ermöglicht eine parallele Darstellung der einzelnen Varianten in Handschriften und Drucktext in Form einer tabellarischen Übersicht und vermittels eines ‚Variantengraphen‘. Das tool vergleicht den Drucktext mit den hierfür hergestellten normalisierten Lesetexten der Handschriften, die zwar die Eigenheiten der Handschrift berücksichtigen, aber orthographische und typographische Varianten ausschließen, um in erster Linie semantische Unterschiede aufzuzeigen. Wir verstehen den konstituierten Lesetext im Sinne Patrick Sahles als einen „Lesevorschlag“65 und ermöglichen es der Benutzerin / dem Benutzer, diesen jederzeit am transkribierten Text und am Faksimile zu überprüfen. Was etwa die oben beschriebene Zusammenlegung der Abschnitte 4 und 12 betrifft, zeigt der Vergleich, dass vorrangig der Text von Abschnitt 4 inklusive der neuen Blätter in den Drucktext übernommen wurde, von Abschnitt 12 die neue Kurzfassung auf H2 50. Es lässt sich erkennen, dass der Text von H2 bzw. sein Verlauf nach der Überarbeitung und Umstellung im Wesentlichen dem des Erstdruckes entspricht, und dass

–––––––– 63

64 65

Vgl. den Tagebucheintrag vom 30. 4.1895: „Brief – von Helene K. [Kanitz], der todtgeglaubten, deren Onkel mir vor zwei Jahren erzählt, sie sei vor 5 Jahren im Wahnsinn gestorben, was ich in den ‚Blumen‘ z. Th. verwendet.– Tragikomisch: Die Blumen flossen aus den 2 Geschichten zusammen: dass Helene todt war und dass ich Mz. I [d. i. Marie Glümer] nicht verziehen hatte.– Nun hab ich Mz. I verziehn und Helene lebt.“ (Arthur Schnitzler: Tagebuch 1893–1902. Unter Mitwirkung von Peter Michael Braunwarth u. a. hrsg. von der Kommission für literarische Gebrauchsformen der Österreichischen Akademie der Wissenschaften, Obmann: Werner Welzig. Wien 1989, S. 139.) Ronald Dekker, Interedition u. a.: CollateX. Software for Collating Textual Sources. https://collatex.net. Patrick Sahle: Digitale Editionsformen – Teil 2: Befunde, Theorie und Methodik: Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels. Norderstedt 2013, S. 106f.

Blumen, neu arrangiert

211

erst in ED eine Schlusspassage (vgl. D 302–30866), die die Rückkehr ins wieder behagliche Heim beschreibt, hinzugefügt wurde. Der Vergleich zeigt zudem Schnitzlers Tendenz zur Anonymisierung: Während in H2 als mögliche Route für eine Schlittenpartie der Weg von Mödling nach Heiligenkreuz (H2 23,4f.) genannt wird, wird die konkrete Lokalisation in ED durch die neutrale Wendung „auf dem Land“ (vgl. D 97f) ersetzt. Zu textgenetisch relevanten Änderungen kam es auch noch nach dem Erstdruck. Bis in die neuesten Ausgaben des Fischer-Verlags hat sich ein Fehler erhalten, der sich zwischen ED und der Erstausgabe innerhalb des Sammelbandes Die Frau des Weisen von 189867 eingeschlichen hat. Heißt es in H2 (H2 39,9f.) und ED noch, die Blumen seien „keine Grüße aus dem Jenseits“, wird der Sinn dieser Stelle ab EA ins Gegenteil verkehrt: Ab nun heißt es: „Es sind Grüße aus dem Jenseits“68. Mittels der digitalen Komponente der Edition soll sich die Textgenese von Blumen besser nachvollziehen lassen. Die Entstehungsgeschichte entbehrt dabei nicht einer gewissen Ironie: Durch die komplizierte Umstellung des handschriftlichen Materials kam es zu einem neuen Arrangement der Erzählung, in dem die düstere Atmosphäre deutlich weniger gespenstisch ausgeprägt war als in der früheren Niederschrift. Diese Zurücknahme des Unheimlichen wurde aber – wie die Druckgeschichte zeigt – durch den fehlerhaften Druck nach der Erstveröffentlichung quasi ad absurdum geführt, als nämlich der Blumenstrauß erst dort dezidiert zu einem Gruß aus dem Jenseits wurde. Die hybride Edition erlaubt nun den Blick auf die rohere und düsterere erste Niederschrift und berichtigt gleichzeitig den Fehler der späteren Ausgaben durch einen Transfer der Blumen nicht nur vom Print ins Digitale, sondern auch vom Jenseits ins Diesseits.

–––––––– 66 67 68

„D“ bezieht sich auf den zeilennummerierten Drucktext in der HKA. In: Arthur Schnitzler: Die Frau des Weisen. Novelletten. Berlin: S. Fischer 1898, S. 113–133. Ab hier abgekürzt als: EA. Vgl. Apparat zu D 163. Für eine Darstellung dieser Textvarianz als mit collateX erstelltem Variantengraph vgl. http://aau.at/musil/publikationen/textgenese/boerner-schwentner/.

Pedro Sepúlveda / Ulrike Henny-Krahmer

Titel- und Werkgenese in Pessoas Projekten und Publikationen

Pessoas Werk zwischen Planung und Publikation1 Der portugiesische Dichter der Moderne Fernando Pessoa hat zu Lebzeiten nur ein einziges Buch veröffentlicht, das 1934 unter dem Titel Mensagem (Botschaft) erschienen ist. Es handelt sich um eine Sammlung patriotischer Gedichte, die er unter seinem eigenen Namen veröffentlicht hat. Er hat aber mehrere Gedichte und auch Prosatexte in Zeitungen und Zeitschriften veröffentlicht, sowohl auf Portugiesisch als auch auf Englisch. Bis zu seinem 17. Lebensjahr hat Pessoa acht Jahre lang im britischen Südafrika gelebt, wo er auch seine Schulausbildung absolviert hat. Er war bis zu seinem Tod ein zweisprachiger Autor. Die Veröffentlichungen zu Lebzeiten sind aber nicht nur unter seinem eigenen Namen erfolgt, sondern auch unter verschiedenen Autorennamen, die er Heteronyme genannt hat. Obwohl er unter sehr vielen Namen geschrieben hat – man findet in seinem Archiv über 120 unterschiedliche Autorennamen – hat er seine Gedichte lediglich unter seinem eigenen Namen und noch drei weiteren Namen veröffentlicht, die er explizit Heteronyme nannte: Alberto Caeiro, Álvaro de Campos und Ricardo Reis. Diesen Heteronymen entsprechen unterschiedliche Dichterpersönlichkeiten, die jede eine eigene Weltanschauung und Biographie haben und deren Werk inhaltlich und stilistisch definiert ist. Die Heteronyme gehen damit über Pseudonyme hinaus und haben, über ihre Dimension als eigenständige Persönlichkeiten hinaus, auch eine Funktion, die mit derjenigen von Werktiteln vergleichbar ist, wenn sie ein Werk inhaltlich und stilistisch definieren und gegenüber anderen Werken abgrenzen. 2 Obwohl Pessoa wichtige Teile seines Werkes zu Lebzeiten veröffentlicht hat, blieb der größte Teil unveröffentlicht, einige Manuskripte sind es noch bis heute. Sein Archiv, im Besitz von Portugals Nationalbibliothek (BNP), beinhaltet fast 30.000 Dokumente, und es gibt darüber hinaus noch einige Dokumente, die sich im Besitz von Privatpersonen befinden. Das Textkorpus der Edition soll künftig phasenweise erwei-

–––––––– 1 2

Die digitale Präsentation zu diesem Beitrag finden Sie unter: http://aau.at/musil/publikationen/text genese/sepulveda-henny/. Vgl. dazu Fernando Pessoa: Teoria da Heteronímia. Hrsg. von Fernando Cabral Martins und Richard Zenith. Lissabon 2012. Als einleitende und umfassende Studien zu Pessoa in deutscher Sprache siehe Helmut Siepman: Der Beitrag der portugiesischen Literatur zur literarischen Moderne: Fernando Pessoa. In: Die literarische Moderne in Europa. Bd. 2. Hrsg. von Hans Joachim Piechottam, Ralph-Rainer Wurthenow und Sabine Rothemann. Opladen 1994, S. 68–83, und Steffen Dix: Das Hereinbrechen der Realität in die Fiktion und umgekehrt: Betrachtungen zur Moderne Fernando Pessoas. In: KulturPoetik 13.2, 2013, S. 176–196.

https://doi.org/10.1515/9783110575996-014

214

Pedro Sepúlveda / Ulrike Henny-Krahmer

tert werden, ausgehend von der Idee eines wichtigen Kontrastes zwischen dem potentiellen Charakter der zahlreichen Projekte, die in Pessoas Archiv zu finden sind, und der konkreten Verwirklichung seiner Publikationen zu Lebzeiten. Man findet in seinem Archiv zwischen 400 und 500 Listen mit Publikationsprojekten, die wir in einem allgemeinen Sinne, angelehnt an die Bedeutung im Englischen, ‚editorische Listen‘ nennen, die im Sinne von Publikation, aber auch Organisation des Werkes zu verstehen sind. Diese Projektlisten folgten nicht nur einem praktischen Ziel, dem der Planung von Werken für die Herausgabe und Veröffentlichung, sondern sie waren auch entscheidend für die Organisation des Werkes als Ganzes. Berücksichtigt man die Position der unterschiedlichen Werktitel und die sich daraus ergebenden Beziehungen zwischen ihnen auf einer Liste oder auf unterschiedlichen Listen derselben Periode, so kann man sowohl die Fragmente des Nachlasses als auch die Publikationen zu Lebzeiten als Teile ein und desselben Ganzen auffassen. Beide enthalten wichtige Informationen, um die Werkgenese nachzuvollziehen. Der Zusammenhang von editorischen Listen und zu Lebzeiten veröffentlichten Werken trägt dazu bei, dass auch unveröffentlichte WerkFragmente aus dem Nachlass besser verstanden werden können, weil es dadurch möglich wird, sie bestimmten Werken zuzuordnen. Andernfalls bleiben die Fragmente nur lose Texte, oft ohne jeglichen Titel oder sonstigen Zusammenhang zu einem Werk. In diesem Kontext ist es wichtig, zwischen Projektlisten, die Projekte unterschiedlicher Art auflisten, und Plänen, in denen zu einem bestimmten Titel eine Struktur entworfen wird, zu unterscheiden. Die Edition konzentriert sich auf das erstere Korpus, da die wichtigsten Informationen in Bezug auf die Entwicklung von Pessoas Werk als Ganzem in den Projektlisten enthalten sind. Die Publikationspläne sind nur in den Fällen Teil der Edition, in denen sie in einer bestimmten Projektliste enthalten sind. Zusammen mit weiteren Schriften Pessoas, in denen es um die Edition oder Publikation seiner Werke geht, vor allem Notizen und Briefe, zeigen die Projektlisten, um die es in diesem Editionsprojekt geht, dass der Dichter trotz seiner wenigen Publikationen zu Lebzeiten nicht, wie oft gedacht, die Anonymität gesucht hat. Pessoa war sehr wohl an der Veröffentlichung seines Werkes interessiert und auch an der Organisation seiner Herausgabe. Dieser organisatorische Aspekt von Pessoas Werk ist für das Verständnis seiner poetischen Dimension entscheidend. Pessoa war tief geprägt von der Idee der Publikation seines Werkes in Form einer Reihe von Büchern, die unterschiedlichen Autoren zugeordnet wären, die er aber nie umsetzte. 3 Wichtig ist es festzuhalten, dass diese Idee auch in einem starken Gegensatz zu einer anderen verbreiteten Vorstellung von Pessoa steht, nämlich, dass er vor allem ein Autor von Fragmenten sei, der sich gegen die Festlegung eines Ganzen, einer Totalität des Werkes sträube. Es ist außerdem entscheidend, innerhalb dieser konstanten editorischen Planung des Gesamtwerkes die Genese einzelner Titel und Werke zu verfolgen, insbesondere hinsichtlich der unterschiedlichen Autorennamen, die er für jedes Werk geschaffen und festgelegt hat. Es kann vermutet werden, dass dieser Schaf-

–––––––– 3

Vgl. ebd., S. 212–220.

Titel- und Werkgenese in Pessoas Projekten und Publikationen

215

fensprozess aus Pessoas Sicht zu dynamisch war, um in einer endgültigen Veröffentlichung festgelegt zu werden, die er aber trotzdem immer im Blick hatte. Die Dynamik in den Schriften Pessoas führt so zu einer Spannung zwischen seinem Werk im Sinne einer Projektion eines Umfassenden und Ganzen auf der einen Seite, wie es in den Publikationslisten und -plänen entwickelt wird, und den geschriebenen Textfragmenten und den wenigen Publikationen zu Lebzeiten auf der anderen Seite. Der umfangreichen Planung der Veröffentlichung der Werke steht also eine extrem selektive tatsächliche Publikation gegenüber. In den Publikationsplänen und den fragmentarischen Schriften zeigen sich außerdem beständige Bedeutungsverschiebungen, die zur Dynamik des Werkes beitragen. 4 Die Verschiebungen lassen sich an der Wahl bestimmter projizierter oder tatsächlich publizierter Werktitel verfolgen, die stark mit der Wahl bestimmter Autorennamen zusammenhängen. Auch die Wahl der Autorennamen unterlag einem ständigen Wechsel und wird in den Projektlisten sichtbar.

Digitale Edition von Pessoas Projekten und Publikationen Der Kontrast zwischen dem von Pessoa für die Veröffentlichung geplantem Werk und seinen zu Lebzeiten realisierten Publikationen wird in der digitalen Edition Fernando Pessoa: Projekte und Publikationen aufgegriffen. Die digitale Edition ist durch die Zusammenarbeit von WissenschaftlerInnen des Instituts für Literatur und Tradition (IELT) der Neuen Universität Lissabon und des Cologne Center for eHumanities (CCeH) sowie dem Institut für Dokumentologie und Editorik (IDE) entstanden und ist unter www.pessoadigital.pt in einer Beta-Version verfügbar. 5 In einer ersten Phase beinhaltet die Seite eine Edition der Listen editorischer Projekte von Fernando Pessoa, die im Zeitraum zwischen 1913 und 1935 verfasst wurden, sowie das Korpus der zu Lebzeiten zwischen 1914 und 1935 in Zeitungen und Zeitschriften veröffentlichten Lyrik. In der aktuell veröffentlichten Beta-Version ist das Korpus der zu Pessoas Lebzeiten veröffentlichten Gedichte bereits vollständig enthalten, während die Listen mit editorischen Projekten zunächst nur teilweise zur Verfügung stehen und nach und

–––––––– 4

5

Vgl. dazu Teresa Sobral Cunha: Planos e projectos editoriais de Fernando Pessoa: uma velha questão. In: Revista da Biblioteca Nacional, Serie 2, Bd. 2, Nr. 1, 1987, S. 92–107, Fernando Cabral Martins: Breves notas sobre a alta definição. In: Românica 12, 2003, S. 157–164, Manuel Gusmão: O Fausto – um teatro em ruínas. In: Românica 12, 2003, S. 67–86, und Pedro Sepúlveda: Os livros de Fernando Pessoa. Lissabon 2013. Vgl. Pedro Sepúlveda und Ulrike Henny-Krahmer (Hrsg.): Fernando Pessoa – Digitale Edition. Projekte und Publikationen. Editorische Leitung Pedro Sepúlveda, technische Leitung Ulrike Henny-Krahmer. Lissabon und Köln 2017, http://www.pessoadigital.pt. Laufende Arbeiten an den TEI-Dateien und der Web-Anwendung werden in einem GitHub-Repositorium verwaltet: https://github.com/cceh/pessoa. Hinter der Edition steht ein Team von bisher elf MitarbeiterInnen, die zu verschiedenen Zeiten mit ver schiedenen Zuständigkeiten (von der Transkription der Dokumente bis hin zur Gestaltung der Webseite) und zum Teil ehrenamtlich mitgearbeitet haben. Der technische Teil der Edition ist bisher von der FCT und darüber hinaus vom CCeH gefördert worden (vgl. http://www.pessoadigital.pt/de/project/team) (Abruf aller Limks dieses Beitrags 29.03.2019).

216

Pedro Sepúlveda / Ulrike Henny-Krahmer

nach bereitgestellt werden. Die Edition zielt zunächst auf ca. 300 editorische Listen, von denen ein wesentlicher Teil hier erstmals veröffentlicht wird.6 Es sollen im Rahmen dieses Beitrags nur diejenigen Aspekte der digitalen Edition angesprochen werden, die für die Untersuchung der Titel- und Werkgenese in Pessoas Projekten und Publikationen relevant sind. 7 Die editorischen Listen und Publikationen werden gemäß der Richtlinien der Text Encoding Initiative (TEI) codiert. Die digitale Edition folgt dabei einem Modell, das von Elena Pierazzo als The-Source-and-theOutput Model bezeichnet wird: [...] we need to distinguish the data model, where the information is added (the source), from the publication where the information is displayed (the output). In this framework, typefacsimile or diplomatic or indeed editions that present the text in a clear uncluttered way (the so-called reading editions), each represents only one of the possible outputs of the source. This in turn raises the possibility of enriching the source with much more information than is necessary for any one single output, as the selection of what to use in any given circumstance can be made by the software upon the request of the reader. 8

In ähnlicher Weise attestiert Patrick Sahle der Edition im Digitalen eine „Entspezialisierung“, bedingt durch den Medienwandel: Erst mit den digitalen Hilfsmitteln und Medien sind umfassende Modelle möglich, die eine Verallgemeinerung und damit auch eine Entspezialisierung der Edition erlauben. Die tatsächliche Überlieferung rückt wieder stärker in das Zentrum der Aufmerksamkeit und wird nicht mehr von einer typografischen Fassung verdrängt, die einen exklusiven Anspruch auf die wahre Deutung und Realisierung erhebt. 9

–––––––– 6

7

8 9

Die Projektlisten wurden bisher im Rahmen verschiedener thematisch ausgerichteter Editionen veröffentlicht, eine umfassende Edition der Listen ist bisher aber noch nicht verfügbar gewesen. Schon 1958 hat Jorge Nemésio einen Band herausgebracht, in dem einige Listen versammelt sind, welche sich aber nur auf die Dichtung beziehen, die Pessoa unter seinem eigenen Namen geschrieben hat (vgl. Jorge Nemésio: A obra poética de Fernando Pessoa. Salvador da Bahia 1958). Später hat Teresa Sobral Cunha, die als Herausgeberin von Pessoas Meisterwerk Das Buch der Unruhe bekannt wurde, eine umfassende Edition der Listen angekündigt, die aber bisher nicht zustande gekommen ist (vgl. Sobral Cunha 1987, Anm. 4). Ende 2016 wurde eine Studie und Anthologie der Projektlisten von Pedro Sepúlveda und Jorge Uribe herausgegeben (vgl. Pedro Sepúlveda und Jorge Uribe: O planeamento editorial de Fernando Pessoa. Lissabon 2016). In dieser Anthologie sind 90 Listen versammelt, die datiert und jeweils mit einem editorischen Kommentar versehen worden sind. Siehe zu den Herangehensweisen in der digitalen Edition auch Ulrike Henny-Krahmer und Pedro Sepúlveda: Pessoa’s editorial projects and publications: the digital edition as a multiple form of textual criticism. In: Advances in Scholarly Editing. Papers presented at the DiXiT conferences in The Hague, Cologne, and Antwerp. Hrsg. von Peter Boot, Anna Cappellotto, Wout Dillen, Franz Fischer, Aodhán Kelly, Andreas Mertgens, Anna-Maria Sichani, Elena Spadini und Dirk Van Hulle. Leiden 2017, S. 125–133, https://www.sidestone.com/books/advances-in-digital-scholarly-editing, wo die für diese Edition spezifische Kombination verschiedener Ansätze der Textkritik besprochen wird; vgl. für eine allgemeine Darstellung der Zielstellungen der Edition und des technischen Setups Pedro Sepúlveda und Ulrike Henny: Tracing the Genesis of Pessoa’s Envisioned Work: a Digital Edition of his Editorial Projects and Publications. In: Digital Humanities 2016: Conference Abstracts. Kraków 2016, S. 549–551. Elena Pierazzo: Textual Scholarship and Text Encoding. In: A New Companion to Digital Humanities. Hrsg. von Susan Schreibman, Ray Siemens und John Unsworth, Ney York 2016, S. 312. Patrick Sahle: Digitale Editionsformen. Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels. Teil 2: Befunde, Theorie und Methodik. Norderstedt 2013, S. 126.

Titel- und Werkgenese in Pessoas Projekten und Publikationen

217

Die digitale Edition von Pessoas Projekten und Publikationen kann in diesen Zusammenhang eingeordnet werden. Es wird diplomatisch transkribiert (z. B. werden Zeilenumbrüche, Streichungen, Hinzufügungen, Randnotizen und Symbole wie Pfeile erfasst), zugleich wird in der Codierung aber auch die Grundlage für verschiedene editorische Fassungen gelegt. Dazu zählen das Feststellen von Lücken, die Auflösung von Abkürzungen und eine einfache Codierung der Mikrogenese jedes Dokuments, mit deren Hilfe in der Präsentation der Edition eine erste und letzte Fassung konsolidiert werden können. 10 Die Grundlage der digitalen Edition ist also nicht eine spezifische editorische Version des Textes, sondern eine dokumentnahe Repräsentation. Dies ist besonders im Falle der editorischen Listen aus Pessoas Nachlass wichtig, da es von diesen Texten keine definitive Fassung gibt. Wenn auch dokumentnah transkribiert und codiert worden ist, so ist doch eine Entscheidung für das -Element mit einer textlichen Transkription und gegen eine am digitalen Faksimile orientierte Transkription mit dem Element getroffen worden. 11 Diese Art der Codierung erleichtert es, die bedeutsamen strukturellen Elemente in den Dokumenten wie Überschriften, Tabellen und Listen mit Einträgen von Werktiteln zu erfassen und direkt als solche auszeichnen und interpretieren zu können. Besonders die Erfassung und semantische Codierung von Entitäten wie Namen, die auf Personen und Figuren verweisen, sowie von Zeitschriften- und Werktiteln ist für Untersuchung der Genese des Werks von Pessoa zentral. Namen, Titel von erwähnten Texten und von Zeitschriften werden über die Markierung in den Dokumenten hinaus als Personen bzw. Figuren, Texte und Zeitschriften identifiziert und in einem zentralen Index zusammengeführt. Im Falle von Pessoas Werk sind bei der gängigen Vorgehensweise Erwähnungen von Personen, Orten und anderen Objekten im Text als ‚referring strings‘ zu markieren und über ein Attribut mit Entitäten zu verknüpfen, einige Besonderheiten zu beachten. So gibt es bei den Namen Varianten wie Fernando Pessoa vs. Fernando Pessôa oder Antonio Mora vs. Antonio Móra, die in der Werkplanung in bestimmten Perioden verwendet werden, so dass ihnen bei der Untersuchung der Genese des Werks eine besondere Bedeutung zukommt. Die Namensvarianten werden zwar eindeutig Personen bzw. Figuren zugeordnet, jedoch werden sie auch in normalisierter Form im zentralen Index notiert. Bei der Codierung in den Dokumenten wird festgehalten, welche Variante vorliegt, so dass bei dokumentübergreifenden Auswertungen nachverfolgt werden kann, in welchen Zusammenhängen die Varianten jeweils verwendet wurden. Einen besonderen Status haben auch die in den Listen erwähnten Titel. Sie werden ebenfalls normalisiert, als Titel identifiziert und zentral gesammelt, aber nur teilweise

–––––––– 10

11

„Einfach“ meint hier, dass mögliche Stufen zwischen einer ersten und letzten Fassung nicht berücksichtigt werden. Siehe für Informationen zur editorischen Herangehensweise auch http://www.pessoadigital.pt/ de/project/about. Siehe zu den Unterschieden zwischen beiden Herangehensweisen u. a. Kapitel 11 der TEI-Guidelines (vgl. 11 Representation of Primary Sources. In: P5: Guidelines for Electronic Text Encoding and Interchange. Hrsg. vom TEI Consortium. Version 3.3.0. Zuletzt geändert am 31. Januar 2018, http://www.teic.org/release/doc/tei-p5-doc/en/html/PH.html). Eine primär auf die Darstellung des Textes auf dem Blatt ausgerichtete Codierung ist für die Fragestellungen im Projekt nicht wesentlich.

218

Pedro Sepúlveda / Ulrike Henny-Krahmer

weiter interpretiert, weil ihr Status nicht immer offensichtlich ist. So gibt es Titel, die Sammlungen von Werken markieren, welche für eine Publikation vorgesehen waren, wie z. B. Obras atlanticas. Diese werden als Sammlungstitel ausgezeichnet. Titel, die auf den Dokumenten ohne eine explizite Autorzuweisung erwähnt werden, können als Werke von Fernando Pessoa selbst aufgefasst werden. Weiterhin gibt es Titel, die im Zusammenhang mit einem Autor oder Heteronym genannt werden und somit als Werk dieser Autoren identifiziert werden können, z. B. Alb. C. O Guardador de Rebanhos. Diese Werke werden in der Edition in einem ersten Schritt nur für die wichtigsten Heteronyme Alberto Caeiro, Álvaro de Campos und Ricardo Reis erfasst.12 Wichtig ist dabei, dass die Werkebene hier auf der einen Seite sehr niedrigschwellig angesetzt wird: Fälle wie Poemas de Alberto Caeiro und Poemas Completos de Alberto Caeiro werden als zwei verschiedene Werke aufgenommen. Bei den Werktiteln ist es bei Pessoa grundsätzlich so, dass unterschiedliche Titel nicht ohne Weiteres auf dasselbe Werk verweisen. Wenn Pessoa sich also beispielsweise für das poetische Werk seines Heteronyms Alberto Caeiro zu unterschiedlichen Zeitpunkten unterschiedliche Titel ausgedacht hat, kann man davon ausgehen, dass er jedesmal ein anderes Werk mit einem anderen Gedichtkorpus und einer anderen poetischen Bedeutung im Blick hat, auch wenn die Unterschiede manchmal subtil sind. Auf der anderen Seite werden die Werke der verschiedenen Heteronyme sehr allgemein verstanden: Das Werk Alberto Caeiros wird z. B. nur dadurch von Werken anderer Autoren abgegrenzt, dass es Titel gibt, die ihm als Heteronym zugeordnet sind. Caeiros Werk wird aber nicht im Sinne bestimmter zentraler Titel festgelegt. Dies entspricht der oben erwähnten Funktion der Heteronyme, ein Werk inhaltlich und stilistisch zu definieren. Es ergibt sich also ein Doppelcharakter eines zugleich feingliedrigen und offenen Werkes. Durch die differenzierte Erfassung und zugleich breite Bestimmung von Werken wird der beständigen Weiterentwicklung von Werktiteln und Autorzuweisungen in Pessoas Publikationsprojekten und in seinen Veröffentlichungen Rechnung getragen und keine Deutung seines Werks vorweggenommen, die es statischer und fixierter erscheinen lassen würde, als es ist.13 Die digitale Edition und insbesondere die Textcodierung eignen sich hierfür besonders gut, da mit der TEI schon ein differenzierter Apparat zur Erfassung von Referenzen auf Entitäten und der Entitäten selbst zur Verfügung steht. Hinsichtlich der Erfassung der Metadaten ist vor allem die Datierung der Dokumente bedeutsam, da sie wesentlich ist, wenn Pessoas Werkkonzeption und -umsetzung über die Zeit nachverfolgt werden soll. Die Codierung in TEI erlaubt es hier, neben Zeitpunkten, die unterschiedlich genau festgelegt sein können, auch Zeiträume und den Grad der Sicherheit bei der Datierung anzugeben. Die (erschlossene) Datierung der Dokumente in der Edition wird ausgehend von inhaltlichen und materiellen Eigenschaften der Dokumente vorgenommen.

–––––––– 12 13

Eine Ausweitung auf sämtliche Autorennamen ist denkbar, hängt aber vom weiteren organisatorischen Rahmen des Projekts ab. Einige der früheren Editionen der Publikationsprojekte und Werke Pessoas haben die feinen Unterschiede in der Konzeption der Werke über ihre Titel und Autornamen nicht beachtet und sehr viel abstraktere Werke angesetzt, was aus unserer Sicht eine zu starke Deutung darstellt.

Titel- und Werkgenese in Pessoas Projekten und Publikationen

219

Basierend auf der Textcodierung wird für jedes Dokument aus dem Nachlass eine Kombination von vier Transkriptionsformen generiert und die Textgenese innerhalb jeden Dokuments damit für den Nutzer nachvollziehbar gemacht: 1. Diplomatische Transkription die sämtliche Varianten, Unsicherheiten von Seiten des Autors, Ergänzungen und vom Autor durchgestrichene Segmente enthält. Die Transkription folgt der graphischen Darstellung der Elemente im Originaldokument und verzichtet weitgehend auf editorische Symbole. 14 Diese Transkription folgt dem Ziel, alle im Dokument bedeutsamen Elemente zu enthalten. 2. Zwei Fassungen des Dokumentes (eine erste und eine letzte Fassung), die es editorisch festlegen, d. h. eine eindeutige Version des Textes präsentieren. In beiden Fassungen werden vom Autor durchgestrichene Segmente nicht mehr angezeigt, Abkürzungen werden aufgelöst. 3. Eine ‚Eigene Fassung‘, die dem Leser einen individuellen Zugang zum Dokument erlaubt, bei dem Elemente der diplomatischen Transkription, der ersten und letzten Fassung kombiniert werden können. Aus den erwähnten semantischen Codierungen von Personen- und Figurennamen, Werk- und Zeitschriftentiteln ergeben sich in der Präsentation der digitalen Edition einerseits zentrale Register,15 andererseits individuelle Register, die neben jedem Dokument angezeigt werden können. 16 Weitere Darstellungen, die sich aus den Namenund Titelreferenzen in Kombination mit chronologischen Informationen ergeben, sind interaktive Zeitleisten und ein Personen- und Figurennetzwerk.17 Im Folgenden soll die Entwicklung von Pessoas Werk am Beispiel des Heteronyms Alberto Caeiro nachgezeichnet werden.

Mikrogenese des Werks anhand unterschiedlicher Formen der Transkription eines Dokuments Das Dokument CP 602, das im Folgenden als Beispielfall dient, ist Teil einer privaten Sammlung, die noch im Besitz von Pessoas Nichte und Erbin Manuela Nogueira ist, und daher nicht Teil des Archivs der Nationalbibliothek. Es gibt in diesem Dokument

–––––––– 14 15 16

17

Folgende Phänomene werden in der diplomatischen Transkription markiert: Vermutete Lesungen, vom Autor selbst in Frage gestellte Abschnitte und unleserliche Worte. Vgl. Sepúlveda und Henny-Krahmer 2017 (Anm. 5), http://www.pessoadigital.pt/index/names, http://www.pessoadigital.pt/index/titles und http://www.pessoadigital.pt/index/periodicals. Es kann zwischen der Ansicht Transkription-Faksimile und Transkription-Index gewechselt werden. Siehe z. B. ebd. BNP/E3 48G-29r, http://www.pessoadigital.pt/doc/BNP_E3_48G-29r/diplomatictranscription#facsimile vs. http://www.pessoadigital.pt/doc/BNP_E3_48G-29r/diplomatic-transcription #index. Vgl. Sepúlveda und Henny-Krahmer 2017 (Anm. 5): Fernando Pessoas editorische Projekte und Publikationen über die Zeit, http://www.pessoadigital.pt/de/timeline und Ben Bigalke, Sviatoslav Drach, Ulrike Henny-Krahmer, Pedro Sepúlveda und Christian Theisen: Personen- und Figurennetzwerke in Fernando Pessoas Publikationsplänen. Köln, Lissabon, Würzburg 2017, http://www.pessoadigital.pt/de/ network.

220

Pedro Sepúlveda / Ulrike Henny-Krahmer

mehrere Fälle von Ergänzungen, die nach einer ersten Phase des Schreibens hinzugefügt worden sind. 18 Diese Liste stellt einen Fall dar, bei dem die Möglichkeiten der digitalen Edition, wie sie durch die unterschiedlichen Transkriptionsfassungen gegeben sind, entscheidend zum Verständnis der Entwicklung von Pessoas Projekten beitragen. Es zeigt sich ein Versuch des Autors, um 1924 sowohl eigene Titel als auch Referenzen auf Werke seiner Zeitgenossen mit Bezug zu avangardistischen Strömungen zu organisieren. Vor allem in den Jahren zwischen 1914 und 1917 war Pessoa sehr daran interessiert, eine explizite Nähe seines Werks zu avangardistischen Strömungen der Dichtung und Kunst in Europa, wie dem Futurismus oder dem Kubismus, herzustellen. Während einige seiner Werke sich explizit als futuristisch präsentierten, 19 schuf er mit seinem Konzept des ‚Interseccionismo‘ (Intersektionismus) eine Nähe zum Kubismus. Dabei wurden unterschiedliche zeitliche und räumliche Ebenen literarisch nebeneinandergestellt.20 Um 1916 versuchte er diese unterschiedlichen Strömungen unter dem von ihm selbst geprägten Begriff des ‚Sensacionismo‘ (Sensationismus) zu versammeln, welcher auf eine gleichzeitige Wahrnehmung unterschiedlicher Sinneseindrücke (sensações) verweist.21 In der Liste wird eine Reihe von Titeln den Bezeichnungen „Neo-Symbolismo“, „Futurismo“ und „Sensacionismo“ mit Blick auf eine mögliche künftige Publikation zugeordnet. Die Titel werden dabei als „Documentos“ der genannten Strömungen angesehen. Interessant ist an dieser Liste, dass Pessoa noch 1924 an eine Wiederbelebung eines solchen avangardistischen Impulses gedacht hat. Es ist bekannt, dass der Dichter sich ab den 1920er Jahren von Bewegungen dieser Art zurückzuziehen schien, um Raum für eine Arbeit zu gewinnen, die man als eher individuell ansehen könnte, da sie weniger an Zeitschriften, literarischen Strömungen und Gruppen interessiert war. Die Zeit, in der es ihm um einen Anschluss an literarische und künstlerische Bewegungen ging, sind wohl mehr die Jahre von 1914 bis 1917. Dies zeigt sich besonders an dem Mitwirken Pessoas an der modernistischen Zeitschrift Orpheu, von der 1915 zwei Nummern publiziert wurden. Das Dokument CP 602 zeigt dagegen, dass Pessoa die Titel seines eigenen Werkes, die er sowohl unter seinem eigenen Namen als auch unter den Namen der Heteronyme veröffentlicht hat, noch 1924 an die schon teilweise in Vergessenheit geratene literarische Strömung der 1910er Jahre binden wollte, indem er sich zusammen mit Titeln einiger seiner Zeitgenossen präsentierte, die sich vor allem im Jahr 1915 um die Zeitschrift Orpheu versammelt hatten. 22 Auf der Ebene der Mikrogenese des Dokuments

–––––––– 18 19 20 21 22

Vgl. Fernando Pessoa: CP 602. In: ebd., http://www.pessoadigital.pt/doc/CP602/diplomatic-transcrip tion. Vgl. bspw. Álvaro de Campos: Ode Triunfal. In: ebd., http://www.pessoadigital.pt/de/pub/Campos_Ode_ Triunfal. Vgl. Fernando Pessoa: Chuva Oblíqua. In: Sepúlveda und Henny-Krahmer 2017 (Anm. 5), http://www.pessoadigital.pt/de/pub/Pessoa_Chuva-Obliqua. Vgl. dazu Fernando Pessoa: Sensacionismo e Outros Ismos. Hrsg. von Jerónimo Pizarro. Lissabon 2009. Die Liste enthält vor allem Texte, die sich als Manifeste verstehen und die von 1915 (in der Zeitschrift Orpheu) bis 1923 (in dem Interview „Entrevista com Fernando Pessoa“ in der Revista Portuguesa) veröffentlicht wurden. Eine Datierung des Dokuments wird durch die im Text genannten zeitlichen

Titel- und Werkgenese in Pessoas Projekten und Publikationen

221

ist es bemerkenswert zu sehen, dass Pessoa diese Werke zunächst alle als Repräsentanten des Futurismus sehen wollte, da er sie in einer ersten Stufe des Schreibprozesses als „Documentos do Futurismo portuguez“ bezeichnet; „portuguez“ wird aber vom Autor durchgestrichen, so dass in einer ersten sauberen Fassung der Liste „Documentos do Futurismo e do Sensacionismo portuguezes“ zu lesen ist. In einer dritten Stufe, die einer letzten Fassung des Dokuments entspricht, wird dann „Neo-Symbolismo“ ergänzt, was auf den Anspruch Pessoas hindeutet, diese Texte auch an die Strömung des französichen Symbolismus zurückzubinden, im Sinne einer modernistischen Neuaufnahme und Transformation des Symbolismus.23 Ein weiteres bedeutsames Element dieser Liste ist ein durchgestrichenes Segment, in dem es um eine Reihe von „Prefacios“ („Vorworte“) geht, die Pessoa zunächst auflistet und unterschiedlichen Autorennamen zuordnet, die sowohl fiktionalen Figuren (Álvaro de Campos) als auch realen Personen entsprechen (Fernando Pessoa, AlmadaNegreiros, Raul Leal und Luiz de Montalvor), wobei er sich letztlich entscheidet, diese Reihe von Vorworten nur an den Namen des Heteronyms Álvaro de Campos zu binden. Hier zeigt sich hinsichtlich der Werktitel eine bedeutsame Variante, da von Campos im Grunde keine Vorworte bekannt sind. Als Kommentator des Werks seines Meisters, des Heteronyms Alberto Caeiro, sollte Campos ein Nachwort zu dessen Gedichtband schreiben. Dieses ist unter dem Titel Notas para a Recordação do meu Mestre Caeiro (Anmerkungen zur Erinnerung an meinen Meister Caeiro) bekannt und in Teilen 1931, also zu Lebzeiten Pessoas, veröffentlicht worden. Dieser Text wurde aber erst einige Jahre später verfasst und wird daher an dieser Stelle nicht gemeint sein. Es kommt hier also eine neue Rolle von Campos als Verfasser von Vorworten zu Veröffentlichungen über den Futurismus, den Neo-Symbolismus und den Sensationismus ins Spiel.24 Die Verschiebungen von Titeln, Autornamen und Verweisen auf bestimmte literarische Strömungen sind charakteristisch für Pessoas Werk und lassen sich an den Projektlisten detailliert verfolgen. Die digitale Edition unterstützt die Interpretation der Listen hinsichtlich dieser Aspekte auf mehrfache Weise: 1. 2.

Die diplomatische Transkription erleichtert die Lektüre des Dokuments, während die erste und letzte editorische Fassung Vorschläge für ein Verständnis der Dokumente aus mikrogenetischer Sicht unterbreiten. Durch die Gegenüberstellung von transkribiertem Dokument und Faksimile können die editorischen Entscheidungen dabei jederzeit nachverfolgt und auch die Materialität der Dokumente einbezogen werden.

––––––––

23

24

Angaben möglich. Dazu kommt eine Referenz auf einen gescheiterten Staatsstreich, der als Revolta da Aviação (Aufstand der Luftwaffe) bekannt geworden ist und im Juni 1924 stattgefunden hat. Die Liste kann damit ungefähr auf das Jahr 1924 datiert werden. Vgl. Fernando Pessoa: CP 602. In: Sepúlveda und Henny-Krahmer 2017 (Anm. 5), http://www.pessoa digital.pt/doc/CP602/diplomatic-transcription für die diplomatische Fassung, sowie http://www.pessoa digital.pt/doc/CP602/first-version für die erste und http://www.pessoadigital.pt/doc/CP602/last-version für die letzte Fassung des Dokuments. Es ist denkbar, dass Pessoa an Texte von Campos dachte, die im Nachlass zu finden sind und in denen schon die genannten Themen behandelt werden, ohne dass diese Texte zuvor als „Vorworte“ bezeichnet wurden. Möglicherweise bezieht sich Pessoa hier auch auf neue Texte, die er erst später verfasste oder verfassen wollte.

222 3.

Pedro Sepúlveda / Ulrike Henny-Krahmer

Die Indices von Namen, Titeln und Zeitschriften, welche das Vorkommen in jedem Dokument erfassen, ordnen und identifizieren, legen bereits eine Grundlage für die Interpretation der Dokumente im Hinblick auf die Genese des Werks im Sinne seiner geplanten Publikation.

Ein weiteres Beispiel soll die viel diskutierte Eigenschaft von Pessoas Schreiben illustrieren, in seinen Schriften oft Varianten offen zu lassen, ohne sich für eine zu entscheiden. Im Dokument BNP 143-5r25 sind zwei Varianten des Titels der Liste zu finden, die offen bleiben, wobei es um eine Liste von Autoren und Werken aus der portugiesischen Literatur geht, die der fiktionalen Figur von Thomas Crosse zugeschrieben wird. Thomas Crosse ist eine von Pessoa konzipierte fiktionale Figur eines englischen Übersetzers, Kritikers und Kommentators portugiesischer Dichtung, unter anderem des Werkes von Alberto Caeiro. Man findet in Pessoas Nachlass mehrere Texte, die einen englischen Kommentar zu portugiesischen Autoren und besonders zu Alberto Caeiro darstellen und die explizit oder implizit der Figur Thomas Crosse zugeschrieben werden können. In der vorliegenden Liste geht es entweder um geplante Studien über die genannten Autoren oder um eine geplante englischsprachige Ausgabe der genannten Werke, eventuell auch beides, die Liste lässt Raum für unterschiedliche Deutungen. Interessant an der Liste ist der Zweifel des Autors bezüglich zweier Varianten im Titel (poets / writers), die beide legitim sind. Da es in der Liste ausschließlich um Dichter (im Sinne von ‚Lyriker‘) geht, stellt die Variante eine Bedeutungsverschiebung dar, wenn diese entweder als „poets“ oder, in einem umfassenderen Sinne, als „writers“ bezeichnet werden. Solche Fälle sind bei Pessoa häufig und einige Herausgeber tendieren dazu, für eine Ausgabe der Listen in Buchform die erste Fassung zu übernehmen.26 Andere folgen einem hermeneutischen Kriterium und wählen von Fall zu Fall eine andere Fassung, Vertreter einer kritisch-genetischen Edition folgen immer der letzten Fassung.27 Im Falle der digitalen Edition gehen wir von einer Perspektive aus, die der Dynamik des Textes und der unterschiedlichen Etappen des Schreibens gerecht zu werden sucht. Bei der ersten Fassung geht es also um die erste nicht revidierte Version des Autors, bei der letzten Fassung um die letzte Schreibstufe oder Variante, die trotzdem nicht als definitive Fassung zu verstehen ist, da eine solche im Fall von Nachlasstexten generell nicht anzunehmen ist. Beide Fassungen, zusammen mit der diplomatischen Transkription, sind aus unserer Sicht gleichermaßen legitim und erlauben ein adäquateres Verständnis sowohl der Text- als auch der Titel- und Werkgenese, die besonders an den editorischen Listen zu verfolgen ist.28

–––––––– 25

26 27 28

Bei der Nummer handelt es sich um die Signatur aus Pessoas Nachlass der BNP. Vgl. Fernando Pessoa: BNP/E3 143-5r. In: Sepúlveda und Henny-Krahmer 2017 (Anm. 5), http://www.pessoadigital.pt/doc/BNP_E3_143-5r/diplomatic-transcription. Siehe dazu Teresa Rita Lopes: A crítica da edição crítica. In: Revista Colóquio/Letras 125/126, 1992, S. 199–218, http://coloquio.gulbenkian.pt/bib/sirius.exe/issueContentDisplay?n=125&p=199&o=r. Vgl. Ivo Castro: Editar Pessoa. 2. Aufl. Lissabon 2013. Vgl. Fernando Pessoa: BNP/E3 143-5r. In: Sepúlveda und Henny-Krahmer 2017 (Anm. 5), http://www.pessoadigital.pt/doc/BNP_E3_143-5r/first-version und http://www.pessoadigital.pt/doc /BNP_E3_143-5r/last-version.

Titel- und Werkgenese in Pessoas Projekten und Publikationen

223

Dokumentübergreifende Titel- und Werkgenese Eine weitere Möglichkeit der visuellen Darstellung von den in der Grundcodierung markierten Informationen ist die Zeitlinie, die in die Seite integriert wurde, auf der man alle Texte der Edition finden kann, sowohl die Publikationen zu Lebzeiten als auch die editorischen Listen. 29 Man kann der Zeitlinie folgen und die Dokumente und Publikationen ihrem Entstehungs- oder Publikationsjahr entsprechend aufgelistet sehen. Der Verweis auf die Texte erfolgt durch eine bestimmte Signatur des Archivs der BNP bzw. im Falle der Publikationen durch einen Titel. Diese Chronologie ist von entscheidender Bedeutung, um die fortschreitende und parallele Entwicklung von Projekten und Publikationen zu verstehen und zu verfolgen. Zu beachten ist, dass die Chronologie der Listen von ihrer Datierung abhängt, die nicht immer auf einen Zeitpunkt festgelegt werden kann. In der Zeitleiste gibt es daher Dokumente, für die ein möglicher Zeitraum angegeben ist. Die Signatur des Dokuments ist dabei zu Beginn des Zeitraums angegeben, welcher in der Zeitleiste als blauer Balken erscheint. 30 Die Auszeichnungen von Autoren und Titeln im TEI sowohl auf der Ebene von Metadaten im als auch in den transkribierten Texten selbst im bilden die Grundlage für verschiedene Perspektiven auf das Gesamtwerk. So kann die für die editorischen Listen wie auch für die veröffentlichten Gedichte gesammelte Information zum Beispiel unter der Perspektive eines bestimmten Autors betrachtet werden. 31 In beiden Fällen werden sämtliche Dokumente und Publikationen aufgelistet, auf denen ein bestimmter Autorname erwähnt ist bzw. die unter einem bestimmten Autornamen veröffentlicht wurden, wobei zwischen einer chronologischen und einer alphabetischen Organisation der Informationen gewechselt werden kann. Es kann außerdem gewählt werden, ob nur die Dokumente aus dem Nachlass, nur die publizierten Texte oder beide zusammen angezeigt werden sollen. In dieser Übersicht wird bei den Listen für die erwähnten Namen außerdem angegeben, ob der Name in dem Dokument als Autor, Übersetzer, Herausgeber oder Thema auftaucht. Die Autorenansicht erlaubt es, einen schnellen Überblick über die Chronologie von Pessoas Publikationstätigkeit für die verschiedenen Heteronyme zu erhalten, wobei das Gefüge von Planung und Umsetzung der Publikationen sichtbar wird. Da die Zuordnung der Werke zu einem bestimmten Autornamen das für Pessoa entscheidende Kriterium ihrer Abgrenzung ist, kann hier nicht nur die Autorgenese, sondern gleichzeitig auch die Werkgenese verfolgt werden.

–––––––– 29 30

31

Vgl. ebd.: Fernando Pessoas editorische Projekte und Publikationen durch die Zeit, http://www.pessoa digital.pt/de/timeline. Die Darstellung der Zeitleiste basiert auf einem SIMILE Widget. Vgl. David François Huynh et al.: Timeline. Web Widget for Visualizing Temporal Data, o. O. 2006–2009, http://www.simile-widgets.org/ timeline/. Vgl. z. B. Sepúlveda und Henny-Krahmer 2017 (Anm. 5), http://www.pessoadigital.pt/authors/Caeiro/ für Alberto Caeiro. Die Autoransichten werden für die vier Hauptautornamen Pessoas gegeben: Fernando Pessoa, Alberto Caeiro, Álvaro de Campos und Ricarco Reis. Neben der Autorenansicht gibt es auch eine Ansicht nach Gattungen: Editorische Liste, Editorische Notiz, Editorischer Plan und Dichtung. Vgl. für die Dichtung z. B. http://www.pessoadigital.pt/genre/poetry.

224

Pedro Sepúlveda / Ulrike Henny-Krahmer

Eine weitere Perspektive, die neben der Autorenansicht durch die umfassende Codierung ermöglicht wird, ist diejenige der Titel- und Werkgenese, vor allem durch die in den Listen, aber auch in den Publikationen enthaltenen Angaben zu Titel, Autorname und Werk. Bei Pessoa befinden sich diese Bezeichnungen im Wandel, und nur eine Analyse der Listen und der Publikationen kann über die Entwicklung eines bestimmten Werkes, z. B. die Gedichte von Alberto Caeiro, Aufschluss geben. Auch die Beziehungen, die zwischen den Werken und den Heteronymen von Pessoa zu unterschiedlichen Zeitpunkten vom Autor hergestellt werden, können mit Hilfe der Edition verfolgt werden, und damit kann die Genese des Werkes als Ganzes betrachtet werden. Dies geschieht zum einen innerhalb einer jeden Liste, indem die Textgenese mit Hilfe unterschiedlicher Transkriptionsformen gezeigt wird, zum anderen auf der Ebene einer chronologischen Entwicklung von Projekten und Publikationen. Als Beispiel sei hier eine Zeitleiste für die Entwicklung der erwähnten und publizierten Werktitel von Alberto Caeiro herangezogen. Anders als in der allgemeinen Zeitleiste sind hier also nicht die Dokumente und Publikationen selbst dargestellt, sondern die in ihnen erwähnten Titel, die dem Heteronym Alberto Caeiro zugeordnet und somit als seine Werke verstanden werden können. Zusätzlich zu den Werken von Alberto Caeiro werden noch die allgemeinen Sammlungstitel angezeigt, damit sie in die Betrachtung der Werkentwicklung durch die Zeit einbezogen werden können. Jeder Werktitel ist mit einer Infobox versehen, in der das zugehörige Dokument bzw. die Publikation genannt wird und zu dem man über einen Link gelangt. 32 Auf der Zeitleiste kann man beispielsweise erkennen, dass die Gedichte des Heteronyms Alberto Caeiro schon 1914 zunächst als ein Werk mit dem Titel O Guardador de Rebanhos (Der Hüter der Herden) gedacht waren. Auch die englischen und französischen Titel werden schon in diesem Jahr erwähnt (The Keeper of Sheep / Le Gardien de Troupeaux) im Sinne geplanter, aber nie zustande gekommener Übersetzungen. In diesem Jahr tauchen auch erste Titel einzelner, zu diesem Werk gehörender Gedichte auf, was auf eine konkrete und detaillierte Planung der Veröffentlichung des ersten Teils des Werkes Der Hüter der Herden hindeutet. Später wird das Werk schrittweise erweitert durch zwei neue Teile, O Pastor Amoroso (Der verliebte Hirte) und Poemas Inconjuntos (Verstreute Gedichte). Den Gedichtband von Alberto Caeiro hat Pessoa nie publiziert, lediglich einige Gedichte aus Der Hüter der Herden und aus Verstreute Gedichte werden 1925 und 1931 in Zeitschriften veröffentlicht. Charakteristisch für die Jahre zwischen 1915 und 1919 ist das Vorkommen des Editionsprojekts O Guardador de Rebanhos, das sich als konstant erweist, auch wenn es nie verwirklicht wurde. Dieses Projekt kommt im Kontext einer Sammlung von Werken um einen gemeinsamen thematischen Titel vor, oft verbunden mit Pessoas Wunsch einer Wiederbelebung des Paganismus, unter Titeln wie Neo-Paganismo Portuguez oder O Movimento Pagão Portuguez oder um den möglichen Titel einer Zeitschrift oder Buchreihe (Toda uma Literatura, Bibliotheca de Cultura Cosmopolita, Athena, O

–––––––– 32

Vgl. ebd.: Fernando Pessoas editorische Projekte und Publikationen durch die Zeit: Werke von Alberto Caeiro, http://www.pessoadigital.pt/de/timeline-caeiro. Die Zeitleiste für das Heteronym Alberto Caeiro stellt eine für diesen Beitrag erarbeitete Weiterentwicklung der allgemeinen Zeitleiste dar.

Titel- und Werkgenese in Pessoas Projekten und Publikationen

225

Regresso dos Deuses, Cadernos de Reacção Pagan, Obras atlanticas, Na Casa de Saude de Cascaes, Aspectos). In diesen Jahren kommt auch schon der Titel O Pastor Amoroso vor, als geplanter Titel des zweiten Teils des Gedichtbandes von Alberto Caeiro, wobei auch die Möglichkeit in Erwägung gezogen wird, die Gedichte, die nicht Teil von O Guardador de Rebanhos sind, einfach outros poemas e fragmentos (andere Gedichte und Fragmente) zu nennen. Poemas Completos wird als umfassender Titel 1917 erwähnt, als Antizipation des späteren Titels Poemas Completos de Alberto Caeiro, der charakteristisch für Pessoas Projekte in den 1930er Jahren ist. Die Jahre zwischen 1914 und 1919 sind von einer intensiven Arbeit Pessoas an den Gedichten von Caeiro gekennzeichnet, die, wie oft bei Pessoa, zugleich von einer intensiven editorischen Planung begleitet wird. In den 1920er Jahren nahm sowohl die Arbeit an der Poesie von Caeiro als auch an deren editorischer Planung ab. Interessanterweise publizierte Pessoa 1925 eine wichtige Sammlung der Gedichte Caeiros in der Zeitschrift Athena unter den Titeln O Guardador de Rebanhos und Poemas Inconjunctos. Diese Veröffentlichungen sind die späte Verwirklichung der Projekte, die Pessoa schon seit 1914 konzipierte, als er die Figur und das Werk von Alberto Caeiro, dem Meister der Heteronyme, entwarf und diese in den editorischen Listen erstmals eine wichtige Rolle spielten. 33 Pessoa veröffentlichte aber nur einen geringen, wenn auch wichtigen Teil des poetischen Werkes von Caeiro. 23 Gedichte aus O Guardador de Rebanhos wurden bereits 1914 publiziert, wobei der Zyklus insgesamt 49 Gedichte umfasst, auch wenn Pessoa bis zu seinem Lebensende an Korrekturen und Varianten arbeitete.34 16 Gedichte wurden als Poemas Inconjunctos veröffentlicht. Sie machen aber nur einen geringen Teil der insgesamt 65 Gedichte aus, die Pessoa außerhalb des Zyklus O Guardador de Rebanhos für Alberto Caeiro schrieb, die meisten davon vor 1925. In den Jahren um 1925 findet man insgesamt weniger Publikationsprojekte, welche die Dichtung von Alberto Caeiro betreffen. Interessanterweise sind einige der Referenzen lediglich durch den Namen Caeiros gekennzeichnet, ohne einen Titel zu nennen. Pessoa hat oft die Namen der Heteronyme als Metonymie für ihr Werk verwendet, und zu dieser Zeit hat er auch den Namen ‚Alberto Caeiro‘ in den Listen oft als Bezeichnung für dessen Werk verwendet, ohne es durch einen Titel weiter zu spezifizieren. In zwei Fällen taucht der Titel Complete Poems of Alberto Caeiro auf, der noch einmal auf die geplante englische Übersetzung hindeutet und der in einem der Fälle mit dem oben erwähnten Namen des Übersetzers und Kommentators Thomas Crosse verbunden ist. Nur eine einzige Liste aus den 1920er Jahren ist mit der Publikation der Gedichte in der Zeitschrift Athena in Verbindung zu bringen; sie erwähnt zum ersten Mal den Titel Os Poemas Inconjunctos. In den 1930er Jahren – besonders zwischen 1930 und 1933 – kann man noch einmal einen Fokus auf die Veröffentlichung des Werkes von Caeiro feststellen. Zwischen 1933 und seinem Tod im Jahr 1935 zieht Pessoa die Publikation des Buches von Caeiro

–––––––– 33 34

Vgl. dazu Fernando Pessoa: Cartas entre Fernando Pessoa e os directores da presença. Hrsg. von Enrico Martines. Lissabon 1998, S. 251–260. Vgl. dazu Castro 2013 (Anm. 27) und Sepúlveda 2013 (Anm. 4).

226

Pedro Sepúlveda / Ulrike Henny-Krahmer

dann nicht mehr in Erwägung. Es ist eine Zeit, in der Pessoa in Kontakt mit Kritikern einer neuen Generation stand, die sich um die Zeitschrift Presença versammelten. Diese Kritiker – besonders João Gaspar Simões, Autor der ersten umfassenden Biographie von Pessoa – sind an der Veröffentlichung der Dichtung Pessoas und seiner Heteronyme sehr interessiert. Anhand der Projektlisten und auch der Korrespondenz mit Gaspar Simões 35 kann man klar feststellen, dass Pessoa zwischen 1930 und Anfang 1933 die Publikation des Gedichtbandes von Caeiro im Blick hatte, und zwar unter dem Gesamttitel Poemas Completos de Alberto Caeiro (Gesammelte Gedichte von Alberto Caeiro), der in dieser Periode in neun Projektlisten vorkommt. Dieser Titel ist in einigen der Listen als Teil einer Buchreihe vorgesehen, die auch die Bücher der anderen Heteronyme, Campos und Reis, einschließt (diese Buchreihe würde O Regresso dos Deuses oder Ficções do Interludio heißen). Der Titel Poemas Completos de Alberto Caeiro ist vor allem aus zwei Gründen sehr bedeutsam. Erstens zeigt sich eine klare Entwicklung von einem ersten Projekt eines einzigen Gedichtzyklus (O Guardador de Rebanhos) hin zu der graduellen Ergänzung weiterer Teile (O Pastor Amoroso, outros poemas e fragmentos und schließlich Poemas Inconjunctos). Wie die Listen zeigen, wären O Guardador de Rebanhos, O Pastor Amoroso und Poemas Inconjunctos die drei geplanten Teile des Buches Poemas Completos de Alberto Caeiro, das noch ein Vorwort von Ricardo Reis und ein Nachwort von Álvaro de Campos enthalten sollte, im Sinne der Kommentare der anderen Heteronyme zum Werk ihres Meisters. Pessoa hatte an diesen Texten lange gearbeitet, sie zählen zu den wichtigsten Teilen seiner Prosa, in der sich Pessoas Heteronymie als Konstellation von unter sich verbundenen Elementen und Persönlichkeiten zeigt. Eine zweite Dimension des Titels Poemas Completos de Alberto Caeiro ist sowohl aus editorischer als auch aus poetischer Sicht entscheidend. Hierbei wird der Name Alberto Caeiro nicht mehr in der üblichen Autorposition verwendet, sondern als Teil des Werktitels, als metonymische Bezeichnung eines Werkes, nicht in erster Linie als fingierter Autorname. Diese Wandlung entspricht dem späten Gedanken Pessoas, in einem Brief an Gaspar Simões formuliert, die Heteronyme unter seinem eigenen Namen zu veröffentlichen. 36 Dies entspricht der editorischen Idee, dass Fernando Pessoa selbst der Autor des Gedichtbandes Poemas Completos de Alberto Caeiro wäre, was in einer Liste von 1932 explizit erwähnt wird. 37 Diese Idee wurde aber nie in einer Publikation verwirklicht, so dass sie, wie in anderen Fällen bei Pessoa, ein Plan unter anderen bleibt, im Sinne einer ständigen Bedeutungsverschiebung, die sowohl auf editorischer als auch auf poetischer Ebene zu sehen und chronologisch zu verfolgen ist. Das Buch von Caeiro, wie es Pessoa auch genannt hat (O livro de Caeiro),38 wurde nie fertig gestellt und veröffentlicht, genauso wenig wie die Bücher der Gedichte von Álvaro de Campos und Ricardo Reis. Alle diese Bücher, wie auch das Prosawerk Das

–––––––– 35 36 37 38

Vgl. Pessoa 1998 (Anm. 33), S. 89–235. Vgl. ebd., S. 199–200. Vgl. Fernando Pessoa: BNP/E3 48B-8r. In: Sepúlveda und Henny-Krahmer 2017 (Anm. 5), http://www.pessoadigital.pt/doc/BNP_E3_48B-8r/diplomatic-transcription. Im Sinne einer Buchmetaphorik ist der Titel mit der Idee einer Totalität von Bedeutung und Wahrheit in Verbindung zu bringen. Siehe dazu Sepúlveda 2013 (Anm. 4), S. 45–330.

Titel- und Werkgenese in Pessoas Projekten und Publikationen

227

Buch der Unruhe, sind posthum erschienen, und ihre immer neuen Ausgaben sind abhängig von der herausgeberischen Arbeit, mit der die Manuskripte aus dem Nachlass auf eine bestimmte Art geordnet, bestimmte Titel und auch Autornamen aus Pessoas Projekten und Manuskripten ausgesucht werden. Die Werke der Heteronyme, wie Pessoas Werk als Ganzes, waren zu sehr einer ständigen dynamischen Veränderung unterworfen, um in einer endgültigen Publikation festgelegt zu werden. Als Reaktion auf die Beharrlichkeit seines Freundes António Ferro, der seit 1933 Kulturminister des neugegründeten Estado Novo war, hat Pessoa 1934 im Kontext einer Preisverleihung Mensagem, eine Sammlung patriotischer Gedichte, unter seinem eigenen Namen veröffentlicht. Zuvor, in den Jahren 1918 und 1921, hatte er ebenfalls unter seinem eigenen Namen einige Hefte mit englischen Gedichten veröffentlicht. Sicherlich war es für ihn schwieriger, sich eine Buchpublikation seines heteronymischen Universums vorzustellen. Als politischer Gegner des Estado Novo erkannte Pessoa nach der Veröffentlichung von Mensagem erst spät, dass es in einem Kontext der Zensur nicht möglich wäre, an weitere Publikationen seines Werkes zu denken, wie er in einem Brief an den Dichter und Kritiker Adolfo Casais Monteiro einen Monat vor seinem Tod in November 1935 schrieb. 39 Die Geschichte der Projektlisten und der Publikationen sowie der sich aus ihrer Gegenüberstellung ergebenden Bedeutung ist die Geschichte einer dynamischen Entwicklung von Pessoas Werk, seiner Fixierung durch Veröffentlichung oder durch Konzepte zur editorischen Organisation. Diese verschiedenen Festlegungen sind, wenn auch veränderlich, sehr bedeutend für die Systematik und die Grundlagen des Werkes von Pessoa. Sie sind entscheidend für eine klare Definition der Grundbausteine und der Ziele dieses Werkes, aus editorischer wie poetischer Perspektive. Die Geschichte der Projekte und Publikationen digital darzustellen, bedeutet also die Analyse eines work in progress, welches aber auf ein allgemeineres Ziel hinweist, nämlich das einer Festlegung eines Werk-Sinns als voll realisiertes Ganzes. Dieses Ziel hatte Pessoa immer im Blick, auch wenn er sich in seinen Schriften über den fragmentarischen Charakter seines Werkes beklagte und die Unmöglichkeit, der Fülle von Sinn zu entsprechen, ein Grundmotiv seines Schreibens wurde.

–––––––– 39

Vgl. Pessoa 1998 (Anm. 33), S. 282.

Walter Fanta

Die textgenetische Darstellung des Romans Der Mann ohne Eigenschaften von Robert Musil auf MUSIL ONLINE

Was gilt es zu edieren? (Abb. 1–5) 1 Die Grundidee von MUSIL ONLINE besteht darin, sämtliche Texte Robert Musils, die seit dem Ablaufen der siebzigjährigen Sperrfrist am 31.12.2012 nicht mehr urheberrechtlich geschützt sind, wissenschaftlich ediert und kommentiert online und openaccess zugänglich zu machen. Dies geschieht im Rahmen einer Hybrid-Konstruktion: Die Werke Musils werden für die literarische Lektüre in einer neuen Buchausgabe zur Verfügung gestellt. 2 Für alle Texte – für die vom Autor autorisierten Schriften, für den gesamten literarischen Nachlass und für die Korrespondenz − werden derzeit am Robert-Musil-Institut für Literaturforschung / Kärntner Literaturarchiv der AlpenAdria-Universität Klagenfurt (RMI / KLA) Lösungen erarbeitet, um sie auf dem Internetportal M USIL ONLINE in einer digitalen Online-Forschungsumgebung zu präsentieren. Seit 2016 befindet sich MUSIL ONLINE in statu nascendi, das Textkorpus zu dem Roman Der Mann ohne Eigenschaften ist bereits online verfügbar. 3 Über den Eingang ‚Archiv‘ können Faksimiles der autor-autorisierten Erstausgaben von 1930 und 1932 einschließlich der Seiten aus Musils Handexemplar mit handschriftlichen Annotationen des Autors eingesehen werden. Dieser bemerkenswerte Ausschnitt aus der Genese des Romans wird durch MUSIL ONLINE zum ersten Mal in Form von Abbildungen dargeboten. Außerdem enthält das ‚Archiv‘ auch Faksimiles der Vorabdrucke einzelner Romankapitel in Zeitungen und Zeitschriften von 1921 bis 1932. Zur Zeit noch sehr exemplarisch bietet M USIL ONLINE auch Manuskripte zu den Nachlassteilen des Romans, im Rahmen der derzeitigen Ausbaustufe bis Ende 2018 werden nur zwei Nachlassmappen ediert. Doch gerade aus deren Präsentationsweise lässt sich herauslesen, welche Instrumente M USIL ONLINE bei der Darstellung von Musils zu Lebzeiten unveröffentlicht gebliebenen Texten aus seinem Nachlass einsetzt. Aktuell

–––––––– 1 2

3

Die digitale Präsentation zu diesem Beitrag befindet sich unter: http://aau.at/musil/publikationen/ textgenese/fanta/. Robert Musil: Gesamtausgabe in zwölf Bänden. Hrsg. von Walter Fanta. Salzburg 2016–2022. Bisher erschienen sind: Band 1/2: Der Mann ohne Eigenschaften. Erstes Buch (2016) − Band 3: Der Mann ohne Eigenschaften. Zweites Buch (2017) – Band 4: Der Mann ohne Eigenschaften. Zweites Buch. Fortsetzung aus dem Nachlass 1937–1942 (2017) – Band 5: Der Mann ohne Eigenschaften. Zweites Buch. Fortsetzung aus dem Nachlass 1933–1936 (2018) – Band 6: Der Mann ohne Eigenschaften. Die Vorstufen 1919–1928 (2018) – Band 7: Bücher 1 (2019). Vgl. http://www.musilonline.at/. KuratorInnen von MUSIL ONLINE sind Anke Bosse, Artur Boelderl und Walter Fanta, die mit der textgenetischen Darstellung von Musils Manuskripten betraute Mitarbeiterin ist Katharina Godler.

https://doi.org/10.1515/9783110575996-015

230

Walter Fanta

steht jetzt noch die Präsentation des Romantextes im Vordergrund, die digitale Repräsentation der Dokumente ist diesem Ziel vorläufig noch nachgeordnet. Der künftige Fokus unserer Arbeiten an MUSIL ONLINE gilt dem großen Ziel, dem interessierten Publikum einen Open-Access-Zugang zu Musils Nachlass zu verschaffen – weltweit. Der herausragende Status dieses Nachlasses drückt sich auch darin aus, dass er auf Initiative der Österreichischen Nationalbibliothek in Wien (ÖNB), in deren Eigentum er sich befindet, als Dokumentenerbe in das UNESCO-Programm Memory of the World / Gedächtnis der Menschheit aufgenommen worden ist. In der Begründung für die Aufnahme wird angeführt, dass der Nachlass die Entstehungsgeschichte des Romans Der Mann ohne Eigenschaften und seiner unabgeschlossenen Fortsetzungsversuche dokumentiere, aber darüber hinaus in seiner Gesamtheit und in seiner Ergänzung durch drei Teilnachlässe als Werk sui generis zu betrachten [ist], als literarisch-philosophisches Laboratorium. In ihm wird das historische, soziologische, psychologische, philosophische und naturwissenschaftliche Wissen seiner Zeit in einem groß angelegten erzählerischen, essayistischen und aphoristischen Verarbeitungsversuch durch Robert Musil synthetisiert. 4

Die Doppelzuschreibung ist folgenreich für eine textgenetische Edition. Einerseits repräsentieren Musils Manuskripte schreibendes Denken oder denkendes Schreiben, wie es Nachlässe von Philosophen tun, etwa die von Friedrich Nietzsche oder Ludwig Wittgenstein. Bei ihnen wird eine moderne Edition von Vornherein nicht auf die Rekonstruktion eines Werks, sondern auf die Darstellung des Schreibprozesses als eines philosophischen Denkprozesses zielen. Andererseits gelten Musils Manuskripte aber auch als Zeugnisse einer Werkgenese, nämlich der des Romans Der Mann ohne Eigenschaften, und zwar auf mehreren Ebenen: a) durch die Manuskripte, die der Entstehung der von Musil in den Druck gegebenen Teile zuordenbar sind – Erstes Buch, erschienen 1930, und erster Teil des Zweiten Buchs, erschienen 1932 (ca. 2000 Seiten); b) durch die Manuskripte, die die Fortsetzungsversuche 1933–1942 repräsentieren (ca. 3000 Seiten); c) durch Vorstufenprojekte des Romans von 1902 bis 1928, die Musil für die Weiterarbeit aufbewahrte (ca. 2000 Seiten); d) durch inhaltliche Bezüge und durch Musils Verweissystem, über die auch die weiteren Teile des Nachlasses mit dem Romanprojekt verknüpft sind (ca. 3000 Seiten). Zusätzlich kompliziert wird die Aufgabe einer textgenetischen Edition dadurch, dass Musil in Folge der zweimaligen drastischen Veränderungen der Publikationsbedingungen durch das Ende der Weimarer Republik 1933 und die Annexion Österreichs 1938 durch Nazi-Deutschland am Roman nicht mehr auf einen Abschluss hin schrieb. Er hielt die Kapitelfolge offen, bewahrte auch Kapitelentwürfe weiter in seinem Fundus für die Fortsetzung auf, die er bereits überarbeitet hatte, und er verfasste in der Spätzeit eine stetig wachsende Zahl von die Entwurfsarbeit begleitenden und reflektierenden ‚Kapitelstudien‘ (ca. 2000 Seiten) und ‚Schmierblättern‘ mit Formulierungsversuchen (ca. 1700 Seiten), während der Anteil der tatsächlichen Romantextentwürfe an seinem Schreiben sank (ca. 750 Seiten). Aus

–––––––– 4

https://www.unesco.at/kommunikation/dokumentenerbe/memory-of-austria/verzeichnis/detail/article/ nachlass-robert-musil (Abruf am 14.06.2018).

Textgenetische Darstellung auf MUSIL ONLINE

231

dem Mangel an Teleologie im Romanschreiben Musils ergibt sich die große Herausforderung für die Online-Edition seiner Manuskripte. Die Online-Edition ist zugleich auf die Darstellung eines Schreibprozesses gerichtet, der sich als schreibendes Denken / denkendes Schreiben oft selbst genügt, und auf die editorische Rekonstruktion eines Werkes, an dessen Vollendbarkeit der Autor selbst nicht ganz glaubte, für ein an der literarischen Lektüre interessiertes Leserpublikum. Dem Charakter des Nachlasses entsprechend, der eben nicht nur textgenetisches Material zum Mann ohne Eigenschaften repräsentiert, wird das RMI / KLA mit der ÖNB eine Kooperation eingehen, um die Faksimiles, geeignete Textwiedergaben und die Metadaten der philologischen Erschließung gemeinsam mit einem interdiskursiven Kommentar auf M USIL ONLINE zur Verfügung zu stellen. Dies soll 2019 – beginnend im Rahmen eines neuen Editionsportals der ÖNB – in einer adäquaten, leser- und benutzerfreundlichen Form und in einer nachhaltigen, langlebigen Weise open-access geschehen. Die Darstellung der Textgenese ist nur eines der Ziele der Neuedition, aber ein wichtiges; im Kontext des schreibenden Denkens / denkenden Schreibens geht es nicht nur darum, textgenetische Dossiers zu literarischen Werken oder zu einzelnen Schreibprojekten im Sinne der critique génétique zu präsentieren, sondern neue integrative Darstellungsverfahren für den Nachlass in seiner Gesamthaftigkeit zu finden.

Was und wie ist bislang ediert worden? (Abb. 6–10) Musils postume Editionsgeschichte verlief so kontrovers wie der Streit um die Editionen anderer deutschsprachiger Fragment-Autor/inn/en wie Hölderlin, Büchner, Nietzsche, Robert Walser, Wittgenstein, Kafka oder Bachmann. Stets ging es um Fragen des Urheberrechts, der Legitimität (un)erlaubter Methoden bei der Vervollständigung des unvollständigen Werkes und dessen Darbietung. Bei Musil bestimmend waren von 1950 bis 2012 zum einen der Rowohlt Verlag, der sich mit dem Wiedererwerb der Rechte an Musils Texten bis 70 Jahre nach dessen Tod eine verlegerische Monopolstellung sichern konnte, und zum anderen als zentrale Herausgeberpersönlichkeit Adolf Frisé. Dieser leitete vom Autor Musil selbst, dem er 1933 persönlich begegnet war, von dessen Witwe Martha, den Erben Anne F. Rosenthal und Gaetano Marcovaldi und nicht zuletzt vom Verlagsleiter Heinrich Maria Ledig-Rowohlt die Legitimation ab, alles edierender alleiniger Musil-Herausgeber sein zu müssen – eine Rolle, die er über Jahrzehnte verteidigte. 5 Adolf Frisé nahm 1951 erstmalig Einsicht in den Nachlass Musils in Rom, 1952 wurde er nach einer Einigung zwischen den Erben und dem Rowohlt Verlag mit der Veröffentlichung der Fortsetzung des Mann ohne Eigenschaften aus dem Nachlass betraut und publizierte daraus im Dezember 1952 eine einbändige Ausgabe des Gesamtromans einschließlich der 1930 bzw. 1932 bereits ver-

–––––––– 5

Walter Fanta: „Man kann sich das nicht vornehmen“. Adolf Frisé in der Rolle des Herausgebers Robert Musils. In: Neugermanistische Editoren im Wissenschaftskontext. Biografische, institutionelle, intellektuelle Rahmen in der Geschichte wissenschaftlicher Ausgaben neuerer deutschsprachiger Autoren. Hrsg. von Roland S. Kamzelak, Rüdiger Nutt-Kofoth, Bodo Plachta. Berlin, Boston 2011, S. 251–286.

232

Walter Fanta

öffentlichten Teile. Bestimmend für diese Ausgabe von Nachlassteilen, die als organische Fortführung der zu Lebzeiten gedruckten Romanteile erscheinen sollten, war das Konzept einer Gesamtausgabe. Aus retrospektiven Erinnerungen an den Eindruck, den er im Mai 1951 von den Manuskripten empfangen hatte, geht hervor, dass Frisé an Musils Nachlass so herangegangen war, als müsse sich in ihm die Ordnungsstruktur eines geschlossenen Systems verbergen. Die 1951/52 erstmals gesichteten „bereits fertig getippte[n] Texte, die nur noch auf ihren Platz im Roman zu warten schienen“, 6 erklärte er ohne Umschweife zu Teilen einer Fortsetzung. Dabei bestimmte Frisé innerhalb einer möglichst großen Menge heranzuziehender Manuskripte deren Reihenfolge und Zuordnung nach einem wahrscheinlichen/möglichen Vorher/Nachher im fiktionalen Romangeschehen. Mit seiner Editionsweise suggerierte er einen Erzählverlauf, der quer zu den Stufungen und Schichtungen steht, welche sich aus einer genetischen Perspektive ergeben. In Frisés Ausgabe gehen die Fortsetzungsteile nahtlos in den Schlussteil über, der Herausgeber erschloss eine Anordnung, für die sich aus Inhalt, Anlage und Struktur des Hinterlassenen kaum Anhaltspunkte ergeben. Der Rekonstruktionscharakter seiner Ausgabe führte dazu, dass Frisé für jedes Kapitel aus dem Nachlass einen Titel erfand, im Inhaltsverzeichnis darauf verwies, dass „die mit * gekennzeichneten Kapitel bisher unveröffentlicht“7 waren, und im Anhang Nachgelassene Fragmente ankündigte, was impliziert, die 128 Kapitel des Zweiten Buchs wären gesicherte Romanfortsetzung und nur das im Anhang Folgende Fragment. Deklarierte Zielsetzung der Ausgabe von 1952 war, Musils Roman nach dem Zweiten Weltkrieg einem großen Publikum möglichst schnell und vollständig in Erinnerung zu rufen. Dazu war es notwendig, ein Maximum der im Nachlass vorfindlichen Entwürfe in leserfreundlicher Form ohne editorische Raffinessen aufzunehmen. Heute kann man die Ausgabe von 1952 als eine wichtige Station auf dem Weg der internationalen Vermittlung und Rezeption der Nachlass-Teile des Romans anerkennen, er bot die Grundlage für Übersetzungen in mehrere Weltsprachen. Außerdem wurden grundsätzliche Reflexionen der Schwierigkeiten und Probleme im Zusammenhang mit Fragen der Erzählanordnung angestoßen. Doch die Frisé-Ausgabe geriet durch massive philologische Einwände öffentlich unter starken Druck. 8 Frisés textkritisches Versagen – ausgehend vom Vorwurf fehlenden Verständnisses für die Struktur des Romans bis zur Auflistung von Setzfehlern – wurde vorgeführt.9 Dagegen verfocht Frisé die Überzeugung, die Interpretation des Romans und die Spekulation, welche der Optionen im Nachlass Musils Intentionen am besten entspräche, dürften eine Neuedition nicht bestimmen; nötig sei es, Musils Unentschiedenheit zu edieren. Frisé kritisierte Friedrich Beißner und die Beißner-Schule – Bausingers Studien waren mit Kaiser und Wilkins in

–––––––– 6

7 8 9

Adolf Frisé: Ein aktueller Rückblick. In: Benutzerhandbuch zu: Robert Musil. Der literarische Nachlaß. Hrsg. von Friedbert Aspetsberger, Karl Eibl und Adolf Frisé. Reinbek b. Hamburg 1992, S. 9–14, hier S. 12. Robert Musil: Der Mann ohne Eigenschaften. Hrsg. von Adolf Frisé. Hamburg 1952. Vgl. Ernst Kaiser, Eithne Wilkins: Robert Musil. Eine Einführung in das Werk. Stuttgart 1962. Vgl. Wilhelm Bausinger: Studien zu einer historisch-kritischen Ausgabe von Robert Musils Roman ‚Der Mann ohne Eigenschaften‘. Reinbek b. Hamburg 1964.

Textgenetische Darstellung auf MUSIL ONLINE

233

Rom entstanden und wurden als Tübinger Dissertation bei Beißner 1961/62 abgeschlossen. Frisé war überzeugt, dass die Zeit für eine historisch-kritische MusilAusgabe nicht gekommen und einer Studienausgabe der Vorzug zu geben sei. Ein Nachlass wie der zum Mann ohne Eigenschaften sei für Beißners textgenetisches Stufenmodell zu umfangreich und zu komplex. Was Bausinger gefordert hatte, sei nicht zu verwirklichen und behindere die Lektüre von Musils Romanfortsetzung durch normale Leser. Damit behauptete sich Frisé, es kam nach Bausingers Tod 1964 zu keinem Versuch einer historisch-kritischen Erschließung des Nachlasses zum Mann ohne Eigenschaften. Auf das verstärkte Echo, das Musil mittlerweile gefunden hatte, sowie auf die Forderungen nach professioneller Textkritik reagierte Frisé, indem er während der 1970er Jahre textlich erweiterte Ausgaben mit deutlichen textkritischen Akzenten vorbereitete: die kommentierte Studienausgabe der Tagebücher (1976), Gesammelte Werke (1978) in zwei Bänden (bzw. in einer neunbändigen Taschenbuchausgabe) und Briefe (1981) in einer kommentierten zweibändigen Ausgabe. Die Serie der Neuausgaben 1976−1981 stellt Frisés editorisches Vermächtnis dar, bis heute ist Musils Mann ohne Eigenschaften in Buchform in zahlreichen seitenidentischen Neuauflagen in ihnen zu lesen. Die Nachlassfortsetzung des Romans ist in Frisés Edition von 1978 entstehungsgeschichtlich organisiert: erst in zwei Blöcken jeweils letzter Fassung, den Druckfahnen von 1937/38 zu den Kapiteln 39–58 des Zweiten Buchs und sechs Kapiteln mit den letzten Genfer Varianten zu den Kapiteln 47–52 von 1941/42. Anschließend verfolgt Frisés Anordnung das Prinzip einer verkehrten Chronologie, nach der sie Kapitelkomplex um Kapitelkomplex und Produktionsphase um Produktionsphase bis zu den frühen Vorstufen zurückläuft; das Ende fällt mit dem entstehungsgeschichtlichen Anfängen von 1919 zusammen. Mit dieser Ausgabe wollte Frisé der Kritik von Philologen an seinen früheren Ausgaben Rechnung tragen. Sie setzte textkritische Akzente, bot keinen emendierten Text, sondern eine Transkription der Manuskripte, die der Herausgeber als zugehörig identifiziert und ausgewählt hatte. Die Ausgabe brachte einen größeren Anteil des Nachlasskorpus als die von 1952, nämlich nicht nur Entwürfe, sondern auch umfangreiches Notizmaterial. Vor allem berücksichtigte sie das textgenetische Prinzip und unterschied in der Anordnung zwischen abgestuften Graden der Autorisierung und Elaboration. Ihre Raffinesse arbeitete einer Rezeption zu, die auf erzählerisches Kontinuum weniger Wert legte als auf eine Überfülle an zitierbaren Stellen. Evident sind damit auch ihre Nachteile, begründete doch diese Ausgabe erst recht den zweifelhaften Ruf des Mann ohne Eigenschaften, ein Roman zu sein, den nie jemand zu Ende liest. Des Vorwurfs von Hans Zeller, seine Ausgabe zeige einen „Mangel an Disposition“,10 hätte Frisé sich unter Verweis auf das im Druck kaum darstellbare Vernetzungsverhältnis zwischen den Nachlasstexten erwehren können. Zellers Angriff erfolgte aber grundsätzlicher. Er übte Kritik an der Unklarheit des Editionstyps, der Vollständigkeit der Ausgaben, deren Aufbau, der Textkonstitution,

–––––––– 10

Hans Zeller: Vitium aut virtus? Philologisches zu Adolf Frisés Musil-Ausgaben, mit prinzipiellen Überlegungen zur Frage des Textbegriffs. In: Zeitschrift für deutsche Philologie 101, 1982, Sonderheft, S. 210–244, hier S. 220.

234

Walter Fanta

der Gestaltung des Apparats und der Kommentierungspraxis. Die Rowohlt-Ausgaben des Mann ohne Eigenschaften erfüllen somit textkritische Standards nicht ausreichend bzw. lösen Ansprüche an eine historisch-kritische Ausgabe nicht ein, und schon gar nicht können sie Musils Schreibprozess als schreibendes Denken denkendes Schreiben zur Anschauung bringen. Die spätere Einsicht, dass Musils Werk aufgrund der komplexen Vernetzungsverhältnisse mittels Computer ediert werden müsse, bezog Frisé allein auf den Nachlass, der „als eigene[r] Werkteil zu verstehen“ sei und „als eine in sich geschlossene Werkeinheit […] auch als solche zu präsentieren“ 11: „Musils systematische Arbeitsweise“ dränge „förmlich hin zu einer Art der Erschließung, wie sie heute durch die elektronische Datenverarbeitung ermöglicht wird“. 12 Frisé ging eine Kooperation mit den Germanisten Karl Eibl und Friedbert Aspetsberger ein, die eine computergestützte Erschließung des Nachlasses zum Ziel hatte. 1984–1990 wurde der gesamte Nachlass in Trier und in Klagenfurt transkribiert und 1992 in einer CD-ROM-Edition veröffentlicht. Die erste Ausgabe von 1992 brach aufs Entschiedenste mit dem historischkritischen Anspruch auf Werkrekonstruktion: Der Nachlass ist das Werk. Geboten wurde das transkribierte Textkorpus in zwei Formaten, WCView und PEP, in automatisch durchsuchbarer Form, mit Diakritika zur Textauszeichnung und erklärenden Anmerkungen. Das Transkriptionssystem war 1974–1980 in einem Pilotprojekt an der Universität Klagenfurt entwickelt worden. Daraus stammen auch die Daten zur Beschreibung der Manuskripte, welche der PEP-Version als kombiniert abfragbare Datensätze beigegeben wurden. Die WCView-Version ermöglichte die rasche und einfache Wortsuche im Korpus. Das entscheidende Merkmal dieser elektronischen Ausgabe war die ‚flache‘ Editionsform, d. h. der Verzicht auf Hierarchisierungen: Es gab keinen edierten Text im eigentlichen Sinn, es wurden keine Vorstufen und Endfassungen herauspräpariert, aus den beigegebenen Metatexten ließen sich Werkgrenzen und chronologische Stufungen kaum ablesen oder in die automatisierte Recherche miteinbeziehen. Denn das elektronische Korpus der Transkription, die den Nachlass in seiner mehr oder minder zufällig überlieferten Anlage abbildete, sollte überhaupt erst die Basis für textgenetische Untersuchungen liefern und einer künftigen historisch-kritischen Erschließung das geeignete Instrumentarium bieten. Doch der Nachlaß-CDROM war kein Erfolg beschieden. Das lag am hohen Verkaufspreis und an der schwerfälligen Handhabung; beide Programme operierten auf Grundlage des Betriebssystems Microsoft DOS, das PC-Nutzer nach 1992 durch Microsoft Windows 3.1 bzw. ab 1995 durch 32-Bit-Windows-Versionen ersetzten. Bald darauf waren Rechner nicht mehr mit Diskettenlaufwerken ausgestattet, so dass die 3,5”-Diskette, die die zur Installation der CD-ROM nötige Software enthielt, nicht mehr ausgelesen werden konnte. Damit war die Edition bereits zum Zeitpunkt ihres Erscheinens technisch veraltet. Der Ausweg aus dem Dilemma schien in der Migration in ein neues, userfreundlicheres Format, in der Aufklärung über textgenetische Zusammenhänge durch Metadaten-Anreicherung und in der hypertextuellen Darstellung von Musils Verweissystem zu finden zu sein. Nach

–––––––– 11 12

Frisé 1992 (Anm. 6), S. 13. Ebd., S. 14.

Textgenetische Darstellung auf MUSIL ONLINE

235

dem Rückzug von Aspetsberger und Eibl und mit Billigung durch Frisé gingen die Agenden der Musil-Ausgabe 1999 an das RMI / KLA in Klagenfurt über. Hier wurde in den Folgejahren die Klagenfurter Ausgabe (KA) erarbeitet, die 2009 DVD-ROM-basiert veröffentlicht wurde. Das Konzept der KA beruhte auf der Synthese einer klassischen historisch-kritischen Ausgabe mit einem Verfahren, das sich nicht in Werkrekonstruktion erschöpft, sondern den Blick auf die Dokumente erlaubt. Die KA erfüllte zwei Funktionen: einerseits die komplexe Materiallage im Nachlass möglichst unverstellt von editorischen Eingriffen als Faksimile und Transkription darzubieten, andererseits die Texte Musils textkritisch zu präsentieren, im Fall der Fragmente mit der exakten Transkription im Hintergrund. Neuartig war neben der digitalen Form, dass die Texte Musils zweifach konstituiert wurden, als Transkription und als Lesetext, wobei keine dieser Präsentationsweisen der Gestaltung eines edierten Texts herkömmlicher Editionen entsprach. Der Lesetext als der für die Lektüre bestimmte, aus den Textzeugen abgeleitete, emendierte, in der Schreibnorm vereinheitlichte edierte Text wurde nicht durch eine Programmierungsautomatik generiert; das wäre auf Grund der komplexen Manuskriptsituation in Musils Nachlass nicht möglich gewesen. Vielmehr wurde er als Ergebnis des textgenetischen Studiums durch Autopsie aus der Transkription manuell erzeugt. In einem textgenetisch orientierten Werkkommentar befanden sich neben abrisshaften Beschreibungen der Entstehungsgeschichte der einzelnen Romanteile und Kapitelprojekte auch Stemma-Tabellen, die mit Hyperlinks zu Transkription und Lesetext wie Relais funktionieren. Auf diese Weise erfolgte eine fast lückenlose Aufklärung über die textgenetische Situation und die Darstellung aller Generierungsschritte des jeweiligen Lesetexts. Die Transkription basierte auf der CDROM-Edition von 1992. Sie wurde für die KA auf Lesefehler überprüft, korrigiert, ergänzt und mit einem – allerdings noch sehr unvollständigen – genetischen Seitenund Stellenkommentar ausgestattet. Das Transkriptionssystem ging auf eine Probetranskription zurück, 13 die in adaptierter Form für die Edition von 1992 verwendet und für die KA beibehalten wurde. Dieses Transkriptionssystem bestand in der Wiedergabe des handschriftlichen Textes mit diakritischen Textauszeichnungssignalen (Transkriptionssiglen) und beschreibenden metatextuellen Elementen (in sogenannten Pop-ups). Die Transkription verfuhr nicht zeilenident und enthielt kaum Informationen über die topographischen Verhältnisse auf den Studienblättern und Schmierblättern mit ihrer komplexen Schreibanordnung. Alle Manuskripte des Nachlass- und Autographenbestands der ÖNB sind in der KA durch Bilddateien vertreten. Dadurch ist die Lektüre auf drei Ebenen möglich: im Lesetext, in der Transkription und am Faksimile der Originalhandschriften – allerdings nicht in synoptischer Darstellung. Metadaten wurden in der Seitendokumentation erfasst, dem Herzstück der Erschließungsarbeit während der Vorbereitung der Edition. In ihr sind die Ergebnisse der Klassifizierung nach kodikologischen, archivalischen, philologischen und werkgenetischen Kriterien enthalten.

–––––––– 13

Vgl. Elisabeth Castex, Anneliese Hille: Dokumentation des Nachlasses Robert Musils. Einführung und Erläuterungen. Wien 1980.

236

Walter Fanta

Die neue Darstellungsidee (Abb. 11–12) Mit MUSIL ONLINE wird nun seit 2015 am RMI / KLA der Anschluss an den state of the art in den modernen digitalen Editionswissenschaften wieder hergestellt. So weit wie möglich sollen die Prinzipien von open-access und open-source gelten. Nicht länger sollen Urheberrechte, Lizenzgebühren und Anschaffungskosten den Zugang zu den seit 2013 rechtsfreien Musil-Texten behindern. Beliefen sich die Kosten für die DVD mit der KA noch auf 150 Euro, so werden die Schriften Robert Musils auf M USIL ONLINE kostenlos geboten. Die Publikation der KA erfolgte mit Folio Views, einem proprietären Datenformat, welches nur auf Windows-Computern lief, mittlerweile nicht mehr weiter entwickelt wird und bloß eine sehr eingeschränkte Nachnutzung erlaubt. Die neue Editionsweise auf M USIL ONLINE sieht dagegen vor, den Datenbestand der alten Nachlasstranskriptionen in eine interoperable, für möglichst alle Arten von Nachnutzung offene Form zu bringen, die auch den dauerhaften Erhalt der Daten sichert. Zu diesem Zweck erfolgt derzeit die Migration der Textdaten in das Datenformat XML und die Textauszeichnung nach dem anerkannten Standard der TEI. 14 Darüber hinaus sollen die digitalen Tools der textgenetischen Darstellung im künftigen User-Interface von M USIL ONLINE im Rahmen des österreichweiten Kompetenznetzwerks digitale Edition (KONDE)15 nach den Grundsätzen von open-source entwickelt werden, wobei den bereits vorhandenen Komponenten von GAMS16 besondere Bedeutung zukommt. Indem die in der Buchausgabe gedruckten Texte − mit Darstellungen der Überlieferungsvarianten angereichert – auch auf M USIL ONLINE enthalten sind, ist dem Open-Access-Prinzip in bisher einzigartiger Weise zum Durchbruch verholfen. Eine wichtige textologische Prämisse soll bei M USIL ONLINE endlich angemessene Beachtung finden, und zwar die Unterscheidung und Trennung von ‚Text‘ und ‚Dokument‘ bzw. von ‚Repräsentation‘ und ‚Präsentation‘. 17 Text/Dokument bezeichnen mediale Aspekte der Quelle, Repräsentation/Präsentation den Modus der Vermittlung. Text ist der in Sprache und Schrift gefasste, gedanklich erfassbare Inhalt – hier also das Werk, der Roman Der Mann ohne Eigenschaften in allen seinen Bestandteilen. Dokument ist der Textträger, „materielles Substrat textlicher Überlieferung“ 18 – hier also die Bücher, die Zeitschriften und Zeitungen, in denen Musil publiziert hat, und – für die genetische Betrachtung vor allem wichtig − die Manuskripte des Nachlasses. Edition kann mit Hans Walter Gabler begriffen werden als Akt der Vermittlung zwischen Text und Dokument: „Edieren heißt, Texte von und aus Dokumenten abzuleiten.“ 19 Mit den Medien, die zum Einsatz gelangen – Druck oder digitale Medien −,

–––––––– 14 15 16

17 18 19

http://www.tei-c.org/ (Abruf am 16.08.2018). http://www.digitale-edition.at/ (Abruf am 16.08.2018) GAMS = Geisteswissenschaftliches Asset Management System, eine Entwicklung des Zentrums für Informationsmodellierung - Austrian Centre for Digital Humanities an der Karl-Franzens-Universität Graz, vgl. http://gams.uni-graz.at/context:gams (Abruf am 30.07.2018). Hans Walter Gabler: Das wissenschaftliche Edieren als Funktion der Dokumente. In: Computerphilologie online 6, 2007 − http://computerphilologie.digital-humanities.de/jg06/gabler.html (Abruf am 30.07.2018). Ebd. Ebd.

Textgenetische Darstellung auf MUSIL ONLINE

237

können einerseits Texte, andererseits Dokumente entweder repräsentiert oder präsentiert werden. Der Modus Repräsentation bedeutet die Übertragung des Textes oder des Dokuments in ein anderes Medium, d. h. Text oder Dokument sind in dem anderen Medium in allen Einzelheiten vertreten, Texte durch akkurate Wiedergabe aller ihrer Zeichen, Dokumente durch stellvertretende Wiedergabe aller die Materialität ausdrückenden optischen Elemente. Der Modus Präsentation bedeutet, Texte oder Dokumente in einem anderen Medium so verändert an ein Publikum zu vermitteln, dass sie von diesem rezipiert (z. B. durch literarische Lektüre oder wissenschaftliche Nachnutzung) werden können. Die genannten Kategorien wurden in der Editionsgeschichte oft genug nicht ausreichend reflektiert, miteinander unzulässig vermischt, oder das Ignorieren der textologischen Prämissen wurde vorgeschoben, um tendenziöse Editionen zu produzieren. Das Aufkommen des textgenetischen Edierens und des Typus der Faksimile-Edition hat die Verwirrung nur vergrößert. Auch in der Geschichte der Musil-Editionen lässt sich der tendenziöse Umgang mit den textologischen Axiomen erkennen. Frisé wollte 1952 den Roman aus dem Nachlass rekonstruieren, er war also auf die Präsentation des Textes aus. 1978 bezog Frisé das Dokument bereits ein und zielte auf eine Vorspiegelung seiner Repräsentation. Die CD-ROM von 1992 verschmolz in ihrem Versuch einer puren Repräsentation den Text und das Dokument. Die DVD-ROM der KA stellte 2009 schließlich den ersten, unvollkommenen Versuch dar, eine Präsentation des Textes (= Lesetext) getrennt von der (Re)Präsentation des Dokuments (Digitalisate, Transkription, Metadaten) zu bieten. Doch haftet diesem Versuch immer noch etwas vom Gießen alten Weins in neue Schläuche an. „Neuer Wein käme in die neuen Schläuche,“ wenn – so Hans Walter Gabler – […] das Dokument in seiner Leitfunktion für die Edition erkannt und der edierte Text dementsprechend als Funktion des Dokuments in der elektronischen Ausgabe verortet würde. Ein solches Modell würde dem virtuellen Medium entsprechen. Überlieferte Texte oder, noch grundsätzlicher: alles schriftlich Aufgezeichnete würde damit neu begriffen als das von der Materialität der Überlieferung Bedingte – was es schon immer war, wiewohl in dieser Konsequenz für Überlieferung und Edition so nicht immer wahrgenommen. 20

Erst die neue Musil-Hybrid-Edition, bestehend aus der Buchausgabe und dem Internetportal M USIL ONLINE, wird dem Anspruch völlig gerecht, indem sie für die Präsentation des Textes in der sechsbändigen Leseausgabe des Mann ohne Eigenschaften das dafür am besten geeignete Medium (das Buch) bereit hält und indem sie, davon getrennt, die Repräsentation und die Präsentation der Dokumente im digitalen, virtuellen Medium M USIL ONLINE bietet. Für die Sonderfälle der deutschsprachigen literarischen Moderne − die großen Fragmente von Nietzsche, Kafka, Wittgenstein, Bachmann – hält das digitale Medium durch die Virtualität der Repräsentation besondere Optionen bereit, die darum ihren aufwändigen und sorgfältigen Einsatz rechtfertigen, weil in diesen Fällen der Text vom Dokument nicht einfach abgeleitet werden kann, insofern er keine finale Form findet, per se nicht teleologisch strukturiert ist. Den

–––––––– 20

Ebd.

238

Walter Fanta

Text als Fluidum, als schreibendes Denken / denkendes Schreiben zu repräsentieren und zu präsentieren, gelingt in diesen Fällen im digitalen Medium besser. M USIL ONLINE bietet dafür drei Eingänge, den Eingang ‚Lesen/Musil-Text‘, um den Romantext zu präsentieren, den Eingang ‚Schauen/Archiv‘, um den Nachlass zu repräsentieren und zu präsentieren, und schließlich den Eingang ‚Verstehen/Kommentar‘, um die Präsentation interdiskursiv um intertextuelle Konstellationen zu erweitern. Über den Eingang ‚Schauen/Archiv‘ gelangen die Benützer zu den textgenetischen Zeugnissen: Die Dokumente (Nachlassmanuskripte) werden in zwei voneinander getrennten Modi geboten, und zwar einerseits als digitale Repräsentation (Bilddatei) und zugleich als deskriptive Repräsentation in Schriftzeichen (XML/TEI: Text und Textauszeichnung), andererseits als textuelle Präsentation in Gestalt einer Textwiedergabe (HTML: Transkription).

Musils Schreibszene (Abb. 13–18) Wozu überhaupt textgenetisch edieren? Die textgenetische Edition ist eine relativ späte Erfindung und keine Selbstverständlichkeit. Der ursprüngliche Zweck einer Edition besteht darin, das zu leisten, wozu der Autor, die Autorin nicht mehr imstande war, nämlich die Veröffentlichung des Textes. Geschult an den Handschriften aus der Zeit vor der Erfindung des Buchdrucks ging es zunächst darum, die Vielzahl von Überlieferungen der Werke längst Verstorbener korrekt darzustellen. Mit der Edition der Fragmente moderner AutorInnen übernahm die Editionsphilologie die zusätzliche Aufgabe, das unfertige Werk aus dem Manuskript zu publizieren. Das Forschungsinteresse der ‚critique génétique‘ hat sich nicht zufällig am Moderne-Phänomen des Fragments orientiert und den neuen Editionstyp der Faksimile-/Fragment-Edition hervorgebracht, der über den Text hinausgehend das Dokument in den Fokus rückt. Doch berücksichtigte bereits die herkömmliche historisch-kritische Edition die Werkgenese und musste sich bei der Lösung ihrer Aufgabe mit den Dokumenten in allen ihren Einzelheiten befassen. Die textgenetische Edition zielt wie sie immer noch auf die Präsentation der Texte, indem sie Dokumente als Repräsentationen ihrer Genese in diachroner Abfolge präsentiert. In Verbindung mit den Forschungszielen der ‚critique génétique‘ könnte man sich einen weiteren, noch neueren Editionstypus denken, dem es nicht mehr um die Edition eines Werks (Präsentation eines Texts) geht, sondern nur mehr um die Darstellung des Schreibprozesses in Form einer Präsentation der Dokumente. Sie ordnet sich in einem hohen Maß den Interessen der Erforschung des Schreibens unter, indem sie beispielsweise nicht länger werk- und autor-zentiert ist, sondern über Werk-, Verfasser-, Genre-, Sprach- und Schriftgrenzen hinweg Dokumente vergleichend präsentiert. Vielleicht besteht schon immer eine Dialektik zwischen Edieren und Forschen, nun aber erscheint die Edition als reines Instrument der Forschung. Dokumente werden digital präsentiert und repräsentiert, um erforscht zu werden; die Ergebnisse der Forschung werden in digitaler Form visualisiert; das alles geht Hand in Hand und befindet sich ständig im Fluss.

Textgenetische Darstellung auf MUSIL ONLINE

239

Im Falle des Nachlasses von Robert Musil ist die genetische Erschließungsarbeit sehr weit fortgeschritten, ja nahezu abgeschlossen. Die physische Dokumentbeschreibung, die Datierung, die Funktionsbestimmung und die Feststellung der Beziehungen der mehr als zehntausend Manuskriptseiten zueinander liegen in den Metadaten der KA vor. Die digitale Darstellung kann sich bereits auf die Präsentation der Ergebnisse konzentrieren, was nicht bedeutet, dass das unter M USIL ONLINE veröffentlichte Datenmaterial nicht auch für wissenschaftliche Nachnutzung in Richtung weiterer, vertiefender Einzeluntersuchungen zur Verfügung steht. Der Darstellung müssen Modelle zu Grunde liegen, die grundsätzliche Antworten auf folgende Fragen bieten: Was ist Musils Nachlass überhaupt? Warum existiert er? Weshalb und wie ist er zustande gekommen? Aus welchen Bestandteilen setzt er sich zusammen? In welcher prinzipiellen Beziehung steht das Dokument ‚Nachlass‘ zum Text des Werks Der Mann ohne Eigenschaften? Bei der Beantwortung dieser Fragen kommt der Terminus der ‚Schreibszene‘ ins Spiel. Von Rüdiger Campe als ein „Repertoire von Gesten und Vorkehrungen“ oder als ein „nicht-stabiles Ensemble von Sprache, Instrumentalität und Geste“ 21 umschrieben, ist die Schreibszene der historische Akt des Schreibens in Raum und Zeit mit allen beteiligten Körperteilen, Gesten, Geräten, Materialien, von dem sich im Schrift-Dokument Spuren befinden; editorisch dargestellt werden nur diese Spuren. Der Terminus changiert zwischen Innen und Außen, der symbolischen Repräsentation und dem materiellen Vorgang, womit die Dialektik zwischen Schreiben und Schrift angesprochen ist; dahinter verbirgt sich das für Musil relevante Innen/Außen-Verhältnis im Schreiben als Geste des Denkens.22 Anke Bosse hat in ihrem Beitrag im vorliegenden Band das Modell von Campe erweitert und auf die Schreibanfänge von Josef Winkler angewandt, 23 woraus sich interessante Vergleichsmomente zur Anwendung des Modells auf das Schreiben bei Robert Musil ergeben. Die Erweiterung von Bosse bezieht sich auf die mediale Dimension, zudem führt sie eine dritte Ebene ein: Campes Gegenüberstellung von ‚Schreibszene‘ (= realer Akt des Schreibens) und ‚Schreib-Szene‘ (= literarische Inszenierung des Schreibens vor dem Lesepublikum im Buch) erweitert sie um die „Überlappungszone“ 24 (= Inszenierung des Schreibens, die der Schreibende während des Schreibens vor sich selbst vollzieht). Auch diese Erweiterung des Modells erweist sich als fruchtbar für den Vergleich mit dem Schreibprozess Musils und seine editorische Darstellung. 25 Worin besteht Musils Schreibszene? Was ist das Essentielle an Musils Schreiben, das wert ist, es zu edieren, um es zu erforschen, und es zu erforschen, um es digital zu präsentieren? Die Antwort auf diese Fragen entspricht insofern auch dem Zugang von Bosse zur Schreibszene Winklers, als sie ebenfalls eine pars-pro-toto-Lösung bietet: Es

–––––––– 21 22 23 24 25

Rüdiger Campe: Die Schreibszene, Schreiben. In: Schreiben als Kulturtechnik. Hrsg. von Sandro Zanetti. Berlin 2012, S. 269–282, hier S. 270 bzw. 271. Vilém Flusser: Die Geste des Schreibens. In: Schreiben als Kulturtechnik. Hrsg. von Sandro Zanetti. Berlin 2012, S. 261–268. Vgl. Anke Bosse: „Die Wortmaschine … wird jetzt in Betrieb genommen“. Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler. In diesem Band, S. 293–306. Ebd., S. 295f. Musils ‚Schreib-Szene‘ und den ‚Überlappungszonen‘ in seinem Schreiben widmet sich ausführlich Walter Fanta: Schreiben wie Musil. München 2019 (Musil-Studien. 48).

240

Walter Fanta

gilt die eine Schreibszene zu finden, die alle einzelnen Schreibszenen zur Großen Schreibszene dieses Autors zusammenfassend repräsentiert. Und doch ist der Zugang zur Schreibszene Musils ein diametral anderer als der Bosses zu Winkler. Während sie die Schreibanfänge Winklers erforscht und seine ersten Schreibszenen identifiziert, erwähle ich das Ende von Musils Schreiben zum Ausgangspunkt für die editorische Darstellung und definiere die Schluss-Szene als Schlüsselszene seiner Großen Schreibszene. Diese wird repräsentiert durch seinen ganzen großen Nachlass, und zwar im Moment seines endgültigen Gewordenseins: Das ist der Tag seines Todes in Genf am 15. April 1942.26 Wie eine Blitzlichtaufnahme in der späten Dämmerung, so erhellt die Ansicht auf das Arrangement von Musils Papieren auf seinem Schreibtisch in dem Häuschen unter der Adresse Chemin des Clochettes 1 in Genève-Champel die Struktur seines Schreibens, das in den letzten Lebensmonaten immer langsamer wurde, bis es schließlich ganz erstarrte. Die Abbildung dieser Schreibanlage existiert tatsächlich, und zwar in Musils eigener Handschrift im Genfer Übersiedlungsinventar von April 1941 mit der Überschrift „Schreibtisch“.27 Exakt ein Jahr vor seinem Tod lieferte Musil in der kommentierten Auflistung der sechs Mappen (von insgesamt 52), die er in Genf noch in Verwendung hatte, implizit eine Beschreibung seines Schreibzustands. Später hat Martha Musil in einem ersten Register aller Manuskriptmappen ihres verstorbenen Mannes zum Verzeichnis dieser sechs Mappen vermerkt: „Auf dem Schreibtisch gelegen“. 28 Dazu denken darf man sich die drei (Tagebuch-)Hefte mit den Nummern 30, 32, 34, in die Musil am Ende auch noch schrieb, und die Mappe mit den Briefkonzepten, zuoberst der letzte Brief an Henry Hall-Church, den er vielleicht an seinem Todestag erst entwarf. Aufgeschlagen in der ‚Reinschrift‘-Mappe, die letzte Entwurfsseite des letzten Romankapitels Atemzüge eines Sommertags mit der Nummer 9; aufgeschlagen das letzte Notizblatt in der ‚Arbeitsmappe‘ mit der Sigle „K XIII 11“ mit gezählten 7 Verweisen auf die Entwürfe h (= Handschrift), T (= Text) und R (= Reinschrift); aufgeschlagen das letzte Tagebuchheft mit der letzten Eintragung – „Wem es eine verlockende Vorstellung ist, eine Zigarette zu rauchen und zu schreiben, wird ohne sie nicht schreiben können“;29 aufgeschlagen der letzte Briefentwurf mit den letzten Sätzen, „daß ich bis dahin nur auf meine eigene Stimme höre und dadurch Gefahr laufe kein Ende finden zu wollen; denn auch die Einsamkeit erzeugt einen Rausch, der redselig macht“.30 So paradox es erscheinen mag: Aber wirkt dieses Arrangement nicht auch wie eine Inszenierung? Gilt die Kategorie der ‚Theatralität‘, von Anke Bosse aufgestellt, nicht auch in diesem Fall, selbst angesichts des Todes? Das Arrangement des

–––––––– 26

27 28 29 30

Ob es für die Erforschung und editorische Darstellung des Schreibprozesses einen Unterschied bedeutet, ob der Autor tot ist wie Musil oder lebt wie Winkler? Die Forscherin und Editorin ist in dem einen Fall dem Schweigen der Archive ausgeliefert, in dem anderen Fall gerät sie in einen Dialog mit dem Autor, der sein Schreibzeug noch nicht abgegeben hat, solange er lebt. Schreibforschung unterliegt als empirische Sozialforschung der methodologischen Prämisse, dass die Erforschung als teilnehmende Beobachtung den Forschungsgegenstand beeinflusst, bei Lebenden mehr als bei Toten. KA, Transkriptionen, Blaue Mappe 128. KA, Transkriptionen, Mappe VIII, S. 24. KA, Transkriptionen, Heft 30, S. 130. KA, Transkriptionen, Mappe Briefkonzepte IV, S. 11.

Textgenetische Darstellung auf MUSIL ONLINE

241

Letzten – der letzte Kapitelentwurf, die letzte Arbeitsnotiz, der letzte Querverweis, die letzte Eintragung, die letzte Briefzeile – umfasst alles, was das Schreiben Musils ausmacht. In jeder beliebigen Schreibphase seit 1919, dem Jahr, in der Musil seine Schreibapparatur für den Roman – er bezeichnet sie einmal als „Brennofen“31 – eingerichtet hat, benutzte er dasselbe „nicht-stabile Ensemble“ für sein Schreiben: Entwurf, Notiz, Verweis, Heft, Brief. Aus diesen Dokumenten setzt sich Musils Nachlass zusammen, und sie liegen seiner spezifischen Schreibszene zugrunde – „ganz in die Symbolordnung von Wiederholungen eingehüllt“.32 Der Fremde, der sich ihr in herausgeberischer Absicht nähert, sieht: nichts. So geschehen im Mai 1950, als Adolf Frisé von Rom nach Hamburg berichtet, er habe erwartet, in Musils Manuskripten die Fortsetzung des Mann ohne Eigenschaften vorzufinden, aber was er angetroffen habe, sei „eine verwirrende Fülle Aphorismen, Aufzeichnungen, Tagebuchnotizen. [...] Es ist eine Heidenarbeit, zuerst einmal nur das Wesentliche herauszuspüren.“ 33

Die textgenetischen Dossiers (Abb. 20–35) Dass Musil in seinem Schreiben sich selbst inszenierte, die Theatralik seiner Schreibszene, geht aus einem kolportierten Diktum aus seinem Mund hervor, „später einmal werden sich Literaturhistoriker an meinen Notizen den Kopf zerbrechen.“ 34 Elias Canetti schrieb Hermann Broch die stilisierende Beobachtung zu, Musil habe über seine Manuskripte wie „ein König im Papierreich“ 35 geherrscht. Canetti behauptet von Musils Schreiben auch, es sei von „Klarheit und Durchsichtigkeit“ 36 geprägt, und es „herrschte eine bestechende Ordnung in allem […]. Musil hatte Scham und stellte Inspiration nicht zur Schau.“ 37 Was stimmt nun: bestechende Ordnung oder verwirrende Fülle? Beides! Musils Schreibszene ist vor allem die Inszenierung der eigenen Unentschiedenheit. Sie zwingt seine Herausgeber zur „Heidenarbeit, das Wesentliche herauszuspüren“. Was ist das Wesentliche? 1) Die Präsentation des Textes, des Werkes Der Mann ohne Eigenschaften, in Buchform: Das ist bereits geleistet. 2) Die digitale Darstellung der Schreibszene Musils auf MUSIL ONLINE, das bedeutet die ReInszenierung der Theatralik, die in der Entstehung des Textes liegt. Das Vehikel dafür ist das ‚textgenetische Dossier‘. In den Worten von Almuth Grésillon, einer wichtigen Mitbegründerin der ,critique génétique‘, versammelt es „geschriebene, im Allgemeinen handschriftliche Dokumente, die, in bestimmte Zusammenhänge eingeordnet, die ‚Urgeschichte‘ eines Textes und die sichtbare Spur eines schöpferisches Prozesses darstellen“.38 Im Weiteren definiert Grésillon ein ‚dossier

–––––––– 31 32 33 34 35 36 37 38

KA, Transkriptionen, Heft 33, S. 83. Campe 2012 (Anm. 21), S. 280. Adolf Frisé an Heinrich Maria Ledig-Rowohlt, 14.05.1951, zit. n. Fanta 2011 (Anm. 5), S. 264. Martha Musil an Carlo Pietzner, 05.07.1942, zit. n. KA, Dokumente. Elias Canetti: Das Augenspiel. Lebensgeschichte 1931–1937. München, Wien 1985, S. 185. Ebd., S. 184. Ebd., S. 181. Almuth Grésillon: Literarische Handschriften. Einführung in die „critique génétique“. Bern u. a. 1999 (Arbeiten zur Editionswissenschaft. 4), S. 22.

242

Walter Fanta

génétique‘ als die „Summe der schriftlichen Dokumente, die der Genese eines bestimmten Schreibprojektes zugeordnet werden kann, unabhängig davon, ob diese zu einem vollendeten Werk geführt hat oder nicht.“ 39 Gefordert wird die Lokalisierung, die Datierung, die chronologische Anordnung und die Entzifferung (d. h. die kodierte textliche Repräsentation der Dokumente im digitalen Format, also XML/TEI). Im Falle der Re-Inszenierung von Musils Schreibszene stellt die besondere Herausforderung der Mangel an Teleologie dar und die daraus resultierende Schwierigkeit, die Dokumente einem ‚bestimmten Schreibprojekt‘ zuzuordnen, da ja, in abgestufter Weise, der gesamte Nachlass als ein einziges großes Schreibprojekt dem Mann ohne Eigenschaften zugeordnet werden kann. Gelöst wird dieses Problem durch die Festlegung von hierarchisch zueinander stehenden Ebenen der Romanproduktion: 1) Ebene des Gesamtromans; 2) Ebene der Romanprojekte: 2a) Autorautorisierte Bücher des Romans (Erstes Buch, 1930; Erster Teil des Zweiten Buchs, 1932); 2b) Fortsetzung des Zweiten Buchs aus dem Nachlass (1933–1942); 2c) Vorstufenprojekte (1919–1928); 3) Ebene der Kapitelkomplexe der Romanfortsetzung aus dem Nachlass; 4) Ebene der einzelnen Kapitelprojekte. Das als kleinste, nicht mehr weiter teilbare Einheit zu isolierende ‚Schreibprojekt‘ ist in diesem Modell das ‚Kapitelprojekt‘. Die Kapitelprojekte stehen zueinander in einem offenen Varianzverhältnis, d. h. die Reihenfolge ist unsicher, kein Kapitelentwurf gilt für Musil als fallengelassen, auch wenn er ihn umgeschrieben hat; eine Kapitelvorstufe kann im Prinzip zu einem Folgekapitel werden. Alle Manuskripte lassen sich entweder einem Kapitel zuordnen oder gehören zu kapitelübergreifenden Notizmaterialien, die einer der höheren Ebenen zugeordnet werden können. Die prinzipielle, zentrale Bezugsgröße für die Zusammenstellung der textgenetischen Dossiers sind aber jedenfalls die Kapitelprojekte. Die einzelnen Kapitelprojekten zugehörigen Manuskripte im Nachlass zu lokalisieren, bereitet insofern Schwierigkeiten, als sich die Manuskripte bis heute in der Anordnung befinden, in der sie sich zum Zeitpunkt von Musils Schluss-Szene am 15. April 1942 befanden, die weder in pragmatisch-sachbezogener noch in genetischer Betrachtung sofort durchschaubar wird. Die Manuskripte sind nicht durchgängig nach Alter, nach dem Romanfortgang oder nach Themen- bzw. Handlungslinien geordnet. Dennoch handelt es sich nicht um ein x-beliebiges Chaos. Die Komplexität ergibt sich daraus, dass Musil seine Manuskriptblätter zwar siglierte, sortierte und einzelne Blätter bzw. Konvolute laufend umzuordnen pflegte, doch stets im Bewusstsein der Vorläufigkeit. Die bei größter gedanklicher Exaktheit und peinlichstem Ordnungssinn des Autors dennoch provisorische und improvisierte Hinterlassenschaft zwingt uns bei ihrer Erschließung und Erforschung dazu, ihre Gegebenheiten anzuerkennen. Statt mit gewohnten Text-Größen wie Romanabschnitten und -kapiteln bekommt man es unweigerlich mit Dokument-Größenordnungen zu tun wie mit Mappengruppen, Mappen, Konvoluten und mit einem komplexen Siglensystem statt mit einer durchlaufenden Pagina. Grob betrachtet allerdings folgt die Archivierung nach Mappengruppen (MG) dem genetischen Prinzip und entspricht der authentischen Schreibszene Musils, da Musil in der Nähe seines Schreibtisches aufbewahrte, was ihm für die Arbeit im letzten

–––––––– 39

Ebd., S. 140.

Textgenetische Darstellung auf MUSIL ONLINE

243

Stadium nah war, und davon fern, was er kaum mehr zu benötigen glaubte, und die späteren Nachlassverwalter, allen voran Martha Musil, diese Einteilung bei ihrer Registrierung und Aufbewahrung beibehielten. MG V mit den ‚Schreibtisch‘-Mappen ist als jüngster Bestandteil des Nachlasses zu identifizieren. Von insgesamt 1115 Seiten Entwürfen und Schmierblättern stammen 247 Seiten aus der Zeit vor der Emigration im Sommer 1938, alle anderen aus der letzten Schreibphase Musils. MG II und Teile von MG III enthalten Roman-Materialien von 1930–1938, der Rest von MG III Fragmente aus den Jahren 1918–1938, die nicht dem Mann ohne Eigenschaften zuzuordnen sind. MG I und MG VII setzen sich aus Romanentwürfen der 1920er Jahre und Fortführungen bis Mitte der 1930er Jahre zusammen. Am Rand angesiedelt sind MG IV und MG VI, welche die ältesten und am wenigsten mit dem Romanprojekt in Verbindung stehenden Manuskripte beinhalten. Doch auch bei Musil ist eine ‚Anfangsszene‘ im Sinne des von Anke Bosse an der Schreibszene Josef Winklers Festgestellten 40 erkennbar, nämlich die Spuren der Einrichtung der Apparatur für die Romanarbeit in diesen ältesten Materialien. Die ‚Anfangsszene‘ wäre dann ein Doppeltes: die Reaktion des Schreibenden auf etwas von außen, nämlich die Auslösung des Schreibprozesses, eines Verarbeitungsprozesses, durch ein von außen eintreffendes Ereignis, das die Schreibszene auf einer semantischen Ebene bedingt: bei Winkler der Doppelselbstmord der Jugendlichen in seinem Heimatdorf, bei Musil der Krieg. Die innere Initiation ins Schreiben besteht bei Musil wie bei Winkler in der je spezifischen Einrichtung der Apparatur, mit der in der ‚Anfangsszene‘ grundlegende Gelingensbedingungen des Schreibens geschaffen werden. Musil richtete seine ‚Anfangsszene‘, seine ‚Apparatur‘ 1919 und 1920 ein, als er als Beamter der neuen österreichischen Republik im Archiv des Pressedienstes im Außenministerium und als psychologischer Fachbeirat im Heeresministerium angestellt war; er benutzte das behördliche Büro, Papier und Schreibmaschine,41 um seine Hefte aus der Vorkriegszeit auszuwerten, zu exzerpieren, um weitere Materialsammlungen in Heften und in Mappen anzulegen und um eben genau die Ordnung mit ihrem Hauptmerkmal, dem Siglen-System, zu schaffen, an der er bis zu seinem Lebensende festhielt. Er baute sie aus, füllte sie auf; im Großen und Ganzen könnte man den Genfer Nachlass von 1942 als die erweiterte Apparatur von 1919 betrachten. Musil behielt auch die Vorstufen des Unfertigen auf – allerdings nur des Unfertigen. Das, was er erledigt hatte, schied er aus. Es gibt in seinem Nachlass keine Reinschriften, keine Druckmanuskripte oder Korrekturfahnen von Texten, die er tatsächlich publiziert hatte. Aus diesem Prinzip erklärt sich das Vorhandensein der Vorstufen des Mann ohne Eigenschaften in den Mappen und Heften: Die Manuskripte sind nicht anders zu betrachten und zu bewerten denn als frühe Fassungen des auch später nicht Verwirklichten. Musil hatte kein Interesse daran, Entwürfe aufzubewahren, um sich oder anderen zu demonstrieren, was daraus geworden ist. Seine Umarbeitungen waren stets darauf gerichtet, Spuren zu verwischen.

–––––––– 40 41

Vgl. Bosse (Anm. 23), S. 295–297. Auch hier besteht eine Parallele zu Josef Winkler. Er zweckentfremdete die Büro-Infrastruktur der Verwaltung an der Universität für Bildungswissenschaften in Klagenfurt, wo er als Schreibkraft angestellt war, vgl. ebd., S. 298.

244

Walter Fanta

Wenn er etwas änderte, so war das Alte hinfällig, es sei denn, es enthielt etwas, das wieder Potential für etwas Neues in sich trug. Die erhaltenen 32 Hefte des Nachlasses sind zum überwiegenden Teil nicht einfach Tagebücher. 42 Nur auf 283 der insgesamt 2077 beschriebenen Heftseiten finden sich mit Datumsangaben versehene Aufzeichnungen. Einen breiten Raum nehmen in den Heften Notizen ein, die nicht von Tagesabläufen des Autors berichten, sondern Eindrücke von der Außenwelt und Lektüre verarbeiten (530 Heftseiten). Etwa 188 Seiten lassen sich als Materialsammlung bezeichnen, Exzerpte und Reflexionen zu wissenschaftlicher und belletristischer Lektüre, möglicherweise zur Verarbeitung in Aufsätzen gedacht, aber noch ohne erkennbare Verbindung zu einer bestimmten Arbeit. Notizen, Skizzen und Entwürfe zu – z. T. später tatsächlich realisierten – Essayprojekten bergen die Hefte ebenfalls im Ausmaß von ca. 100 Seiten. Ideen, Motive, Skizzen und Anfänge zu literarischen Projekten sind in den Heften auf insgesamt knapp 900 Seiten verzeichnet: Sie machen also einen beträchtlichen Anteil aus. Etwa die Hälfte davon lässt sich Vorstufen des Mann ohne Eigenschaften zuordnen. Was schrieb Musil in Hefte und was auf Blätter? Wann und warum ging er dazu über, für den Roman auf Blättern zu schreiben? Die Antwort hängt eng mit den äußeren Begleitumständen der Einrichtung der Apparatur in den Ministerien 1919/1920 zusammen; mit den Vorteilen des Heftschreibens auf Reisen, im Krieg; mit der Verfügbarkeit von Papier und Schreibmaschine; mit der Entscheidung, nun nicht mehr Vorbereitendes aufzuschreiben, sondern zu beginnen, bereits den für die spätere Veröffentlichung bestimmten Text des Romans handschriftlich reinzuschreiben und abzutippen. Doch die beiden Schreibzonen, Hefte und Blätter, überlappen sich in Musils Schreibszene, eine Zeitlang schreibt er Romantextentwürfe noch in Hefte und tippt Notizmaterial für seinen Zettelkasten bereits ab. Kehren wir zurück zur Schluss-Szene, zum Schreibtisch am 15. April 1942. Wir bemerken zunächst die auffallend lange Zeitspanne, in der die Schreibszene Musils Bestand hatte: mehr als zwanzig Jahre! Die chronologischen Verhältnisse hat die Forschung mittlerweile sehr genau erschlossen, jedes einzelne Manuskript ist einem Datierungsabschnitt (DA) zugewiesen, der durch eine Schreibrichtung bestimmt und eine Zäsur begrenzt ist; das Datierungsraster besteht aus 9 Hauptabschnitten und insgesamt 44 Unterabschnitten. Ohne auf Datierungsfragen hier näher eingehen zu können, sei darauf hingewiesen, dass die Schluss-Szene mit dem letzten Datierungsabschnitt übereinstimmt: DA 9-6 von Mitte Januar 1942 bis 15. April 19942. In ihm tat Musil kaum etwas anderes, als Änderungen an der letzten Fassung des Romankapitels Atemzüge eines Sommertags anzubringen. Dazu schrieb er auf Blätter in zwei Mappen, oben als ‚Arbeitsmappe‘ mit ‚Notizen‘ und als ‚Reinschriftmappe‘ mit ‚Entwürfen‘ zu sechs Romankapiteln benannt. ‚Entwurf‘ und ‚Notiz‘ bezeichnen zentrale Kategorien von Musils Schreibszene, elementar für die Modellbildung, die Zusammenstellung der textgenetischen Dossiers und die editorische Darstellung. In der bisherigen Erschlie-

–––––––– 42

Vgl. Arno Dusini: Tagebücher/Arbeitshefte. In: Robert-Musil-Handbuch. Hrsg. von Birgit Nübel und Norbert C. Wolf. Berlin 2016, S. 450–459.

Textgenetische Darstellung auf MUSIL ONLINE

245

ßungsgeschichte des Nachlasses als ‚Textstufen‘ bezeichnet, auch als Grade der ‚Textausreifung‘, ist mit ihnen das Produktionsstadium angesprochen, das Maß an Elaboriertheit, das ein bestimmtes Manuskript annimmt, auch die Funktion, die eine Niederschrift innerhalb der Organisation des Schreibprozesses erfüllt. Um der teleologischen Konnotation von ‚Textstufe‘ auszuweichen, schlage ich den Terminus ‚Manuskripttyp‘ (MT) vor. Auszugehen ist davon, dass der Nachlass Musils keine fertigen Texte enthält. Wir haben es mit zwei Haupttypen zu tun: MT ‚Notiz‘ und MT ‚Entwurf‘. Mit MT ‚Notiz‘ ist etwas Geschriebenes gemeint, das nicht der Intention unterliegt, einen Teil des zu verfassenden, für die Publikation bestimmten Textes zu formulieren. Bei MT ‚Entwurf‘ dagegen handelt es sich eine Niederschrift, die mit der Absicht entsteht, den Text des Werkes selbst, zumindest in einer vorbereitenden oder vorläufigen Fassung, zu formulieren. 43 MT ‚Notiz‘ manifestiert sich in den Materialien zum Mann ohne Eigenschaften in drei Untergruppen: 1a) MT ‚Anfangsnotiz‘: Der Autor notierte Einfälle und Ideen, die (potentielle) Ausgangspunkte für Entwürfe bilden; dazu zählen vor allem Einzeleintragungen von Einfällen und Ideen in den Heften und in einem mit Siglen ausgestatteten Zettelkastensystem in der Frühphase der Romanproduktion bis 1923; je nachdem, ob mit Bleistift, mit Tinte oder mit Schreibmaschine geschrieben, ließe sich eine weitere Abstufung vornehmen (906 Ms.). 1b) MT ‚Studienblätter‘: Musil fertigte Notizen an, welche das Niederschreiben des Romantextes planen, konzeptualisieren, die bisherige Produktion reflektieren, die weitere Produktion von Entwürfen begleitend kommentieren bzw. strukturelle Festlegungen zur Fortführung treffen sowie das Material verwalten; erhalten aus den Schreibphasen ab 1923; geschrieben fast ausschließlich mit schwarzer Tinte (2013 Ms.).44 1c) MT ‚Schmierblätter‘: Musil notierte während der Abfassung und der Überarbeitung von Entwürfen Formulierungsvarianten; vor allem erhalten aus den späteren Schreibphasen ab 1930; das Hauptkennzeichen ist Inkohärenz im Seitenaufbau und in der Schreibanordnung, durch über die Seite verteilte Listen und Kolumnen mit Worten, Wortgruppen, Satzteilen; wenn verarbeitet, dann durchgestrichen; geschrieben fast ausschließlich mit schwarzer Tinte (1683 Ms.). Neben den drei charakteristischen Notiztypen existieren zwei Sonderformen:

–––––––– 43

44

Vgl. Walter Fanta: Die Entstehungsgeschichte des Mann ohne Eigenschaften von Robert Musil. Wien 2000, S. 54–89; Walter Fanta: Nachlass. In: Robert-Musil-Handbuch. Hrsg. von Birgit Nübel, Norbert C. Wolf. Berlin 2016, S. 470–497, hier S. 473–474. Die STUDIENBLÄTTER enthalten nicht nur, nein, sie bilden geradezu die ‚Überlappungszone‘ zwischen ‚Schreibszene‘ und ‚Schreib-Szene‘, wie sie Anke Bosse an Hand der Schreibzeugnisse Josef Winklers beschrieben hat. Was geschieht, wenn die Überlappung so überhand nimmt, zum wuchernden Krebsgeschwür wird, so dass dies das Schreiben blockiert, wie beim späten Musil? Ist es dann noch Überlappung?

246

Walter Fanta

1d) MT ‚Exzerpt‘: Musil verarbeitete in den Exzerpten seine Lektüren; sie dienen als Reservoir zur Zwischenlagerung von Zitaten, bevor er sie in die Romanentwürfe einbaute; geschrieben vorwiegend mit schwarzer Tinte (790 Ms.). 45 1e) MT ‚Eintragung‘: Zusätzlich zu Anfangsnotizen enthalten die Hefte mit Datumsangaben versehene regelrechte Tagebuch-Eintragungen mit schwarzer Tinte (440 Ms.). Der MT ‚Entwurf‘ erscheint ebenfalls in drei Ausprägungen: 2a) MT ‚Rohentwurf‘ dient zur Skizzierung der Handlung, stilistisch nicht elaboriert, noch ohne Kapiteltitel; erhalten aus den früheren Schreibphasen bis 1928; geschrieben mit Bleistift (seltener), vorwiegend schwarzer Tinte und auch mit Schreibmaschine (1136 Ms.). 2b) MT ‚Kapitelfragment‘: Unvollständiger Kapitelentwurf, kein fixer Kapiteltitel, keine fixe Kapitelnummer; erhalten aus den späteren Schreibphasen ab 1932; geschrieben mit schwarzer Tinte unter zusätzlicher Verwendung von Farbstiften (640 Ms.). 2c) MT ‚Kapitelreinschrift‘: Vollständiger Reinschriftentwurf; fixer Kapiteltitel; fixe Position innerhalb der Kapitelanordnung; vertreten ist dieser MT vor allem durch die sechs Kapitel der dritten Genfer Ersetzungsreihe 1940–1942; geschrieben mit schwarzer Tinte (112 Ms.). Einen Sonderstatus innerhalb der Entwürfe nehmen die 145 korrigierten ‚Druckfahnen‘ von 1938 ein, die bereits im Begriff der Autorisierung waren und wieder ins Entwurfsstadium zurückfielen. Eine weitere Sondergruppe bilden die ‚Abschriften‘ Martha Musils von Manuskripten ihres Mannes (286 Ms.). Das Wesen von Musils Schreibszene besteht im Umschreiben, in der permanenten Verwandlung des Textes, deren Spuren alle Kapitelentwürfe tragen. Von ihnen, den Textrevisionen, die sich in die Schichten der Manuskripte eingetragen haben, war bisher noch nicht die Rede. Das zu beschreiben, sprengt den Rahmen dieses Beitrags, obwohl die Streichungen, die Ersetzungen, die Umstellungen, die am Rand notierten Alternativvarianten und Autornotate, die Beilagenseiten mit Neufassungen des Gestrichenen, die Verweise auf zugehörige Schmier- und Studienblätter − all das den Mikrokosmos von Musils Schreibszene ausmacht. Um den Prozess der Verwandlung von Kapitelfassung zu Kapitelfassung darzustellen, bedarf es der textgenetischen Dossiers. In der digitalen Editionsform funktionieren sie wie Relaisstationen; als Beispiel möge das textgenetische Dossier des ersten der sechs Kapitel in der Genfer Reinschriftmappe dienen, mit der Nummer 47 und dem Titel Wandel unter Menschen. Vom Kapitelprojekt dieses Titels entstanden

–––––––– 45

Vgl. Walter Fanta: Musils Umkodierungen. Wissenstransfer im Schreibfeld als Form der Intertextualität. In: Medien, Technik, Wissenschaft. Wissensübertragung bei Musil und in seiner Zeit. Hrsg. von Ulrich J. Beil, Michael Gamper, Karl Wagner. Zürich 2011 (Medienwechsel – Medienwissen. 17), S. 323–344.

Textgenetische Darstellung auf MUSIL ONLINE

247

von 1934 bis 1941 neun Entwurfsfassungen, mit einer riesigen Zahl von Studien- und Schmierblättern. Musils Schreibszene ist durchdrungen von allen Arten von Retardierung. Das kommt unter anderem auch im Wuchern des MT ‚Studienblatt‘ zum Ausdruck, den Notizen, die der Verwaltung des Materials mit Hilfe des Verweissystems dienen. Das Netz der mehr als 100.000 Verweise durchzieht alles; zusammengehalten wird es von den Knoten der Seitensiglen. Buchstäblich jede Manuskriptseite hat eine Sigle, also einen Namen, mit dem sie aufgerufen werden kann. Dies geschieht durch eine unbestimmt große Anzahl von Verweissiglen. Sie können sich überall befinden, am Rand der Entwürfe, auf den Schmierblättern, auf den Studienblättern, ja gerade auf diesen; es gibt sogar welche, die nichts anderes sind als kommentierte Auflistungen dieser Verweise. Die Siglen bestehen aus einer Chiffre in Form einer Buchstabenkombination und Zahlen, Nummern. Die Chiffren lassen sich auflösen, also verstehen – das letzte Exemplar dieses vertrackten Inbegriffs von Musils Schreibszene, die Chiffre auf der letzten Seite, die Musil siglierte, ist „K XIII 11“.46 Sie bedeutet: Seite 11 von Korrektur XIII, also des dreizehnten Korrekturdurchgangs der Mappe mit den Druckfahnenkapiteln, jener Zwischenfortsetzung des Zweiten Buchs, die schon in Druck gegangen wäre, beinah, wenn Musil 1938 nicht ins Exil hätte flüchten müssen …

Präsentationstechnologien und Nachnutzungsperspektiven (Abb. 36–38) Die textgenetische Darstellung des Mann ohne Eigenschaften auf MUSIL ONLINE kommt im Prinzip mit drei digitalen Open-Source-Formaten aus. Die Bilddateien der Nachlassmanuskripte werden an der ÖNB im JPEG-Format erzeugt und in deren Repositorium online abgelegt; die einzige Metadaten-Information ist im Dateinamen enthalten, der aus Archivsignatur und Nachlasspagina zusammengesetzt und als ‚identifier‘ dient. Die Präsentation der Manuskripte auf M USIL ONLINE erfolgt unter ‚Schauen/Archiv‘ nach der überlieferten authentischen Anordnung. Die textliche Repräsentation der Dokumente liegt im XML-Format mit TEI-Auszeichnung vor; dabei entspricht der Inhalt einer Nachlassmappe bzw. eines Heftes jeweils einer XMLDatei. Die Kodierung mit TEI basiert auf einem 2018/2019 am RMI / KLA neu entwickelten ODD-Schema. 47 Dafür wurden folgende Module der TEI ausgewählt: ‚core‘, ‚header‘, ‚textstructure‘, ‚msdescription‘, ‚transcr‘, ‚linking‘. Die Auszeichnung im des XML-Dokuments (Modul ‚transcr‘) fokussiert auf die textgenetische Dimension der Manuskripte, d. h. die Räumlichkeit und Materialität betreffenden Aspekte des Dokuments sind entweder nicht berücksichtigt oder als Attributwerte nachrangig behandelt, während die Aspekte der Textrevision durch Musil in der Kodierungspraxis möglichst höherrangig behandelt werden. Es handelt sich um

–––––––– 46 47

KA, Transkriptionen, Mappe V/5, S. 250. ODD (= One Document does it all) bedeutet, dass alle verwendeten Kodierungs-Regeln hierarchisch nach Modulen, Klassen, Elementen, Attributen und nicht-variablen Attributwerten angeordnet in einem XMLDokument als Schema zusammengefasst sind – vgl. Implementation of an ODD System in den TEIGuidelines. In: http://www.tei-c.org/release/doc/tei-p5-doc/en/html/USE.html - IM (Abruf am 01.08.2018). Am RMI / KLA ist Katharina Godler mit der Modellierung betraut.

248

Walter Fanta

folgende Textrevisionstypen: Tilgungen (), Ergänzungen (, Ersetzungen (), Umstellungen (), Alternativvarianten, Autornotate ().48 Die komplexen Beziehungen zwischen den Nachlassmanuskripten (Makrovarianz) und die in jahrzehntelanger Erschließungsarbeit angesammelten Metadaten sind im in der verankert. Nach der Fertigstellung des XML-TEI-Datenmodells auf der Grundlage zweier exemplarischer Mappen des Musil-Nachlasses wird das gesamte Textkorpus der Transkription aus dem Folio-Views-Flatfile-Format nach XML/TEI migriert, indem die Folio-FormatierungsCodes und die Diakritika der Transkription von 1992 durch die entsprechenden TEICodes ausgetauscht werden. Es ist daran gedacht, das Skript für den Code-Austausch auch für die programmgesteuerte Kodierung von Musils Verweissystem zu benutzen. Neben dem ODD-Schema für den Nachlass wird ein zweites ODD-Dokument für die Schematisierung der XML/TEI-Versionen der autorautorisierten Musil-Texte entwickelt, in denen die Überlieferungsvarianten kodiert sind. Die Verwendung der Auszeichnungssprache XML und die Kodierung nach den Regeln der TEI erfüllen einen doppelten Zweck: sie garantieren die Langlebigkeit der Daten und gewährleisten Interoperabilität, d. h., die Auszeichnungselemente können dauerhaft dafür verwendet werden, um aus dem in den XML-Dateien enthaltenen Textkorpus und den Metatext-Informationen im Präsentationen auf der Interface-Ebene zu generieren. Aus naheliegenden Gründen erfolgt die Präsentation von Nachlasstexten auf der Benutzeroberfläche von M USIL ONLINE auf der Basis von HTML; die Erzeugung von HTML-Codes aus den XML/TEI-Versionen geschieht mittels XSLT-generierter Style-Sheets. Generiert werden die Darstellungen der aus der Schreibbewegung Musils resultierenden Schichtung am Manuskript, die wir als ‚Textwiedergaben‘ bezeichnen, in bewusster Abgrenzung vom Terminus ‚Transkriptionen‘. Aus der textgenetischen Perspektive kommt in diesem Datenmodell den Verzeichnissen der textgenetischen Dossiers zu den Kapitelprojekten bzw. Kapitelkomplexen des Romans eine Brückenfunktion zu, indem sie wie Relaisstationen die Beziehungen zwischen den Dokumenten des Nachlasses und den Texten des Romans sowie die Beziehungen der Dokumente untereinander verwalten. Es ist vorgesehen, diese Beziehungen in XML-Dateien eines eigenen Typs (Meta-XML) zu dokumentieren, aber auch, diese Verzeichnisse auf der Benutzeroberfläche zu präsentieren, mit Hyperlinks zu den Bilddateien und den Textwiedergaben der aufgelisteten einzelnen Dokumente des Dossiers, ergänzt um eine kurze ausformulierte Textgeschichte des jeweiligen Kapitelprojekts. Wie das künftige User-Interface von M USIL ONLINE gestaltet sein wird, lässt sich heute kaum absehen. Die derzeitigen Bemühungen des Projekt-Teams am RMI / KLA sind darauf gerichtet, das Datenmaterial für möglichst viele Formen der Nachnutzung

–––––––– 48

Vgl. dazu den Beitrag von Clausen/Klug in diesem Band (Schreiberische Sorgfalt: Der Einsatz digitaler Verfahren für die textgenetische Analyse mittelalterlicher Handschriften, S. 137–150). Es stellt sich überraschender Weise heraus, dass man für die Auszeichnung von Textrevisionen in mittelalterlichen Codices und Nachlässen der literarischen Moderne mit demselben Satz von Auszeichnungselementen auskommt.

Textgenetische Darstellung auf MUSIL ONLINE

249

interoperabel zu halten. Zu diesen wird in Zukunft unter anderem auch die programmgesteuerte Analyse gehören, eine ‚critique génétique‘ als ‚distant reading‘ der als XML/TEI digital repräsentierten Nachlassdokumente. Spezifische Navigations- und Recherchetools wären zu entwickeln, die vertikale Lektüren der Texte auf der diachronen Ebene von Fassung zu Fassung ermöglichen und über herkömmliche Suchmasken hinausreichend Abfragen für hochspezifische textgenetische Fragestellungen unterstützen. Auch für die weniger forschungsorientierte Nachnutzung wären Innovationen denkbar. Ohnehin wird der interdiskursive Kommentar die Entwicklung neuer Arten von Benutzerschnittstellen begünstigen, in Richtung auf Dialog, auf ‚social edition‘. Es stellt sich die Frage: Wo endet die Aufgabe der Edition? Wo beginnt der Auftrag der Nachnutzung, entsprechende Tools zu (er)finden? Für den Bereich der Nachlassmanuskripte und deren vermittelnder Darstellung wäre eine Art LesartenKontrolle durch Crowd-Sourcing denkbar. Animierte, dynamische 3D-Textwiedergaben lassen sich denken, in denen die Beschriftung einzelner Seiten, der Prozess des Zustandekommens ganzer Mappen oder Hefte oder Metamorphosen innerhalb bestimmter Produktionsphasen simuliert werden. Der Fantasie sind keine Grenzen gesetzt, Edition wird im digitalen Archiv, im Online-Museum zu einem Spiel, zu einem Experiment werden, wie das Schreiben selbst es war.

Franz Johansson / Richard Walter

Une édition numérique génétique: Robinson de Paul Valéry

Paul Valérys poetologisches Ideal war der instabile, in dauernder Veränderung begriffene Text als offenes Schreibprojekt. Dies gilt auch für Robinson, eine Erzählung, die auch materiell immer im Stadium des avant-texte verblieb. Ihre posthume Veröffentlichung, 1950 bei Gallimard, ist zwar rezeptionsgeschichtlich wichtig, aber eigentlich Werk des Editors. Das außerordentlich vielgestaltige und heterogene textgenetische Dossier zu Robinson, das im vorliegenden Artikel im Detail vorgestellt wird, bezeugt ein rhizomatisches, mehrdimensionales, offenes Schreiben, das nur in einer digitalen Edition erfasst und wiedergegeben werden kann, die ihrerseits work in progress bleiben und kontinuierlich erweitert werden kann. Die am Institut de Textes et Manuscrits Modernes etablierte Plattform EMAN, die mit der Software Omeka erstellt wurde, dient als Basis für die hier vorgestellte textgenetische Edition von Robinson. Diese wurde durch XML/TEI-Codierungen und anschauliche textgenetische Visualisierungen angereichert. Wissenschaftliche Verlässlichkeit und Nutzerfreundlichkeit sollen so gleichermaßen gewährleistet sein. Für die digitale Komponente, die Edition, siehe http://aau.at/musil/publikationen/text genese/johansson-walter/.1

À diverses reprises, Paul Valéry a évoqué son idéal – ou son „goût pervers“, 2 pour reprendre ses propres termes – d’une œuvre en perpétuelle gestation: la publication qui fixe un texte définitif ne représenterait alors „qu’une sorte d’accident“,3 „un arrêt que l’on peut toujours regarder comme fortuit dans une évolution qui aurait pu toujours se prolonger.“4 De fait, quelques „œuvres“5 ont été maintenues par l’écrivain dans un stade réversible: des projets aussi riches en résonances qu’Agathe, Alphabet, le quatrième acte de Lust ou le troisième acte du Solitaire n’ont jamais été publiés du vivant de l’auteur et n’ont jamais trouvé une forme définitivement arrêtée. Robinson, le conte dont nous entreprenons l’édition génétique sur support numérique et, plus largement, le recueil Histoires brisées auquel il se rattache, sont un autre exemple – capital, sans nul doute – de cette écriture qui aspire à une perpétuelle recréation.

–––––––– 1 2 3 4 5

L’édition est accessible via http://aau.at/musil/publikationen/textgenese/johansson-walter/ et directement via http://www.eman-archives.org/Valery-Robinson. Paul Valéry: Au sujet du Cimetière marin, Variété III. Dans Paul Valéry: Œuvres. Edition, présentation et notes de Michel Jarrety. Paris 2016, vol. II, p. 278. Ibid. Paul Valéry: La Création artistique. Dans: ibid, vol. I, p. 1667. „La critique génétique a contribué à faire évoluer et à considérablement élargir notre conception de l’œuvre […]“ (Pierre-Marc de Biasi: Génétique des textes. Paris 2011, p. 166.)

https://doi.org/10.1515/9783110575996-016

252

Franz Johansson / Richard Walter

L’intérêt que peut présenter l’édition génétique d’un ouvrage peut, dans des cas comme celui-ci, devenir une véritable nécessité. Car le volume qui, en 1950 – c’est-àdire cinq ans après la mort de Valéry – a fixé Histoires brisées en un texte à l’allure définitive doit être considéré, dans une large mesure, comme une fabrication de l’éditeur. Les feuillets manuscrits et dactylographiés à partir desquels les éditions Gallimard ont établi l’édition posthume relèvent d’une écriture en gestation, offrant çà et là quelques formes très nettement dessinées, mais indubitablement plongées dans le temps inquiet et réversible du devenir. Cet article cherchera à exposer les principaux défis que présente le dossier génétique de Robinson, ainsi que la manière dont notre édition a choisi de les relever. Il aurait été pratiquement inenvisageable de mener une telle édition autrement que sur support numérique: un dossier génétique aussi hétérogène et éclaté que le nôtre aurait été impossible à restituer sur un support papier unidimensionnel. Les ressources informatiques, qui offrent à l’édition génétique des solutions d’une richesse exceptionnelle, sont également un champ largement ouvert aux développements et aux expérimentations. L’édition génétique numérique de Robinson, qui est en voie d’achèvement, a été menée de concert par des spécialistes de l’œuvre de Valéry – l’équipe Valéry de l’Institut des textes et manuscrits modernes (ITEM), 6 réunissant une quinzaine de chercheurs du monde entier – et l’équipe éditoriale et informatique, rassemblée autour de la plateforme EMAN, développée au sein du même laboratoire. EMAN est un outil de publication numérique pour la diffusion et l’exploitation de manuscrits et de fonds d’archives modernes.7 Avant d’évoquer l’édition numérique de ce conte de Valéry, il nous semble utile de présenter cet outil numérique ainsi que la démarche éditoriale qui l’anime.

Un outil de publication: EMAN Pour l’outil d’édition numérique, le choix a été fait de ne pas partir d’une création exnihilo et ad-hoc, ce qui aurait signifié des développements lourds et une maintenance hasardeuse. Nous avons choisi de partir du logiciel Omeka, 8 un outil très apprécié dans la communauté des humanités pour la valorisation de corpus ou de fonds scientifiques. Il répond aux impératifs de pérennisation et d’interopérabilité des données, nécessaires à l’exploitation et à la valorisation des corpus et des fonds d’archives. Ce système de publication web, spécialisé dans l’édition de collections muséales, de bibliothèques numériques et d’éditions savantes en ligne, se situe à la croisée du système de gestion de contenus (CMS), de la gestion de collections patrimoniales ainsi que de l’édition d’archives numériques. Son développement est assuré par le Roy Rosenzweig Center for History and New Media de l’Université George Mason (Virginie, États-Unis), qui a déjà développé le logiciel bibliographique Zotero. Le but des

–––––––– 6 7 8

ITEM: http://www.item.ens.fr/. Équipe Valéry: http://www.item.ens.fr/valery. EMAN: http://www.eman-archives.org. Omeka: http://omeka.org.

Une édition numérique génétique: Robinson de Paul Valéry

253

créateurs de cet outil, facile à prendre en main, est de permettre aux utilisateurs de se concentrer sur le contenu et sur l’interprétation plutôt que sur la programmation. Omeka permet en effet de publier des contenus de façon très simple et très flexible. Son architecture de base est rudimentaire, ce qui lui permet de s’adapter aux besoins de chaque projet grâce à l’ajoût de modules (plugins) et à l’utilisation de modèles visuels (templates). En revanche, pour assurer pérennité et interopérabilité, le logiciel impose un schéma pour la structuration des métadonnées, celui du Dublin Core. 9 Toute notice dans Omeka est impérativement basée sur ces métadonnées, mais il est possible pour chaque projet d’ajouter des métadonnées descriptives ou analytiques en fonction des spécificités de son contenu et de ses analyses. Sur notre plateforme EMAN, basée sur Omeka, le dispositif éditorial et l’interface de navigation ont fait l’objet d’un certain nombre de développements spécifiques pour s’adapter à des pratiques documentaires et scientifiques portant sur les manuscrits et les fonds d’archives modernes: nous construisons à travers ce type de projet un modèle d’édition génétique numérique. Car l’édition numérique ne saurait se réduire, évidemment, à la simple reproduction numérique d’un document papier. C’est avant tout une réflexion intellectuelle et éditoriale qui aboutit à l’acte de numérisation. Qui plus est, numériser et éditer un document supposent la prise en compte de la matérialité de l’objet (documentaire, archivistique, génétique). Nous devons donner des informations de multiples natures. Ces informations devront être structurées entre elles, mais les normes de description ont des règles différentes: on est confronté à des choix de teneurs diverses selon les niveaux de l’édition envisagée: l’édition scientifique versus les contraintes techniques; l’interopérabilité nécessaire en vue de la mutualisation versus des choix technologiques spécifiques, en fonction de besoins propres. Nous envisageons l’encodage numérique d’un document comme un processus de compréhension permettant, dans un seul et même espace, de présenter les différents états et les différentes strates d’une œuvre, accompagnés de toute la documentation nécessaire. Pour montrer les superpositions d’écritures, pour distinguer clairement les différentes campagnes d’écriture, il est indispensable de disposer du texte sous format image mais également en mode texte à travers sa transcription. EMAN propose un outil de transcription offrant, de fait, différents niveaux de transcription. Pour le réaliser, nous avons mis en relation les capacités du logiciel, en particulier l’approche ‚user friendly‘ des procédures, avec les ressources d’encodage de la Text Encoding Initiative10 pour la transcription. Autrement dit, nous avons développé un plugin pour faire de la saisie ‚wysiwyg‘ („what you see is what you get“) avec l’immense bibliothèque de balises proposées par la TEI. Nous avons intégré aux formulaires de saisie d’Omeka des boutons permettant d’encoder du texte en TEI, boutons additionnels et personnalisables en fonction des besoins du projet. Nous gardons ainsi la même démarche: nous utilisons un standard que nous personnalisons pour répondre aux besoins d’une communauté précise.

–––––––– 9 10

Dublin Core Metadata Initiative: http://dublincore.org. TEI: http://www.tei-c.org.

254

Franz Johansson / Richard Walter

Notre projet éditorial veut ainsi donner la possibilité de consulter la transcription des documents publiés sous forme d’images, particulièrement utile pour ceux qui sont les plus difficiles à déchiffrer. Mais les perspectives changent, et les problématiques habituelles de la transcription – exhaustivité de l’édition diplomatique, possibilité de rendre compte de tous les phénomènes perceptibles sur le document – se déplacent grâce à la présence, permise par Omeka, de l’image du document à côté la transcription. L’objectif principal de la transcription ne consiste plus à réaliser un reprint, mais à donner accès à une série d’indications favorisant les recherches et l’exploitation du contenu. Enfin, vient la nécessité de reconstituer le dossier génétique. Celui-ci est une production critique, et pour le transposer et l’analyser sur le support numérique, on doit prendre en compte la spécificité des approches de la critique génétique, notamment la représentation des opérations d’écriture et des interactions entre les documents. La visualisation de ces relations peut devenir complexe, surtout lorsqu’il s’agit de saisir la cohérence entre des éléments très hétérogènes à partir de leurs multiples relations. L’apport du numérique pour cette visualisation des interactions a été testé sur ce projet d’édition numérique génétique d’un conte de Valéry.

Editore: traditore? Robinson est un conte ou, plus exactement, un ensemble de fragments d’un conte en chantier, que Valéry avait vraisemblablement prévu d’inclure dans un recueil ayant pour titre Histoires brisées. L’„avertissement“ liminaire de l’ouvrage, dont l’auteur a laissé une dactylographie à l’allure définitive, 11 affiche une démarche originale fondée sur une poétique du fragment: „Voici donc le recueil paradoxal de fragments, de commencements, de sujets qui se sont prononcés à différentes époques de ma vie, et dont je ne pense pas reprendre jamais le destin où je l’avais laissé.“12 De fait, le texte qui nous est donné à lire dans l’édition d’Histoires brisées proposée, en 1950, par les éditions Gallimard, 13 est un montage de plusieurs passages empruntés à des documents assez divers – certains dactylographiés, d’autres, manuscrits – laissés par Valéry. Les doutes et les embarras auxquels se heurtent les éditeurs lors de la préparation du volume sont très clairement énumérés dans une lettre de Julien-Pierre Monod à Mme Jeannie Valéry, datée du 13 mars 1949. La teneur de cette lettre semble indiquer que Monod – ami intime de Paul Valéry, collectionneur14 de ses manuscrits et fin connaisseur de ses écrits – fut sollicité par les éditions Gallimard pour aider à la constitution du volume Histoires brisées:

–––––––– 11 12 13 14

Dossier conservé à la Bibliothèque nationale de France sous la cote Naf. 19083, f. 2 et 3. Ibid. f. 3. Ce passage de l’„avertissement“ figure p. 12 de l’édition d’Histoires brisées publiée par Gallimard en 1950. Gallimard est l’éditeur de la majeure partie des œuvres de Valéry à partir de La Jeune Parque (1917). La collection de manuscrits de Valéry réunie par Julien-Pierre Monod a fait l’objet d’une donation à la Bibliothèque Doucet en 1962: elle constitue aujourd’hui le très riche Fonds Valéry, ou Valeryanum, de la Bibliothèque Doucet.

Une édition numérique génétique: Robinson de Paul Valéry

255

La publication pose diverses questions auxquelles vous avez sûrement pensé déjà. D’abord en ce qui concerne le texte même: avez-vous l’intention de reproduire absolument tout ce qui figure sur les divers feuillets, y compris certaines indications de caractère mnémo-technique ou constituant des questions de l’auteur à lui-même (par ex. dans Xiphos ‚copies de manuscrits, photocopies‘ et dans un titre: Emma? Laure? Rachel ou Sophie ou Agar – et diverses annotations marginales, etc., etc.) Dans le même ordre d’idées, pensez-vous reproduire les deux versions de Robinson? Enfin, dans quel ordre placer ces divers textes? N’y a-t-il pas lieu de chercher à tenir compte de la dernière ligne de l’avant-propos? […] En ce qui concerne Calypso, je disais à Agathe que ce poème ne me semble pas avoir sa place dans le recueil projeté. 15

Les choix faits par l’éditeur à partir des conseils de Julien-Pierre Monod et de Mme Valéry ne manquent pas de pertinence. Ils visaient selon toute apparence à concilier deux soucis: d’un côté, la volonté de garantir une fidélité vis-à-vis des manuscrits dans l’état où Valéry les a laissés, associée à la nécessité de prendre en compte la poétique du fragment annoncée dans l’„avertissement“, a entraîné l’inclusion de passages relevant d’une écriture non-rédactionnelle – succession morcelée de phrases nominales, voire de mots isolés – et d’inclure parfois des variantes, qui sont transcrites en notes de bas de page. D’autre part, l’éditeur a cherché à conférer au livre une lisibilité conforme aux attentes des lecteurs d’une édition courante, non destinée à un public spécifique de chercheurs ou de connaisseurs, comme l’est la collection ‚blanche‘ de Gallimard. Par ailleurs, si l’ouvrage publié présente une allure fragmentaire, en accord avec la poétique annoncée par Valéry dans l’„avertissement“, rien ne le signale comme l’édition d’un projet inachevé, ce qu’il est en réalité. En dépit de quelques décisions capricieuses (les notes les plus embryonnaires et les variantes sont tantôt intégrées dans l’édition, tantôt éliminées) ces deux soucis, et les choix qu’ils ont entraînés, sont compréhensibles et nullement dépourvus de légitimité. Et on peut assurément saluer les vertus de cette édition qui, en rendant les contes de Valéry accessibles aux lecteurs dès 1950, a permis à Jorge Luis Borges, à Adolfo Bioy Casares,16 à Michel Tournier17 de découvrir les singulières incursions de Valéry dans le champ du récit, et d’en alimenter éventuellement leur propre poétique. En revenant sur les choix faits par l’édition Gallimard, notre édition génétique ne cherche nullement à en faire le procès. Elle prend bel et bien conscience, en revanche, qu’une grande partie de ces choix, faits en l’absence de toute instruction laissée par l’auteur, sont imputables au seul éditeur. Ils revêtent, par ce seul fait – et quelle que puisse être, par ailleurs, leur pertinence – un caractère arbitraire. Cela est d’autant plus important à rappeler que ces choix, relativement importants en nombre, ont des

–––––––– 15 16 17

BnF, Naf. 19083, f. 174–175. Dans leur anthologie de textes Cuentos breves y extraordinarios (Buenos Aires, Raigal, 1955) Jorge Luis Borges et Adolfo Bioy Casares font figurer un extrait d’Histoires brisées. L’auteur de Vendredi ou les limbes du Pacifique a reconnu l’influence déterminante que le Robinson valéryen et l’œuvre de Valéry en général ont eu sur lui. Cf. « Il faudra un jour que je rende justice à Paul Valéry de tout ce que je lui dois […]. Les romans que je cherchais à écrire, il en a donné la définition et fourni le modèle […]. » Michel Tournier: Le Vent Paraclet. Paris 1977, p. 230.

256

Franz Johansson / Richard Walter

incidences profondes sur la forme – et, partant, sur le sens – de l’œuvre. À vrai dire, ils forgent une œuvre qui n’a pas, dans les pages que Valéry a laissées, la forme qui nous est donnée à lire; ils construisent un texte qui n’existait pas. Seul existait, à la mort de Valéry, un avant-texte de Robinson. Un examen de celui-ci montre rapidement qu’il ne s’agit aucunement d’un dossier qui pourrait permettre, au prix de quelques opérations neutres et discrètes, de reconstituer un ‚texte‘. Ainsi, l’état le plus avancé du conte figurant dans le dossier génétique – celui du cahier „Robinson“ (que le classement de la Bibliothèque nationale de France identifie, dans un contre-sens absolu, comme le „premier état du texte“!) – présente non seulement des ratures et ajouts en très grand nombre, mais aussi des choix qui demeurent irrésolus: à plusieurs reprises le manuscrit propose deux solutions qui s’excluent, sans indiquer une préférence pour l’une d’elles (l’édition choisit alors de les présenter l’une et l’autre, en considérant l’une des deux comme une variante reléguée en note de bas de page). Par ailleurs, le cahier voit l’alternance de deux filons d’écriture (assez typique de l’écriture valéryenne lorsqu’elle s’inscrit dans ce type de cahiers): sur la page de droite se déploie (jusqu’au f. 19 recto) une écriture continue à teneur rédactionnelle, tandis que les pages de gauche sont réservées à des modifications ou à des notes d’exploration ou de recherche (l’édition opte tantôt pour la retranscription de ces pages de gauche, en les déplaçant vers des endroits où elles n’interrompent pas la continuité de la lecture des pages de droite, tantôt pour leur suppression pure et simple). Si les premières pages du cahier appartiennent à une phase rédactionnelle parvenue, de toute évidence, à un état très avancé d’aboutissement, l’écriture bascule, après le f. 19 recto, vers une nouvelle dynamique: la distinction entre les pages de droite et de gauche tend à s’estomper, puis à s’effacer complètement, à partir du moment où les unes comme les autres entreprennent une régression de la phase rédactionnelle vers une phase exploratoire: à travers une expression elliptique, des phrases volontiers nominales, une succession asyntaxique, l’écriture postule ou programme des directions à suivre. On ne peut alors que s’interroger sur le rôle de ces pages: l’auteur envisageaitil, à travers elles, plusieurs récits plus ou moins autonomes autour du personnage de Robinson?18 Ou songeait-il à les fondre avec les pages rédigées du conte – ce qui aurait inévitablement entraîné des modifications très profondes dans le récit, tel qu’il s’était constitué? Dans l’état où elle nous est parvenue, l’‚œuvre‘ possède la pluralité et l’éclatement d’un avant-texte. La seule manière, par conséquent, d’appréhender le Robinson valéryen est de le saisir à travers cet avant-texte, et comme un avant-texte: dans la diversité composite qui est la sienne, et dans la dynamique des mouvements qui s’y impriment. C’est cet avant-texte que notre édition génétique veut rendre accessible et intelligible, afin de restituer la réalité – touffue, multiple, réversible – de l’écriture de Valéry derrière l’homogénéité factice de l’édition imprimée.

–––––––– 18

À l’instar des textes successifs gravitant autour du personnage de Monsieur Teste, que Valéry a rassemblés en un volume en 1926.

Une édition numérique génétique: Robinson de Paul Valéry

257

Lieux de la genèse robinsonienne Nous nous gardons pourtant de céder à l’illusion qui verrait dans l’édition génétique le reflet transparent des processus d’écriture: un dossier génétique suppose un acte scientifique, et cet acte ne peut que s’accompagner de méthodes, de protocoles, de catégories, qui sont autant de choix qu’il convient de déterminer avec pertinence. Les conventions éditoriales de la plateforme EMAN exigent un classement en ‚collections‘. Selon quels critères convient-il d’ordonner les collections de Robinson? La perspective chronologique s’avère, dans notre cas précis, peu probante: nulle date ne figure dans les documents du dossier pour garantir des repères dans une chronologie absolue; les relations d’antériorité ou de postérité sont, dans certains cas, incontestables ou très probables, mais dans d’autres, impossibles à déceler avec certitude. Nous avons donc opté pour un classement essentiellement fondé sur le support matériel des documents – critère qu’on associera ponctuellement à d’autres, pour certaines collections, comme nous le verrons. Ce choix permet de mettre en relief certains lieux de la genèse du conte, souvent caractéristiques de la création valéryenne dans son ensemble. Examinons ces lieux, à travers les huit collections19 qui structurent notre édition. Le Cahier ‚Robinson‘: Il est fréquent que Valéry ouvre un cahier lorsque se cristallise dans son esprit un projet d’écriture, comme il le fait avec ce petit cahier, portant dans la page de garde un „R“ soigneusement calligraphié. À l’intérieur de son évidente unité – un lieu, un temps, une série de mouvements relativement homogènes –, ce cahier garde une part importante d’hétérogénéité. Il correspond, d’abord, à différentes campagnes d’écriture et de relecture. On rencontre, à la fin du cahier, une page écrite tête-bêche. Or l’examen de cette page montre sans équivoque qu’il s’agit d’un état nettement antérieur à celui des premières pages du cahier, pris dans son sens ordinaire: il est donc fort probable que Valéry ait d’abord ouvert son cahier dans le sens de cette page que nous considérons tête-bêche a posteriori, et qu’il ait renversé le cahier ultérieurement pour y inscrire une rédaction beaucoup plus aboutie. La présence de différents outils graphiques signale clairement l’existence de différentes campagnes d’écriture et de relecture/écriture. Sur la narration continue, à l’encre bleue – la première strate d’écriture –, se superposent des ratures et ajouts à l’encre bleue, à l’encre noire ou au crayon à mine grise. Nous avons déjà évoqué la différence très nette de statut entre les pages de droite et de gauche, ainsi que le basculement d’une écriture de mise au net, résolument rédactionnelle dans les premières pages, vers des notes à teneur exploratoire dans les dernières. La trace d’une dizaine de pages soigneusement retranchées constitue une petite énigme. Les pages amputées portaient-elles des notes ou des passages relevant du projet Robinson (et si tel est le cas, que sont-elles devenues)? Ou s’agissait-il de notes sans aucun rapport avec le conte, et logiquement retranchées pour cette raison?

–––––––– 19

Nous utilisons la terminologie d’Omeka: la collection est un ensemble de notices regroupées par l’éditeur selon des critères particuliers.

258

Franz Johansson / Richard Walter

Les séries de dactylographies: Les sept séries de dactylographies (parmi lesquelles figurent deux séries de copies carbonées reflétant une frappe identique, mais donnant lieu à des annotations manuscrites différentes) sont un cas intéressant. Elles témoignent qu’à un stade très précoce de la genèse du conte, Valéry a travaillé à la machine à écrire: si nous partons de l’hypothèse que nous possédons bien tous les documents de la genèse (ce qu’il n’est absolument pas possible de considérer comme une certitude), il apparaît qu’aussitôt après le feuillet 43, manuscrit très touffu, éclaté et dense à teneur séminale (sur laquelle nous reviendrons plus loin), Valéry a troqué la plume contre la machine à écrire. Les séries successives nous permettent de suivre minutieusement la progression de la rédaction, étape par étape. Les corrections et modifications tracées à la main sur chaque état dactylographié se voient – à quelques exceptions près – intégrées dans une nouvelle dactylographie, formant un nouvel état du texte. La progression du conte s’accompagne d’une extension – d’une seule page d’abord, à trois pages, puis à quatre – fondée non pas sur des éléments narratifs, quasiment inexistants ici, mais sur le développement ou l’introduction de certains motifs, au sens musical du terme. Feuilles volantes: Cette catégorie manque de l’unité des deux collections précédentes, les cinq feuillets qui la composent formant un ensemble hétéroclite: la teneur aussi bien que le support de ces notes sont divers. Un des feuillets rassemblés ici possède un intérêt plus marqué: le f. 43 (que nous avons rapidement évoqué plus haut) inscrit à la fois sur le recto et le verso. Tout porte à croire qu’il est (si on exclut les notes les plus précoces confiées aux Cahiers, dont on ne peut pas dire qu’elles appartiennent pleinement au projet narratif, et les quelques lignes inscrites dans le cahier „Agar Rachel Sophie“20) le document le plus précoce parmi tous ceux dont nous disposons. Il représente un exemple particulièrement spectaculaire d’un feuillet séminal: dans une écriture foisonnante et dense sont notées une grande quantité de thèmes, de directions, de structures syntaxiques embryonnaires ou complètes. Très peu d’éléments dans les états ultérieurs du conte n’ont pas ici un germe plus ou moins reconnaissable. Notes des ‚Cahiers‘ faisant référence à ‚Robinson‘: La très vaste série des Cahiers „du matin“21 (qu’on doit distinguer des cahiers que, ponctuellement, l’écrivain peut consacrer à tel ou tel projet d’écriture, comme il le fait avec le cahier „Robinson“) constitue un lieu essentiel, et particulièrement original, de l’écriture valéryenne. Elle joue souvent un rôle (dont l’importance varie) dans la genèse d’œuvres et de projets divers. Parmi les notes confiées aux Cahiers apparaissent, çà et là, des références plus ou moins immédiates – un titre, un personnage, un thème, une situation, un commentaire – à telle ou telle œuvre projetée ou en cours. La première allusion à Robinson dans les Cahiers date de 1906. La dernière est de 1944. Le dialogue entre les notes des Cahiers et l’écriture du conte, telle qu’elle se dépolie notamment dans les dactylographies et le cahier „Robinson“, n’est pas facile à définir: le personnage emprunté à Daniel Defoe, sa position dans l’île déserte donnent souvent lieu, dans les notes des

–––––––– 20 21

Cf. infra. A partir de 1894, et jusqu’à sa mort, l’écriture de recherches très diverses, consignée sur des cahiers d’allures variées, a constitué pour Valéry un rituel quotidien associé à des heures très matinales.

Une édition numérique génétique: Robinson de Paul Valéry

259

Cahiers, à des développements dont le lien avec les thèmes et situations du conte est loin d’être évident. Dactylographies transcrites des ‚Cahiers‘: À partir des années 1920, Valéry a effectué lui-même, ou fait faire par des amies ou des secrétaires, des copies dactylographiées de certains passages de ses Cahiers, en prévoyant pour chacune d’entre elles des copies carbonées. Cette reproduction démultipliée grâce aux copies carbonées lui permet de conférer à chaque note une forme d’ubiquité: un même fragment peut ainsi s’introduire dans différents dossiers et jouer un rôle au sein de différents projets. Il est probable que Valéry lui-même ait rassemblé les huit dactylographies des Cahiers figurant dans notre dossier. Plusieurs questions se posent auxquelles il n’est pas facile d’apporter une réponse. Pourquoi, parmi les dizaines de notes se référant à Robinson, Valéry a spécifiquement choisi ces huit extraits pour en faire la dactylographie, alors qu’ils peuvent sembler parfois bien éloignés des pages rédigées du conte? Quelle utilisation l’auteur comptait-il faire de ces notes dactylographiées? Envisageait-il de leur emprunter éventuellement tel passage, telle formulation, tel motif? Les tenait-il proches des autres lieux de rédaction du conte afin de leur faire jouer un rôle plus diffus, afin qu’elles imprègnent le récit par des voies indirectes et souterraines? Occurrences de ‚Robinson‘ dans le cahier ‚Agar Rachel Sophie‘: Le cahier arborant le titre Agar Rachel Sophie accueille des notes et des amorces de rédaction de plusieurs contes, dont certains ont donné lieu à des développements ultérieurs. Dans les pages du cahier, deux notes très elliptiques mentionnent Robinson (ainsi que Vendredi et une Lady Crusoe, pratiquement absents des autres lieux de la genèse du conte). Un fil ténu, mais bel et bien présent, relie donc Robinson à la genèse de plusieurs autres récits gravitant autour des Histoires brisées. Il est probable que ces allusions au personnage précèdent (de très peu, sans doute) l’écriture du f. 43, à teneur séminale, véritable acte de naissance du conte Robinson. Ainsi, l’idée d’un conte sur Robinson 22 se serait cristallisée en même temps que nombre d’autres récits en germe, mais le projet aurait vite acquis une autonomie par rapport à ces derniers, matérialisée par les lieux spécifiques voués à son écriture. ‚Robinson‘ dans l’édition posthume des ‚Histoires brisées‘: Le texte fait partie de l’avant-texte: cette affirmation perd de son évidence lorsqu’il s’agit d’une édition posthume produite en l’absence de tout contrôle auctorial et de toute instruction explicite de la part de l’auteur, comme c’est le cas pour Histoires brisées. Nous avons pourtant choisi de reproduire les passages concernant Robinson dans l’édition originale d’Histoires brisées, parue chez Gallimard en 1950. À la périphérie de l’avant-texte – seul lieu où l’on peut rencontrer l’écriture valéryenne dans une forme non altérée –, il est utile de faire figurer le texte, tel que la publication l’a figé à titre posthume. Même s’il doit être lu comme une fabrication de l’éditeur (nous l’avons plusieurs fois répété), ce texte fait partie de l’histoire de l’œuvre, qui est constituée, entre autres, des lectures

–––––––– 22

On trouve bien des allusions à Robinson antérieures au f. 43 et aux premières dactylographies dans les Cahiers, mais aucune d’elle ne possède une teneur proprement narrative.

260

Franz Johansson / Richard Walter

qu’on a pu en faire. Or c’est sous les traits que lui a donnés l’édition Gallimard que le Robinson de Valéry a existé pour les lecteurs depuis plus de soixante ans.23

Unité, pluralité La puissance combinatoire de l’outil numérique peut rassembler dans un même espace virtuel des données aux relations nombreuses et complexes, imbriquées ou parallèles. Il faut alors réfléchir à une architecture des parcours génétiques qui offrirait plusieurs entrées pertinentes aux documents numériques rassemblés au sein des collections. Les relations entre les documents peuvent être nombreuses et notifiées de manière très diverse. Mais l’existence même d’une relation suppose, au-delà de leur hétérogénéité, une même granularité des documents, un même niveau de comparaison: une forme d’unité. Dans le champ de la génétique textuelle, l’unité du feuillet est toute relative. Il est très fréquent qu’au sein d’un même feuillet se superposent plusieurs strates d’écriture, correspondant à des campagnes distinctes, situables à des moments parfois très éloignés entre eux. On peut dire, à la limite, que plusieurs textes figurent à l’intérieur d’un seul feuillet avant-textuel. Dans la mesure où l’édition génétique inscrit chacun des documents à l’intérieur d’une série d’états successifs, on est également amené à identifier, dans l’espace du feuillet, plusieurs cellules, dont chacune est promise à une évolution qui lui sera propre. Certaines cellules figurant dans le dossier disparaîtront entièrement dans les états ultérieurs, d’autres se maintiendront telles quelles, d’autres donneront lieu à des métamorphoses plus ou moins importantes. Les contraintes de l’écran informatique nous ont obligé à faire un choix: la multiplicité des documents, et l’éclatement de la genèse de l’œuvre rendaient inenvisageable le multi-affichage des différents états dans un seul écran. À une représentation horizontale, à plat et côte à côte d’autant de cellules autonomes que d’états du texte, nous avons préféré une représentation verticale qui superpose ces états. Nous avons choisi de travailler sur un affichage unique pour chacun des feuillets de chaque document, et d’encoder sa transcription de façon à pouvoir représenter, dans ses superpositions, la pluralité des campagnes d’écriture. Nous avons établi un encodage différent pour chacun des outils graphiques: frappe matrice d’une frappe dactylographiée, copie carbone d’une frappe dactylographiée, écritures manuscrites à l’encre noire, à l’encre bleue, à l’encre violette ou au crayon à mine grise. Nous avons choisi comme mode d’encodage des couleurs différentes et clairement identifiables. Sur le plan de la visualisation, la possibilité est offerte au lecteur d’afficher la transcription soit avec les marques d’encodage de tous ces outils graphiques, soit sans elles. Dans le cadre de l’amélioration de notre outil de visualisation, nous travaillons à

–––––––– 23

Signalons toutefois que, si l’édition dans le volume II des Œuvres (1960) dans la collection « La Pléiade », proposée par Jean Hytier, reprend l’édition de 1950 telle quelle, les éditions de Jean Levaillant (La Jeune Parque, L’Ange, Agathe, Histoires brisées, Paris, Gallimard, collection « Poésie », 1974) puis de Michel Jarrety (volume III de l’édition citée), apportent à ce texte un certain nombre de modifications et de rectifications très utiles, en fonction d’une consultation directe des tapuscrits et manuscrits.

Une édition numérique génétique: Robinson de Paul Valéry

261

la possibilité d’obtenir des options plus riches – et, par conséquent, plus éloquentes – dans l’affichage: notamment à travers la possibilité de faire apparaître dans la transcription les traces faites avec tel outil exclusivement, avec l’option de combiner l’affichage de deux ou plusieurs outils spécifiques. Cela permettra au lecteur d’isoler clairement à l’écran les différentes campagnes d’écriture et de modifications qui se superposent dans le feuillet. Pour le f. 43, par exemple – de très loin, le document le plus complexe dans notre dossier génétique – cela offrirait la possibilité d’afficher uniquement les traces au crayon à mine grise, ou bien les seules traces à l’encre bleue, ou à l’encre violette, et de se trouver ainsi confronté à une seule strate d’écriture à la fois. Le lecteur pourra également afficher les traces au crayon à mine grise et celles à l’encre bleue, en excluant l’encre violette, pouvant ainsi examiner les interactions entre deux campagnes d’écriture et de relecture-écriture.

Translations et métamorphoses Parmi les innombrables avantages de l’édition numérique, un des plus intéressants est la possibilité d’une présentation à géométrie variable, offrant plusieurs cheminements possibles. Bien plus facilement et bien plus clairement que dans le volume imprimé, plusieurs ordres peuvent se superposer dans une édition numérique, sans s’exclure ni même se gêner les uns les autres. Cela est précieux lorsqu’il s’agit de rendre compte des jeux d’interaction très complexes qui interviennent lors d’une genèse. La présentation des documents du dossier en huit collections permettait de faire ressortir les différents lieux de la genèse de Robinson. Mais ce n’est là qu’un ordre parmi d’autres, avec un champ de pertinence réel mais limité. Notre édition numérique propose d’autres manières de structurer les documents, d’autres liens pour les associer. À l’intérieur de chaque collection et entre les différentes collections, nous avons cherché à tracer quelques chemins éloquents. Il était bien sûr inenvisageable d’omettre un moyen d’appréhender les documents en fonction d’un rangement qui suivrait le fil chronologique de la genèse, en dépit des incertitudes que présente la chronologie du dossier. Certains doutes peuvent être levés par l’analyse: il est souvent possible, par déduction, de déterminer des relations d’antériorité/postériorité entre les documents. Au milieu de ces certitudes, demeurent des assertions hypothétiques et, parfois, de pures énigmes. Nous avons donc proposé de lier entre eux les différents documents – ou, le cas échéant, les pages à l’intérieur d’un document – en fonction de sept types de relation: –



La relation ‚est un état résultant de‘ relie deux éléments que l’analyse révèle avec certitude comme deux états immédiatement consécutifs. Ce lien est suffisamment représenté dans le dossier pour nous permettre de dégager dans la genèse du conte une sorte de colonne vertébrale: celle-ci va du f. 43 – le feuillet séminal du conte – au cahier „Robinson“, l’état le plus avancé, à travers notamment la série de dactylographies. Les trois relations: ‚est influencé par‘, ‚est en écho unilatéral avec‘, ‚est en écho réciproque avec‘ nous permettent de rendre compte de jeux plus diffus. Quelle

262





Franz Johansson / Richard Walter

est l’influence de telle feuille volante, impossible à dater (le f. 44, par exemple), sur les séries de dactylographies ou sur le cahier „Robinson“? Il est parfois possible de dégager une direction univoque dans l’influence. Parfois en revanche, c’est un jeu de réciprocités qui semble s’instaurer. Les deux relations ‚est une recopie intégrale de‘ et ‚est une recopie avec ajouts de‘ concernent deux pratiques fréquentes dans notre dossier: Valéry, nous l’avons dit, a fait dactylographier certaines notes de ses Cahiers. Sur ces dactylographies, il arrive fréquemment qu’il apporte des ajouts manuscrits. La dernière relation ‚est un état fabriqué par l'éditeur à partir de‘ concerne uniquement des choix éditoriaux. Elle permet de comprendre la manière dont l’édition posthume s’est constituée par le choix de certains documents (et parfois de certains éléments d’un document) empruntés aux différentes pièces du dossier génétique dans sa totalité.

Pour une saisie cohérente de ces relations, nous avons utilisé un outil adapté à Omeka: quand une relation est saisie dans une notice, elle apparaît automatiquement sur l’autre notice concernée (selon le principe d’affichage suivant: dans la notice A est indiqué „cette notice est citée par la notice B“; dans la notice B, est indiqué „la notice A est citée par cette notice“). Nous évitons ainsi les risques d’oubli ou de fautes de saisie. Même si elle est fondée sur une formulation extraite d’une liste contrôlée, chaque relation peut se voir commentée. Qui plus est, chaque document peut avoir autant de relations que de besoin. Cette typologie ne propose pas des relations uniquement basées sur la chronologie. Dans les processus de création artistique, la relation de cause à effet n’est pas toujours évidente, et n’est pas, du reste, la seule relation pertinente. La représentation des processus de création ne peut donc pas se baser uniquement sur des flèches à sens unique. Plusieurs éléments pourront se trouver représentés à plusieurs endroits. Il nous faut alors inventer des modèles de relations qui dépassent la liste à puce et qui s’orientent vers des représentations plus graphiques, comme les graphes et les diagrammes.

Visualisations génétiques Les possibilités multiples de l’informatique n’ont pas seulement des avantages: à force d’ouvrir la pluralité, on risque soit la saturation d’informations, soit la dispersion, voire l’atomisation des éléments signifiants. L’interface et les partis pris de structuration ne doivent pas déboucher sur une succession ou une superposition de strates dépourvues de toute perspective d’ensemble. Autrement dit: on doit permettre au lecteur d’appréhender dans une vision synthétique les processus de création, d’y voir non seulement une succession de processus singuliers concernant tel et tel document, mais aussi des mouvements d’ensemble englobant ces processus singuliers. Pour donner à voir à la fois les mouvements particuliers et les mouvements d’ensemble, nous avons expérimenté sur EMAN différentes types de visualisation. La

Une édition numérique génétique: Robinson de Paul Valéry

263

perspective est celle d’une ‚visualisation génétique‘ plutôt qu’un empilement de listes ou des diagrammes plus ou moins complexes. Car il ne faut pas oublier l’impératif de lisibilité sur écran, tout en respectant les équilibres résultant de l’analyse: les partis pris de représentation ne doivent pas hypertrophier de manière abusive un processus spécifique ou une partie du corpus. Nous nous proposons d'offrir une vision d’ensemble des mouvements génétiques qui s’avère à la fois complète et intelligible. Le parti pris éditorial de notre édition numérique est de concilier pertinence scientifique, exhaustivité documentaire et lisibilité sur écran, à partir d’un savant dosage des équilibres. Par exemple, l’importance quantitative des notes des Cahiers peut, dans notre projet, donner l’impression erronée d’une importance équivalente sur le plan qualitatif. Nous avons donc créé un dispositif graphique qui regroupe les notes d’une même collection dans une icône commune: en cliquant dessus, les unités rassemblées se déploient en forme d’étoile. Cette icône sera d’une taille identique à d’autres qui, tout en rassemblant une quantité de documents moindre, doivent être considérées comme étant d’importance similaire ou plus grande. La question est toujours la même: comment proposer la visualisation la plus complète, précise et claire du dossier génétique et des interactions complexes entre les documents? Il faut sortir de la liste chronologique ou alphabétique et des relations 1 à 1 pour retracer et visualiser sous différentes formes des phénomènes plus compliquées. Le numérique permet de comparer des éléments relevant de supports différents et d’affiner sur plusieurs niveaux leurs relations. Les représentations de ces comparaisons sont de facto complexes et évolutives, elles permettront de visualiser de différentes façons les processus de création. Il nous faudra alors inventer des modèles de relations dont les schémas traceront les influences, les évolutions et la circulation entre les données. Pour les représenter, les techniques de visualisation par graphe calculé en fonction de la typologie et du nombre de relations par notice ont été préférées à celles des cartes heuristiques. Car celles-ci se basent sur un élément moteur qui sert de départ à la visualisation des relations – établir le point de départ dans un stemma codicum d’une œuvre peut ne pas être évident. La puissance combinatoire des encodages stockés dans EMAN et des processus de visualisation produits par un réseau de graphes24 permet de spatialiser les différentes relations selon plusieurs points de vue. Cette visualisation par graphes non hiérarchiques règle une autre difficulté: celle de représenter certaines influences (univoques ou réciproques) très difficiles, voire impossibles à arrêter avec certitude. Par exemple, dans notre projet, il est impossible de savoir à quel stade les feuilles volantes se situent, chronologiquement, par rapport aux autres documents ou de comprendre comment elles influencent ceux-ci. Dans le stade actuel de nos recherches, il faut se contenter de cette assertion, aussi décevante que prudente: ces feuilles volantes participent de la genèse de l’œuvre, sans qu’il soit possible de comprendre avec précision où elles interviennent ni de quelle nature est leur influence. Elles ne seront donc pas traitées visuellement sur le même plan.

–––––––– 24

Pour cela, nous avons créé un module qui extrait les relations indiquées dans EMAN et qui les visualise via la librairie java script Vis.js: http://visjs.org.

264

Franz Johansson / Richard Walter

Enfin, en parallèle aux mises en relation et à la visualisation de celles-ci, s’impose la nécessité de décrire et de raconter l’histoire de la production de l’œuvre. Pour asseoir la démarche scientifique et ouvrir des perspectives aussi larges que possible, le site final fournira un appareil critique, comprenant une préface, la présentation analytique de chaque collection puis de chaque document de la collection, ainsi que les protocoles d’édition et de transcription. Dans une prochaine étape, nous pourrons introduire une collection d’articles illustrant différentes thématiques ou précisant des processus génétiques ciblés, à travers les modules d’expositions virtuelles existant sur Omeka.

Conclusion L’édition génétique de Robinson se propose d’éclairer la genèse d’un écrit occupant, dans l’œuvre de Valéry, une place singulière: cette œuvre courte et inaboutie est représentative de l’incursion – aussi inventive que problématique – de l’auteur dans le champ du récit en même temps qu’elle incarne une figure capitale de l’imaginaire valéryen. Elle pourra, par ailleurs, servir comme prototype pour les œuvres de Valéry et d’autres auteurs. Nous avons cherché à profiter pleinement des profonds changements de paradigme provoqués par l’outil numérique. L’espace de publication est désormais affranchi des limitations de taille ou de caractère, et débarrassé de tant de freins qui se présentaient pour l’édition papier. Nous pouvons multiplier les perspectives grâce aux rapprochements d’éléments issus de médias différents (sources sonores, vidéos, iconographiques, etc.) et à la représentation des différents niveaux de relations qui existent entre les documents. Cet horizon promis aux découvertes nous amène peutêtre à accepter d’emblée que notre publication ne représente qu’un certain état de la recherche, appelé à évoluer en fonction des derniers résultats dans la recherche valéryenne ou des dernières ‚trouvailles‘ en matière informatique. Nous arrivons alors à poser les bases d’une édition plurielle et évolutive, au risque d’être engagés – dans un esprit cher à Valéry – dans un travail en perpétuelle recréation, dans un éternel work in progress. Dans ses Histoires brisées, Paul Valéry est à la recherche d’une poétique du récit à laquelle il n’a pas voulu ou n’a pas pu donner une forme aboutie. De cette poétique de la bifurcation, tournée vers l’invention d’une œuvre plurielle, seule la superposition des écritures successives, dans ses déploiements, hésitations et rhizomes peut offrir l’image exacte. Et seule la publication génétique numérique est en mesure de montrer ces superpositions de façon satisfaisante.

Peter Dängeli / Magnus Wieland / Simon Zumsteg

Digitale Edition von Hermann Burgers Lokalbericht Digital ist besser. Tocotronic

Einleitung1 Im Jahr 1985 wurde der Schweizer Schriftsteller Hermann Burger in Klagenfurt mit dem Ingeborg-Bachmann-Preis für seine Erzählung Die Wasserfallfinsternis von Bad Gastein ausgezeichnet. In der von Marcel Reich-Ranicki geleiteten Laudatio hob die Jury mehrfach die „Wortmächtigkeit“, die „kunstvolle[n] Wortkaskaden“, die „virtuose Rhetorik“ und die „ganz ungewöhnliche Sprachintensität“ hervor,2 die noch heute als Markenzeichen des Autors gelten. Gut dreißig Jahre später, genauer am 22. April 2017, wurde – ebenfalls in Klagenfurt – im Rahmen der Tagung Textgenese in der digitalen Edition das Projekt zur digitalen Edition von Hermann Burgers Lokalbericht vorgestellt. Auch für diese Edition erhält der Burger’sche Text eine Auszeichnung, allerdings eine ganz andere als beim Bachmann-Preis, nämlich eine im Encoding nach Richtlinien der TEI.3 Dieser Schritt von der Preis- zur TEI-Auszeichnung – ähnlich spektakulär wie der Schnitt vom Knochen zum Raumschiff in Stanley Kubricks Verfilmung von 2001: A Space Odyssey – ist keineswegs selbstverständlich und aus dreierlei Gründen sogar außergewöhnlich. Die erste Besonderheit besteht darin, dass es sich bei Hermann Burger – obwohl er neben dem Bachmann-Preis noch weitere bedeutende Preise wie u.a. den FriedrichHölderlin-Preis ‚abräumte‘ und im Feuilleton zeitlebens ein hohes Renommee genießen durfte – heute um einen Autor handelt, der aus dem international ohnehin nicht sonderlich repräsentativen Kanon der Schweizer Literatur hinauszukippen droht. Hermann Burger ist vorwiegend noch einem Kreis von Liebhabern als Kultautor bekannt. Ein Ruf, den er sich nicht zuletzt auch dank seiner gekonnten Selbstinszenierung eingehandelt hat, die aber als wesentlicher Support seines Werks mit dem frühen Freitod im Jahr 1989 weggefallen ist. Aber selbst wenn Burgers Renommee ungebrochen angehalten hätte, wäre es immer noch extraordinär, dass einem Autor aus der unmittelbaren literarischen Vergangenheit eine hochelaborierte digitale Edition gewidmet wird, die ansonsten – das belegen auch die anderen Beiträge im vorliegenden Band – bislang mehrheitlich den kanonisierten Klassikern (von Goethe bis Beckett) vorbehalten ist. Eine Ausnahme bildet hier vielleicht Wolfgang Koeppen, dessen spätem Prosawerk

–––––––– 1 2 3

Die digitale Edition finden Sie unter http://aau.at/musil/publikationen/textgenese/daengeli-wielandzumsteg/ sowie unter www.lokalbericht.ch. Direkte Verweise finden Sie jeweils in den Fußnoten. Vgl. Klagenfurter Texte zum Ingeborg-Bachmann-Preis. Hrsg. von Humbert Fink, Marcel Reich-Ranicki und Ernst Willner. München 1985, S. 145, S. 154 und S. 157. www.tei-c.org/ (Abruf am 29.09.2018)

https://doi.org/10.1515/9783110575996-017

266

Peter Dängeli / Magnus Wieland / Simon Zumsteg

Jugend eine (aus ähnlicher Quellenlage) vergleichbare editorische Aufmerksamkeit zuteilgeworden ist.4 Im Unterschied zu Koeppens Jugend handelt es sich bei Burgers Lokalbericht jedoch nicht um einen bereits publizierten, sondern um einen unveröffentlichten Text aus dem Nachlass: ein literarisches Frühwerk, das den Autor auf dem Weg zu seiner Sprachvirtuosität zeigt, für die er später bekannt und gerühmt werden sollte. Auch für den bescheidenen Burger-Kosmos handelt es sich also keineswegs um einen bekannten, geschweige denn kanonisierten Text, was editionshistorisch besehen ebenfalls unüblich ist, zumal sich editionsphilologische Unternehmen in der Regel auf die historischkritische Rekonstruktion klassischer bzw. kanonischer Texte richten, während postume Herausgaben aus dem Nachlass zunächst einmal als gewöhnliche Lesefassung den literarischen Markt erreichen wollen. Dass zu Lokalbericht zugleich die aufwändige digitale Edition www.lokalbericht.ch und – als Spin-Off daraus – eine bereinigte Lesefassung in Buchform erscheint, 5 darf deshalb als außergewöhnlich gewertet werden, da dem unbekannten Text eine philologische Aufmerksamkeit geschenkt wird, die sich aufgrund seiner fehlenden literaturhistorischen Bedeutung kaum rechtfertigt. Für die Burger-Forschung indes füllt die Edition eine wesentliche Lücke, erklärt sie anhand der genetischen Überlieferung doch partiell den „qualitativen Sprung“,6 den Burger von der vergleichsweise simpel gestrickten Anfängerprosa des Erzählbandes Bork (1970) zur neobarocken Sprachwut von Schilten (1976) gemacht hat. Drittens liegt eine Besonderheit der digitalen Edition von Hermann Burgers Lokalbericht auch darin, dass es sich bei der Textüberlieferung vornehmlich um Typoskripte mit vergleichsweise wenig handschriftlichen Bearbeitungsspuren handelt, das heißt um Quellenmaterial, das aus editionsphilologischer und insbesondere textgenetischer Sicht auf den ersten Blick wenig ergiebig ist. Schon eine Transkription durch die Editoren erscheint aufgrund der problemlosen Lesbarkeit von Typoskripten nicht zwingend notwendig. Zudem gelten maschinengeschriebene Seiten gegenüber handschriftlichen Notizen im archivarischen wie im editorischen Bereich als weniger wertvolle Autographen, da sie kaum direkte Spuren von der Hand des Schriftstellers aufweisen und entsprechend wenig textgenetische Informationen versprechen. Hermann Burger ist jedoch wie alle Autoren seiner Generation ein Vertreter aus dem „Zeitalter der Typoskripte“.7 Die Schreibmaschine ist sein bevorzugtes Schreibinstrument, das bei ihm vom ersten Entwurf über verschiedene Fassungen bis hin zur bereinigten Abschrift zum Einsatz kommt. Auch Sofortkorrekturen werden häufig mit der Maschine vorgenommen, indem Wörter mit der Letter ‚x‘ übertippt werden. Noch häufiger jedoch ist

–––––––– 4

5 6 7

Siehe: www.koeppen-jugend.de (Abruf am 10.08.2018) sowie Katharina Krüger, Elisabetta Mengaldo, Eckhard Schumacher (Hrsg.): Textgenese und digitales Edieren. Wolfgang Koeppens „Jugend“ im Kontext der Editionsphilologie. Berlin, Boston 2016 (Beihefte zu editio. 40). Die Buchpublikation mit emendiertem Lesetext ist 2016 bei der Edition Voldemeer erschienen (Hermann Burger: Lokalbericht. Hrsg. von Simon Zumsteg. Zürich 2016). Elsbeth Pulver: Hermann Burger [Stand: 1. August 1994]. In: Kritisches Lexikon zur deutschsprachigen Gegenwartsliteratur. Hrsg. von Heinz Ludwig Arnold. München, S. 4. Vgl. dazu Davide Giuriato, Martin Stingelin, Sandro Zanetti (Hrsg.): „Schreibkugel ist ein Ding gleich mir: von Eisen“. Schreibszenen im Zeitalter der Typoskripte. München 2005 (Zur Genealogie des Schreibens. 2).

Digitale Edition von Hermann Burgers Lokalbericht

267

der Fall, dass zwischen verschiedenen Fassungen eines Textes ‚unsichtbare‘ Korrekturen vorgenommen werden, indem Passagen umgeschrieben, gewisse Wörter ersetzt oder ganze Sätze weggelassen werden, was sich erst im direkten Textvergleich zeigt. Das heißt: die Mikrogenese des Schreibprozesses hinterließ in vielen Fällen gar keine manifesten Spuren auf den Typoskripten, sondern zeigte sich erst im makrogenetischen Vergleich. Angesichts dieser drei formulierten Vorbehalte muss sich das Projekt einer digitalen Edition von Hermann Burgers Lokalbericht die Frage gefallen lassen, weshalb neben der Buchausgabe eine aufwändige digitale Komponente notwendig sei und zu welchem Zweck sie letztlich dienlich ist. Auf einen einfachen Nenner gebracht lautet die Antwort: Die Edition zieht ihre Legitimation nicht aus editionsphilologischen Konventionen, sondern geht aus der Sache selbst – dem Inhalt sowie der materiellen Beschaffenheit von Lokalbericht – hervor und beschreitet deshalb editionstechnisch besehen auch neue Wege. Denn das vorrangige Ziel der Edition war es nicht, die überlieferten Textträger lesbar zu machen (da sie als Typoskripte bereits gut lesbar sind), vielmehr stellte es eine Herausforderung dar, diese Textträger zueinander in Interrelation zu stellen, um die komplexe makrogenetische wie intertextuelle Romanarchitektur sichtund verstehbar machen zu können, da sie Teil der im Roman metathematisierten Poetologie ist. Anders ausgedrückt: Sowohl die Genese als auch die Struktur des Romans lassen sich überhaupt erst in einer Makroanalyse nachvollziehen – und dieser Umstand verlangte nach einer dynamischen digitalen Lösung, um einerseits die gewünschte Datentiefe und andererseits den notwendigen Abstraktionsgrad zu gewährleisten. Weder in Buchform noch direkt im Archiv wäre eine solche Darstellungsweise möglich gewesen bzw. nur auf Kosten der Übersichtlichkeit: Um das gesamte Material in seinen Zusammenhängen physisch auszulegen, hätte man mindestens die Turnhalle von Schiltwald mieten müssen, dabei am Ende aber doch unweigerlich den Überblick verloren. Denn wenn die Parabel Von der Strenge der Wissenschaft von Jorge Luis Borges eines lehrt, dann doch dasjenige, dass mit einer Landkarte im Maßstab 1:1 nichts gewonnen wird. Es bedarf abstrahierender Darstellungsverfahren zur Analyse komplexer Sachverhalte: Das gilt für die Geodäsie ebenso wie für die „Typotopographie“. 8 Oder um es mit den Worten Dirk Van Hulles zu sagen, der in diesen Zusammenhang nicht zufällig den Ausdruck ‚mapping‘ verwendet: „To really help students and interested readers find their way in the labyrinth of the manuscripts, it is important that we regard the mapping of the macrogenesis as an intrinsic part of scholarly editing.“ 9 Um auf die hier nur flüchtig skizzierten Interdependenzen zwischen literarischer Fiktion, wissenschaftlicher Edition und digitaler Präsentation in makrogenetischer

–––––––– 8

9

Der Begriff ist entliehen von Franz M. Eybl: Typotopographie. Stelle und Stellvertretung in Buch, Bibliothek und Gelehrtenrepublik. In: Topographien der Literatur. Deutsche Literatur im transnationalen Kontext. [DFG-Symposion 2004]. Stuttgart 2005 (Germanistische Symposien Berichtsbände. 27), S. 224–243. Dirk Van Hulle: Blick vom Ende her. In: Peter Dängeli, Simon Zumsteg (Hrsg.): Resümees zum internationalen Workshop „Digitale genetische Editionen (in der Praxis)“. Bern 2014, S. 15; http://lokalbericht.unibe.ch/hermann_burger/pdf/Resuemees.pdf.

268

Peter Dängeli / Magnus Wieland / Simon Zumsteg

Perspektive näher einzugehen, sei im Folgenden zunächst der Text Lokalbericht vorgestellt – und also seine spezifische Puzzle-Poetologie dargelegt, wie sie sich eben auch in makrogenetischer Perspektive spiegelt. Ausgehend von diesem Befund, soll der Terminus ‚Makrogenese‘ eingeführt und diskutiert werden, um im Anschluss die entsprechende Modulierung der digitalen Edition mit ihren technischen Lösungen aufzuzeigen.

Hermann Burgers Lokalbericht Da es sich bei Lokalbericht, wie erwähnt, um keinen kanonisierten Text handelt und deshalb seine Kenntnis nicht vorausgesetzt werden kann, ist es unumgänglich, vorweg ein paar Worte über seinen Inhalt zu verlieren. Eine kurze Rekapitulation des Textes ist auch deshalb notwendig, weil er seine eigene Kompositionsweise, deren Nachvollzug die digitale Edition leisten will, verschiedentlich metapoetisch reflektiert. 10 Hermann Burger schrieb Lokalbericht im Sommer 1970 nieder, meist während eines Urlaubs im Calascino sopra Gadero im Tessin. Die eigentliche Entstehungszeit reicht jedoch weiter zurück: fast zehn Jahre bis zu den ersten Entwürfen der Erzählung Die Illusion, die Burger schließlich als Binnengeschichte in Lokalbericht integriert. Das fertige Typoskript, das Burger aus dem Urlaub heimbrachte und das im Rahmen des Projekts als Grundlage für das parallel zur digitalen Edition erschienene Buch diente, umfasst 178 Seiten und ist in drei Teile unterteilt. Der erste, 90 Seiten umfassende Teil bleibt titellos, der zweite (83 Seiten umfassend) ist mit „Das Fest oder die sogenannte Wirklichkeit“ überschrieben und der letzte, mit vier Seiten vergleichsweise kurze Teil lautet: „Und der Stil hält sich weiterhin versteckt“. Die Geschichte dreht sich um den Germanisten Günter Frischknecht, der aufgrund einer scherzhaften Bemerkung seines Doktorvaters auf die Idee verfällt, den Roman, über den er promovieren will, gleich selbst zu schreiben. Als Titel wählt er: Lokalbericht. Ein Wort, das aus der Publizistik stammt und dort jenes Ressort bezeichnet, das sich dem örtlichen Geschehen widmet. Denn einerseits will Frischknecht – sein Vorname Günter ist daher (wie im Übrigen auch sein Nachname) keineswegs zufällig – auf der Folie von Günter Grass’ Die Blechtrommel einen Kleinstadtroman über Aarau verfassen; zugleich will er dabei dem Lokalredaktor Barzel nacheifern, der in seinen Augen nichts anderes als ein Universalschriftsteller ist: Lokalredaktor zu sein ist ein wundervoller Beruf. Ich möchte ein ganzes Leben lang Ferien haben, um ein ganzes Leben lang auf die Lokalseite einer städtischen Tageszeitung angewiesen zu sein. […] Der Lokalredaktor Barzel ist in meinen Augen der glücklichste, weil unbewussteste Schriftsteller der Welt. Er trägt ein riesiges Mosaik aus kleinsten, buntesten Steinchen zusammen, ohne an die Illusion eines Gesamtplanes zu glauben. 11

–––––––– 10 11

Für eine ausführliche Darstellung der Entstehungsgeschichte des Romans sowie seiner zeithistorischen Situierung siehe das Nachwort von Simon Zumsteg in Burger 2016 (Anm. 5), S. 257–304. Ebd., S. 104.

Digitale Edition von Hermann Burgers Lokalbericht

269

Dem Kleinstadtleben und seinen Protagonisten ist der erste, satirisch grundierte Teil von Lokalbericht gewidmet, der zugleich zentrale poetologische Stellen enthält wie das eben zitierte Lob der Lokalzeitung. Auf sie wird noch zurückzukommen sein. Die geplante Kleinstadtposse wandelt sich im zweiten Teil, der als Roman im Roman das Manuskript von Günter Frischknecht enthält, in ein Kleinstadtdrama um die Liebesund Existenznöte des jungen Frischknecht, der sich während einer tiefen Krise zu den Schaubuden eines Jahrmarkts begibt und dort im Zelt eines Illusionskünstlers den realen Boden unter den Füßen verliert. Die Vorstellung des Magiers steigert sich ins Phantasmagorische, bis beim Grande Finale aus dem Körper der zersägten Frau ein Modell der Stadt Aarau zum Vorschein kommt, in dem sich in verkleinerter Form auch das Illusionstheater vorfindet, in dem wiederum ein Miniaturmodell der Stadt ersichtlich ist, wo sich die ganze Geschichte wiederholt. Diese Form der Verschachtelung ist für die Poetologie des Textes ebenso entscheidend wie die mosaikartige Zeitungsstruktur. Der dritte Teil endet mit dem Besuch beim Literaturkritiker Felix Neidthammer, dem Frischknecht seinen Prosaversuch zur Begutachtung vorlegt. Nachdem der Kritiker in einem längeren Referat Schildknechts Elaborat nach allen Regeln der Kritikerkunst analysiert und zerpflückt hat, gibt er dem Schriftstellerkandidaten zum Schluss noch folgenden Ratschlag mit auf den Weg: Wenn Sie mich schon fragen, lieber Günter Frischknecht, ich würde diesen Roman nicht schreiben, vorläufig nicht. Unsere Leute in der Literatur können vor allem eines nicht: warten. Geben Sie sich doch die Chance, älter, reifer zu werden. Lassen Sie das Manuskript liegen, ein Jahr, zwei Jahre, zehn Jahre.12

Mit diesen Worten endet der Roman Lokalbericht, die dessen Schicksal in einer Art self-fulfilling prophecy bereits vorwegnehmen: Burgers Manuskript ist in der Tat liegen geblieben, sogar über zehn Jahre. Einzelne Kapitel hat er später zwar veröffentlicht, auf das gesamte Projekt ist er jedoch zeitlebens nicht mehr zurückgekommen: Lokalbericht blieb in der Schublade. Dafür lassen sich mehrere Gründe anführen: Zunächst deuten die Vorbehalte, die Burger dem Kritiker Neidthammer in den Mund legt, unmissverständlich darauf hin, dass er sich sehr wohl darüber im Klaren war, dass sein überbordender „Universalroman“13 zu stark gegen die marktfähige Durchschnittsliteratur verstößt. Neben aller Sprachbrillanz fehlte Burger noch die richtige Form sowie ein tragfähiger Stoff. Paradoxerweiser entdeckt er diesen aber während der Arbeit an Lokalbericht mit dem Kapitel „Angst vor dem Lehrersein“,14 das den Lehrerroman Schilten antizipiert, mit dem Burger 1976 für Aufmerksamkeit sorgen wird. Ein Grund, weshalb Burger Lokalbericht nicht zu Ende geführt hat, könnte deshalb ferner sein, dass er mit Schilten zu einer neuen, überzeugenderen Prosaform gefunden hat. Schließlich ist auch zu bedenken, dass es sich bei Lokalbericht um einen Schlüsselroman handelt und viele Figuren aus dem Aarauer Stadtleben, aber auch aus dem

–––––––– 12 13 14

Burger 2016 (Anm. 5), S. 228. So charakterisiert Hermann Burger das Projekt gegenüber seinem Doktorvater Emil Staiger im Brief vom 4. November 1971; zit. n. Simon Zumsteg: Kommentar. In: ebd., S. 276. Darauf deutet der Befund hin, dass das entsprechende Kapitel nicht mehr im Konvolut zum Lokalbericht lag, sondern als Textbaustein daraus entfernt wurde.

270

Peter Dängeli / Magnus Wieland / Simon Zumsteg

Zürcher Universitätsbetrieb leicht dechiffrierbar und nicht immer sehr schmeichelhaft dargestellt sind, so dass eine Publikation sehr wahrscheinlich einen Skandal provoziert hätte, was der junge Doktorand Burger wohl auch aus Karriere-Gründen letztlich nicht riskieren wollte. Wie schon aus dieser kurzen Übersicht hervorgeht, schillert Lokalbericht gattungstypologisch in vielen Facetten. Handelt es sich um einen Lehrerroman, insofern Frischknecht sich mit seinem Brotberuf schwertut? Oder um einen Künstlerroman, insofern die innerseelische und lebensweltliche Entwicklung eines Schriftstellers dargestellt wird? Oder um einen Campusroman, insofern die Gepflogenheiten an der Universität wiederholt eine Rolle spielen? Oder um eine Autofiktion, insofern Frischknecht ein gerüttelt Maß an Eigenschaften mit seinem Erfinder teilt? Man kann diese Fragen mit der gebotenen Vorsicht alle mit Ja beantworten und denselben – vom Ende her gesehen – sogar noch weitere hinzugesellen: also ein Presseroman, insofern darin die lokaljournalistische Praxis prominentes Thema ist? Oder – wie Burger seinen Text selbst deklariert – ein Kleinstadtroman, insofern besonders der zweite Teil, der eigentliche Lokalbericht in Lokalbericht, von den Geschehnissen in einer kleinen Schweizer Stadt erzählt? All dessen ungeachtet ist der Text jedoch vor allem eines: ein Metaroman, ein Roman über den Roman und das Roman-Schreiben, in dem die eigenen Entstehungsumstände in verschiedener Hinsicht wieder und wieder thematisiert werden. Neben der bereits erwähnten Szene beim Literaturkritiker Neidthammer, welche die Nichtveröffentlichung zum Thema hat, sind diesbezüglich vor allem zu nennen: –



Schreibmaschine und Schreibmaschinenwechsel: Hermann Burger schrieb Lokalbericht auf vier verschiedenen Schreibmaschinen. Blatt 1 und 2 sind auf einer Underwood Universal getippt; Blatt 3 bis 10 (obere Hälfte) mit einer Olivetti (Schriftart: Pica). Ab Blatt 10 kam eine Hermes Media 3 zum Einsatz und die Binnenerzählung Die Illusion ist auf einer Olivetta Lettera 22 geschrieben. Diese Wechsel des Schreibinstruments im Schreibprozess werden im geschriebenen Text auch thematisiert. Lokalbericht ist demnach ein Schreibmaschinenroman durch und durch: nicht nur ein Erzeugnis aus der Ära der Typoskripte, sondern auch eines über diese Zeit. Montageprinzip: An den Schreibmaschinenwechseln ist mitunter auch erkennbar, wo Burger frühere Texte in Lokalbericht einmontiert hat. Was Frischknecht an der Zeitung lobt: dass sie ein Mosaik vieler Einzeltexte sei, gilt bis zu einem gewissen Grad auch für Lokalbericht selbst, der nicht von ungefähr so heißt. Er ist nach einem Puzzleprinzip aus früheren Texten zusammengesetzt, wie Burger es in einer Arbeitsnotiz im zeitlichen Umfeld der Niederschrift vermerkt: „Das Romanhandwerk ist ein Puzzle-Spiel, man beginnt mit dem Anfertigen kleiner Einzelteile, malt ein paar gelungene Details, ohne auch nur eine Ahnung vom Ganzen zu haben.“ 15

–––––––– 15

Hermann Burger: Romanhandwerk [s. d.]; SLA, NL Burger, Sign. A-01-a; siehe: www.lokalbericht.ch/ AT.ROMANHAND0.0010-d.

Digitale Edition von Hermann Burgers Lokalbericht



271

Zeitungsästhetik: Zu den einmontierten Texten zählen nicht nur eigene, Burger hat auch etliche (v. a. lokalkoloristische) Versatzstücke der Zeitung entnommen, genauer aus den Lokalseiten des Aargauer Tagblattes, das er zusammen mit einer Wochenendbeilage über das örtliche Jugendfest (das im Roman eine wichtige Rolle spielt) mit ins Tessin nahm.

Alle genannten Aspekte sind ein wesentlicher Teil der Textästhetik von Lokalbericht und müssen als solche für den Leser, die Leserin in einer Edition nachvollziehbar sein, sollen die metapoetischen Pointen nicht verloren gehen.

Makrogenese Hiermit erklärt sich nun die eingangs aufgeworfenen Frage, weshalb neben der Buchpublikation eine digitale Edition von Lokalbericht angestrebt wurde, obwohl das weitgehend aus Typoskripten bestehende Quellenmaterial wenig textgenetische Spuren aufweist: Entscheidend für die Genese des Textes – und, wie eben ausgeführt, über die Genese hinaus auch für seine strukturelle und poetologische Beschaffenheit – sind weniger die kleinen Modifikationen, sondern die großen Zusammenhänge, das heißt: die Interrelationen der Mosaiksteinchen im gesamten Kompositions- und Montageverfahren. Für diesen zentralen Aspekt der Edition wurde der Terminus ‚Makrogenese‘ gewählt. Weder ist der Begriff im editorischen Bereich besonders ausgeprägt, noch herrscht eine „konsensuelle Terminologie“ über seine Verwendung.16 Deshalb scheinen ein paar Ausführungen zum projektspezifischen Verständnis von ‚Makrogenese‘ lohnenswert. In einem allgemeinen definitorischen Versuch unterscheiden Pierre-Marc de Biasi und Ingrid Wassenaar die makrogenetische Analyse wie folgt von der mikrogenetischen: Microgenetic analysis, which sets up and interprets the total compositional development of a short textual fragment, stands in contrast to macrogenetic research, which looks at one or several complete collections of genetic documentation, studying large-scale phenomena. 17

So weit, so gut. Aus editionsphilologischer Sicht jedoch stellen sich eine Reihe von Folgefragen, gerade wenn definiert werden soll, worauf sich der Skopus der Makrogenese eigentlich bezieht. So kann „Makrogenese z.T. archivalisch (Existenz von mind. zwei Textträgern und Relation von deren Texten zueinander), z. T. semantischinhaltlich (Motiv-/Stoffentwicklungen) gefasst“ werden.18 Zudem stellt sich, nach der makrogenetischen Konzeptualisierung, in einem zweiten Schritt die Frage nach der

–––––––– 16 17 18

Thomas Burch [u. a.]: Text[ge]schichten. In: Krüger [u. a.] 2016 (Anm. 4), S. 89. Pierre-Marc de Biasi, Ingrid Wassenaar: What is a Literary Draft? Toward a Functional Typology of Genetic Documentation. In: Yale French Studies 89, 1996, S. 26–58, hier S. 27. Wolfgang Lukas, Vivien Friedrich: Arthur Schnitzler digital – Text[ge]schichten …. In: Dängeli, Zumsteg 2014 (Anm. 9), S. 12.

272

Peter Dängeli / Magnus Wieland / Simon Zumsteg

geeigneten „représentation éditoriale“. 19 Denn die Wahl einer bestimmten Visualisierung dessen, was man zeigen will, hat Konsequenzen für das Encoding der zu edierenden Texte. Im Rahmen des Editionsprojekts wurde zu diesem Zweck ein internationaler Workshop über den Umgang mit makrogenetischen Informationen in digitalen genetischen Editionen veranstaltet, aus dem sich nachfolgende Überlegungen auch mehrheitlich speisen. 20 Der Begriff ‚Makrogenese‘ diente dabei (heuristisch) als Bezeichnung von Änderungen, die zwischen Textträgern erfolgen – sich somit, anders bei der ‚Mikrogenese‘, nicht auf einem Textträger manifestieren, sondern gleichsam virtuell zwischen den Textstufen. Zum Beispiel, wenn Textbausteine kopiert und modifiziert oder gar von A nach B verschoben und an andere Textelemente angeschlossen werden. Hintergrund dieses Leitinteresses war die konkrete materielle Beschaffenheit unseres Textkorpus. Während nämlich die TEI Manuscript SIG für die Codierung mikrogenetischer Phänomene bereits Lösungen erarbeitet hat, derer wir uns bedienten, existieren solche Lösungsvorschläge für makrogenetische Belange, wie sie unserem Material eigen sind, noch nicht. Von daher also unser Interesse daran, wie andere Projekte (mit ähnlicher Ausgangslage) mit diesen Fragen, die nicht zuletzt auch auf die Art und Weise der Visualisierung ausgreifen, umgehen. Eine der zentralen Erkenntnisse des Workshops war es, zwischen einer materiellen und einer abstrakten Dimension von Makrogenese zu unterscheiden, wie es von Ulrike Henny, Franz Fischer und Patrick Sahle vorgeschlagen wurde: Es wären dann zwei Dimensionen zu unterscheiden: auf der einen Seite die materielle Dimension (das Geschriebene, Seite/Blatt, Einzeldokument, getrennte Dokumente) und auf der anderen Seite die abstrakte Werkdimension (Werkidee, Werkstruktur, Werkbestandteile, Sätze, Formulierungen, Wörter). Mikro- und Makrogenese in der materiellen Dimension würden dann Änderungen beschreiben, die entweder auf einem Dokument oder zwischen Dokumenten vorgenommen wurden, während Mikro- und Makrogenese in der abstrakten Dimension von Text und Werk den Textbestand, die Werkstruktur und das Werkkonzept betreffen würden. 21

In Burgers Lokalbericht treten tatsächlich beide Phänomene auf: Aufgrund des Montageprinzips, das frühere ‚Werke‘ bzw. ‚Werkeinheiten‘ in das neue Werk integriert, liegt eine abstrakte Form der Makrogenese vor, wie sie in Umstrukturierung und Rearrangement bestehender Textsegmente ersichtlich wird. Auffälligstes Beispiel ist diesbezüglich, wie die frühere Erzählung Die Illusion als Binnengeschichte in Lokalbericht integriert und damit auch konzeptuell neu ausgerichtet wird. Da solche Übernahmen, gerade im Fall von Die Illusion, tatsächlich auch physisch vom Autor vorgenommen wurden, indem Blätter entfernt, neu paginiert und andernorts wieder eingeschoben wurden, liegt zugleich auch eine Makrogenese in materieller Hinsicht vor, und zwar nicht allein in Bezug auf die Interrelation zwischen zwei Dokumenten, sondern gerade auch

–––––––– 19 20 21

Bénédicte Vauthier: Retour d’expérience. In: ebd., S. 16. http://lokalbericht.unibe.ch/hermann_burger/workshops.html. Ulrike Henny, Franz Fischer, Patrick Sahle. In: Dängeli, Zumsteg 2014 (Anm. 9), S. 9–11, hier S. 10.

Digitale Edition von Hermann Burgers Lokalbericht

273

hinsichtlich ‚wandernder‘ Dokumente, die eigentlich zwei verschiedenen Textkonvoluten angehören: dem früheren (Die Illusion), dem sie entnommen worden sind, und dem späteren (Lokalbericht), dem sie einverleibt wurden. Darstellungstechnisch stellte diese kombinierte Form von materieller und abstrakter Makrogenese eine nicht geringe Herausforderung dar, gilt es doch gleichsam mit virtuellen Platzhaltern zu arbeiten, um ein und dasselbe Blatt an unterschiedlichen Orten und in unterschiedlichen Bearbeitungsstadien zu relationieren. Deutlich weniger Probleme verschaffen hingegen Fälle von einfacher materieller Makrogenese zwischen zwei Dokumenten bzw. zwischen Abschnitten oder Sätzen auf verschiedenen Dokumenten, wobei hier als Schwierigkeit allenfalls die Entscheidung auftreten kann, an welcher Texteinheit genau die Bezugslogik festgemacht werden soll. Sind es erkennbare Wort- oder Satzwiederholungen oder zählen auch Phänomene semantischer/motivischer Identität oder Ähnlichkeit dazu? Um zwei signifikante Beispiele zu nennen: Das Bild vom ‚hohlen Zahn‘, das symbolisch für die Mise-enabyme-Struktur des Textes steht, wiederholt sich seit den ersten Entwürfen in gleichlautender Wortwahl immer wieder und stellt entsprechend einen eindeutigen makrogenetischen Bezug im Sinne einer Inter-Dokument-Relation dar. Hingegen gibt es in den ‚avant-textes‘ von Lokalbericht drei inhaltlich sehr verschiedene Entwürfe, die lediglich über den identischen Titel „Geschichten, die das Leben schreibt“ miteinander in Beziehung stehen – eine Formel, die auch in Lokalbericht wieder auftaucht. Obwohl inhaltlich keine genetische Entwicklung erkennbar ist, weil unter den Geschichten kein konkreter Zusammenhang vorliegt, sind die Texte doch makrogenetisch relevant. Denn sie veranschaulichen die Puzzle-Logik der Werkgenese, wie sie Burger im bereits zitierten Auszug über das Roman-Handwerk beschreibt, woraus deutlich wird, dass im Schreibprozess auch Textteile anfallen, die liegen bleiben oder später keine Verwendung finden. Gerade hierin liegt unseres Erachtens der Mehrwert einer makrogenetischen Perspektive, geraten mit ihr doch auch Dokumente und Texteinheiten in den Blick, die sich einer streng teleologischen Sichtweise entziehen, welche sich vornehmlich auf die lineare Entwicklung eines Textes von ersten Entwürfen bis zum fertigen Buch konzentriert. Diese Sichtweise schließt all jene Textzeugen aus, die von der Werkwerdung abweichen, all die Fäden, die nicht weitergesponnen werden, all die losen Enden, die im Nirgendwo ausfransen – oder eben alle Puzzle-Teile, für die später keine Verwendung (mehr) war. Editorisch gilt es somit der falschen Vorstellung zu begegnen, der Autor hätte von Anbeginn sein Ziel vor Augen gehabt, das sich dann als finales Produkt realisiert, was bei Lokalbericht keineswegs der Fall war. Im Gegenteil: Was als Plan zu einem größeren Prosawerk namens Die Illusion begann, führte über mehrere Nebenwege zu einem vollkommen anders gearteten Roman, in dem Die Illusion ein dafür ursprünglich gar nicht vorgesehener Baustein darstellt. Die Makrogenese von Lokalbericht lässt diese verschlungene Suche nach dem großen Roman mitsamt ihren Irrläufern nachvollziehen: Wie gelangt ein Autor von einzelnen Aufzeichnungen zum großen Ganzen, ohne es bereits von Anbeginn vor Augen zu haben? Eine auch visuell nachvollziehbare Antwort auf diese Frage will die digitale Edition von Lokalbericht bieten.

274

Peter Dängeli / Magnus Wieland / Simon Zumsteg

Diesen Wert einer Perspektivierung auf die Makrogenese erkannte im Nachgang zum Workshop insbesondere auch Hans Walter Gabler: Der Workshop hat mir zu der Erkenntnis verholfen, dass eine digitale genetische Edition ihr Potential erst ausmisst mit der Erfassung und Visualisierung des ‚Makrogenetischen‘. Dies setzt in der Editionsaufbereitung die Erfassung, Analyse und kritische Einordnung des Textlichen voraus, abstrahiert sich in der Darstellung jedoch auf das Schematische: auf Tabellen, Graphiken, Schemata etc. Dies kann die Form von flächigen Verschiebungen von eingefärbten Seitendigitalisaten annehmen, wie bei der Burger ‚Lokalbericht‘-Edition. 22

Die digitale Edition Die digitale Edition von Hermann Burgers Lokalbericht entstand im Rahmen eines vom Schweizerischen Nationalfonds geförderten Forschungsprojekts unter der Leitung von Frau PD Dr. Irmgard Wirtz in Kooperation des Schweizerischen Literaturarchivs (SLA) mit dem Cologne Center for eHumanities (CCeH). Die offizielle Laufzeit betrug 36 Monate, was gemessen am Anspruch eine vergleichsweise kurze Zeitspanne war. Für nähere Informationen siehe die Projektwebseite der Universität Bern: www.lokal bericht.unibe.ch; für die Konsultation der Online-Edition die Webseite der Beta-Version: www.lokalbericht.ch. Zur Erarbeitung der digitalen Edition lag es zu Projektbeginn nahe, auf die aktuellen Entwicklungen der TEI-Guidelines aufzubauen und bestehende, teilweise ihrerseits noch in Entwicklung begriffene, dokumentnahe Editionsvorhaben zur Orientierung heranzuziehen. Die TEI-Guidelines hatten mit Version P5 1.0 im November 2007 eine Erweiterung des Tagsets zur Repräsentation von Primärquellen erfahren ( , , ),23 die mit Version 2.0 im Dezember 2011, basierend auf Vorarbeiten einer Arbeitsgruppe für genetische Editionen, noch einmal maßgeblich erweitert wurde. Diese Erweiterung umfasste insbesondere die Möglichkeit einer „embedded transcription“, 24 d. h. die Erfassung einer Transkription nach der physischen Textanordnung auf dem Textträger (im Rahmen eines Elements und darunter der zeilentreuen Erfassung des Texts in mit ). Beispielhafte frühe Umsetzungen fanden sich in Pierazzos und Andrés experimentellem Proust-Prototyp, 25 in dem diese Transkription mit der vermuteten Schreibsequenz verknüpft ist, und in den Encodings des Shelley-Godwin-Archive.26 Für die insgesamt nicht sehr zahlreichen, aber zuweilen doch auch mehrschichtigen textgenetischen

–––––––– 22 23

24 25

26

Hans Walter Gabler. In: Dängeli, Zumsteg 2014 (Anm. 9), S. 5–6, hier S. 6. Lou Burnard und Syd Bauman: Ch. 11, Representation of Primary Sources. In: The TEI Guidelines, v1.0, o. O. 2007, S. 331–369; www.tei-c.org/Vault/P5/1.0.1/doc/tei-p5-doc/en/Guidelines.pdf (Abruf 10.08.2018). TEI Consortium: Ch. 11.2.2, Embedded Transcription. In: TEI Guidelines, v. 2.0, Charlottesville VA 2011, S. 337–340; www.tei-c.org/Vault/P5/2.0.0/doc/tei-p5-doc/en/Guidelines.pdf (Abruf 10.08.2018). Elena Pierazzo und Julie André: Autour d’une séquence et des notes du Cahier 46: enjeu du codage dans les brouillons de Proust. In: Genesis 36, 2013, S. 155–161; https://journals.openedition.org/genesis/1159 und http://research.cch.kcl.ac.uk/proust_prototype (Abrufe am 10.08.2018). Elizabeth C. Denlinger, Neil Fraistat: The Shelley-Godwin Archive. o. O. 2013; http://shelleygodwin archive.org/ (Abruf am 10.08.2018).

Digitale Edition von Hermann Burgers Lokalbericht

275

Phänomene der Lokalbericht-Typoskripte ließen sich daran anschließend auf mikrogenetischer Ebene tragfähige Lösungen finden. Die Abwägung zwischen einem parallel laufenden dokument- und textzentrischen Encoding und dem integrierenden Ansatz des ‚embedded encoding‘ fiel zugunsten des Letzteren aus: die Typoskriptseiten wurden dokumentnah transkribiert und die textlogischen Einheiten in diesen Encodings durch Meilensteinelemente markiert. 27 Aus solchen Dateien ließen sich transformativ sowohl dokumentnahe Fassungen als auch ein Lesetext generieren (der auch der Druckausgabe zugrunde gelegt wurde). Zur Aufzeichnung makrogenetischer Phänomene und zugleich zur Referenzierung von Entitäten (Personen, Orte, Werke) wurde dieses Modell um einen Stand-offMechanismus erweitert, mit dem sich beliebige Textpassagen untereinander bzw. mit einer Entität in Bezug setzen lassen. Erklärt sei dies an einer Textstelle im Typoskript Dichtung eines Unbekannten I (1960/61), Bl. 1 verso, und der dortigen Nennung des fiktiven Ortes „N.“: –

In den Text eingesetzte Anker ...



nach N. hinausgegangen werden über ihr xml:id-Attribut in einer zunächst

untereinander ...





und darüber dann in einer mit einer Entität – hier der fiktiven Ört-

lichkeit N. – oder einer anderen Textstelle in Bezug gebracht



Dieses Prinzip der Adressierung einzelner Textstellen (), die sich zu Passagen verbinden (, ) und sich als solche ihrerseits adressieren beziehungsweise in einen bestimmten Bezug setzen lassen (, ), gab den

–––––––– 27

Solche Meilensteinelemente sind ein erprobtes Vorgehen, um einer viel-diskutierten Schwäche des TEIModells und der eng damit verwandten Datenformate SGML und XML zu begegnen, nämlich der Konzeption des Textes als einer Folge strikt hierarchisierbarer Inhaltselemente (OHCO-These, vgl. dazu zusammenfassend Patrick Sahle: Digitale Editionsformen. Textbegriffe und Recodierung, Bd. 3. Norderstedt 2013 [Schriften des IDE. 9], S. 156–183 und Paul Caton: Markup’s Current Imbalance. In: Markup Languages – Theory and Practice 3/1, 2000, S. 1–13). Durch Meilensteinelemente lassen sich parallele Hierarchien in Dokumente einbetten und die Dokumente bei Bedarf entlang dieser Parallel-Hierarchien interpretieren.

276

Peter Dängeli / Magnus Wieland / Simon Zumsteg

Editoren ein sehr flexibles Werkzeug an die Hand. Wie hat sich dieses aber in der Anwendung bewährt? In der Praxis kollidierte das Textencoding in der ursprünglich vorgesehenen Tiefe28 einerseits mit der hohen Arbeitsbelastung – der Editionsworkflow umfasste neben der Korpusdefinition die OCR-Texterfassung mit Korrektur und Transformation in ein XML-Ausgangsformat, die mikrogenetische Auszeichnung und die Verknüpfung der Entitätsreferenzen; das Korpus erfuhr zudem im Projektverlauf einen beträchtlichen Zuwachs – und andererseits mit methodisch-theoretischen Problemen. Die Definition trennscharfer textgenetischer Bezugskategorien erwies sich als sehr anspruchsvoll, sowohl was die editorische Arbeit, aber auch ihre Kommunikation an die Nutzer und Nutzerinnen und damit die Nachvollziehbarkeit der genetischen Kategorien betraf. Dass dem gewählten technischen Ansatz bewusst keine editorischen Leitlinien zugrunde lagen und er jedwede Granularität der Bezugsanlage erlaubte, erleichterte diesen Prozess nicht. Angeregt durch Burgers Arbeitsweise, die häufig Durchschläge und Kopien von Typoskriptseiten und in manchen Fällen auch die physische Montage solcher Seiten aus einem Kontext in einen anderen umfasste, aber zugegebenermaßen auch unter dem Druck der zeitlichen Leistbarkeit, entschieden wir uns dafür, das einzelne Typoskriptblatt zur zentralen Einheit der Erhebung makrogenetischer Bezüge zu machen. Die Charakterisierung solcher Bezüge wurde semantisch bewusst schwach gefasst und sie lässt sich umschreiben als „A weist einen von den Editoren als textgenetisch relevant eingestuften Bezug zu B auf“. Die textgenetische Verwandtschaft verschiedener Textträger wurde demnach wie folgt lediglich mit Bezugnahme auf den Identifikator auf der Ebene des Textträgers () und anders als im obigen Beispiel nicht der Ebene bestimmter Zonen und Zeilen formalisiert:

[…]

Dieser Auszug besagt, dass die zweite, dritte und vierte Seite ( ) des Typoskripts Dichtung eines Unbekannten II (1966/67) einen textgenetischen Bezug zum ersten Blatt verso des Typoskripts Dichtung eines Unbekannten I (1960/61) aufweist, und die zweite Seite ihrerseits auf zwei anderen Seiten weiterverarbeitet wurde: Gang im Nachmittag, zweite und dritte Seite (um 1967).

Struktur und Funktionalitäten Die digitale Edition soll es den Nutzern und Nutzerinnen ermöglichen, sowohl die Textgenese von Lokalbericht nachzuvollziehen als auch sich mit dem Material aus den verschiedenen Phasen des Schreibprozesses im Einzelnen zu beschäftigen. 29 Die Edition umfasst daher neben dem Lokalbericht-Typoskript auch hand- und vor allem maschinenschriftliche Fassungen und Vorstufen inkl. Durchschläge und Kopien (avanttextes), Briefe, Lebensdokumente, Prätexte und Teilabdrucke (Epitexte) sowie graphische Skizzen und Aufbewahrungsmäppchen (Peritexte). Das Romantyposkript und seine avant-textes werden auf vier Ebenen präsentiert, die sich wahlweise synoptisch betrachten lassen: 1. hochauflösendes Digitalisat; 2. diplomatische Transkription, d. h. die Umschrift aller Texte inklusive mikrogenetischer Varianz; 3. Lesefassung, d. h. die (stellenweise emendierte) Umschrift aller Texte ohne mikrogenetische Varianz; 4. Metadaten (zum jeweiligen Text). 30 Die Transkriptionen sind durchsuchbar und mit Registereinträgen verknüpft, für den dritten Teil sind exemplarisch auch Stellenkommentare abrufbar. Personen-, Orts- und Werksregister verweisen stellengenau auf die jeweiligen Vorkommen in den edierten Texten.31 Genetisch verwandte Textträger lassen sich für die jeweils angezeigten Textträger in der synoptischen Ansicht über eine Navigationsleiste ansteuern, wodurch sich das Zieltranskript zum direkten Vergleich neben das Ausgangstranskript laden lässt. Weil eine derartige Navigation die (makro-)genetischen Lektürepfade nur immer punktuell mit Bezug auf den jeweils betrachteten Textträger zu vermitteln vermag und die drucknahe stemmatische Ansicht 32 im Gegensatz dazu nur Einflüsse zwischen größeren Texteinheiten verdeutlicht, suchten wir nach einer aussagekräftigen Lösung auf mittlerer Stufe. Resultat dieser Suche ist eine interaktive Korpusvisualisierung. 33 Diese Visualisierung bildet jeden Textträger als farbiges Kreissymbol auf einer vertikal verlaufenden

–––––––– 29 30 31 32 33

Diese Beschreibung bezieht sich auf die im Oktober 2016 veröffentlichte Beta-Version, vgl. http:// www.lokalbericht.ch/beta. Beispiel: www.lokalbericht.ch/LB.TEIL1.0010-d. Vgl. www.lokalbericht.ch/personen/, www.lokalbericht.ch/koerperschaften/, www.lokalbericht.ch/orte/, www.lokalbericht.ch/werke/. www.lokalbericht.ch/dossier. www.lokalbericht.ch/dossier, Reiter „Interaktiv“ – Ausführlicher zur Korpusvisualisierung: Peter Daengeli, Christian Theisen, Magnus Wieland und Simon Zumsteg: Visualizing the Gradual Production

278

Peter Dängeli / Magnus Wieland / Simon Zumsteg

chronologischen Achse ab. Dabei sind sie in ihrem jeweiligen Entstehungs- und Überlieferungskontext so angeordnet, dass die einzelnen Texte als horizontale Reihung von Kreissymbolen erkennbar sind. Vom dreiteiligen Romantyposkript, das als Punktfolge auf der Zeitschicht um 1970 in blauer Farbe wiedergegeben ist, heben sich die avanttextes in Orange bzw. dessen interessantester Bestandteil des ‚Illusionskomplexes‘ in Gelb, die Teilabdrucke in Rot und die graphischen Skizzen und Listen in Schwarz ab. Grau angedeutete Linien verbinden manche dieser Punkte miteinander; es handelt sich dabei um die durch die Editoren definierten genetischen Beziehungen, die sich interaktiv hervorheben lassen. Direkte Verbindungen zweier Punkte werden dabei rot hervorgehoben, mittelbare, zur gleichen genetischen Relation gehörende Verbindungen orange. Durch Bewegen der Maus lässt sich leicht erfahren, dass beispielsweise Textträger der frühesten Fassung von Dichtung eines Unbekannten (1960/61) in erheblichen Umfang in die nächste Fassung dieses Texts eingingen (1966/67), von wo sie sich über zwei Zwischenstufen auch im zweiten Teil des Romantyposkripts niederschlugen (vgl. dazu wieder das letzte Codebeispiel, das in einer anderen Serialisierung auch der Visualisierung zugrunde liegt). Erkennbar wird auch, dass Burger die früheren Texte relativ punktuell ins Romantyposkript übernommen hat und weite Teile desselben ohne – zumindest materielle und überlieferte – Vorläufer niedergeschrieben wurden. Was hinter den derart visualisierten Bezügen steckt, lässt sich aus der Gegenüberstellung der jeweiligen Textträger entnehmen, die per Klick auf einen der Textträger und den entsprechenden Verweis im Kontextmenü aufgerufen werden kann. Diese Vogelschau auf das ‚dossier génétique‘, die wahlweise auch die Prätexte und Kontexte (Briefe, Lebensdokumente, Fotos) einzublenden erlaubt und diese zeitlich verortet, dient dadurch als zusätzliches Analyse- und Navigationswerkzeug für die digitale Edition.

Bilanz Während der Präsentation der digitalen Edition zu Lokalbericht auf der Jahrestagung der Digital Humanities im Februar 2017 in Bern twitterte Stefan Münnich: „Haben wir gerade die erste echte digitale Edition gesehen? Beeindruckende Beta-Version von lokalbericht.ch #dhd2017 #v3c“.34 Digitale Editionen sind nichts Neues. Was veranlasste Münnich also, in seinem Tweet die Lokalbericht-Edition als erste „echte“ digitale Edition zu bezeichnen? Und wie ist das Adjektiv ‚echt‘ in diesem Zusammenhang zu verstehen? Dazu abschließend ein paar Überlegungen: Die digitale Edition von Lokalbericht unterscheidet sich, gerade in ihrer makrogenetischen Ausrichtung, von den meisten großen digitalen Editionsprojekten, welche die klassische Buchphilologie mit neuen digitalen Mitteln fortsetzen. Das heißt: Der Schwerpunkt liegt hier nach wie vor auf diplomatischer Transkription und Stellenkommentar, wie man sie von den klassischen Printeditionen her kennt. Abgesehen davon, dass die Resultate digital vorliegen

–––––––– 34

of a Text. In: Digital Humanities 2016: Conference Abstracts. Krakau 2016, S. 767–769; https://web.archive.org/web/20180825213931/ (Abruf am 16.07.2019). https://twitter.com/music_enfanthen/status/832176678222884864 (Abruf am 10.08.2018).

Digitale Edition von Hermann Burgers Lokalbericht

279

und gewisse technische Raffinessen aufweisen, bleiben solche Editionen oft wenig innovativ, insofern sie das Potential digitaler Datenaufbereitung und Datenpräsentation kaum medienadäquat nutzen. Die digitale Komponente dient – als wissenschaftspolitisches Schlagwort der Stunde – lediglich als subsidiäre Technik (d. h. weniger als Leitmedium) und wird der herkömmlichen editorischen Tätigkeit entsprechend eher aufgepfropft. Bei der digitalen Edition von Lokalbericht wurde hingegen eine umgekehrte Herangehensweise versucht, indem die Leistung der Edition von ihren digitalen Möglichkeiten her angedacht wurde. Das heißt: Am Anfang stand kein editionsphilologisches Paradigma im Raum, das bloß digital zu realisieren sei, sondern vielmehr die Ausgangsfrage, welche Erkenntnisse die digitale Aufbereitung des zu edierenden Bestandes erbringen soll. Und eine der zentralen Forderungen war eine dynamische Visualisierung der Makrogenese, die weniger auf diplomatische Umschriften im Kleinen, stattdessen auf die Darstellung größerer Textzusammenhänge und komplexerer Montageverfahren setzt, die auch mit einem klassischen Stemma nicht (oder nur ungenügend) eingefangen werden können. Inwiefern diese Art der Darstellung mit herkömmlichen editorischen Gepflogenheiten bricht, mag an der Reaktion von Almuth Grésillon – „Ist das noch edieren?“ – auf solche Darstellungsverfahren bemessen werden, die Dirk Van Hulle wie folgt kommentiert hat: „The question ‚Ist das noch edieren?‘ was a direct reaction to the observation that many of the concrete suggestions in the presentations were attempts to visualize macrogenetic patterns in schematic ways.“35 Eine digitale Edition wie die zu Lokalbericht erlaubt aufgrund der durch ein sauberes Encoding gewonnenen Datenstruktur analytische Visualisierungen einer Textgenese, die von klassischen editorischen Layouts nicht nur signifikant abweichen, sondern auch weit über die mikrogenetische Perspektive hinausgehen: Die Nahsicht auf das Dokument und seine mikrogenetischen Informationen wird ergänzt durch schematische Darstellungen, wie sich Dokumente und Dokumentgruppen in makrogenetischer Perspektive unterschiedlich zueinander relationieren. Dem Nutzer und der Nutzerin ist es dabei freigestellt, ob sie die Textlandschaft aus der Vogelperspektive überfliegen oder direkt – qua Zoom-Funktion – in die Typotopographie eines bestimmten Dokumentes eintauchen wollen. Strukturell möglich aber wird diese Modularität und Dynamik in der Darstellung allein durch eine digitale und datenbasierte Aufbereitung der Ausgangsquellen. Mit anderen Worten: Die Lokalbericht-Edition kann insofern als erste ‚echte‘ digitale Edition bezeichnet werden, weil sie genuinen Gebrauch digitaler Darstellungsmethoden macht und nicht bloß etablierte editorische Modelle digital adaptiert. Auch wenn sie mit den Faksimiles digitalisierte Elemente enthält, kann die Edition insgesamt doch als digital born gelten, denn sie ist ein Erzeugnis (und nicht bloß die Anwendung) digitaler Technologien. Dabei wird jedoch die Situierung der Edition in ihrer klassischen Rolle, nämlich jener der Vermittlung, keineswegs vergessen. Wenngleich die Grenzen zwischen einer digitalen genetischen Edition und der philologischen Anschlussforschung bisweilen verschwimmen, erachten wir die gewählte Präsentationsform doch als probat, um den –

–––––––– 35

Dirk Van Hulle: Blick vom Ende her. In: Dängeli, Zumsteg 2014 (Anm. 9), S. 15.

280

Peter Dängeli / Magnus Wieland / Simon Zumsteg

in seiner Poetik auf seine eigene Entstehung referierenden – Roman, den Prozess seiner zwischen Schreib- und Lesevorgängen pendelnden Genese und schließlich die Arbeitsweise Hermann Burgers anschaulich zu vermitteln.

Peter Andorfer / Vanessa Hannesschläger

Wenn sich ein digitaler Sturm zusammenbraut TEI markup und seine Verarbeitung: Die Pilotstudie handke-app zu den Textfassungen von Peter Handkes Immer noch Sturm

Einleitung1 Peter Handkes Bühnentext Immer noch Sturm (2010) eignet sich ideal für eine Studie zur Modellierung und Verarbeitung von literaturwissenschaftlichen textgenetischen Daten: Übernimmt man die Einteilung der Textzeugen, wie sie auf der Plattform Handkeonline2 vorgenommen wurde, handelt es sich um fünf Fassungen vor den Druckfahnen (wobei einige Fassungen in weitere Unterstufen [a, b, c etc.] geteilt werden können). Die zahlreichen kleinen und größeren Veränderungen, die Handke von Fassung zu Fassung vornahm, aber auch die vom Autor während der ersten Niederschrift und den Überarbeitungen angefertigten Beiblätter machen den Text zum optimalen Ausgangsmaterial, um die Möglichkeiten und Grenzen der nachhaltigen Codierung textgenetischer Prozesse auszuloten und auf Basis dessen die Verarbeitung und Umsetzung der so generierten Daten zu erproben. In diesem Aufsatz wird mit der handke-app eine Pilotstudie vorgestellt, in der die jeweils erste Seite sämtlicher Textfassungen von Immer noch Sturm transkribiert und mit TEI P5 markup versehen wurde. Das Encoding orientierte sich dabei an konkreten textgenetischen, literaturwissenschaftlichen Fragestellungen, aus denen Anforderungen für eine Web-Applikation abgeleitet werden: Wie können Sofort- von nachträglichen Korrekturen und Überarbeitungen im Zuge der erneuten Niederschrift in der Darstellung unterschieden werden? Wie kann die vorbereitende Lektüre durch den Autor direkt in den edierten Text integriert und in der Applikation dargestellt werden? Wie können seine auf Beiblättern angefertigten Notizen integriert werden? Ziel der Web-Applikation handke-app ist es, den Forschungs- und Analyseprozess dieser textgenetischen Daten zu Handkes Immer noch Sturm bestmöglich zu unterstützen. Neben den annotierten Daten und der Vorstellung der prototypischen handke-app steht in diesem Aufsatz aber auch die Reflexion traditioneller literaturwissenschaftlicher Forschung im digitalen Zeitalter und deren Konsequenzen und Möglichkeiten im Vordergrund. Wir wollen konkret aufzeigen, wie weit technische sowie projektspezifische Rahmenbedingungen die eigentliche literaturwissenschaftliche Forschung prägen.

–––––––– 1

2

Lesen Sie parallel zu vorliegendem Beitrag die handke-app unter http://aau.at/musil/publikationen/text genese/andorfer-hannesschläger/. Vgl. Peter Andorfer, Vanessa Hannesschläger: handke-app. Austrian Centre for Digital Humanities 2017 (https://handke-app.acdh.oeaw.ac.at/) und dies.: acdh-oeaw/handkeapp: First release (Version v1.0). Zenodo 2018 (DOI: http://doi.org/10.5281/zenodo.1195978). Klaus Kastberger, Christoph Kepplinger-Prinz, Katharina Pektor (Hrsg.): Handkeonline. Wien 2015. https://handkeonline.onb.ac.at/.

https://doi.org/10.1515/9783110575996-018

282

Peter Andorfer / Vanessa Hannesschläger

Ausgangsmaterial Immer noch Sturm ist ein formal komplexer Text für die Bühne, in dem der kärntnerslowenische Widerstand gegen den Nationalsozialismus im Zweiten Weltkrieg behandelt wird. Die Figuren sind ein namenloses Ich, das „von der Person des Autors nicht sinnvoll zu unterscheiden“ 3 ist, und seine kärntnerslowenischen Verwandten mütterlicherseits, die auf einer halb aus der „Realzeit“ 4 gefallenen Heide oder Steppe auf dem Kärntner Jaunfeld zusammenfinden. Dieses Stück ist das erste in Peter Handkes zum Zeitpunkt des Erscheinens rund 50-jähriger Schreibkarriere, in dem er sich so explizit und umfassend mit historischen Ereignissen auseinandersetzt. Es ist auch das erste, in dem er so nahe an der eigenen Familienbiographie entlang schreibt (wesentlich näher, als das etwa in Die Wiederholung noch der Fall war), wenngleich noch immer in einer verfremdeten Weise. 5 Auf der formalen Ebene ist das Stück ebenfalls bemerkenswert, da der Autor darin die Arbeit an seinem eigenen Entwurf eines ‚epischen Theaters‘ fortsetzt. Er entwickelt damit eine Gattung weiter, die er nach der Jahrtausendwende mit einigem Selbstbewusstsein endgültig „für sich [reklamierte]“:6 „Episches Theater anders als in dem bekannten, zeigefingerkleinen, dogmatischen Sinn. Erzählerisches Theater, weiträumig, heimholend, märchenfremd und märchenvertraut, wie es mir mehr und mehr vorschwebt als das Theater“.7 Diese Handkesche Interpretation einer Gattung zeichnet sich durch die Verbindung typischer Elemente der antik-griechischen Tragödie mit epischer Erzählung aus der Ich-Perspektive aus.8 Sowohl die inhaltliche als auch die formale Besonderheit von Immer noch Sturm haben ihre Spuren im Werkmaterial Handkes hinterlassen. Die Niederschrift der ersten Textfassung dauerte von 15. Dezember 2008 bis Ende Februar 2009. Bis zur Erstellung der Druckfahnen entstanden bis zum Juli 2010 aufgrund von zahlreichen Überarbeitungen vier weitere Textfassungen (teilweise mit Unter-Fassungen). Zusätzlich zu diesem umfangreichen und zur Gänze überlieferten Material sind auch Beimaterialien erhalten, aus denen sich weitere Details des Arbeitsprozesses ableiten lassen. So kann dank Lektürenotizen Handkes eine umfangreiche Bibliographie von Partisan*innenErinnerungsliteratur rekonstruiert werden, die der Autor las und in sein Werk einarbeitete.9 Sämtliches Werkmaterial zu Immer noch Sturm, das sich erhalten hat, wird im Literaturarchiv Salzburg aufbewahrt.

–––––––– 3 4 5

6 7 8 9

Klaus Kastberger: Lesen und Schreiben. In: Klaus Kastberger, Katharina Pektor (Hrsg.): Die Arbeit des Zuschauers. Peter Handke und das Theater. Wien, Salzburg 2012, S. 35–47, hier S. 44. Peter Handke: Immer noch Sturm. Berlin 2010, S. 13. Vgl. Vanessa Hannesschläger: Real Life Fiction, Historical Form: Peter Handke’s „Storm Still“. In: Lucia Boldrini, Julia Novak (Hrsg.): Experiments in Life-Writing. Intersections of Auto/Biography and Fiction. London 2017 (Palgrave studies in Life-writing. 1), S. 145–165. Katharina Pektor: Arbeiten für das Theater. In: Katharina Pektor (Hrsg.): Peter Handke. Begleitbuch zur Dauerausstellung Stift Griffen. Griffen, Salzburg 2017, S. 170. Peter Handke: Der Hervorrufer Claus Peymann. In: Ders.: Tage und Werke. Begleitschreiben. Berlin 2015, S. 20–22, hier S. 21. Vgl. Pektor 2018 (Anm. 6). Vgl. Vanessa Hannesschläger: „Geschichte: der Teufel in uns, in mir, in dir, in uns allen.“ – Zur Rezeption von Familiengeschichte und Historie in Peter Handkes Immer noch Sturm. Wien 2013 [Dipl. A.].

Wenn sich ein digitaler Sturm zusammenbraut

283

Die skizzierte Situation stellt Edierende vor eine ganze Reihe von Problemen, Detailfragen und notwendigen Entscheidungen. Genau deshalb bot sie eine ausgezeichnete Ausgangslage für die Frage, die zu unserer Arbeit an der handke-app geführt hat. Sie lautet: Was muss eine digitale Edition können, um für Literaturforschende nützlich zu sein? Die Antwort: Sie muss das ganze bereits vorhandene Wissen über den Text abbilden und daraus neues Wissen generieren. „Das ganze“ ist in diesem Kontext jedoch ein relativer Begriff. Abgebildet werden könnte hier, um nur einige Beispiele zu nennen, ein Werkkontext mit dem Stück und seinem Verhältnis zum Handkeschen Gesamtwerk, ein biographischer Kontext mit den Figuren des Stücks und ihrem Verhältnis zu realen Familienmitgliedern Handkes, ein historischer Kontext mit dem Stück und seinem Verhältnis zu historischen Ereignissen und zu den diese dokumentierenden Texten 10 oder ein textgenetischer Kontext mit der Geschichte der Entstehung des Stücks. Die letztgenannte Perspektive bietet sich für das behandelte Stück vor allem aus dem Grund an, dass Informationen und Daten zur Textgenese bereits umfassend erfasst wurden und über die Forschungsplattform Handkeonline verfügbar sind.

Encoding Wenngleich Handkeonline ein wahrer Datenschatz für die Handke-Forschung ist, hat die Plattform doch aus technischer Perspektive einige Nachteile. So gibt es etwa keine (im Verhältnis zum erforderlichen Programmieraufwand stehende) Möglichkeit, zumindest die tabellarischen Daten, die für sämtliches dort erfasstes Werkmaterial Handkes vorliegen, strukturiert zu exportieren und weiterzuverarbeiten. Es war daher einige manuelle Arbeit notwendig. Folgende Informationen ließen sich relativ unkompliziert in strukturierte Daten verwandeln: –



Niederschriften: Peter Handke datiert die Manuskripte seiner ersten Textfassungen seit vielen Jahren akribisch. Jeder einzelne Schreibtag wird im Manuskript neben der an diesem Tag verfassten Passage notiert, oft mit zusätzlichen weiteren Informationen wie dem Schreibort, Notizen zum Wetter etc. Das gilt auch für die erste Fassung von Immer noch Sturm. Auch die folgenden Textfassungen sind in diesem Fall zumeist vom Autor datiert oder lassen sich leicht datieren dank der erhaltenen Beilagen wie der Korrespondenz mit der Schreiberin Gudrun Weidner, die die Fassungen für Handke am Computer abtippte, oder der datierten Listen mit einzuarbeitenden Korrekturen. Beteiligte Personen und Institutionen: Jene Personen und Institutionen, die formal an einer Textfassung beteiligt waren (als Lektor*in, Schreiber*in, Besitzer*in etc.) waren aufgrund der in Handkeonline vorhandenen Dokumentation

–––––––– 10

Vgl. Vanessa Hannesschläger: Peter Handkes „Immer noch Sturm“ und Karel Prušnik-Gašpers „Gämsen auf der Lawine“. In: Lojze Wieser (Hrsg.): Karel Prušnik-Gašper: Gämsen auf der Lawine. Materialien. Celovec 2016, S. 13–18.

284



Peter Andorfer / Vanessa Hannesschläger

problemlos zu erheben und konnten in strukturierten Datensätzen erfasst werden. Orte: Dank der akribischen Dokumentation der Schreiborte in den Manuskripten Handkes und des Forscher*innen-Allgemeinwissens über die beteiligten Personen war die Erhebung und anschließende Geo-Referenzierung der für die Textgenese relevanten Orte unproblematisch.

Hingegen stellten folgende Informationen beträchtliche Herausforderungen an ihre maschinenlesbare Erfassung: –

Lektüreprozesse: Wie erwähnt las sich Handke in Vorbereitung für diesen Text umfassend in die kärntnerslowenische Partisan*innen-Erinnerungsliteratur ein. Das wichtigste und umfangreichste Werk in diesem Kontext, das zwischen Erinnerungsliteratur und historischem Bericht anzusiedeln ist, ist Karel PrušnikGašpers Gemsen auf der Lawine; Handkes dreifache Lektüre dieses Buchs ist exakt datierbar, da sein Leseexemplar mit datierten Lektüre-Annotationen (in verschiedenen Stiftfarben pro Lektüredurchgang) erhalten ist.11 Bei einigen der zahlreichen weiteren Bücher ist die Datenlage schwieriger: Hier haben sich teilweise handschriftliche Zitatsammlungen erhalten, die während der Lektüre entstanden, aber nicht datiert sind, oder wörtliche Zitate aus den Erinnerungsbüchern lassen sich in Handkes Text nachweisen, aber es hat sich kein Material dazu erhalten. Im Fall eines noch nicht publizierten Buches – Lipej Koleniks Von Neuem – hat Handke mit einem Vor-Ausdruck gearbeitet, der annotiert ist, aber nicht datiert, und dem Seiten fehlen. 12 In diesem Fall lässt sich der Zeitpunkt der Lektüre ungefähr herleiten, aber nicht exakt festlegen: So kann Handke den Ausdruck nicht annotiert haben, bevor Kolenik mit der Niederschrift begann (die Information, wann das geschah, fehlt aber), und arbeitete vermutlich damit, bevor das fertige Buch Koleniks 2008 erschien (hätte er erst nach Erscheinen des Buchs mit der Lektüre des Texts begonnen, hätte er wohl das Buch verwendet). Letztere Annahme muss aber Hypothese bleiben, denn rein praktisch könnte Handke auch nach Erscheinen von Koleniks Buch mit einem Vor-Ausdruck gearbeitet haben, entweder weil er die Arbeit damit schon vor dem Erscheinen begonnen hatte und dann die Vorlage nicht wechseln wollte, oder weil er aus unbekannten Gründen nach Erscheinen des Buchs mit dem VorAusdruck zu arbeiten begann. Das ist eines von mehreren möglichen Beispielen

–––––––– 11

12

Karel Prušnik-Gašper: Gemsen auf der Lawine. Der Kärntner Partisanenkampf. Celovec 1980. Diese Ausgabe las und annotierte Peter Handke selbst (vgl. http://handkeonline.onb.ac.at/node/1566). Aktuell lieferbar ist das Buch unter dem Titel Gämsen auf der Lawine. Der Kärntner Partisanenkampf. Celovec 2016. Vgl. http://handkeonline.onb.ac.at/node/1962. Es handelt sich hier um einen Teilausdruck der vermutlich letzten Textfassung vor Drucklegung des Buchs Lipej Kolenik: Von Neuem. Die Kärntner Slowenen unter der britischen Besatzungsmacht nach dem Jahr 1945. Zeitzeugen, Beiträge und Berichte. Mit Aufsätzen von: Brigitte Entner. Avgustin Malle. Aus dem Slowenischen von Metka Wakounig. Celovec 2008.

Wenn sich ein digitaler Sturm zusammenbraut





285

von für die Darstellung der Textgenese substantiellen, von der Forschung nachgewiesenen Informationen, die sich aber aufgrund von Detailfragen nicht in konkrete maschinenlesbare Datensätze gießen lassen. Quellenangaben: Wie die in diesem Aufsatz zitierte Forschungsliteratur zu Handkes Immer noch Sturm zeigt, war die detaillierte Rekonstruktion der Textgenese dieses Bühnenstücks eine wahre Sisyphos-Arbeit, die sich über Jahre erstreckte. Vanessa Hannesschläger beschäftigt sich seit seinem Erscheinen mit Handkes Immer noch Sturm und hat zuerst in ihrer Diplomarbeit, dann in mehreren Aufsätzen 13 und wohl am detailreichsten auf der Plattform Handkeonline über die Entstehung, die Bedeutung und die Querverbindungen des Texts zu anderen Werken Handkes oder anderer Schreibender gearbeitet. Sie war auch die Datenlieferantin für die App, die wir erarbeitet haben. Die Informationen, die zur Erstellung der Daten notwendig waren, wurden daher nicht aus Fremdquellen bezogen, sondern von der Datenerstellerin selbst aus ihrem bereits akkumulierten Wissen zum Thema abgeleitet. Aus diesem Grund wurde auch auf eine zusätzliche Datei, die die bibliographischen Quellen für die in der App verarbeiteten Datensätze anführen würde, verzichtet. Ein weiterer Grund für den Verzicht darauf war der zeitliche Mehraufwand, den die Erstellung einer solchen Datei und die Verknüpfung der einzelnen Datensätze mit dieser Datei bedeutet hätte.14 Provenienzgeschichte: Obwohl das gesammelte Material zu Immer noch Sturm mittlerweile im Literaturarchiv Salzburg verwahrt wird, 15 war es zuvor auf mehrere Besitzende verstreut, kam also aus verschiedenen Richtungen und zu verschiedenen Zeitpunkten dorthin. Auch sind nur Teile des Materials im Besitz des Archivs, andere Teile befinden sich in Privatbesitz und werden im Archiv als Dauerleihgabe aufbewahrt. Die Geschichte des Materials und seiner Wege ist komplex, aber grundsätzlich bekannt. Da es sich jedoch um informelles Wissen handelt, das nur unter Handke-Forschenden und -Begeisterten gewusst und ausgetauscht wird, fehlen hier exakte und gesicherte Informationen und somit die Grundlage für eine strukturierte Analyse oder auch nur Wiedergabe. Aus der Gegenwartsperspektive mögen diese Informationen eher als bloßes Hörensagen denn als wissenschaftliches Wissen zu klassifizieren sein. Denkt man aber etwa 200 Jahre in die Zukunft, könnten sie für künftige Forschende entscheidende Anhaltspunkte über das Netzwerk des Autors und die Mechanismen des Literaturbetriebs und Archivmarkts bieten. Sie nicht festzuhalten könnte also auf lange Sicht einen Verlust bedeuten.

Bisher gar nicht vorhanden waren die Transkriptionen der eigentlichen Textfassungen, die wir daher eigens für die handke-app erstellt haben. Da das Ziel in diesem Fall keine

–––––––– 13 14 15

Hannesschläger 2016 (Anm. 10) und 2017 (Anm. 5). In der App gibt es daher keine Möglichkeit nachzuvollziehen, ob eine Information aus Handkeonline, aus der Diplomarbeit von Vanessa Hannesschläger oder aus einem Forschungsaufsatz stammt. Literaturarchiv Salzburg, Bestand: Handke, Peter (LAS) und Bestand: Handke, Peter (Leihgabe Widrich) (PH-PAW).

286

Peter Andorfer / Vanessa Hannesschläger

vollständige Edition von Immer noch Sturm, sondern ein Technologie-Test war (und für eine Edition des gesamten Textes weder die Rechte eingeholt worden noch die zeitlichen und finanziellen Ressourcen vorhanden waren), wurde jeweils nur die erste Seite jeder Textfassung transkribiert und mit TEI-P5 markup16 versehen.

Rahmenbedingungen Da es sich bei vorliegendem Projekt um eine Pilotstudie handelte, waren sowohl die finanziellen sowie personellen Mittel stark eingeschränkt. Die philologisch-editorischen Arbeitsschritte wie Ausarbeitung des Forschungsprojektes, Transkription und Annotation (Edition) der oben angeführten Textzeugen erfolgten durch Vanessa Hannesschläger. Was die technischen Aspekte des Projektes sowie das dafür notwendige Datenmanagement betrifft, so zeichnet Peter Andorfer verantwortlich. Beide Beteiligten sind am Austrian Centre for Digital Humanities der Österreichischen Akademie der Wissenschaften (ACDH-OeAW) beschäftigt, welches die für ein solches Projekt notwendige (Server-)Infrastruktur zur Verfügung stellte.

Dokumentzentrierte Methode Maßgeblich beeinflusst wurde das vorliegende Ergebnis durch die Entscheidung des Projektteams, bei der Transkription einen dokumentzentrierten Ansatz zu wählen. Konkret heißt das, dass für jeden einzelnen Textzeugen eine eigene XML-Datei angelegt wurde. Entsprechend den TEI Guidelines wurden im jeweiligen des Dokuments die textzeugenspezifischen Metadaten – etwa zum Aufbewahrungsort des Textzeugen, dessen physischer Beschaffenheit sowie dessen Entstehungsgeschichte – strukturiert erfasst, soweit dies möglich war. In einem weiteren Schritt erfolgte die Transkription der jeweils ersten Seite und die Codierung textkritischer, textgenetischer Phänomene innerhalb des jeweiligen Textzeugen. Ausgezeichnet wurden etwa Streichungen (mittels ), Hinzufügungen (mittels ) oder Umstellungen von Wörtern (mittels ). Außerdem erfolgte eine Modellierung der formalen Textstruktur entlang von Seiten- und Zeilenumbrüchen sowie von Absätzen (mittels , und

). Da sich die Pilotstudie handke-app auf Aspekte der Textgenese konzentrierte, schien es grundsätzlich wichtiger, die eben genannten Phänomene strukturiert zu erfassen. Nicht berücksichtigt hingegen wurden textgenrespezifische Merkmale. Zwar handelt es sich bei diesem Text um eine Arbeit für die Bühne, er tritt aber im formalen Gewand einer fortlaufenden Prosa aus der Perspektive eines Erzähler-Ichs mit zahlreichen direkten Reden auf. Diese kommen allerdings auf der ersten Seite der verschiedenen Textfassungen noch nicht vor, denn der Text beginnt mit einem Stimmungsbild bzw. einer Umgebungsbeschreibung, die das erzählende Ich abgibt. Eine Kennzeichnung der

–––––––– 16

TEI Consortium: TEI P5: Guidelines for Electronic Text Encoding and Interchange 2017. http://www.teic.org/guidelines/p5/.

Wenn sich ein digitaler Sturm zusammenbraut

287

Sprechendenrollen etwa, wie es das TEI Modul Performance Texts17 anbietet, wäre also in den transkribierten Textteilen nicht möglich bzw. nicht aussagekräftig. Ein tiefergehendes literaturwissenschaftlich-analytisches Markup, etwa die Zeit und den Ort der Handlung, die Figuren oder die Motive betreffend, schien ebenfalls aufgrund der Nichtvollständigkeit der Texte nicht besonders zielführend. Die eigentliche Codierung der Werkgenese, also der systematischen Erfassung von Änderungen, Abweichungen und Varianten zwischen den einzelnen Textzeugen, erfolgte in einem an die Codierung anschließenden Kollationierungsschritt. Während Kollationierung in den ‚analogen‘ Textwissenschaften häufig wenig formalisiert und von Fachrichtung zu Fachrichtung, von Forschungsprojekt zu Forschungsprojekt bzw. von Forscher*in zu Forscher*in unterschiedlichen Regeln, Schulen oder Traditionen folgt,18 ist die Kollationierung in der vermehrt ‚digitalen‘ Textwissenschaft ein stark formalisierter Vorgang, der primär von Maschinen vorgenommen wird. Entsprechend dem 2009 entwickelten Gothenburg model19 sind folgende Arbeitsschritte zu vollziehen: 1) Die einzelnen Textzeugen müssen jeweils in vergleichbare Textteile zerlegt werden, wobei dieses Zerlegen je nach Kollationsprozess unterschiedlich granular ausfallen bzw. auf unterschiedlichen Textebenen (z. B. Buchstabe, Wortsilbe, Wort, Zeile, Absatz) erfolgen kann. Diesen Vorgang nennt man Tokenisierung. Diese erfolgt gemeinhin auf der Wortebene, wobei die Maschine ‚Wörter‘ meist als durch Leerzeichen getrennte Zeichenketten definiert. 2) In einem zweiten Schritt werden die einzelnen Textteile (Tokens) der jeweiligen Textzeugen einander gegenübergestellt. Dafür müssen im (wahrscheinlichen) Falle einer abweichenden Anzahl von Textteilen Platzhalter, sogenannte ‚gap tokens‘, eingefügt werden. 3) Basierend auf einer solchen Gegenüberstellung kann nun eine Analyse erfolgen. Wie die Autor*innen des Gothenburg models jedoch festhalten, stößt die Maschine hier an Grenzen, vor allem wenn es darum geht festzustellen, wie Abweichungen in den verschiedenen Textzeugen miteinander in Beziehung stehen und ob es sich bei unterschiedlichen Abfolgen von Tokens um Ergänzungen, Streichungen oder Umstellungen von Textteilen handelt: „While alignment results can still be judged in terms of their quality to some extent, transposition detection can only be done heuristically as one can easily think of cases, where it is impossible for a computer ‚to get it right‘.“ 20 4) Der letzte Schritt beschreibt die Synthese der Erkenntnisse des Kollationierungsprozesses. Das Resultat einer solchen Synthese kann – ganz wie in den analogen Textwissenschaften – ein klassischer kritischer Apparat sein, welcher

–––––––– 17 18

19 20

Vgl. http://www.tei-c.org/release/doc/tei-p5-doc/en/html/DR.html. Vgl. dazu etwa Patrick Sahle: Digitale Editionsformen. Zum Umgang mit der Überlieferung unter den Bedingungen des Medienwandels. Teil 1: Das typografische Erbe. Norderstedt 2013 (Schriften des Instituts für Dokumentologie und Editorik. 7). TEI SIG Manuscripts: The „Gothenburg model“: A modular architecture for computer-aided collation. 2011. https://wiki.tei-c.org/index.php/Textual_Variance. Ebd.

288

Peter Andorfer / Vanessa Hannesschläger

ausgehend von einem Textzeugen die Abweichungen in den übrigen Textzeugen mittels kompakter Notation dokumentiert. Je nach technischer Implementierung des Gothenburg models kann das Kollationierungsergebnis aber auch als Graph und/oder in tabellarischer Form präsentiert werden. Dem Projektteam waren zwei konkrete Implementierungen des Gothenburg models bekannt, nämlich CollateX und Juxta Commons.21 Die Entscheidung für Juxta Commons erfolgte vor allem aufgrund größerer Benutzer*innenfreundlichkeit. Diese besteht vor allem darin, dass Juxta Commons als Webservice mit graphischer Benutzer*innenoberfläche angeboten wird, während die Nutzung von CollateX eine lokale Installation sowie Kenntnisse im Umgang mit der Kommandozeile voraussetzt. Mithilfe von Juxta Commons war es Hannesschläger nun möglich, die einzelnen Textzeugen zu kollationieren und somit die Textgenese rasch, systematisch und in maschinelesbarer Form zu erfassen und zu codieren bzw. erfassen und codieren zu lassen. Konkret wurde die Werkgenese durch Juxta Commons entsprechend der Parallel Segmentation Method 22 annotiert. Diese Methode zeichnet sich dadurch aus, dass die verschiedenen Lesarten nebeneinander notiert werden, was die Vergleichbarkeit der Varianten vereinfacht. Hier ein knappes Beispiel:

Eine Sitzbank

Diese Ergebnisse wurden anschließend manuell nachbearbeitet, um eine Verbesserung der Übersichtlichkeit und damit der Menschen- und Maschinenlesbarkeit der Daten zu erreichen:

eine Sitz- Eine Sitzbank Eine Sitzbank Nichts

–––––––– 21 22

http://collatex.net und NINES: Juxta Commons. Textual Collation on the web. http://juxtacommons.org. http://www.tei-c.org/release/doc/tei-p5-doc/en/html/TC.html#TCAPPS.

Wenn sich ein digitaler Sturm zusammenbraut

289

Zusätzlich zu dieser Optimierung des Codes (welche im Zuge einer besseren Projektkoordinierung auch mittels eines Skriptes hätte erfolgen können) mussten von Hannesschläger jedoch auch bereits codierte Sofortkorrekturen innerhalb der einzelnen Textzeugen nachgetragen werden, welche von Juxta Commons im Zuge der Kollationierung übergangen wurden, wie beispielsweise in dieser Passage das Element:

I EINS ERSTER AKT

ERSTER AKT EINS



Rückblickend betrachtet wäre es vermutlich effizienter gewesen, bei einem ersten Transkriptionsschritt auf die textkritische Codierung zu verzichten und das entsprechende Markup erst nach der Kollationierung einzupflegen. Neben diesem dokument- bzw. textzeugenzentrierten Ansatz hätte es sich angeboten, einen Textzeugen, vermutlich die Fassung letzter oder erster Hand, vollständig zu transkribieren und in diesem Dokument allfällige Abweichungen ‚per Hand‘ analog zum obigen Beispiel zu codieren. Der Hauptvorteil eines solchen werkzentrierten Ansatzes wäre zweifelsfrei in der damit einhergehenden eingesparten Transkriptionsarbeit. Diese Ersparnis kommt jedoch zum Preis eines deutlich komplexeren und somit zeitaufwändigeren wie auch fehleranfälligeren Codierungsvorganges. Letztendlich ausschlaggebend für die Wahl des dokument- bzw. textzeugenzentrierten Ansatzes waren jedoch technisch-pragmatische Gründe. Tool der Wahl hinsichtlich Codierung war der XML Editor oXygen.23 So verfügte Vanessa Hannesschläger bereits vor Projektbeginn über profunde Kenntnisse im Umgang mit diesem Editor, dieser lässt sich sehr einfach mit XML Datenbanken wie baseX oder eXist-db verbinden und nicht zuletzt besitzt das ACDH-OeAW, wo das Projekt ausgeführt wurde, die entsprechenden Lizenzen für diese kostenpflichtige Software. Im Unterschied zu einem Spezialtool für die Erstellung genetischer bzw. textkritischer Editionen wie etwa dem Classical Text Editor24, welcher vor allem aber aus den erst- und letztgenannten Gründen nicht in Frage kam, fehlen bei einem XML Editor wie oXygen jedoch Funktionen, welche die Arbeit mit komplexem Markup einer komplexen Edition vereinfachen würden. Zu solchem Markup kann es kommen, wenn im zu edierenden Material mit Textphänomenen zu rechnen ist, welche innerhalb des

–––––––– 23 24

SyncroSoft: oXygen XML editor. https://www.oxygenxml.com/. Stefan Hagel: Classical Text Editor. 2018. http://cte.oeaw.ac.at/.

290

Peter Andorfer / Vanessa Hannesschläger

streng hierarchischen Aufbaus von XML-Dateien nicht mehr abbildbar sind. In solchen Fällen spricht man von ‚überlappendem Markup‘, ein Phänomen, das vor allem innerhalb der TEI Community immer wieder problematisiert und diskutiert wird. 25 Solche Phänomene ließen sich mittels der Double End-Point Attachment Method 26 TEIkonform abbilden. Diese löst das Problem des überlappenden markups mittels Elementen, welche den Beginn- und Endpunkt einer Variante markieren und mittels Identifikationsnummern mit einem entsprechenden Variantenapparat verbunden werden müssen. Allerdings müssten solche Identifikationsnummern bei Verwendung eines Tools wie oXygen (ohne größere programmiertechnische Adaptionen) ‚händisch‘ vergeben werden, was die Skalierbarkeit der Double End-Point Attachment Method stark einschränkt und die eigentliche Codierungarbeit stark verzögert.27 Unabhängig von überlappendem Markup wird mit zunehmender Komplexität der Werkgenese auch der Code, der diese Genese abbilden soll, immer unübersichtlicher – und so auch fehleranfälliger. Da mit dem gewählten bzw. mit dem zur Verfügung stehenden Tool die zu erwartende Komplexität des Markups einer sämtliche Textzeugen umfassenden Edition kaum zu bewältigen zu sein schien, fiel die Wahl auf den genannten dokumentenzentrierten Ansatz.

Umsetzung Aufgrund der am ACDH-OeAW verwendeten Docker-Technologie gab es aus technischer Hinsicht praktisch keinerlei begründbare Einschränkungen hinsichtlich der Auswahl der verwendbaren Software zur Publikation der im Projekt generierten Forschungsdaten über das World Wide Web. Konkret bedeutet dies, dass die Web-Applikation der handke-app mittels eXist-db realisiert wurde. Für eXist-db sprachen folgende Gründe: Erstens erfolgten Transkription und Annotation der Textzeugen im XML Format, was die Wahl einer nativen XML Datenbank als storage unit naheliegend macht. Zweitens kann eXist-db in den zur Datenerstellung verwendeten XML Editor oXygen sehr gut integriert werden und drittens verfügt Andorfer über Erfahrung im Umgang mit eXist-db und hier insbesondere mit den in eXist-db integrierten Schnittstellen und Funktionen, welche die Entwicklung von datengetriebenen Web-Applikationen erleichtern.28 Einschränkend muss jedoch angeführt werden, dass es sich hierbei vorwiegend um Web-Applikationen zu Editionsprojekten handelte, bei welchen textkritische oder textgenetische Aspekte

–––––––– 25

26 27 28

Zuletzt etwa auf der jüngsten TEI Konferenz, wo z. B. Martin Holmes in seinem Vortrag überlappendes Markup beim Codieren von Kreuzworträtseln problematisierte. Vgl. Martin Holmes: Encoding Cryptic Crossword Clues with TEI. In: TEI Conference and Members’ Meeting 2017: Pedagogy and Praxis. Victoria 2017. https://hcmc.uvic.ca/tei2017/abstracts/t_102_holmes_crosswords.html. Siehe auch Daniel Bruder, Simone Teufel: Data models for Digital Editions: Complex XML versus Graph structures. In: DHd2018 Book of Abstracts. Köln 2018, S. 158–162. http://www.tei-c.org/release/doc/tei-p5-doc/en/html/TC.html#TCAPDE. Kollationierungstools wie Juxta Commons oder CollateX umgehen das Problem des überlappenden Markups weitgehend durch die granulare Tokenisierung auf Wortebene. Peter Andorfer: dsebaseapp. 2016ff. https://github.com/KONDE-AT/dsebaseapp.

Wenn sich ein digitaler Sturm zusammenbraut

291

nur eine untergeordnete Rolle gespielt haben. Da die Darstellung umfassender werkgenetischer Aspekte jedoch an den EVT Viewer (siehe unten) ‚ausgelagert‘ werden konnte, erschien diese Einschränkung als vertretbar. Folgende Features konnten in der handke-app umgesetzt werden (http://aau.at/ musil/publikationen/textgenese/andorfer-hannesschläger/): –









Textansichten 1: Menüpunkt Text Variants → Table of Contents. Hier wird ein Einstieg in die Einzeltexte über ein klassisches Inhaltsverzeichnis geboten. Die Texte werden jeweils in Einzelansichten angezeigt. Hier sind sowohl umfassende Meta-Informationen (Dokument-Titel, Aufbewahrungsort der Vorlage, Originaltitel laut Vorlage, Transkriptorin und Lizenz) als auch der Text enthalten, in dem auch Streichungen, Ergänzungen, Korrekturen etc. dargestellt werden. Ebenso kann der zugehörige Scan des Originalmaterials aufgerufen werden.29 Textansichten 2: Menüpunkt Text Variants → Text Critical View(s). Hier können die Textfassungen nebeneinandergestellt und miteinander verglichen werden. Für diese Darstellung wurde der EVT Viewer verwendet, eine auf dem JavaScript framework Angular JS basierende Webapplikation, die auf die Darstellung komplexer Werkgenesen und textkritischer Apparate spezialisiert ist. 30 Aus technischer Sicht war äußerst erfreulich, dass der EVT Viewer die von Juxta Commons erzeugte und von Hannesschläger nachbereitete XML Datei ohne weitere Änderungen im Code der Applikation verarbeiten konnte. Textansichten 3: Menüpunkt Text Variants → juxta-local-output und juxtalocal-modified-layout-output. Das Ergebnis der durch Juxta Commons vorgenommenen Kollationierung lässt sich auch als ‚klassischer‘ Variantenapparat in eine statische HTML Datei exportieren. Eine solche Datei hat den Vorteil, dass sie entweder ohne weiteres Zutun veröffentlicht werden bzw. ihr Erscheinungsbild relativ einfach verändert werden kann. Indices 1: Menüpunkt Indices → Events. Hier wurden die in den einzelnen n enthaltenen Meta-Informationen aus allen XML Dokumenten zusammengezogen und aufgelistet. Somit sind hier sämtliche Ereignisse der Textgenese in einer Liste zusammengefasst: einzelne Schreibtage der ersten Textfassung, Lektüreprozesse Handkes in der Vorbereitung, Korrekturläufe Handkes, Abschriften und Korrekturgänge durch Dritte etc. Zusätzlich wurden diese Ereignisse auf einer Karte mit gekoppeltem Zeitstrahl visualisiert. Aufgrund der eingangs angesprochenen Probleme bei der Vereinheitlichung mancher Informationen (z. B. exakte Datierung der Lektüre von Quellentexten) ist diese Visualisierung jedoch nur bedingt aussagekräftig. Indices 2: Menüpunkt Indices → Persons. Hier findet sich eine Liste aller am Entstehungsprozess beteiligten Personen. Den Personen wurde auch jeweils jener geographische Ort zugeordnet, an dem sich ihr jeweiliger Beitrag zur

–––––––– 29 30

Die erforderlichen Scans wurden freundlicherweise vom Literaturarchiv Salzburg zur Verfügung gestellt. http://evt.labcd.unipi.it/ und https://angularjs.org/.

292

– –





Peter Andorfer / Vanessa Hannesschläger

Textgenese ereignete – also z. B. Salzburg für den Festspiel-Intendanten Thomas Oberender, für Handke selbst wurde sein Wohnort Chaville als Ort angenommen. In dieser Übersicht wurden die Person-Ort-Zuordnungen auf einer Karte visualisiert. Indices 3: Menüpunkt Indices → Places. Dieselbe Karte wie in der PersonenAnsicht bietet eine Liste der Orte. Indices 4: Menüpunkt Indices → Institutions. Eine Liste der beteiligten Institutionen. Die Indices 3 und 4 sind aufgrund der geringen Datenmenge in diesem Fall nicht besonders aussagekräftig, waren aber kaum Mehraufwand in der Umsetzung der Applikation und wurden daher aufgenommen. Analysen 1: Menüpunkt Analyze → Text genetic markup. Hier wurden zwei Grafiken erstellt, die die Menge der Streichungen und Einfügungen (also die Häufigkeit der Verwendung der TEI-Tags und ) in den einzelnen Textfassungen visualisieren. Analysen 2: Menüpunkt Analyze → tag usage user’s choice. Hier können Nutzende selbst die TEI-Tags wählen, deren Häufigkeit im der Applikation zugrundeliegenden Datensatz sie erfragen wollen. Diese Funktion ist im konkreten Fall des hier verwendeten Datensatzes nicht besonders nützlich, da im Text-markup selbst nur eine kleine Palette an Tags zum Einsatz gebracht wurde; da es sich aber um einen Technologie-Text handelte, wollten wir auch diese Funktion zwecks Überprüfung des Aufwandes installieren.

Conclusio Aus den im Zuge der Pilotstudie handke-app gesammelten Erfahrungen lassen sich folgende Erkenntnisse ableiten: Um eine komplexe, sich über mehrere Textzeugen erstreckende Werkgenese effizient zu codieren, hat sich die oben beschriebene dokumentenzentrierte Methode mit anschließender maschinell unterstützter Kollationierung bewährt, insbesondere auch dann, wenn es darum geht, das generierte Ergebnis mit Hilfe bereits existierender Software (EVT Viewer) in einer ansprechenden und interaktiven Art und Weise im Internet zugänglich zu machen. Dieses gute Ineinandergreifen bereits existierender Tools ist dabei ein Verdienst der TEI und ihrer Bemühungen, einen komplexen Vorgang wie die Erstellung eines textkritischen Apparats maschinenlesbar zu formalisieren. Hier zeigt sich in aller Klarheit der Mehrwert, den Vorgaben der Text Encoding Initiative zu folgen. Ein weiterer Mehrwert zeigt sich in den beispielhaft ausgeführten Analysemöglichkeiten (z. B. quantitative Abfragen spezifischer Textphänomene), die mittels eines analogen kritischen Apparates nicht durchführbar wären. Aufgrund der begrenzten Datenmenge dieser Pilotstudie ergibt sich hier zwar nur ein bedingter Mehrwert, die aufgezeigten Analysemöglichkeiten aber können zukünftigen Apps als hilfreiches Modell dienen. An die Grenzen der Guidelines der Text Encoding Initiative stößt man jedoch relativ rasch, wenn es darum geht, außertextliches, für die Werkgenese aber zweifelsfrei rele-

Wenn sich ein digitaler Sturm zusammenbraut

293

vantes Wissen zu codieren. Die TEI stellt zwar Elemente und Attribute zur Beschreibung von (realen) Personen, Orten, Institutionen, Werken und Ereignissen zur Verfügung,31 die konkrete Modellierung, vor allem aber auch die notwendige Verknüpfung dieser Entitäten untereinander und zu den jeweiligen Textzeugen ist aber weitgehend unterspezifiziert und von Projekt zu Projekt stark unterschiedlich. Für die vorliegende Pilotstudie und die zu erreichenden Ziele konnten diese außertextlichen Entitäten mit Hilfe der TEI zwar modelliert und verarbeitet werden (Zeitleiste, Verlinkung von Entitäten ...); eine Verknüpfung dieser Daten mit anderen Projekten dürfte aber dennoch nur schwer bzw. nur über ein noch zu erstellendes Mapping zu einem umfassenderen Modell, das nicht auf die Modellierung von Text, sondern von außertextlicher Realität abzielt (z. B. CIDOC CRM32), möglich sein. Auch aus literaturwissenschaftlicher Perspektive war die Pilotstudie handke-app sehr fruchtbar. Die oben aufgelisteten Indices wären in einer vollständigen Edition eines einzelnen Texts oder in der Edition eines Gesamtwerks enorm hilfreich, wenngleich sie in dieser Pilotstudie aufgrund der kleinen Datenmenge keinen substantiellen Mehrwert bedeutet haben. Selbst für diese verhältnismäßig kleine Datenmenge sehr aussagekräftig ist dagegen die Visualisierung der Ereignisse mittels gekoppelter Karte und Zeitleiste – hier wurde allerdings deutlich, dass eine aufwändige Detail-Recherche notwendig wäre, um zu tatsächlich sauberen (und dadurch erst sinnvoll verarbeitbaren) Daten zu gelangen. Die Kollationierung und die Möglichkeiten zur Gegenüberstellung von Textfassungen bzw. zur Zusammenschau aller Textveränderungen in einem einzigen Dokument erwies sich selbst für diese minimale Textmenge schon als aussagekräftig, obwohl lediglich editorisches Markup zur Kennzeichnung von physischen Eigenschaften, nicht aber analytisches Markup zur Kennzeichnung von textinhärenten Phänomenen (wie z. B. Figuren) verwendet wurde. So konnten wir dank der zum Einsatz gebrachten Technologien feststellen, dass Handke, dem im Allgemeinen ein schwieriges Verhältnis zu Zahlen nachgesagt wird, den Apfelbaum auf der Bühne von Immer noch Sturm mit „neunundneunzig Äpfeln“ behängt hatte und diese erst im zweiten Lauf der Druckfahnen gegen „99 Äpfel“ eintauschte. Auf solche editorischen Erkenntnisse könnte man nun tiefergehende literaturwissenschaftliche Analysen stützen. Diese nun sind nicht mehr Gegenstand dieses Aufsatzes. Hier war die Aufgabe, die Nutzbarkeit und den Mehrwert des Einsatzes unterschiedlicher editorischer Werkzeuge für die Darstellung und Analyse textgenetischer Prozesse zu untersuchen und der Frage nachzugehen, ob digitale Methoden die Bearbeitung literaturwissenschaftlicher Fragestellungen erleichtern und erweitern können. Diese Frage möchten wir vorläufig mit ja beantworten, jedoch mit einem Hinweis versehen, den wir auch der handke-app mitgegeben haben: „Please be aware: This is work in progress. If you find any mistakes or

–––––––– 31 32

Vgl. das entsprechende Kapitel „Names, Dates, People, and Places“ in den TEI Guidelines, http://www.tei-c.org/release/doc/tei-p5-doc/en/html/ND.html. CIDOC Conceptual Reference Model (CRM). http://www.cidoc-crm.org/.

294

Peter Andorfer / Vanessa Hannesschläger

have suggestions for further development, please create an issue in the project's coderepo on GitHub.“ 33

–––––––– 33

https://handke-app.acdh.oeaw.ac.at/pages/index.html.

Anke Bosse

„Die Wortmaschine … wird jetzt in Betrieb genommen“ Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler

Der Winkler-Bestand I im Robert-Musil-Institut für Literaturforschung / Kärntner Literaturarchiv (Abb. 1–2)1 Fast zwei Jahrzehnte lag der umfängliche, überaus faszinierende Vorlass des Autors Josef Winkler im Robert-Musil-Institut für Literaturforschung / Kärntner Literaturarchiv (RMI / KLA) – versiegelt, da als Depositum weiterhin im Besitz des Autors. Doch 2018/19 haben sich das Land Kärnten und die Stadt Klagenfurt geeinigt und diesen Vorlass gemeinsam angekauft. So kann er nun am RMI / KLA, das ich seit 2015 leite, erfasst und wissenschaftlich ausgewertet werden, um ihn der Wissenschaft und der interessierten Öffentlichkeit zugänglich zu machen. In diesen Winkler-Bestand I2 gibt der vorliegende Beitrag einen ersten Einblick. Ich fokussiere dabei auf die Genese von Winklers ‚Schreibszene‘, seine ‚Autorwerdung‘ und anhand exemplarischer Textgenesen auf die ‚Schreib-Szene‘ und die von mir so genannte Überlappungszone. Am Ende skizziere ich Ausblicke auf ihre zukünftige digitale Darstellung.

Die Schreibszene (Abb. 3–4) Den Begriff ‚Schreibszene‘ hat bekanntlich Rüdiger Campe eingeführt.3 In diesem Begriff kreuzen sich die Konzepte von vier ‚turns‘ in den Literatur- und Kulturwissenschaften: des ‚linguistic turns‘, des ‚medial turns‘ und des ‚material turns‘ sowie des ‚performative turns‘ (Abb. 4).4 Denn zum Schreiben brauchen wir nicht nur das Wissen,

–––––––– 1 2

3

4

Die digitale Präsentation zu diesem Beitrag finden Sie unter http://aau.at/musil/publikationen/text genese/bosse/. Auf die einzelnen Abb. wird hier mit der entsprechenden Nummer verwiesen. Der Bestand umfasst Textzeugen aus 45 Jahren, von 1970 bis 2015. Es handelt sich um 44 umfängliche Werkkonvolute, 15 Kästen mit diversen Materialien, 5 Kästen mit Korrespondenzen und 100 einzigartige handschriftlich verfasste und bebilderte Notizbücher. Rüdiger Campe: Die Schreibszene, Schreiben. In: Paradoxien, Dissonanzen, Zusammenbrüche. Situationen offener Epistemologie. Hrsg. von Hans Ulrich Gumbrecht und K. Ludwig Pfeiffer. Frankfurt/M. 1991, S. 759–772; vgl. Martin Stingelin: ‚Schreiben‘. Einleitung. In: „Mir ekelt vor diesem tintenklecksenden Säkulum“. Schreibszenen im Zeitalter der Manuskripte. Hrsg. von Martin Stingelin. München 2004, S. 7–21. Als Ergänzung zum ‚linguistic turn‘ schuf der ‚medial turn‘ ein Bewusstsein dafür, dass jegliche menschliche Wahrnehmungs-, Erkenntnis- und Kommunikationsmöglichkeit nicht nur sprachlich bedingt, sondern zugleich unausweichlich medial geprägt ist. Sprache fungiert dabei als audio-visuelles ArchiMedium – und ist das Material, aus dem Literatur entsteht. Daher verband sich mit dem ‚medial turn‘ der ‚material turn‘: Die Literatur- und Kulturwissenschaften begannen, sich für die konkrete Materialität insbesondere ästhetischer Wahrnehmung, Erkenntnis und Kommunikation zu interessieren und danach

https://doi.org/10.1515/9783110575996-019

296

Anke Bosse

wie wir mit Sprache – Vokabular, Grammatik und Orthographie – umgehen müssen, damit verständliche Sätze entstehen (‚linguistic turn‘). Vielmehr bedarf Schreiben bestimmter medialer und materieller Bedingungen (‚medial und material turn‘). Zur Sprachlichkeit des Schreibens treten daher noch zwei weitere, wesentliche Elemente hinzu: die Instrumentalität und Körperlichkeit des Schreibens. 5 Um unsere sprachlich formulierten Gedanken konkret festhalten zu können, brauchen wir Schreibinstrumente und Schreibmaterialien. Sie sind abhängig von der jeweiligen medientechnischen Entwicklung seit der Erfindung der Schrift. Diese medientechnische Entwicklung führte vom Holzkeil zum Tablet, von der Tontafel zur digitalen Datei. Jedes dieser Instrumente und Materialien setzt spezifische, je andere Kenntnisse und Fertigkeiten, Gesten und Körperhaltungen voraus. Hier verbindet sich die Instrumentalität des Schreibens mit seiner Körperlichkeit. Und nicht zuletzt vermittelt bereits der Begriff ‚Schreibszene‘, dass Schreiben immer ein dynamisches Handeln und eine Performance vor Publikum ist (‚performative turn‘). Das Publikum dieser Performance sind zunächst die AutorInnen selbst, die während des Schreibens LeserInnen ihrer eigenen Texte sind, und später sind es die LeserInnen der Bücher. Schreiben ist also immer theatral, eine Performance, die sich selbst inszeniert. Und nicht zuletzt ist Schreiben als Performance immer auch ein In-Szene-Setzen seiner Gelingensbedingungen. Aus diesen Gründen ergänze ich Campes ‚Sprachlichkeit‘, ‚Körperlichkeit‘ und ‚Instrumentalität‘ um die ‚Theatralität‘ des Schreibens.6 All dies muss ineinandergreifen, damit Schreiben gelingt. Dies gilt umso mehr für literarisches Schreiben, das weitaus komplexer ist als das alltägliche Schreiben. Wenn ein Autor wie Josef Winkler ins Ungesagte vorstößt, fiktive Welten erfindet und sprachlich einzigartig formen will, braucht er umso mehr eine wohl-inszenierte Schreibszene mit spezifischen Gelingensbedingungen. Dies ist überhaupt Voraussetzung der Autor-Werdung. Schreiben wird – nach Roland Barthes – zu einer Lebensform. 7

––––––––

5

6

7

zu fragen, wie Wissen und Fertigkeiten des Menschen in kulturell geschaffenen Objekten wirken. Zu diesen Objekten gehören alle Textzeugen eines ‚genetischen Dossiers‘, wie es die ‚critique génétique‘ definiert. Diese Textzeugen entstehen durch den bewussten Einsatz einer ‚techné‘, einer erlernten und erprobten Kunstfertigkeit: der des Schreibens. – Zum ‚genetischen Dossier‘ und zur ‚critique génétique‘ vgl. Almuth Grésillon: Literarische Handschriften. Einführung in die ‚critique génétique‘. Aus dem Französischen übersetzt von Frauke Rother und Wolfgang Günther, redaktionell überarbeitet von Almuth Grésillon [frz. 1994]. Bern u. a. 1999 (Arbeiten zur Editionswissenschaft. 4), S. 139–215. Der Paläontologe André Leroi-Gourhan hat die Evolution von Technik, Sprache und Kunst als einen fortlaufenden Prozess der Exteriorisierung und Ausdifferenzierung technischer Fähigkeiten beschrieben; an die Stelle körperlicher Organe wie der Hand treten Werkzeuge und technische Medien, die diese ersetzen, wodurch sich – nach Friedrich Kittler – je neue „Aufschreibesysteme“ und Ästhetiken generieren. Vgl. André Leroi-Gourhan: Hand und Wort. Die Evolution von Technik, Sprache und Kunst [frz. 1964/65]. Frankfurt/M. 1988, S. 292–332; Friedrich Kittler: Aufschreibesysteme 1800/1900. München 1985. Im Verlauf des ‚performative turn‘ setzte sich die Erkenntnis durch, dass sowohl Sprechen als auch Schreiben Handeln ist. Und zwar Handeln vor Publikum – ob vor anderen Menschen als adressiertes Gegenüber oder vor sich selbst als Adressat. Vgl. Roland Barthes: Schreiben, ein intransitives Verb? [frz. 1984]. In: ders.: Das Rauschen der Sprache. Essais IV. Frankfurt/M. 2006, S. 18–28.

Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler

297

Die Anfänge der Winkler’schen Schreibszene – Notizbücher (Abb. 5–21) Im Falle Winklers haben wir das seltene und unwahrscheinliche Glück, dass er schon sehr früh Notizbücher angelegt und – vor allem – aufgehoben hat. Hier können wir beobachten, wie sich seine Schreibszene formiert und wie er zum Autor wird. Im Winkler-Bestand I liegen drei kleine unscheinbare Notizbücher des 17-, 18jährigen Josef Winkler. Die beiden ältesten stammen von 1970/1971 und 1971, tragen in ihren Plastikumschlägen die Titelgravur „Film“, und jede ihrer Seiten ist mit Rubriken vorgedruckt für „Kinobesuche“ (Abb. 6–8). Minutiös hat der jugendliche Winkler seine Kinobesuche protokolliert und die Rubriken zu jedem Film ausgefüllt: „Titel“, „Regisseur“, „Sprache“, „Tag des Besuches“, „Lichtspieltheater“, „Hauptdarsteller“, „Kurze Kritik“. All dies hat er noch durch ein ausgeklügeltes eigenes Film-Bewertungssystem ergänzt. Bisher war bekannt, dass Winkler von Jugend an ein Kino-Fan ist und dass das Kino seine Bildwelt als Erzähler zutiefst prägt. Bisher war nicht bekannt, dass er anhand des Kinos mit dem Erzählen beginnt. Denn seine Notate in der Rubrik „Kurze Kritik“ geraten dem 17-, 18-Jährigen immer wieder zu ultrakurzen Erzählungen. Dass ihn später einige Kinofilme zu aphoristischen „Filmgeschichten“ inspirierten,8 unterstreicht unsere Vermutung, dass wir hier erste Ansätze seines literarischen Schreibens beobachten können. Wir treten hier ein in die allerersten Anfänge der Winkler’schen Schreibszene. Sie folgt schon jetzt einem bestimmten Setting: Regelmäßige Datierungen, die eine tagebuchartige Chronologie des eigenen Schreibens vorspuren – und die Winkler bis heute beibehält. Das Schreibinstrument des Jugendlichen ist die noch aus der Schule übernommene Füllfeder mit blauer Tinte. Bis heute ist die Füllfeder Josef Winklers primäres Schreibinstrument. Mit ihr und blauer Tinte beginnt sein Schreiben. Und dieses Schreiben hängt an einem bestimmten Schreibmaterial: am Medium Notizbuch. Es ist klein genug, um es körpernah oder in einer Tasche bei sich zu tragen und um – flanierend, sitzend, beobachtend, nachdenkend – jederzeit Notizen machen zu können. Diese Schreibszene entwickelt sich weiter. Das dritte Notizbuch des Jugendlichen ist ein vorgedruckter „Tageskalender für das Jahr 1973“ (Abb. 9–10). Die chronologische Datierung ist nun durch den Tageskalender vorgegeben. Schreibinstrument und -medium bleiben. Doch hier löst sich Winkler vom Vorgedruckten, indem er auf das Titelblatt „Tagebuch“ einträgt und den Tageskalender dergestalt umfunktioniert. Das individuelle Umfunktionieren geht noch deutlich weiter: dieses „Tagebuch“ ist mehr als ein „Tagebuch“, denn es enthält erste literarische Versuche. Dies zeigt sich beim Vergleich mit einem blauen Heft, das ebenfalls aus dem Jahr 1973 stammt und

–––––––– 8

Im Winkler-Bestand I befindet sich ein von Winkler selbst zusammengeschnürtes Konvolut, dem er ein handschriftliches Titelblatt voransetzte: „Erste und frühe Schriften, Texte, Gedichte (Celan-Imitationen), Notizen … (unveröffentlicht)“. Darunter befindet sich ein fünfseitiges geheftetes Typoskript mit dem Titel „Ein Mann, den sie ‚Pferd‘ nannten / Filmgeschichten“. Sie bewegen sich eindeutig weg von einer „kurzen Kritik“ oder Inhaltsangabe und sind eigenständige aphoristische ‚Geschichten‘ wie z. B.: „Wenn die Gondeln Trauer tragen. In einem anderen Land. An einem heißen Sommermorgen. Die Braut trug Schwarz. Schon wieder springe ich über Pfützen. Beeil dich zu leben. Der Tag, an dem die Fische kamen. Geh nicht zu nah ans Wasser.“ Dieser Film kam 1974 in die Kinos, die „Filmgeschichten“ dürften also frühestens in diesem Jahr entstanden sein.

298

Anke Bosse

ihm als Schmierheft diente (Abb. 11–14). Gut zwei Drittel der Schmierhefteinträge sind literarische Entwürfe. Teile dieser Entwürfe setzte Winkler zu Texten zusammen, die er im „Tageskalender“/„Tagebuch“ ins Reine schrieb. Es handelt sich hier um bewusste Akte der Literarisierung und ihrer Inszenierung in Reinschrift. Damit wird die Funktion des Mediums Notizbuch über das ‚Tagebuch‘ erweitert zum ‚Notizbuch‘ für literarische Notizen – diese Mischung hält in Winklers Schreiben bis heute an. Winklers nächstes Notizbuch ist ein kleines Heft aus dem Frühjahr 1974, eingebunden in grüne Pappe (Abb. 15–17). Schreibinstrument ist diesmal meist der Bleistift. Das liegt daran, dass er es während seines halbjährigen Wehrdiensts im Frühjahr 1974 zusammen mit dem Bleistift – und nicht etwa einer Füllfeder – in der Hosentasche bei sich trug. Instrumentalität und Körperlichkeit der Schreibszene konvergieren situationsgemäß. Das Besondere dieses kleinen Hefts ist, dass Winkler hier zum ersten Mal das Setting des Tagebuchs ins eigene Schreiben übernimmt. Denn erstmals setzt er selbst kontinuierliche Datierungen – und sie geben bis heute seinem handschriftlichen Schreiben den Takt vor. Für die Genese der Winkler’schen Schreibszene ist besonders spannend ein Eintrag, der sich ganz am Ende dieses Hefts findet: 7. Mai 1974. Ein neues Notizheft wird schon sehr bald notwendig sein um mit meinen Aufzeichnungen weiter fortfahren zu können. Ich werde am Freitag in Klagenfurt ein repräsentatives Heft in Tagebuchformat besorgen um mich auch vom Format, das gewissermaßen wichtig ist, oder zumindest dessen Ausführung inspirieren [zu] lassen. (Hervorhebungen A.B.)

Markanter lässt sich kaum beschreiben, wie sehr die Materialität des Schreibmediums Winklers Schreiben bestimmt, ja überhaupt dessen Gelingen – und dass er gerade dafür schon sehr, sehr früh ein ausgeprägtes Bewusstsein hat. Dieses „repräsentative Heft in Tagebuchformat“, von dessen „Format“ oder „Ausführung“ er sich „inspirieren lassen“ will, findet Winkler im Mai 1974 in der Traditionspapierwarenhandlung Strein in Klagenfurt. Dort kauft er ein Notizbuch, das in seinem Schreiben Epoche macht: Notizbuch „1“ (Abb. 18–19). Dies ist sein erstes Buch – haltbar, da gebunden und in Leinen eingeschlagen, im handlichen A6-Format. Hier hat Josef Winkler seine und nur seine Schreibszene gefunden. Ab jetzt wird das handliche Notizbuch zum Fetisch seines Schreibens, ja zum Talisman, einem zauberkräftigen Begleiter, den er immer bei sich trägt. Das Notizbuch wird ein Teil seines Ich. Wie sehr es materielle Versicherung seines Ich und seines Autor-Werdens ist, zeigt sich darin, dass Winkler seit dem Notizbuch „1“ Vorder- und Rückseite jedes seiner Notizbücher ästhetisch mit Bildern verziert und dies z. T. sogar foliiert (Abb. 20). Diese Bilder haben die Funktion einer Titelillustration wie beim gedruckten Buch. Beim Notizbuch „1“ hat Winkler auf der Vorder- und der Rückseite je eine Reproduktion von Rötelzeichnungen Iacopo da Pontormos aufgeklebt und anschließend das gesamte Buch foliiert. Es handelt sich um eine bewusste Theatralisierung dieses und aller nachfolgenden Notizbücher, um ihre Inszenierung als Buch. Ab jetzt und bis heute gilt: Josef Winkler schreibt nicht einfach in ein Buch, sondern er schreibt immer ein Buch. Dann kann er schreiben.

Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler

299

Mit Notizbuch, Füllfeder und blauer Tinte hat Winkler die Gelingensbedingungen und Stimulanzien seines Schreibens gefunden – seine Schreibszene. Deshalb schreibt er, einigermaßen verzweifelt, mit Kugelschreiber in Notizbuch „1“ (Abb. 21): Ich habe meine Füllfeder verlegt, hoffentlich nicht verloren. […] Meine Füllfeder, mein Tagebuch; meine steten Begleiter. Jeden Weg, jede Gasse, jede Straße schreiten sie mit mir ab und jede Begegnung mit Joey halten sie mit mir fest. Oder helfen mir die aufzeichnungswürdigsten Ereignisse des Tages festzuhalten. Sie helfen mir, meine Gedanken zu verwirklichen. (Hervorhebungen A.B.)

„Füllfeder“ und „Tagebuch“ werden zu für das Schreiben unverzichtbaren Begleitern und Helfern stilisiert, ja anthropomorphisiert. Dies liest sich wie eine Paraphrase von Nietzsches berühmter Erkenntnis „unser Schreibzeug arbeitet mit an unseren Gedanken“.9 Reflexionen auf das eigene Schreiben und seine Gelingensbedingungen finden sich zuhauf in Winklers Notizbüchern – aber auch in seinen publizierten Büchern. Sie durchziehen die gesamte Textgenese. Und nicht zuletzt sind gerade autoreferentielle Reflexionen eines der herausragenden Merkmale von Literatur. Sie sind daher – so mein Ansatz – als ‚Einstiege‘ in Winklers Schreiben zu privilegieren.

Schreibszene, Überlappungszone, Schreib-Szene (Abb. 22–27) Dabei kommt uns eine methodische Unterscheidung zur Hilfe, die bereits Rüdiger Campe vorgenommen hat. Er unterscheidet die konkrete ‚Schreibszene‘, den materialen Akt des Schreibens, von der ‚Schreib-Szene‘.10 Die ‚Schreib-Szene‘ entsteht dadurch, dass der Autor, die Autorin das Schreiben selbst reflektiert, thematisiert, problematisiert. Schreib-Szenen finden wir im gedruckten, publizierten Buch. Dort heben Autoren und Autorinnen ihr Schreiben gleichsam auf eine Bühne, auf der es theatral, szenisch dargestellt wird. Dort treten Schreib-Szenen als inszenatorische Selbstdarstellungen wie im Theater vor ein Publikum – vor die Leserinnen und Leser. Die Theatralität und Inszeniertheit des Schreibens ist in der Schreib-Szene des publizierten Buchs also besonders evident. Doch haben wir dort wenig bis keine Indizien, die es uns erlauben, den Grad des Inszenatorischen zu ermessen. Es sei denn, wir suchen die dem publizierten Buch vorgängigen Textzeugen im Literaturarchiv auf. Dort treffen wir auf etwas, das meines Wissens bisher so nicht in den Blick genommen wurde: Ich nenne es die Überlappungszone zwischen Schreibszene und Schreib-Szene (Abb. 23). Denn bereits während des Schreibens reflektieren, thematisieren, problematisieren Autoren und Autorinnen ihr Schreiben. Während des Schreibens schreiben sie über das Schreiben – in der Überlappungszone. Hier findet

–––––––– 9

10

Friedrich Nietzsche an seinen Sekretär Heinrich Köselitz alias Peter Gast (Ende 1882). Vgl. Friedrich Nietzsche: Schreibmaschinentexte. Vollständige Edition, Faksimiles und kritischer Kommentar. Aus dem Nachlass hrsg. von Stephan Günzel und Rüdiger Schmidt-Grépály. Weimar 22003, S. 18. Rüdiger Campe: Schreiben im ‚Process‘. Kafkas ausgesetzte Schreib-Szene. In: „Schreibkugel ist ein Ding gleich mir: von Eisen“. Schreibszenen im Zeitalter der Typoskripte. Hrsg. von Davide Giuriato, Martin Stingelin und Sandro Zanetti. München 2005 (Genealogie des Schreibens. 2), S. 115–132, hier S. 120.

300

Anke Bosse

während des Schreibakts eine Überlappung von Schreibszene und Schreib-Szene statt. So aber nie im gedruckten, publizierten Buch. Die Schreib-Szene im Buch ist Inszenierung, öffentliche Bühne des Autors, der Autorin, weil fremdadressiert an die Leser und Leserinnen. Während des Schreibens aber, in der Überlappungszone, sind die Reflexionen zum Schreiben und das Schreiben über das Schreiben selbstadressiert – und dementsprechend anders inszeniert … wie etwa die Sorge um die Füllfeder. Diese selbstadressierten Textpassagen der AutorInnen haben sie selbst als Publikum, verbleiben in der Regel in der Überlappungszone und ‚schaffen‘ es nicht ins Buch, vor das Buchpublikum. Sie bilden einen autozentrierten Echoraum des Schreibens. Er bleibt dem Buchpublikum zwangsläufig verschlossen. Einblicke in diesen Echoraum und in das Schreiben eines Autors, einer Autorin erlangen nur ForscherInnen, die Zugang zu den Textzeugen im Archiv haben. An ihnen liegt es, diese Einblicke einem größeren Publikum zu vermitteln. Eine überaus attraktive Forschungs- und Vermittlungsaufgabe. Dazu folgen weiter unten die Beispiele 1 und 3. Doch gilt dies auch für jene selbstadressierten Textpassagen, die es aus der Überlappungszone bis ins Buch ‚schaffen‘ und dort als Schreib-Szene vor Publikum fungieren. Ihre Genese, ihren Weg, ihre Modifikationen zu rekonstruieren und darzustellen, ist insofern besonders aufschlussreich, weil sich so herausarbeiten lässt, wie sich die (Selbst-)Inszenierung verändert, je mehr sich ein Schreibprojekt der Publikation vor Publikum nähert. Dazu folgt weiter unten das Beispiel 2. 11 Nicht zuletzt bieten die Textzeugen im Archiv die Möglichkeit, die öffentlichen Selbstdarstellungen eines Autors, einer Autorin zu beleuchten, die sie zu ihrem Schreiben nicht nur in ihren Büchern, sondern auch in Interviews und anderen Begleittexten machen. Zu Josef Winklers Anfängen zeigen die im RMI / KLA aufbewahrten Notizbücher, dass auf das entscheidende Notizbuch 1 in nur 2½ Jahren fünfzehn weitere, nach demselben Setting gestaltete und benutzte folgen, die der Autor von 1 bis 16 nummerierte (Abb. 24). Tausende von Seiten. Als literarisches Projekt kristallisiert sich insbesondere Mutter Engelmacherin heraus (Abb. 25). Während Winkler an Notizbuch 13 schreibt, geschieht im September 1976 der Doppelsuizid der Jugendlichen Jakob und Robert in seinem Kärntner Heimatdorf Kamering. Es ist Jakobs, des geliebten Freunds Tod, der eine existentielle Erschütterung bewirkt. Noch viele Jahre später erklärt Winkler in einem Interview: […] irgendwie hab ich dann vor lauter Angst, weil ich sehr schnell gespürt habe […], dass mir auch so etwas hätte passieren können, hab ich dann vor lauter Angst, damit ich Tag für Tag noch lebe und überlebe, hab ich dann geschrieben und geschrieben. Ein eintausend Seiten langes Tagebuch. Und dann sind die ersten Sätze zum ersten Buch entstanden. Die es dann wert waren, zerstört oder anders formuliert zu werden. 12

–––––––– 11

12

Dass das Modell aus ‚Schreibszene‘, ‚Überlappungszone‘ und ‚Schreib-Szene‘ ein übertragbares ist und ausgesprochen hilfreich, um literarische Schreibprozesse zu erforschen und darzustellen, zeigt Walter Fanta in seinem Beitrag im vorliegenden Band am Beispiel Musils: Die textgenetische Darstellung des Romans Der Mann ohne Eigenschaften von Robert Musil auf MUSIL ONLINE, S. 227–248, hier insbes. S. 237–245. Der Allerheiligenhistoriker. Josef Winkler im Gespräch mit Michael Kerbler. Klagenfurt 2009, S. 15f.

Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler

301

Nun, zwischen dieser Selbstdarstellung und -erinnerung und den Textzeugen im Archiv besteht ein gewisser Widerspruch: das „eintausend Seiten lange Tagebuch“ war längst im Entstehen, als Jakob und Robert starben. Immer wieder hat Josef Winkler den Doppelsuizid als ‚Urszene‘ seines Schreibens und als einzige Möglichkeit des Überlebens beschworen und inszeniert. So auch in seinem ersten publizierten Buch, Menschenkind. Es erschien 1979 bei Suhrkamp und war der Startschuss für eine überaus erfolgreiche internationale Schriftstellerkarriere. Und hier, im Buch, wird an prominenter, paratextueller Stelle als Motto und Programm der Doppelsuizid literarisch so in Szene gesetzt, als sei das Erzähler-Ich direkter Zeuge gewesen (Abb. 26): Am 29. September 1976 stiegen in meinem Heimatort Kamering bei Paternion, Kärnten, der 17jährige Mechanikerlehrling Jakob Pichler und sein gleichaltriger Freund, der Maurerlehrling Robert Ladinig, mit einem drei Meter langen Kalbstrick über eine Holzleiter des Pfarrhofstadels zu einem Trambaum hinauf. Sie schlangen das Seil um ihn und verknoteten die beiden Seilenden hinter ihren linken Ohren. Der Nerv des Stricks zuckte. Ihre Hände flochten sich zu einem Zopf ineinander, immer schneller im Kreis sich drehend wirbelten sie wieder auseinander und kamen vor ihren blutunterlaufenen Augen zum Stehen. 13

Dieser Text und seine häufigen Wieder-holungen haben bis heute den Effekt anhaltender LeserInnenlenkung. Noch dazu trug der Erstdruck als Umschlagillustration ein vermeintlich originales, fingiert aufgeklebtes Zeitungsfoto, das Jakob Pichler zeigt – eine Authentizitätsfiktion, die die LeserInnenlenkung noch verstärkte. 14 Doch der Blick ins Archiv zeigt uns: Josef Winklers Notizbücher sprechen eine andere Sprache (Abb. 27). Der Doppelsuizid ist nicht der Ursprung seines Schreibens, sehr wohl aber dessen entscheidender und anhaltender Katalysator. Ursprung seines Schreibens sind die Notizbücher selbst. Sie sind Josef Winklers erste Schreibszene. Sie dienen ihm als Inspirationsquelle für seine Bücher, sie tragen die ersten Spuren der Textgenese in sich – übrigens bis heute.

Von Mutter Engelmacherin zu Menschenkind (Abb. 28–34) Doch der Weg zum ersten publizierten Buch verläuft nicht linear. Parallel zu den Notizen über den Tod des Freunds Jakob und den Doppelsuizid in Notizbuch 13 verfolgte Winkler neben kleineren Projekten 15 weiterhin das bereits laufende literarische

–––––––– 13 14

15

Josef Winkler: Menschenkind. Roman. Frankfurt/M. 1979. Vorsetzblatt. Den leserlenkenden und durchaus auch -manipulierenden Effekt von Paratexten, zu denen auch Bildelemente wie Titelillustrationen gehören, hat erstmals Gérard Genette erfasst. Gérard Genette: Palimpseste. Die Literatur auf zweiter Stufe [frz. 1982]. Frankfurt/M. 1993, S. 11f., und ders.: Paratexte. Das Buch vom Beiwerk des Buchs [frz. 1987]. Frankfurt/M., New York 1992, S. 10. Vgl. Anke Bosse: Paratextuelle, medienspezifische Lektüresteuerung und Konjektur. In: Konjektur und Krux. Zur Methodenpolitik der Philologie. Hrsg. von Anne Bohnenkamp, Kai Bremer, Uwe Wirth und Irmgard Wirtz. Göttingen 2010, S. 233–251. Der Winkler-Bestand I zeigt, dass Winkler seit 1974 mit kleineren lyrischen und dramatischen Projekten sowie Prosatexten beschäftigt war. Im Mittelpunkt stand aber das Projekt Mutter Engelmacherin, das schließlich in die Publikation Menschenkind mündete.

302

Anke Bosse

Projekt Mutter Engelmacherin.16 Damit hatte er bereits 1½ Jahre zuvor, im Juli 1975, im Notizbuch 7 begonnen: „Buch im Entstehen / Die Engelmacher / Romantitel / Die Erdäpfelklauber …“ (Abb. 29). Ab dem Notizbuch 8, im November 1975, trägt sein Projekt als „Romantitel Mutter Engelmacherin“ (Abb. 30). Es ist inspiriert von den Aufzeichnungen einer Kameringer Hebamme („Mutter“), die auch Abtreibungen vornahm („Engelmacherin“). Der Doppelsuizid Jakobs und Roberts im September 1976 war Ansporn für das Schreiben als Überleben, doch es geht ein in Winklers bereits laufendes Projekt Mutter Engelmacherin … bis in den April 1977. Und seine Ambition wächst. Dies ist ersichtlich am Schreibmaterial, das – wie wir gesehen haben – sein Schreiben maßgeblich bestimmt: Winkler geht von den handlichen A6-Notizbüchern über zu einem A5-Notizbuch, das noch deutlicher als Buch auftritt. Doch die wachsende Ambition lässt ihn schließlich scheitern – am Material. Winkler greift zu einem noch größeren Format – zum A4-Buch (Abb. 31). Doch dieses lässt sich nicht mehr wie ein Talisman am Leib tragen oder in der mitgeführten Ledertasche transportieren, es ist kein Begleiter beim Flanieren, Beobachten, Schreiben und kann nur am Tisch sitzend für das Schreiben benutzt werden. Die Instrumentalität und die Körperlichkeit des Schreibens sind blockiert. Eine Sackgasse. Vom A4-Notizbuch sind nur noch 43 Blätter erhalten, die Winkler herausgerissen hat. Den Bucheinband aber und die 157 restlichen Seiten eliminierte er im Furor des Scheiterns – und in der Erkenntnis, dass dies seine Schreibszene nicht ist (Abb. 32). Diese Erkenntnis ist zugleich eine bis heute wirksame Befreiung: Mit den Notizbüchern 15 und 16 kehrt Winkler zu den handlichen A6-Notizbüchern zurück, wie er sie bis heute für spontane Notizen bei sich führt (Abb. 33). Parallel zu dieser Erkenntnis entsteht nun eine grundlegend neu konfigurierte Schreibszene und mit ihr die Entscheidung für ein neues Schreibprojekt (Abb. 34): Winkler beginnt, die ihn überzeugenden Textsplitter aus den Notizbüchern abzutippen. An die Stelle des Schreibinstruments Füllfeder tritt die Schreibmaschine in dreierlei Gestalt: die mechanische Brother Deluxe, dann die elektrische Kugelkopfmaschine zuhause und der Composer 17 im Schreibbüro in der Hochschule für Bildungswissenschaften, heute Alpen-Adria-Universität Klagenfurt. Dort war Winkler als Schreibkraft tätig.18 Mit diesen Typoskripten nimmt nun die Textgenese von Menschenkind Fahrt auf.

–––––––– 16

17

18

Die regelmäßigen Einträge, denen „ME“ als Abkürzung für „Mutter Engelmacherin“ vorangehen, bestätigen dies – auch in Notizbuch 13. Ab dem ersten Eintrag zu Jakobs Tod vom 2. Oktober 1976 bestätigt sich in den Notizen aber auch die tiefe existentielle Erschütterung und Verzweiflung Winklers. Die IBM 72-Composer-Schreibmaschine war ebenfalls mit der Kugelkopftechnik ausgestattet, hatte aber vor allem die für Winkler attraktive Besonderheit, dass sie ein Schriftbild lieferte, das so aussieht, als sei es in einer Buchdruckerei angefertigt worden. So unterstützt sie bei Winkler die stimulierende Illusion, bereits ‚ein Buch‘ zu schreiben. Vgl. http://www.zeit.de/1966/43/getippt-wie-gedruckt (Abruf am 03.04.2017). Es fällt auf, dass dieses berufliche, dem Schreiben zuträgliche Setting auch bei Robert Musils ‚Anfangsszene‘ seines Schreibens, der „Einrichtung der Apparatur“, zentral war. Musil nutzte 1919/20 die Büroinfrastruktur im österreichischen Außen- und Heeresministerium. Vgl. Walter Fantas Beitrag im vorliegenden Band (Anm. 11), S. 241.

Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler

303

Zur Textgenese von Menschenkind (Abb. 35–56) Winkler tippt manisch-exzessiv. Die Schreibmaschine ist ihm stimulierende Klaviatur, sie ist es jetzt, die seinem Schreiben – auch gegen Widerstände – den Takt vorgibt. Das Schreibmaterial sind nun A4-Blätter. Neben der Instrumentalität verändert sich nun auch die Körperlichkeit der Schreibszene: Winkler ist nicht mehr mobil, sondern an die Schreibmaschine ‚gekettet‘, dadurch aber auch völlig auf das Schreiben fokussiert – so sehr, dass „alle seine Lebensfunktionen und Alltagsverrichtungen auf den Akt des Schreibens konzentriert“ sind. 19 Dadurch ändert sich auch die Sprachlichkeit dieser neuen Schreibszene. Denn mit dem Akt des Abtippens setzt Winkler für sich nun definitiv die Entscheidung, das private Notizbuch zu verlassen und einen literarischen Text anzugehen. Dafür löst er sich durch stetige Textüberarbeitung aus der autobiographischen Szenerie, aus der Selbstadressierung und bewegt sich hin auf eine mögliche Buchveröffentlichung. Vom privaten ‚Buch‘ zum öffentlichen ‚Buch‘ und dessen Leser und Leserin (Abb. 36). Was Winkler aus den Notizbüchern abtippt, sind Beobachtungen oder Gedanken in Textsplittern. Er weiß um ihren Entwurfscharakter und gibt sich selbst die Schreibanweisung: „Noch einzelne Teile auszuarbeiten!“ (Abb. 36) Sie ist mein Beispiel 1 und typisch für die oben erwähnten selbstadressierten Schreibanweisungen in der Überlappungszone, die in ihr verbleiben, es nicht ins Buch ‚schaffen‘, aber für die Textgenese elementar sind. Sie werden im Schreiben umgesetzt, modifiziert oder doch ignoriert. Winkler setzt „Noch einzelne Teile auszuarbeiten!“ um: Die von ihm für würdig erkannten Textsplitter überarbeitet er, markiert er und tippt sie erneut ab. Oder er zerschneidet die Blätter und klebt sie neu zusammen. Wieder und wieder und wieder variierend. Das ist die zweite Winkler’sche Schreibszene (Abb. 37). Die Entscheidung zum Abtippen bildet zugleich den Übergang in ein Schreibprojekt, das zu Winklers erstem veröffentlichten Roman führen wird, Menschenkind. Anhand der wichtigsten Textzeugen 20 habe ich so weit als möglich die textgenetischen Beziehungen rekonstruiert: Abb. 38.21 Wie oben angekündigt, werde ich an meinem Beispiel 2 den textgenetischen Weg darstellen, den ein Textsplitter bis zum gedruckten

–––––––– 19

20

21

„Monatelang war seine nächtliche Anwesenheit nur am ununterbrochenen Surren und Rattern seiner elektrischen Kugelkopfschreibmaschine zu bemerken. […] Alle seine Lebensfunktionen und Alltagsverrichtungen waren auf den Akt des Schreibens konzentriert. Der Stoß leerer Blätter auf der rechten Seite der Maschine schrumpfte so beständig, wie der auf der linken Seite am Boden liegende Stoß mit beschriebenen Blättern der Tischkante entgegenwuchs. Dazwischen, an der Maschine, der ‚Bilderproduzierer‘, wie er sich selber nannte.“ (Klaus Amann: Attacke und Rettung. Zu einem Grundmuster bei Josef Winkler. In: Die Entsetzungen des Josef Winkler. Hrsg. von Alexandra Millner und Christine Ivanovic. Wien 2014, S. 26–45, hier S. 30). Es ist sehr verbreitet, dass zu den Erstlingswerken von Autoren und Autorinnen wenig überliefert ist. Denn vor Publikation ihres ersten Buchs und jeglicher öffentlicher Anerkennung nehmen sie sich noch nicht als Autor/Autorin wahr und haben daher selten den Reflex, ihre Vorarbeiten aufzuheben. Bei meiner Rekonstruktion habe ich mich – neben den Notizbüchern – auf jene Textzeugen beschränkt, die den Übergang in die zweite Schreibszene, das (Ab-)Tippen, bezeugen. Andere Arbeiten Winklers, die sich Mutter Engelmacherin zuordnen lassen, verkreuzen sich mit kleineren, parallel laufenden Projekten. Die Bezüge zu diversen, separat überlieferten Manu- und Typoskripten zu rekonstruieren, ist ein eigenständiges Forschungsprojekt.

304

Anke Bosse

Buch Menschenkind nimmt; es handelt sich um einen Textsplitter, der die Gelingensbedingungen des Schreibens thematisiert, uns zu den Notizbüchern zurückführt und damit in die Überlappungszone zwischen der Schreibszene und der Schreib-Szene. Mein Beispiel-Textsplitter findet sich erstmals im Notizbuch 15 vom April 1977 (Abb. 39–40). Während des Schreibens reflektiert der 24-jährige Winkler hier auf die eigene Sprachmacht als Gelingensbedingung seines Schreibens: „Oft fürchte ich mich vor der eigenen Sprache, die zu bekämpfen / beschimpfen Wortlosigkeit genügt.“ (Abb. 41) In dieser frühesten Fassung wird Wortlosigkeit als funktionierendes Kampfmittel gegen die Furcht vor der eigenen Sprache vorgestellt. Doch der Logik dieses Satzes zu folgen, hieße zu verstummen, ja in letzter Konsequenz das Schreiben aufzugeben! Es ist daher überaus bedeutsam, dass Winkler diesen Satz im nächsten Schritt zwar ‚minimalinvasiv‘, doch drastisch verändert. Schon im Abtippen – also weiterhin in der Überlappungszone – lässt er die schwache Alternativvariante „beschimpfen“ fallen und schreibt noch während des Tippens um zu: „Oft fürchte ich mich vor der eigenen Sprache, die zu bekämpfen [worl gestrichen] selbst Wortlosigkeit nicht genügt.“ (Abb. 42) Durch das Einfügen der Negation „nicht“ und ihrer Verstärkung durch „selbst“ wird der ursprüngliche Satz umgekehrt: Der Wortlosigkeit, dem Verstummen, wird jetzt gerade abgesprochen, ein Mittel gegen die Furcht vor der eigenen Sprache zu sein. Dieser Satz lässt nur noch eine andere Option zu, wenn auch implizit: die Furcht ist durch Weitersprechen, Weiterschreiben zu bekämpfen. Dieser Satz wird zur Selbstermächtigung des Sprechenden, des Schreibenden. Der ‚Kampf mit der Sprache‘ als Voraussetzung seines Schreibens wird bei Winkler zum stehenden Topos. Dieser Satz erhält sich unverändert in allen weiteren typographischen Abschriften (Abb. 43) bis in den Druck des Romans Menschenkind. Nur das verstärkende „selbst“ fällt weg. Im Roman scheint er als Schreib-Szene also gerade keine besondere (Selbst)Inszenierung mit Blick auf das Lesepublikum erfahren zu haben. Doch ganz so einfach ist es nicht. Als Menschenkind 1979 bei Suhrkamp erschien, zog er sofort großes Lob auf sich. Doch wunderte man sich darüber, dass einige Passagen kursiv gedruckt sind und dass der Roman so wenig „Roman“ ist, nämlich eine assoziative Collage-Struktur hat. Wir können das beantworten – dank des Archivmaterials und durch unseren Blick in Josef Winklers Schreibszene. Wie der oben vorgestellte Textsplitter und sein Umfeld in den Notizbüchern sowie den Typoskripten zeigt, ist Menschenkind aus immer wieder bearbeiteten Textsplittern entstanden, die immer wieder neu kombiniert, wieder bearbeitet und wieder abgeschrieben wurden – daher die Collage-Struktur. Und der Kursivdruck? Nun, in einem Typoskript hat sich Winkler eine äußerst bedeutsame Schreibanweisung gegeben: „regiesätze“ (Abb. 44). Sie ist mein Beispiel 3 und gehört zu den selbstadressierten Schreibanweisungen, die im Schreiben umgesetzt, modifiziert oder ignoriert werden. Eines gilt immer: Sie verbleiben in der Überlappungszone zwischen Schreibszene und Schreib-Szene, werden nie im Buch veröffentlicht – haben aber eine Schlüsselfunktion in der Textgenese. So auch hier.

Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler

305

Wie hat Winkler seine Schreibanweisung „regiesätze“ umgesetzt? Er hat alle Textsplitter, von denen hier gerade ein einziger präsentiert wurde, nachträglich theatralisiert.22 Er hat sie durch „regiesätze“ inszeniert, so dass sich beim Lesen in unserer Imagination, unserem ‚Kopfkino‘, jedes Mal eine kleine Bühne aufbaut. Es sind diese „regiesätze“, die Winkler selbst in einem Typoskript, das ursprünglich Druckvorlage war, kursiv tippte – so wie man es ja auch mit Regieanweisungen im Drama macht. Schauen wir uns hier unseren Beispiel-Satz an (Abb. 45).23 Hier wird der Satz durch mehrere kursive „regiesätze“ eingeleitet: Überall auf seinem Körper sieht man Fußspuren, Ferse neben Ferse, Ferse neben Vertiefung, Zehe neben Zehe, Fuß über Fuß. Vor seinen Augen entfaltet sich ein Schirm aus Pfauenfedern. Er kauert mit gekreuzten Beinen auf seinem wirren Kopfhaar. Mit einer Geste schlägt er langsam den Takt. Eine Kaffeeschale sitzt auf dem Tischrand, baumelt mit dem Löffel über der Kante, das gierige, silberne Besteck zeigt spöttisch auf die beiden Liebenden.

Die Szenerie ist bereitet, Auftritt für den Textsplitter „Oft fürchte ich mich vor der eigenen Sprache, die zu bekämpfen Wortlosigkeit nicht genügt.“ Dieser Satz wird nun einem „er“ mit dramatisch gemartertem Körper, einem Leidensmann, zugewiesen und zugleich aus der direkten autobiographischen Verklammerung mit dem Autor-Ich gelöst. Theatrale Inszenierungen wie diese, die den Leser, die Leserin und deren ‚Kopfkino‘ avisieren, hat Josef Winkler mit hunderten und aberhunderten von Sätzen gemacht – bis daraus sein erster Roman wurde. Wir haben hier also die Situation, dass zwei Schreibphasen – die ältere der Notizbuchsätze und die jüngere der inszenierenden „regiesätze“ – zusammenkommen (Abb. 46). Das können wir im Druck nicht erkennen – obwohl dieses Prinzip für das ganze Buch Menschenkind gilt (Abb. 47)! Doch wer den Weg dieses Beispiel-Satzes in den Textzeugen im Archiv zurückverfolgt, kann sehr konkret erkennen, wie sich die Inszenierung und damit die Theatralität des Schreibens je nach Publikum ändern – nämlich sobald die Selbstadressierung in der Überlappungszone übergeht zur Fremdadressierung an die Leserin, den Leser in der Schreib-Szene im Buch (Abb. 48). Bei meiner Durchsicht des Vorlasses zu Menschenkind fiel mir auf, dass die neue, zweite Schreibszene an der Schreibmaschine bei Josef Winkler einen Flow-Effekt ausgelöst hat. Ganze Textpassagen verselbständigen sich. Nur eine Textpassage und

–––––––– 22

23

Diese Hypothese erhärtet sich durch einen weiteren Fund im Winkler-Bestand I. Im Konvolut „Erste und frühe Schriften, Texte, Gedichte (Celan-Imitationen), Notizen … (unveröffentlicht)“ findet sich ein mit Composer geschriebener Briefentwurf Winklers, der auf den „20. März 78“ datiert und an eine Freundin in Salzburg adressiert ist. Ihr hat er „einen teil des romans“ geschickt und darum gebeten, ihn zunächst „niemanden [sic!] zu zeigen“. Dazu schreibt er: „[…] ereignisse und aphoristische ausdrücke dieses teiles habe ich mit regieanweisungen belegt, um die sprache personifizieren zu können, die handelnden personen in wirklichkeit außer szene zu setzen. Die sprache bewegt sich wie eine anatomische konstruktion. Soetwas [sic!] wie eine sezierung eines theaterstückes, wo die handelnden figuren unabhängig von ihren gestiken durch die sprache agieren, die gestiken aber außerhalb des geschehens, getrennt von ihren dazugehörigen personen leben.“ (Hervorhebungen A.B.) Das Typoskript T246_MENSCH weist rote Eintragungen des Setzers auf, war also ursprünglich als Druckvorlage vorgesehen. Das Typoskript ging aber an den Autor Winkler zurück, der es erneut bearbeitete, so dass zwischen T246_MENSCH und gedrucktem Buch bedeutende Variationen bestehen.

306

Anke Bosse

nur ihren Anfang möchte ich als Beispiel 4 vorstellen (Abb. 49–50). Sie ist Titelgeberin des vorliegenden Beitrags: „Die Wortmaschine … wird jetzt in Betrieb genommen“. Auf dem Composer im Schreibbüro an der Hochschule für Bildungswissenschaften (heute Alpen-Adria-Universität Klagenfurt) hat Winkler folgendes zweiseitiges Typoskript geschrieben: Diese wortmaschine mit ihren kleinkarierten buchstabenfeld im labyrinth tausender schreckenssekunden, ein schwarzes leinentuch vor augen, einen zu gewebe reduzierten augenblick eines dramatischen liebesaktes, diese wortmaschine, die beschreibt und in ihrer beschreibung durch sprachliche konsequenz die angehäuften menschlichen bewegungen in ihrer ekstase auflöst, wird jetzt in betrieb genommen. Die buchstaben sind geölt, die hände am fließband der fixierten tasten gefesselt, dringen wie nadelstiche aufs leinen, voran mit den spitzen lippen des zuckenden schreibkopfes, der sich nach vorangegangener buchstabenwahl nach links, nach rechts dreht, wie eine puppe, die sich ihren geölten halses, ihrer parfümierten hand schämt. die finger fahren immer wieder hoch und nieder […].

Die Kleinschreibung zeigt an, wie hier einer im Fluss heruntertippt und während des Tippens das Schreiben/Tippen beschreibt. Wir befinden uns erneut in der Überlappungszone zwischen konkreter Schreibszene (Josef Winkler sitzt am Composer) und der Schreib-Szene: in der Überlappungszone wird während des Schreibens über das Schreiben geschrieben. Hier, während des Schreibens, wird der Composer zur kreativen „wortmaschine“, der Schreibende selbst wird reduziert auf seine „hände“ und „finger“. Gerade das Beschreiben des Schreibinstruments wird ihm zum Schreib-Stimulans, löst hier einen kreativen Schreibflow aus, der sich über zwei dicht beschriebene Typoskriptseiten ergießt. Diese zweiseitige Passage hat Winkler später orthographisch an die Großschreibung angepasst und nur minimal verändert in den Druck von Menschenkind übernommen. Dort wirkt sie nun als Schreib-Szene (Abb. 51). Was wir dem Buch aber nicht ansehen und nur an jenem Typoskript im Archiv erkennen können, das ursprünglich Druckvorlage war: 24 Den Typoskriptteil mit der „Wortmaschine“ hat Winkler auf S. 5 aufgeklebt (Abb. 52). Diese Art Collage gibt es auf den über 200 Seiten des Typoskripts, der ursprünglichen Druckvorlage, nur hier. Und es zeigt sich, dass sich die breitere Kolonnenbreite des „Wortmaschine“-Texts hinzieht bis zum Ende des Typoskripts. Das bedeutet, dass dem Typoskriptteil mit der „Wortmaschine“ die S. 1–5 vorgeklebt wurden25 und dass der Roman ursprünglich mit dem fulminanten Auftritt der „Wortmaschine“ beginnen sollte (Abb. 53). Diese nachträglichen S. 1–5 enthalten prompt kursiv gesetzte „regiesätze“, die wie alle „regiesätze“ später entstanden. Wie alle „regiesätze“ bereiten sie der „Wortmaschine“ die Bühne. Hier sogar wortwörtlich (Abb. 54–56): Es gibt den „Eingang des Bauerntheaters; dichter, wallender

–––––––– 24

25

Das Typoskript wurde – mit Ausnahme des Titelblatts und Zwischentitels – auf einer elektrischen IBMKugelkopfmaschine getippt, so dass es durch den Einsatz verschiedenere Kugelköpfe auch möglich war, kursive Buchstaben zu tippen. Weitere Indizien sind: Die Nummerierung der S. 1–5 ist kursiv, die Seitennummerierungen ab „Wortmaschine“ sind recte. Und auf S. 1 ist kursiv „01-04“ geschrieben, was diese Seiten als eigenständiges Konvolut ausweist. S. 2 ist ihrerseits eine Collage aus Textteilen, wie es sie sonst in diesem Typoskript nicht gibt.

Schreibszene, Überlappungszone und Schreib-Szene bei Josef Winkler

307

Regen statt des Bühnenvorhanges“, „in der Mitte der Bühne stehend ißt der Vater ein Ei“, „trommelfellerschütternde Schreie eines Kindes erschüttern das Publikum“. Und dann folgt der Auftritt des Erzählers: „der Erzähler fügt sich ins Bild“, er spricht „keinen bestimmten literarischen Dialekt“. Hier im Typoskript ist sichtbar, dass das Folgende – „Die Wortmaschine mit ihrem kleinkarierten Buchstabenfeld …“ – von ihm, dem Erzähler, wie auf einer Bühne gesprochen wird. Ein inszenatorischer Konnex, der im gedruckten Buch nicht mehr so eindeutig ist und bisher nur selten bemerkt wurde.26

Die Autorwerdung (Abb. 57–58) Immer wieder wird als ‚Urszene‘ von Josef Winklers Autorwerdung und seines Schreibens der Doppelsuizid der zwei Kameringer Jugendlichen Jakob und Robert benannt – weil von ihm selbst so inszeniert. Wir wissen nun: Seine Autorwerdung beginnt bereits mit seinen frühen Notizbüchern, mit denen er seine erste Schreibszene und zum Schreiben findet. Mit dem Abtippen, Überarbeiten, Collagieren, Abtippen entsteht eine zweite Schreibszene, die – die Überlappungszone durchlaufend – sich immer mehr Richtung Publikation bewegt. Beide Schreibszenen generieren den Autor Josef Winkler. Der Doppelsuizid aber und die mit ihm verbundene existentielle Erschütterung sind, das wird deutlich, der bleibende Katalysator dafür, dass JosefSisyphos den ‚Kampf mit der Sprache‘ aufnimmt und schreibt und schreibt und schreibt. Um dem Tod zu entrinnen, um zu überleben und um zu leben. „Ich schreibe, also bin ich“ – diese Winkler’sche Adaptation von Descartes’ „Ich denke, also bin ich“ ist seine Lebens- und Überlebensmaxime. Ihr verdanken wir die Genese eines Autors, ein einzigartiges Werk – und einen einzigartigen Vorlass.

Ausblick (Abb. 59–63) Die Einzigartigkeit des Winkler-Bestands I im RMI / KLA besteht zunächst einmal in den 100 Notizbüchern (Abb. 60). Sie lassen sich über Winklers regelmäßige Datierungen in eine durchgängige Chronologie bringen. Diese reicht von seinen Anfängen, die der vorliegende Beitrag vorstellte, bis 2013. Viele der Notate in den Notizbüchern, später auch die ein-collagierten Bilder, Zeitungsartikel etc., dienen Winkler als ‚Rohdaten‘ für seine Werke. Sie stehen oft am Anfang der Textgenese. Dass wir Textzeugen haben, die so kontinuierlich, zeitlich fixierbar und systematisch die Anfänge von Textgenesen festhalten, ist einmalig – und eine riesige Herausforderung. Von den Notizbüchern ausgehend ließen sich also die Textgenesen der Werke Winklers rekonstruieren, zu denen 44 werkbezogene Konvolute vorliegen (Abb. 61).

–––––––– 26

Der m. W. einzige Aufsatz bisher, der sich mit dieser Theatralisierung von Menschenkind am Textanfang und der Ineinssetzung von Tod und Schreiben überzeugend auseinandersetzt, stammt von Stephan Krammer: Sterbepassagen. Die Winkler’schen Winkelzüge des Todes. In: „Wir sind die Seinen lachenden Munds“. Der Tod – ein unsterblicher literarischer Topos. Hrsg. von Nicola Mitterer und Werner Wintersteiner. Innsbruck, Wien 2010, S. 109–120.

308

Anke Bosse

Das im vorliegenden Beitrag zu Menschenkind vorgestellte Konvolut ist allerdings sehr überschaubar. Es füllt nur einen Archivkasten. Der Umfang der Konvolute nimmt dann deutlich zu, z. B. fünf volle Archivkästen zu Der Leibeigene. Die Notizbücher müssen erst einmal transkribiert werden, damit die werkbezogenen Textsplitter identifiziert werden können, 27 und die Werkkonvolute wiederum müssen erst einmal erschlossen und zusammen mit den Notizbüchern sowie möglichen weiteren Materialien zu textgenetischen Dossiers geordnet werden. Erst mit diesen Vorarbeiten liegen die Voraussetzungen für textgenetische Darstellungen in einer digitalen Edition vor. Aus Erfahrung wissen wir, dass solche Vorarbeiten Jahre, Jahrzehnte dauern. Mein Vorschlag ist, dem Modell des vorliegenden Beitrags zu folgen und auf die jeweilige Schreibszene, Überlappungszone und Schreib-Szene innerhalb exemplarischer textgenetischer Dossiers zu fokussieren. Anhand ausgewählter Beispiele erlaubte uns dieses Vorgehen, erste Einblicke in die Textgenese des jeweiligen Werks zu erlangen und das je spezifische Schreiben Josef Winklers zu verstehen (Abb. 62). Eine solche Verbindung von textgenetischer und Schreibprozess-Forschung habe ich im vorliegenden Beitrag und in seiner digitalen Komponente auf http://aau.at/musil/ publikationen/textgenese/bosse/ an vier Beispielen zu Menschenkind demonstriert. Adäquat ließe sich dies auf einer Internetplattform realisieren, die als ‚work in progress‘ kontinuierlich veränderbar und erweiterbar ist. Ein solches Projekt bietet sich gerade bei Josef Winkler so sehr an, weil bei ihm das Schreiben über das Schreiben während des Schreibens, die Darstellung und theatrale Inszenierung seines Schreibens geradezu notorisch ist – und zwar eben von den Notizbüchern bis ins gedruckte Buch (Abb. 63). So ließen sich auf der Internetplattform exemplarische Faszinationsgeschichten zum Winkler’schen Schreiben bieten.

–––––––– 27

Mit diesen Transkriptionsarbeiten wurde am RMI / KLA bereits begonnen. Besonders hilfreich war und ist dabei der Einsatz von Transkribus (https://transkribus.eu/, Abruf am 03.04.2017) und unsere Kooperation mit den Innsbrucker KollegInnen im Rahmen des Kompetenznetzwerks Digitale Edition – KONDE (www.digitale-edition.at, Abruf am 03.04.2017).

Angaben zu den Beiträger*innen Andorfer, Peter ACDH – Austrian Centre for Digital Humanities Österreichische Akademie der Wissenschaften Sonnenfelsgasse 19 A – 1010 Wien [email protected] Börner, Ingo ACDH – Austrian Centre for Digital Humanities Österreichische Akademie der Wissenschaften Sonnenfelsgasse 19 A – 1010 Wien [email protected] Bosse, Anke Robert-Musil-Institut für Literaturforschung / Kärntner Literaturarchiv Alpen-Adria-Universität Klagenfurt Bahnhofstr. 50 A – 9020 Klagenfurt am Wörthersee [email protected] Brüning, Gerrit Klassik Stiftung Weimar Stabsreferat Forschung und Bildung Platz der Demokratie 4 D – 99425 Weimar [email protected] Busch, Anna Theodor-Fontane-Archiv Universität Potsdam Villa Quandt, Große Weinmeisterstr. 46/47 D – 14469 Potsdam [email protected] Canal Pardo, Héctor Klassik Stiftung Weimar Goethe- und Schiller-Archiv Abteilung Editionen Jenaer Str. 1 D – 99425 Weimar [email protected]

https://doi.org/10.1515/9783110575996-020

310

Angaben zu den Beiträger*innen

Clausen, Hans Zentrum für Informationsmodellierung Universität Graz Elisabethstr. 59/III A – 8010 Graz [email protected] Dängeli, Peter Cologne Center for eHumanities Universität zu Köln D – 50923 Köln [email protected] Fanta, Walter Robert-Musil-Institut für Literaturforschung / Kärntner Literaturarchiv Alpen-Adria-Universität Klagenfurt Bahnhofstr. 50 A – 9020 Klagenfurt am Wörthersee [email protected] Hannesschläger, Vanessa ACDH – Austrian Centre for Digital Humanities Österreichische Akademie der Wissenschaften Sonnenfelsgasse 19 A – 1010 Wien [email protected] Hartwig, Maja Beethovens Werkstatt Musikwissenschaftliches Seminar Detmold/Paderborn Hornsche Str. 39 D – 32756 Detmold [email protected] Henny-Krahmer, Ulrike Lehrstuhl für Computerphilologie und Neuere Deutsche Literaturgeschichte Institut für Deutsche Philologie Am Hubland D – 97074 Würzburg [email protected] Jestremski, Margret Universität Würzburg – Institut für Musikforschung Domerschulstr. 13 A – 97070 Würzburg [email protected]

Angaben zu den Beiträger*innen

Johansson, Franz ITEM (CNRS/ENS) 45, rue d’Ulm F – 75005 Paris [email protected] Klug, Helmut W. Zentrum für Informationsmodellierung Universität Graz Elisabethstr. 59/III A – 8010 Graz [email protected] Lukas, Wolfgang Lehrstuhl für Neuere deutsche Literaturgeschichte und Editionswissenschaft Bergische Universität Wuppertal Gaußstr. 20 D – 42119 Wuppertal [email protected] Novara, Elisa Beethovens Werkstatt Beethoven-Haus-Bonn Bonngasse 18–26 D – 53111 Bonn [email protected] Nutt-Kofoth, Rüdiger Bergische Universität Wuppertal Fakultät für Geistes- und Kulturwissenschaften Germanistik Gaußstr. 20 D – 42119 Wuppertal [email protected] Ries, Thorsten Marie Sklodowska-Curie Fellow School of History, Art History and Philosophy (HAHP) Sussex Humanities Lab (SHL) University of Sussex, HAHP UK – SHL Brighton BN1 9QN [email protected]

311

312 Roeder, Torsten Universität Würzburg – Institut für Musikforschung Domerschulstr. 13 D – 97070 Würzburg [email protected] Schwentner, Isabelle Institut für Germanistik – Universität Wien Universitätsring 1 A – 1010 Wien [email protected] Sepúlveda, Pedro IELT – Instituto de Estudos de Literatura e Tradição Faculdade de Ciências Sociais e Humanas Universidade Nova de Lisboa Avenida de Berna, 26 C PRT – 1069-061 Lissabon [email protected] Vogeler, Georg Zentrum für Informationsmodellierung Universität Graz Elisabethstr. 59/III A – 8010 Graz [email protected] Walter, Richard ITEM (CNRS/ENS) 45, rue d’Ulm F – 75005 Paris [email protected] Wieland, Magnus Schweizerisches Literaturarchiv (SLA) Hallwylstr. 15 CH – 3003 Bern [email protected] Zumsteg, Simon Universität Bern Institut für Germanistik Länggassstr. 49 CH – 3012 Bern [email protected]

Angaben zu den Beiträger*innen

Namenregister Abraham von Santa Clara 129 Aichinger, Ilse 130 Allemann, Beda 10, 12, 21 Almada-Negreiros, José de 221 Andrews, Tara 118, 126, 128 Andrist, Patrick 122 Aspetsberger, Friedbert 234f. Bachmann, Ingeborg 231, 237 Backmann, Reinhold 3, 7, 11, 14, 21, 26, 33, 35, 42, 49, 111 Barry, Max 99 Barthes, Roland 296 Bausinger, Wilhelm 232f. Beckett, Samuel 43–48, 60, 84, 86, 135, 265 Beethoven, Ludwig van 171f., 174–181, 183 Bein, Thomas 142 Beißner, Friedrich 9, 15–17, 23, 28, 36, 49, 232f. Benn, Gottfried 112 Bernays, Michael 8 Bioy Casares, Adolfo 255 Blanchette, Jean-François 92, 95, 101f., 110 Bleeker, Elly 134 Boetius, Henning 10–12, 21, 30 Bohnenkamp, Anne 5 Boot, Peter 69, 71f., 76, 118, 129, 132 Borges, Jorge Luis 255, 267 Bosse, Anke 239f., 243, 245 Brecht, Bertolt 31, 36 Broch, Hermann 241 Bryant, John 92 Büchner, Georg 14, 231 Burger, Hermann 44f., 47, 265–274, 276, 278, 280 Bürger, Jan 11 Burghart, Marjorie 133 Büttner, Christian Wilhelm 166

https://doi.org/10.1515/9783110575996-021

Buzzetti, Dino 126 Caeiro, Alberto s.a. Pessoa, Fernando 213, 218f., 221–226 Campe, Rüdiger 239, 295f., 299 Campos, Álvaro de s.a. Pessoa, Fernando 213, 221, 223, 226 Canetti, Elias 241 Caria, Federico 134 Carl August von Sachsen-WeimarEisenach 163 Cassiers, Edith 103 Cayless, Hugh A. 134 Celan, Paul 43 Cohen, Fred 107, 110 Contini, Gianfranco 36 Cotta, Johann Friedrich 157f. Crombez, Thomas 103 Cummings, James 126f., 131 Darwin, Charles 60 de Biasi, Pierre-Marc 27, 105, 271 Debray Genette, Raymonde 27 Defoe, Daniel 258 Dekker, Ronald 127 Descartes, René 307 Di Pietro, Chiara 134 Droste-Hülshoff, Annette von 17 Dumont, Stefan 129, 134 Duport, Jean-Louis 172, 175 Duport, Jean-Pierre 175 Eckermann, Johann Peter 154, 166f. Ehlert, Trude 143 Eibl, Karl 234f. Emerson, Lori 95 Fanta, Walter 300, 302 Ferrer, Daniel 23, 98 Ferro, António 227 Fichte, Hubert 94

314 Fischer, Franz 272 Flaubert, Gustave 44f. Fliedl, Konstanze 195 Flüeler, Christoph 122f. Fontane, Theodor 44, 58, 134 Fränkel, Jonas 35 Franzini, Greta 70, 117 Frisé, Adolf 231–235, 237, 241 Fröhlich, Harry 75 Gabler, Hans Walter 134, 236f., 274 Garfinkel, Simson 107 Gärtner, Kurt 142 Geist, Johann Ludwig 163 Gellhaus, Axel 23 Genette, Gérard 301 Gille, Johann Friedrich 164 Glümer, Marie 209 Godwin, William 44, 47 Goedeke, Karl 8, 14, 26, 32f. Goethe, August von 153, 165 Goethe, Johann Wolfgang von 8, 44, 153–169, 265 Goethe, Ottilie von 167 Goethe, Wolfgang Maximilian von 167 Gogh, Vincent van 71, 132 Goody, Jack 35 Göpfert, Herbert G. 73 Göttsche, Dirk 53 Graber, Stefan 53 Grass, Günter 268 Grésillon, Almuth 25, 29, 97, 196–198, 201, 203, 209, 241, 296 Grillparzer, Franz 49 Groeben, Norbert 53 Grumach, Ernst 85 Guttenberg, Karl-Theodor zu 56 Hall-Church, Henry 240 Handke, Peter 281–285, 291–293 Hay, Louis 74 Heilmann, Till A. 92 Heine, Heinrich 35 Henny, Ulrike 272

Namenregister

Herberger, Maximilian 122 Hess, Willy 174 Heym, Georg 7, 12, 16, 24, 28, 31, 38f, 43 Hoffmann, Werner J. 142 Hofmeister, Andrea 142, 144 Hölderlin, Friedrich 14, 37, 41, 43, 122, 231 Horváth, Ödön 38 Hurlebusch, Klaus 5, 16, 28f. Hytier, Jean 260 Jakobson, Roman 36 Jännicke, Stefan 128 Jarrety, Michel 251, 260 John, Jeremy Leighton 106 John, Johann 164–168 Kafka, Franz 6, 231, 237 Kafka, Johann Nepomuk 171 Kanitz, Helene 209 Kanzog, Klaus 15 Kastberger, Klaus 281f. Kästner, Erich 58 Kay, Alan 94f. Kelly, Aodhán 131, 134 Kepper, Johannes 67f. Kepplinger-Prinz, Christoph 281 Kerman, Joseph 174, 176 Kirschenbaum, Matthew 91f., 95, 98, 109, 113 Kittler, Friedrich 296 Klopstock, Friedrich Gottlieb 43 Knebel, Karl Ludwig von 154 Koeppen, Wolfgang 20, 43–47, 265f. Kolenik, Lipej 284 König, Christoph 84–86 Köselitz, Heinrich 299 Kraft, Herbert 9 Krammer, Stephan 307 Kräuter, Theodor 163 Kreutzer, Joachim 21 Kubrick, Stanley 265 Kuczera, Andreas 126

315

Namenregister

Kuhn, Dorothea 157 Lauber, Diebold 140 Leal, Raul 221 Lebrave, Jean-Louis 114, 179 Ledig-Rowohlt, Heinrich Maria 231 Leroi-Gourhan, André 296 Levaillant, Jean 260 Lieftink, Gerard Isaak 143 Link, Jürgen 27, 41 Macco, Alexander 172 Marcovaldi, Gaetano 231 Martens, Gunter 7, 28, 38f., 92 Mathiak, Brigitte 134 McCarty, Willard 118, 129 Meister, Susanne 103 Meyer, Conrad Ferdinand 13f., 37–39, 43, 66 Meyer, Heinrich 53 Middell, Gregor 127 Monod, Julien-Pierre 254f. Montalvor, Luiz de 221 Monteiro, Adolfo Casais 227 Mora, Antonio s.a. Pessoa, Fernando 217 Müller, Friedrich von 154, 166 Münnich, Stefan 278 Musil, Martha 231, 240, 243, 246 Musil, Robert 84, 87, 89, 229–236, 238–248, 300, 302 Nelson, Ted 114 Nemésio, Jorge 216 Nietzsche, Friedrich 230f., 237, 299 Nogueira, Manuela 219 Nutt-Kofoth, Rüdiger 43, 72, 111–114 Oberender, Thomas 292 Pektor, Katharina 281f. Perceval, Luc 103 Pessoa, Fernando 213–227 Philipowski, Katharina 142

Pierazzo, Elena 117–119, 135f., 216 Pietzner, Carlo 241 Plachta, Bodo 3 Platen, Emil 174 Pogwisch, Ulrike von 167 Pontormo, Iacopo da 298 Porter, Dorothy Carr 69f. Powell-Smith, Anna 134 Prätor, Klaus 66 Prušnik-Gašper, Karel 284 Quintilian 13 Radvan, Florian 73f. Rahtz, Sebastian 131, 133 Ralle, Inga Hanna 131 Reich-Ranicki, Marcel 265 Reis, Ricardo s.a. Pessoa, Fernando 213, 218, 223, 226 Reuß, Roland 7, 14, 37, 111, 195 Riemann, Hugo 175f. Riemer, Friedrich Wilhelm 153–162, 164, 166, 168f. Robinson, Peter 127 Rosenthal, Anne F. 231 Rosselli Del Turco, Roberto 79, 133f. Runow, Holger 74 Sahle, Patrick 51, 68, 117–119, 125, 210, 216, 272 Sattler, Dietrich Eberhard 37, 122, 195 Schäuble, Joshua 134 Scheibe, Siegfried 6, 65 Schiller, Friedrich 8, 25, 32f., 81f., 164 Schmidt, Desmond 126, 135 Schmidt, Erich 85 Schmidt, Kurt 35 Schmidt, Paul Gerhard 141 Schneider, Karin 141f. Schnitzler, Arthur 31, 44, 195–202, 204, 207, 209f. Schopper, Daniel 129 Schreibman, Susan 127

316 Schreiter, Solveig 67f. Seidel, Gerhard 36f. Seuffert, Bernhard 8, 12 Shelley, Percy Bysshe 44, 47 Shneiderman, Ben 61 Siemens, Ray 117f. Simões, João Gaspar 226 Sobral Cunha, Teresa 216 Staengle, Peter 111, 195 Staiger, Emil 269 Stamitz, Johann 176 Stange, Jan-Erik 58 Stein, Charlotte von 163 Stein, Fritz 174 Stussi, Alfredo 34 Sutter, Pascale 117 Thaller, Manfred 126 Thayer, Alexander Wheelock 175 Tournier, Michel 255 Trakl, Georg 12, 16, 24, 39, 43

Uribe, Jorge 216 Valéry, Jeannie 254f. Valéry, Paul 251f., 254–260, 262, 264 Van Hulle, Dirk 105, 267, 279 Veit, Joachim 67f.

Namenregister

Vulpius, Christian August 161 Vulpius, Christiane 158 Wachtel, Klaus 141 Wagner, Richard 185–187, 190, 193 Walser, Robert 231 Walzel, Oskar 35 Wassenaar, Ingrid 271 Weber, Carl Maria von 128 Weidner, Gudrun 283 Wieland, Christoph Martin 8, 36 Winkler, Josef 239f., 243, 245, 295– 308 Winters, Jane 95 Wirtz, Irmgard 274 Witkowski, Georg 8f. Witt, Jeffrey 134 Wittgenstein, Ludwig 230f., 237 Woesler, Winfried 17, 19 Wollenberg, Friedrich Wilhelm 11 Wollstonecraft Shelley, Mary 44, 47 Wollstonecraft, Mary 47 Zeller, Hans 3f., 7, 9–11, 13–17, 19, 23, 34, 36f., 39, 54, 65, 67, 197 Zelter, Carl Friedrich 154 Zmeskall, Nikolaus 175 Zundert, Joris van 136 Zweig, Stefan 26