Relevanz: Über den Erkenntniswert wissenschaftlicher Forschung 9783787337989, 9783787337972

Relevanz ist ein Kernkriterium für die Bewertung von Forschungsansätzen wie auch von Forschungsergebnissen: Meteorologis

138 102 2MB

German Pages 189 [190] Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Relevanz: Über den Erkenntniswert wissenschaftlicher Forschung
 9783787337989, 9783787337972

Citation preview

Lara Huber

Relevanz Über den Erkenntniswert wissenschaftlicher Forschung

Meiner

Bibliographische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie; detaillierte bibliographische Daten sind im Internet über ‹http://portal.dnb.de› abrufbar. isbn 978-3-7873-3797-2 ISBN eBook 978-3-7873-3798-9

www.meiner.de © Felix Meiner Verlag Hamburg 2020. Alle Rechte vorbehalten. Dies gilt auch für Vervielfältigungen, Übertragungen, Mikroverfilmungen und die Einspei­cherung und Verarbeitung in elektronischen Systemen, ­soweit es nicht §§  53, 54 UrhG ausdrücklich gestatten. Satz: Jens-Sören Mann. Druck und Bindung: Druckhaus Nomos, Sinzheim. Werk­druck­­papier: alterungsbeständig nach ANSI-Norm resp. DIN-ISO 9706, hergestellt aus 100% chlorfrei gebleichtem Zellstoff. Printed in Germany.

Inhalt Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

Was ist »Relevanz« ? Zwei perspektivische Annäherungen . . . . . . 13

1. Relevanz versus Redundanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2. Relevanz als Bedeutungs- und Deutungszusammenhang . . 19 Relevanz als Kriterium wissenschaftlicher Forschung . . . . . . . . . . 23

1. Erkenntnisleistung oder Erkenntniswert ? . . . . . . . . . . . . . . . . . 23 2. Zur Erkenntnisleistung wissenschaftlicher Forschung und ihrem Erkenntniswert für Anwendungsfelder . . . . . . . . 25 2.1 Relevante Faktoren: Zur Konzeption von Forschung . . . . . . . . . . . . . . . . . . . . . . . 27 2.2 Relevante Ähnlichkeit: Zur Durchführung von Forschung . . . . . . . . . . . . . . . . . . . . 42 2.3 Relevanz für Entscheidungen: Zur Anwendung von Forschung . . . . . . . . . . . . . . . . . . . . . . 60 3. Wissenschaftliche Forschung im Widerstreit: Zweckfreiheit versus Zweckorientierung . . . . . . . . . . . . . . . . . . 87 Zur Brisanz der Relevanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Personen- und Sachregister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

Einleitung

 O

ftmals wird über den Erkenntniswert wissenschaftlicher Forschung eher abstrakt gesprochen oder dieser in der Regel aufgrund von standardisierten Erhebungs- und Prüfungsverfahren, die die wissenschaftliche Praxis heute prägen, pauschal unterstellt. In praktischer Hinsicht ist der Erkenntniswert das sprichwörtliche Zünglein an der Waage, das im Einzelnen darüber entscheidet, ob ein Forschungsansatz weiter verfolgt wird oder aber aufgegeben werden muss, wenn seine Relevanz im Hinblick auf die hiermit verfolgten Ziele nicht nachgewiesen werden kann. Relevanz ist ein Kernkriterium für die Bewertung von Forschungsansätzen wie auch von Ergebnissen wissenschaftlicher Verfahren: Meteorologische Vorhersagen sollen über das Erscheinen eines Wetterphänomens zuverlässig Auskunft geben, Daten, die auf der Basis biomedizinischer Modelle erbracht wurden, sollen ein Krankheitsbild erklären helfen. Im Umkehrschluss bedeutet dies, dass nicht nur die Modelle, die diese Erkenntnisleistung nicht erbringen, sondern auch wissenschaftliche Ansätze, die sich auf diese stützen, streitbar werden: zum Beispiel wenn Ergebnisse, die im Tierversuch erzielt wurden, durch klinische Studien an Patienten nicht repliziert werden können. In Bezug auf die leitenden Ziele, allen voran, Patienten eine Therapie anbieten zu können, entfaltet der besagte Forschungsansatz folglich keinen Erkenntniswert, in anderen Worten: keine klinische Relevanz. Selbstverständlich gilt dies nicht nur für den Bereich der Biomedizin. Nehmen wir etwa den Fall geowissenschaftlicher Forschung, und zwar im Speziellen das Vorhaben, anhand eines Klimamodells zuverlässige Vorher­ sagen über bevorstehende Ereignisse zu treffen: Genau sollen diese Vorhersagen sein und belastbar. Sie sollen aber vor allem anderen eines tun: über relevante Ereignisse berichten. Schon bevor Forschung beginnt, stellt sich die Frage nach der Rele­vanz: Was sind die Ziele von Forschung, sprich: Wozu wird im Einzelnen geforscht ? Hinzu tritt die Frage, wie angesichts dieser   7

Ziele zu forschen sei, also welche Methoden sich besonders gut eignen, um sie in den Blick zu nehmen. Sowie nicht zuletzt, welche Ergebnisse auf dieser Grundlage erwartbar sind: Erlauben sie, einen Sachverhalt zu erklären, liefern sie genauere Modelle, erhöhen sie die Zuverlässigkeit von Vorhersagen ? Dem Ideal nach schreitet Wissenschaft im Wissen voran – das schließt die Präzision theoretischer Modelle ebenso ein wie die Gewinnung methodischen Know-hows und nicht zuletzt – auch wenn dies oftmals vergessen wird – die kritische Reflexion der eigenen Deutungsmuster und der zur Wahl stehenden Verfahren, die diese zu explizieren erlauben (Theorie- und Methodenkritik). Die Frage nach dem Erkenntniswert ist, wie sich hier bereits andeutet, kaum von der Ermittlung der Erkenntnisleistung von Wissenschaft und ihren Methoden zu lösen. Forschung als wissenschaftsimmanente Praxis adressiert stets beides: ihre Relevanz und ihre sachliche Richtigkeit, auch: Adäquatheit oder neudeutsch: Signifikanz. Die Frage nach der Erkenntnisleistung setzt wiederum die Beschäftigung mit den prinzipiellen wie auch den je spezifischen, methodischen Erkenntnisgrenzen wissenschaftlicher Forschung voraus: Ist durch das gewählte Verfahren das Forschungsziel erreichbar ? Stehen andere Verfahren zur Verfügung und was leisten diese im Hinblick auf unsere Erkenntnisziele ? Letzteres wird unter Umständen nicht nur dadurch mitentschieden, wozu, sondern eben auch woran geforscht wird, das heißt, anhand welcher Ressourcen wir forschen oder auch auf welche Datengrundlage sich unsere Untersuchung stützt. Davon abhängig ist nicht zuletzt die Frage, welchen Gesichtspunkten hierbei besondere Aufmerksamkeit zukommt: Die erste Frage betrifft das Thema oder das Ziel des Forschungsvorhabens, die zweite die materielle Grundlage wissenschaftlicher Forschung, sprich: welche konkreten Forschungsressourcen zum Einsatz kommen und ob hinreichend Ressourcen verfügbar sind. Die dritte Frage konkretisiert – basierend auf den gewählten materiellen und verfahrenstechnischen Grundlagen –, welche Gesichtspunkte im Rahmen des Forschungsdesigns im Einzelnen berücksichtigt werden können und welche, aufgrund des methodischen Zugriffs, aus der Untersuchung herausfallen. Man könnte auch vom spezifischen Fokus des Forschungsansatzes sprechen. 8 | Einleitung 

Illustrieren lässt sich dies beispielhaft an der Ausrichtung medi­ zinischer Forschung: Um grundlegende Kenntnisse über ein Tumorleiden zu erhalten, wird heute etwa an humanen Zellkulturen geforscht. Der erste Halbsatz benennt die Frage, wozu geforscht wird, also das Ziel der Forschung, der zweite die materielle Grundlage, woran geforscht wird. Welche Gesichtspunkte erhalten hierbei besondere Beachtung ? Der spezifische Fokus des Vorhabens kann etwa darin bestehen, die genetische Krankheitsverursachung zu untersuchen, das heißt den Anteil der genetischen Disposition an der Krankheitsentstehung (Tumorwachstum) zu bestimmen. Gehen wir im nächsten Schritt davon aus, dass durch diesen und andere Forschungsansätze erste vielversprechende Ergebnisse erbracht wurden und nun die Wirksamkeit eines neu­artigen Therapeutikums ermittelt werden soll. Wir bleiben innerhalb der Biomedizin. Als materielle Grundlage wählen wir dieses Mal keine humanen Zellkulturen, sondern ausgewählte experimentelle Organismen, zum Beispiel Mäuse, die zuvor gezielt gentechnisch verändert wurden: Sie tragen jenen genetischen Marker, der nachweislich beim Menschen das Tumorleiden mitbedingt. Welche Gesichtspunkte erhalten nun besondere Beachtung ? Im Einzelnen soll geprüft werden, ob der Antagonist auf die Pathogenese einwirken kann, ob er sie gar unterbindet. Ermittelt werden soll außerdem, ob er mit weiteren Wirkungen einhergeht, die den Gesundheitszustand oder auch das Wohlbefinden negativ beeinträchtigen können (»Nebenwirkungen«). Diese beiden hier recht grob skizzierten Beispiele werden als relevante Forschungsszenarien in der Krebsmedizin (Onkologie) gehandelt. Zusammengenommen werfen sie immer noch ein recht unvollständiges Schlaglicht auf reale Forschungszusammenhänge, die sich zwischen biomedizinischer Forschung einerseits und klinischer Forschung andererseits ausweisen lassen. Hierauf wird noch näher einzugehen sein. Gleichfalls deutet sich in den gewählten Beispielen bereits an, innerhalb welcher Zusammenhänge Relevanz im Forschungsalltag zum Thema werden kann. Im alltäglichen Sprachgebrauch bezeichnet das Adjektiv rele­ vant denjenigen Gesichtspunkt oder dasjenige Argument, dem wir zur Beantwortung einer Frage ein besonderes Gewicht, kurz Bedeu­ tung, zumessen. Übertragen auf den wissenschaftlichen Kontext lässt sich diese Beobachtung zuspitzen: Als relevant gilt derjenige  Einleitung | 9

Gesichtspunkt, der sich aus der Masse aller übrigen Gesichtspunkte heraushebt. So wird etwa festgestellt, dass ein Sachverhalt »a« relevant sei für die Beantwortung der Frage »x«. Getragen wird diese Bewertung durch den jeweiligen fachwissenschaftlichen Hintergrund, den wir als Forschende mitbringen, indem wir das Phäno­men aus der Warte eines bestimmten theoretischen Modells (Krankheitstheorie) und geleitet durch unser Erfahrungswissen im praktischen Sinne betrachten. Die Relevanz selbst zum Thema zu machen, in anderen Worten: die Relevanzfrage zu stellen, heißt also nicht zuletzt Muster oder Schemata der Deutung dezidiert zu würdigen und damit – im konsequentesten Fall – deren Aktualität und Geltung kritisch zu befragen. Ziel der Unter­suchung ist es, anhand ausgewählter Beispiele wissenschaftlicher Forschung zu erläutern, wann Relevanz als Kriterium der Bewertung von Forschungs­ designs und ihren Hintergrundannahmen wie auch von Ergebnissen der Forschung, um mit Alfred Schütz zu sprechen, »thematisch« wird und sich in der Folge als Problem der Relevanzermittlung darstellt. Entsprechend vielschichtig wird sich das Konzept der Relevanz und die hiermit assoziierten praktischen Probleme der Relevanzermittlung im Kontext wissenschaftlicher Forschung erweisen. Der erste Teil der Untersuchung führt in die Begriffsgeschichte ein und stellt zwei Perspektiven, die für das Verständnis des Relevanzproblems im wissenschaftlichen Kontext und darüber hinaus leitend sind, näher vor. Hieran schließt mit dem zweiten Teil die eigentliche Analyse erkenntnistheoretischer und wissenschaftsphilosophischer Grund­ lagen zeitgenössischer Forschung an. Sie würdigt grundsätzliche Gesichtspunkte, die bei der Konzeption, bei der Durchführung sowie bei der Anwendung von Forschung eine maßgebliche Rolle spielen. Veranschaulicht werden diese anhand von ausgewählten Fallbeispielen. Im Einzelnen wird es um Forschungsdesiderate der Krebsforschung und der Klimaforschung gehen. Beide Bereiche eignen sich besonders gut, das Spannungsfeld zwischen Konzeption und Durchführung einerseits und Konzeption und Anwendung andererseits facettenreich darzulegen. Deutlich werden wird auch, dass die thematische und auch die methodisch-technische Ausrichtung von anwendungsorientierten Forschungsbereichen nicht zu10 | Einleitung 

letzt auf Desiderate der Grundlagenwissenschaften zurückwirken kann. Die Analyse wird folglich auch den Diskurs um »Transformative« in Wissenschaft und Forschung streifen: Wie ist es um die Forschung im Widerstreit übergeordneter Ziele wissenschaftlicher Praxis bestellt ? Welchen Anteil haben diese Ziele (Zweckfreiheit versus Zweckorientierung) daran, wie Forschung bewertet wird ? Ist der Erkenntniswert wissenschaftlicher Forschung notwendig an Anwendungs- und Verwertungsregimen zu konkretisieren (Nützlichkeit, Relevanz für außerwissenschaftliche Zwecke) ? Im Fokus der Untersuchung steht bewusst die binnenwissenschaftliche Sicht auf Forschung: Kurz gesagt, geht es mir darum, die Auslotung des Relevanten aus der Perspektive derjenigen, die Wissenschaften betreiben, erkenntnistheoretisch zu würdigen und zugleich einer kritischen Prüfung zu unterziehen. Welche Konsequenzen ergeben sich hieraus für die Analyse ? Erstens ist nachzuzeichnen, welche Rolle dem Erkenntniswert zugesprochen wird, sprich: wann Relevanz im Forschungskontext zum Thema wird, auf welcher Grundlage im Einzelnen über das in epistemischer Hinsicht Beredte entschieden wird und was dies für den Fortgang des Forschens bedeutet. Zweitens ist dem Umstand Rechnung zu tragen, dass sich Wissenschaft nichts jenseits, sondern als spezifischer Ausdruck gesellschaftlichen Lebens realisiert: Als Forschende sind wir immer auch mit wirtschaftlichen, politischen oder im weitesten Sinne gesellschaftlichen Interessen, die an Wissenschaft herangetragen werden, konfrontiert. Wie begegnen wir diesen Interessen ? Lassen sie sich gegebenenfalls mit generischen Fragen des Forschungsfeldes, in dem wir uns bewegen, in Beziehung setzen oder werden sie als ›Problem‹ erfahren, lassen sich gar als unrechtmäßige Vereinnahmung von Forschung kritisch explizieren ? Mit diesem Untersuchungsschritt verbindet sich ein doppelter Blick: nach innen wie nach außen. Der Blick nach innen adressiert die Art und Weise, wie wir als wissenschaftlich Tätige Relevanz selbst zum Thema machen, indem wir ganz bestimmten Gesichtspunkten den Vorrang geben oder auf der Basis von Publikationen den Erkenntniswert unserer Ergebnisse für weiterführende Forschungsdesiderate ausweisen. Der Blick nach außen fragt nach unserer Beteiligung an der Bewertung von Wissenschaft und Forschung, namentlich der diskursiven Teilhabe durch die kritische Prüfung ihrer Ziele.  Einleitung | 11

Was ist »Relevanz« ? Zwei perspektivische Annäherungen

 D

ie Frage nach dem Wert der Wissenschaft, ob sie, wie Max Weber unterschieden hat, nicht nur »logisch und sachlich gewertet richtige«, sondern »im Sinne des wissenschaftlichen Interesses wichtige Resultate zu erzielen« vermag,1 lässt sich als diejenige nach der Relevanz wissenschaftlicher Forschung fassen. Inwiefern sich Relevanz ausweisen lässt und worin sie konkret besteht, diese doppelte Frage stellt sich in beiden, klassischerweise voneinander geschiedenen Bereichen wissenschaftlicher Praxis – in den angewandten Forschungsbereichen (»applied science«) und denen der Grundlagenwissenschaften (»pure« oder »basic science«). Sie wird, wenn man so will, lediglich aus unterschiedlicher Perspektive gestellt und folglich auch beantwortbar: Während bei der Grundlagenforschung eher pauschal angenommen wird, gewissermaßen unterstellt wird, dass sie Relevanz besitzt, nämlich durch die Erlangung von Erkenntnissen über fundamentale Zusammenhänge der Welt, stellt sich die Situation für die angewandten Bereiche anders dar. Hierunter werden in der Regel all jene Forschungsfelder gefasst, deren Erkenntnisziele auf Anwendung ausgerichtet sind, wie etwa die Entwicklung potenter Therapeutika durch Verfahren der medizinischen Forschung oder die Gewährleistung belastbarer Prognosen durch Modelle der Klimaforschung. Im Fall der angewandten Forschung wird besonders deutlich, dass der Ausweis oder auch nur die Antizipation möglicher Zwecke wissenschaftlicher Forschung mit darüber entscheiden kann, inwiefern diese als besonders aussichtsreich erachtet wird. Tatsächlich sieht sich Forschung heute in der Regel mit der faktischen Anforderung konfrontiert, dass aus ihr ein konkreter Nutzen resultieren müsse, das heißt für Anwendungsziele verwertbar zu sein – etwa im Hinblick auf klimapolitische Entscheidungen oder das ärztliche Handeln am Krankenbett. Die genuin wissenschaftliche Orientierungsnorm, dem Gemeinwohl zu dienen, konkretisiert sich in der   13

angewandten Forschung eben gerade durch die Verwertung ihrer Ergebnisse oder die Anwendung ihrer Produkte – unter der Maßgabe, dass zuvor ausgewiesene Methoden entwickelt wurden, die die Validität ihrer Ergebnisse und die Sicherheit ihrer Produkte gewährleisten. Wird Forschung dem Nutzenkalkül, wie in den genannten Fällen, unterworfen, ist es um die Zweckfreiheit von Forschung im Sinne der Wissensgenerierung um des Wissens willen schlecht bestellt. Dies ist auch deshalb bedenkenswert, da die gemeinhin unterstellte klare Scheidung zwischen grundlagen- bzw. anwendungsorientierten Wissenschaften ein vereinfachtes Bild der Forschung unter Realisierungsbedingungen zeichnet. Zuspitzend lässt sich davon sprechen, dass die auf Anwendung zielenden Forschungsdesigns in der Regel die Tendenz haben, weit in jene der Grundlagenwissenschaften hinein zu reichen: Als Forschungsfeld sind weder die Biomedizin noch die Klimaforschung per se von der Grundlagenforschung abgekoppelt, sondern nehmen in vielfacher Hinsicht darauf Einfluss, worüber grundlegendes Wissen erworben wird. Dies ist insofern beachtenswert, als Fragen der Rentabili­ tät über die Desiderate der Anwendungsorientierung Anreize für bestimmte Forschungsthemen oder die Priorisierung bestimmter Forschungsziele in den Grundlagenwissenschaften setzen können. Um dies an einem Beispiel zu erläutern: Als angewandte Forschung konkretisiert die Biomedizin mit ihren Mitteln Forschungsdesiderate der Klinik. Ihre Angewandtheit zeigt sich darin, dass Forschungsziele, also die Frage, wozu geforscht werden soll, danach priorisiert werden, ob sie sich für klinische Desiderate (Diagnoseund Therapieoptionen) verwerten lassen. Gleichzeitig operiert sie als Biomedizin auf der Basis ihrer fachspezifischen Grundlagen. Hier entscheidet sich, woran und wie geforscht wird, zum Beispiel welche Gesichtspunkte anhand der gewählten Methode besondere Beachtung finden können (Forschungsfokus). Gegebenenfalls müssen geeignete Methoden oder Ressourcen erst entwickelt werden. Dies schließt mitunter weitergehende, namentlich grundlegende Forschung an ihnen ein, um zu ermitteln, ob sie für Forschungszwecke nutzbar sind und sich als wissenschaftlich adäquate und handhabbare Ressourcen einsetzen lassen. Die Grenzen zwischen angewandten Bereichen der Forschung und dezidierter Grund­ lagenforschung verlaufen folglich unter Umständen nicht zwischen 14 | Was ist »Relevanz« ? 

Forschungsfeldern wie der Biomedizin und anderen Bereichen der medizinischen Forschung, sondern vielfach innerhalb dieser Felder. Im Fall der Biomedizin bedeutet dies, dass sie ihre Relevanz für Desiderate der Medizin immer wieder neu auszuweisen, oder besser: nachzuweisen hat. Ich werde deshalb hier in der Regel von der Anwendungsorientierung von Forschung sprechen und auf den engeren Begriff der angewandten Forschung weitgehend verzichten.2 Auf die im Widerstreit stehende Orientierung an Zweckfreiheit respektive Zweckorientierung von wissenschaftlicher Forschung im Allgemeinen komme ich in einem späteren Kapitel ausführlich zurück. Wann wird Relevanz in Wissenschaft und Forschung zum Thema ? Lässt sich dies – bezogen auf die spezifischen Zusammenhänge – in erkenntnistheoretischer Hinsicht bewerten ? Welche Konsequenzen ergeben sich hieraus für den Fortgang des Forschens ? Wie wird der Erkenntniswert wissenschaftlicher Forschung ausgewiesen, wie die Relevanz von wissenschaftlichen Ergebnissen – für Anwendungskontexte – bestimmt ? Bevor ich diese Analyse im Hinblick auf die Konkretisierung von Forschungsfragen und die Bewertung von Ergebnissen aufnehme, möchte ich in die Bedeutungsgeschichte des Begriffes einführen. Dies geschieht in Gestalt zweier systematischer Annäherungen, die unterschied­liche Perspektiven auf den Begriff der »Relevanz« eröffnen. 1. Relevanz versus Redundanz

Im Alltag tritt der Begriff »Relevanz« gemeinhin als Kernkriterium für Suchanfragen, zum Beispiel im Internet, bei der Datenbank- oder Literaturrecherche, in Erscheinung. Als solcher zielt er nicht auf Sensitivität, also Vollständigkeit, sondern auf Spezifität. Im Umkehrschluss heißt dies, es werden nur ganz bestimmte, ausgewählte Ergebnisse angezeigt, die sich in Beziehung zur Suchan­ frage setzen lassen. Voraussetzung für die Güte von Datenbanken ist vor diesem Hintergrund erstens, dass sie möglichst umfassend Ressourcen erschließen, die folglich im Rahmen der Suchanfrage (Stichwortanalyse) auch ausgewertet werden können, und zweitens, dass die Verschlagwortung stichhaltige Auskunft über die BeredtRelevanz versus Redundanz | 15

heit der Ressourcen gibt. Insofern erstaunt es nicht, dass aktuelle Forschungsbeiträge den Diskurs um Relevanz mit dem ausdrücklichen Bezug auf den Zugang, die Interpretation respektive den Gebrauch von Informationen führen.3 Sprachgeschichtlich geht der Begriff der Relevanz auf die Fügung »relevantis articuli« zurück, die jene Argumente bezeichnet, die im Rechtsstreit als berechtigt und beweiskräftig gelten.4 Das Adjektiv »relevant«, das im 17. Jahrhundert Eingang in den juristischen Sprachgebrauch findet, wird anfangs synonym zu »schlüssig« oder »richtig« verwandt, später auch als »bedeutungsvoll«, »wesentlich« und »(ge)wichtig«.5 Aus dem lateinischen Verb »relevare« für »in die Höhe heben, aufheben« bildet sich der Begriff »Relief«, womit ein plastisches Bildwerk bezeichnet wird, das aus der Flächigkeit des Untergrunds heraustritt.6 In Analogie zum Relief tritt bekanntlich auch das Relevante aus einer Menge von Fragen hervor oder wird als »Problem« sichtbar respektive fassbar. Im 19. Jahrhundert kommt die substantivische Ableitung »Relevanz« in der Verwendung »Wichtigkeit, Belang« auf, Einzug in den allgemeinen Sprachgebrauch hält der Begriff aber erst in der zweiten Hälfte des 20. Jahrhunderts.7 Mit dem Begriff wird unter Umständen gar ein semantischer Mehrwert verbunden: So hält etwa die Sprachforschung fest, dass mit der »modewortartigen Verwendung von relevant der Eindruck zu erwecken versucht werde, daß der entsprechenden Einstufung ein besonderes Gewicht zukomme und dass sie auf wohlüberlegten Gründen beruhe.«8 Dies sei bei der Verwendung bedeutungsgleicher Wörter, zum Beispiel »wichtig« oder »ausschlaggebend«, nicht der Fall. In der Bemühung, das Relevante positiv zu bestimmen, wird meist auf die spezifische Gewichtigkeit (»als Zünglein an der Waage«) abgehoben, indem auf die herausragende Bedeutung eines Sachverhalts verwiesen wird: »a« ist maßgeblich für »x«, oder auch: »a« ist das Zünglein an der Waage, um zu ermitteln, was »x« bezeichnet. Im engeren funktionalistischen Sinne wird auch von der Sachdienlichkeit gesprochen: »a« weist »x« adäquat aus. Bisweilen verbinden sich mit dem Verweis auf die Relevanz eines Arguments auch andere Leistungsmerkmale, zum Beispiel dann, wenn das Relevante mit dem Einschlägigen gleichgesetzt wird: »a« weist »x« notwendig und hinreichend aus. Gewichtigkeit, Sachdienlichkeit oder 16 | Was ist »Relevanz« ? 

Einschlägigkeit: stets kann dieses nur in Bezug auf eine konkrete Referenz, für die eine Theorie oder Modell als relevant gelten kann, bestimmt werden. Für das Verständnis des Relevanten darf freilich dessen Profilierung ex negativo nicht unterschlagen werden: Als Gegenbegriff zu »relevant« wird im 19. Jahrhundert »irrelevant« neugebildet und in der Bedeutung »unerheblich, geringfügig« etabliert.9 Hiermit werden Faktoren bezeichnet, die für die Bearbeitung einer Fragestellung als vernachlässigbar gelten, weil sie als unwichtig oder bedeutungslos betrachtet werden. Als zweiter Gegenbegriff, der aus der englischen Sprache Einzug ins Deutsche hält, positioniert sich »redundant« (mehrfach, überflüssig).10 Zwei Beispiele aus dem Bereich der philosophischen Forschung erläutern dies: In einem nichtklassischen Zweig der Logik, der sogenannten »Relevanzlogik«, stellt sich der Vorrang der Relevanz ganz praktisch dar: Eine Implikation soll nur dann gelten, wenn die Prämisse A für den Schluss B tatsächlich benötigt wird, das heißt nicht redun­ dant, sondern relevant ist. Die Relevanzlogik setzt sich kritisch mit bestimmten Implikationsparadoxen und mit Schlüssen aus­ einander, die nach der klassischen Logik gültig sind, für Relevanzlogiker hingegen als »Fehlschlüsse der Relevanz« gelten müssen. Betrachten wir etwa den Fall der materialen Implikation »Wenn p, so q«. Die Prämisse »p« ist in diesem Fall »Hamburg ist ein Stadtstaat«, die Prämisse »q« ist »Die Elbe ist ein Fluss«. Der Satz »Wenn Hamburg ein Stadtstaat ist, ist die Elbe ein Fluss« bezeichnet nach der klassischen Aussagelogik eine wahre materiale Implikation, denn »p« ist wahr und »q« ist nicht falsch. Im Gegensatz zu logischen Implikationen besteht im Fall von materialen Implikationen weder die Notwendigkeit, dass ein inhaltlicher, noch dass ein logischer Zusammenhang zwischen »p« und »q« besteht. Kurz, es besteht keine Möglichkeit, von der Wahrheit der Prämisse »p« auf die Wahrheit der Prämisse »q« zu schließen. Der Satz »Wenn Hamburg ein Stadtstaat ist, ist die Elbe ein Fluss« ist gleichwohl eine wahre materiale Implikation, weil beide Teilsätze wahr sind. 11 Das zweite Beispiel ist dem Bereich der Wissenschaftstheorie entnommen: Hierbei geht es um die Struktur von Erklärungen: Die Eigenschaft »F« ist für das Erscheinen von »G« explanatorisch rele­ vant, wenn eine kausale Beziehung zwischen »F« und »G« besteht.12  Relevanz versus Redundanz | 17

Deduktive Modelle kausaler Erklärungen, wie das Hempel-Oppenheimer Modell (Deduktiv-Nomologisches-Modell, kurz: »DN«Modell), beschreiben Erklärungen als kausalen Zusammenhang zwischen demjenigen Phänomen, das erklärt werden soll (»Explanandum«), und den Eigenschaften, die zur kausalen Erklärung des Phänomens herangezogen werden (»Explanans«). Ein Satz, der die Eigenschaft (»F«) beschreibt, muss wahr sein. Idealerweise fußt die Erklärung auf mindestens einem Naturgesetz. Große Bedeutung kommt folglich vor allem deterministischen Gesetzen zu. Hinsichtlich des DN-Modells stellt sich ferner die Frage, welchen Erklärungswert statistische Gesetze haben, das heißt inwiefern sie zur Erklärung von Phänomenen herangezogen werden können. Weitere Unterscheidungen, die in diesem Zusammenhang gemacht werden, betreffen die explanatorische oder prädiktive Kraft wissens­chaftlicher Aussagen, genauer: ob kausale oder statistische Zusammenhänge behauptet werden. In beiden Fällen wird davon ausgegangen, dass jene Eigenschaften, die zur kausalen Erklärung respektive statistischen Ermittlung von Zusammenhängen herangezogen werden, nicht redundant, sondern relevant sind.13 In beiden Ansätzen der systematischen Philosophie bleibt Relevanz als Phänomen bezeichnenderweise theoretisch unter­deter­mi­ niert.14 In der Wissenschaftstheorie etwa dient Relevanz bis dato primär als ein spezifisches, wenn auch in systematischer Hinsicht nicht eigens bestimmtes Abgrenzungskriterium gegenüber Eigenschaften oder Prozessen, die sich bei näherer Analyse als nur vermeintlich explanatorisch relevante Eigenschaften oder als nur vermeintlich kausale Prozesse herausstellen. Sie können folglich nicht zur Begründung einer wissenschaftlichen Aussage heran­gezogen werden. Angesichts seines Stellenwerts für die Bewertung von Prämissen oder Aussagen im wissenschaftlichen Diskurs muss nicht eigens herausgestellt werden, dass die systematische Erschließung des Relevanzbegriffs eine wissenschaftliche Leerstelle bezeichnet. Welche Gesichtspunkte hierfür im Einzelnen leitend sein könnten, zeigt der folgende Abschnitt.

18 | Was ist »Relevanz« ? 

2. Relevanz als Bedeutungs- und Deutungszusammenhang

Dass das Problem der Relevanz überhaupt von systematischem Interesse ist, wurde erstmals am Schnittfeld von Philosophie und Soziologie zum Thema: Relevanz wurde als Bedeutungs- und Deutungszusammenhang vorgestellt. Die von Alfred Schütz als philosophische Grundlegung lebensweltlichen Wissens und Handelns in Angriff genommene systematische Auseinandersetzung mit dem »Problem der Relevanz« blieb faktisch unvollendet und wäre in dieser Form wohl nie zur Veröffentlichung gekommen. Das in seiner Gesamtheit aus dem Nachlass edierte Werk stellt gleichfalls die bis dato umfangreichste Analyse zum Problemfeld in der Philosophie dar.15 Bekanntermaßen war es Schütz, der sich um die philosophische Fundierung der »verstehenden Soziologie« Max Webers bemühte, einer auf die Aufdeckung des Sinnzusammenhangs zwischen Handlungsgründen und Verhalten zielenden Sozialwissenschaft. Schütz gilt auch als Begründer der »phänomenologischen Soziologie«. Hier sei vor allem auf Der sinnhafte Aufbau der so­ zialen Welt von 1932 verwiesen16 sowie ferner auf jenen Werkteil, der, ediert von Thomas Luckmann, 1959 unter dem Titel Struktu­ ren der Lebenswelt erschien und zum soziologischen Standardwerk avancierte. Das Kriterium der Relevanz beschäftigte Schütz, wie die Notizen aus dem Nachlass zeigen, schon früh: Bereits im Sinn­ haften Aufbau bezeichnet er die Relevanz als wichtiges Problem, das es für die Sozialwissenschaften und darüber hinaus zu klären gelte.17 Es überrascht also nicht, wenn Elisabeth List, eine der Herausgeberinnen des nachgelassenen Werkteils, meint, dass es sich bei der Relevanz um einen »Grundbegriff« seiner Erkenntnistheo­ rie handle: »Warum handeln wir in bestimmten Situationen so und nicht anders«, frage Schütz etwa, »warum werden unsere Erfahrungen nur durch bestimmte Themen geprägt und nicht andere, warum beschäftigen wir uns mit diesen Fragen und machen nicht andere zum Thema ?«18 Schütz unterscheidet in Das Problem der Relevanz zunächst drei »Kategorien« von Relevanz und setzt sich dann ausführlich mit der Interdependenz dieser differenten und doch vielfach miteinander verknüpften »Relevanzsysteme« auseinander.19 Im Einzelnen spricht er von der »thematischen Relevanz«, der »Auslegungsrele Relevanz als Bedeutungs- und Deutungszusammenhang | 19

vanz« und der »Motivationsrelevanz«: Als thematisch tritt die Relevanz nach Schütz in Erscheinung, wenn etwas »aus dem Hintergrund der fraglosen und unbefragten Vertrautheit« heraustrete.20 Kurz: wenn ein Gegenstand »zum Problem«, wenn ein Sachverhalt »zum Thema oder zur Aufgabe unseres Denkens« werde.21 Dass dies geschieht, dafür kann es, wie Schütz detailliert schildert, unterschiedliche Anlässe geben, zum Beispiel eine »unvertraute Erfahrung«, die wir ohne eigenes Zutun machen und die sich aufgrund ihrer »Unvertrautheit« somit als Thema aufdrängt, das heißt bedeutsam wird.22 Schütz bezeichnet diese Art der thematischen Relevanz deshalb auch als »auferlegte Relevanz« und unterscheidet sie von Anlässen, in denen etwas aus freien Stücken zum Thema, zum Beispiel einer wissenschaftlichen Auseinandersetzung, gemacht wird.23 Erst wenn etwas thematisch ist, kann es nach Schütz auch Objekt der Auslegung sein. Man könnte auch sagen, erst wenn etwas in unser Blickfeld rückt oder als »Problem« Anlass zur wissenschaftlichen Auseinandersetzung gibt, können wir dieses unter bestimmten Gesichtspunkten analysieren und der Bewertung oder Interpretation zuführen. Die Auslegungsrelevanz adressiert in der Konsequenz den Umstand, dass nur bestimmte Gesichtspunkte oder Kriterien überhaupt für die Auslegung eines Themas relevant sind und somit als »Schema« der Analyse zugrunde gelegt werden können bzw. die Interpretation informieren.24 Die dritte Kategorie, die Schütz einführt, stellt den Zusammenhang zwischen Relevanz und Handeln her. Die Motivationsrelevanz entscheide darüber, dass etwas für einen bestimmten Schritt, ein konkretes Verhalten oder Handeln wichtig, das heißt kausal relevant sei.25 Schütz spricht deshalb auch von »Um-zu-« oder »Weil-Motiven« des Menschen: »Er wird seine Entscheidung, wie zu handeln sei, auf die Aus­ legungsentscheidung gründen, und somit wird die letztere die erstere bestimmen. Die ›Wichtigkeit‹, richtig (– und das heißt hier: bis zu einem plausiblen Grad –) auszulegen, besteht in der Tatsache, daß nicht nur die zu wählenden Mittel, sondern auch die zu erreichenden Ziele von einer solchen Diagnose abhängen.«26

20 | Was ist »Relevanz« ? 

Schütz macht anhand seiner differenzierten Untersuchung zu »Relevanzsystemen« und ihrer Interdependenz anschaulich, dass es sich lohnt, die philosophisch-systematische Analyse nicht auf die Bestimmung relevanter Gesichtspunkte zu beschränken, sondern auf das jeweilige Auslegungs- oder Deutungsschema und hiermit korrespondierenden Handlungsschritten auszudehnen: Das Thema sei, wie Schütz betont, »stets Thema innerhalb eines Feldes und Thema mit einem Horizont«.27 Die Besonderheit seines Ansatzes besteht somit darin, die Frage, worauf sich Relevanz gründet, selbst zum Thema einer systematischen Untersuchung zu machen. Schütz spricht auch von der »Interessenlage«, die ein »Bezugssystem« der Relevanz etabliere, mit dem wir bestimmte Bedeutungen assoziieren, und erläutert hierzu wie folgt: »Immer ist Relevanz Produkt der Reflexion[,] d. h. sie steht für soeben Gewesenes (Retention) modo imperfecti, für Abgelaufenes modo plusquamperfecti, für Gegenwärtiges modo futuri exacti. Sie bezieht sich also immer auf Entwordenes, abgeschlossenes Erleben als ihren Gegenstand. Was aber an diesem Entwordenen als relevant ausgewählt wird, ist abhängig von der jeweiligen Interessenlage.«28 Das Problem der Relevanz lässt sich folglich als Analyse zum Bedeutungs- und Deutungszusammenhang verstehen, die an die Untersuchungen zur »Konstitution des sinnhaften Erlebnisses«, die Schütz im Frühwerk angestellt hat, anschließt.29 Der Fokus liegt hierbei auf der grundsätzlichen Frage, wann einem Gegenstand oder einem Sachverhalt Relevanz (»Bedeutung«) – im alltagsweltlichen wie im wissenschaftlichen Zusammenhang – zugesprochen wird, warum etwas als »Thema« oder »Problem« in Erscheinung tritt und wie sich die Auseinandersetzung mit ihm nach relevanten Gesichtspunkten gestaltet, kurz: auf welcher Grundlage sich dieses im Einzelnen erschließen lässt (»Deutung«). Schütz stellt Relevanz zudem als doppelte Handlungsmotivation vor: Einerseits macht er auf den differenzierenden Einfluss aufmerksam, dem die Handlung für die Bewertung eines Themas zugeschrieben wird, andererseits auf die Wirklichkeit der Relevanzerfahrung, die sich erst im Handeln konkretisiert:  Relevanz als Bedeutungs- und Deutungszusammenhang | 21

»Wenn wir in unserer Handlung aufgehen, haben wir ein anderes Interesse an deren motivationsmäßig relevanten Momenten, als wenn wir eine solche Handlung bloß entwerfen oder wenn wir, nachdem wir eine der Handlungen ausgeführt haben, auf ihr Ergebnis, die einzelnen Schritte, durch die sie aktualisiert wurde, und den vorangegangenen Entwurf zurückblicken.«30 Auf das erkenntnistheoretische Potenzial dieser Beobachtung werde ich noch einmal ausführlich zu sprechen kommen. Zunächst wird es darum gehen, anhand ausgewählter Beispiele der Frage nachzugehen, wann Relevanz als Kriterium der Forschung in Erscheinung tritt, welche Konsequenzen sich hieraus für den Fortgang des Forschens ergeben und schließlich woran der Erkenntniswert von Theorien oder Ergebnissen in Anbetracht von Anwendungsfragen etwa im Einzelnen festgemacht wird.

22 | Was ist »Relevanz« ? 

Relevanz als Kriterium wissenschaftlicher ­Forschung

 W

enn Wissenschaftlerinnen und Wissenschaftler von relevanten Ergebnissen einer Untersuchung sprechen oder die wissenschaftliche Bedeutung eines Modells gegenüber anderen Erklärungsansätzen hervorheben, bezeichnen sie einen bestimmten Mehrwert, der allein durch diese Untersuchung oder durch diesen Erklärungsansatz möglich wird. Gleichzeitig ist »Relevanz« nicht das alleinige Kriterium, anhand dessen wissenschaftliche ­Studien oder Modelle bewertet werden. Erinnert sei an die eingangs skizzierte epistemische Qualität von Vorhersagen: Vor dem Hintergrund, dass Modelle Auskunft über relevante Ereignisse geben, wird die Güte der aus ihnen resultierenden Prognosen daran erhoben, wie verlässlich diese sind, aber auch wie es um den Abbildungsgrad relevanter Ereignisse bestellt ist. Hier wäre auf Kriterien wie »Evidenz« oder »Signifikanz« zu verweisen und auf damit korrespondierende Erhebungs- oder Nachweisverfahren. Wie lässt sich das Kriterium der Relevanz in diesem Reigen verorten ? Oder umgekehrt: Wann tritt Relevanz bei der Bewertung von Forschung als spezifisches Problem in Erscheinung ? Hierzu möchte ich einige grundsätzliche Bemerkungen vorausschicken.

1. Erkenntnisleistung oder Erkenntniswert ?

Paul Feyerabends Schrift Wider den Methodenzwang benennt zwei Fragen, die eine kritische Untersuchung der Wissenschaft zu beantworten habe: »(1) Was ist die Wissenschaft – wie geht sie vor, was sind ihre Ergebnisse ? (2) Was ist die Wissenschaft wert ? Ist sie besser als die Kosmologie der Hopi, die Wissenschaft und Philosophie des Aristoteles, die Lehre vom Tao ? Oder ist sie ein Mythos unter vielen, entstanden unter besonderen historischen Bedingungen ?«31   23

Die erste Frage lässt sich als Frage nach der spezifischen Er­ kenntnisleistung von Wissenschaft würdigen: »Evidenz« und »Signifikanz« stellen hierbei gemeinhin leitende Kriterien dar. In der Erkenntnistheorie seit Immanuel Kant wird Evidenz als eine (voraussetzungslose) Einsicht in Sachverhalte verstanden, die aufgrund ihrer Klarheit oder Deutlichkeit »anschauende Gewißheit« bringt.32 Im Fokus der theoretischen Auseinandersetzung – der Methodenkritik wie der Wissenschaftsphilosophie – stehen heute vor allem grundlegende Probleme der Evidenzermittlung, zum Beispiel, welche Bedingungen bei Beobachtungs- oder Messverfahren erfüllt sein müssen, damit von der Zuverlässigkeit wissenschaftlicher Ergebnisse (»Validität«) gesprochen werden kann. Auf diese Strategien komme ich noch einmal ausführlich zurück. Großen Einfluss auf zeitgenössische Diskurse hat auch das statistische Konzept der »Signifikanz«, wonach ein messbarer Effekt nicht zufällig, sondern beredt, sprich: bedeutungsvoll ist. Die statistische Lesart dominiert das konzeptuelle Verständnis des »Signifikanten« namentlich in der Wissenschaftsphilosophie.33 Philip Kitcher sprich gar davon, dass Wissenschaft danach strebe, »signifikante Wahrheiten« (signi­ ficant truths) zu finden.34 Die zweite Frage Feyerabends lässt sich als jene nach dem Er­ kenntniswert wissenschaftlicher Ergebnisse fassen. Es geht, in anderen Worten, um ihre Relevanz für konkrete Fragestellungen in Forschung und Anwendung, etwa im Vergleich zu anderen nicht- oder schlichtweg außerwissenschaftlichen Wissensformen. In seiner kritischen Auseinandersetzung mit dem wissenschaftlichen Erkenntnisanspruch verhandelt Michael Polanyi drei Kriterien, anhand derer der »wissenschaftliche Wert« von Erklärungen gemeinhin festgemacht werde: Diese seien Genauigkeit (»certainty/accuracy«), systematische Relevanz (»systematic relevance/profundity«) sowie intrinsisches Interesse (»intrinsic interest«).35 Bei den beiden erstgenannten Kriterien handle es sich um genuin wissenschaftliche Kriterien, beim dritten um ein außerwissenschaftliches Kriterium.36 Das Verhältnis zwischen Erkenntnisleistung und Erkenntniswert spielt, das wird im Folgenden zu sehen sein, sowohl in Bezug auf die Konzeption, die Durchführung als auch die Anwendung von Forschung eine maßgebliche Rolle. Ausgewählte Beispiele werden zeigen, dass der Nachweis von »Evidenz« einerseits und die Ermitt24 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

lung von »Relevanz« andererseits in enger, oftmals konstitutiver Beziehung zueinander stehen. Ferner wird deutlich werden, dass nicht allein forschungsinterne Prozesse über die Erkenntnisleistung und den Erkenntniswert wissenschaftlicher Resultate entscheiden, sondern auch Desiderate von außen an die Forschung – im Sinne der Anwendungsorientierung – herangetragen werden: Inwiefern begegnen Forschungsresultate den bestehenden Anwendungszielen ? Lassen sich die Ergebnisse faktisch umsetzen ? Welche Rolle spielen Handlungsdruck und Nutzbarkeitserwägungen bei der Gewichtung von Forschungszielen ? 2. Zur Erkenntnisleistung wissenschaftlicher Forschung und ­ihrem Erkenntniswert für Anwendungsfelder

Festgestellt werden kann, dass Relevanzurteile (»x hat Relevanz für y«) stets an einen bestimmten Kontext gebunden sind. Hier ließe sich im Anschluss an Schütz auch von einem »System« des Bezuges sprechen.37 Die Frage, ob es sich bei einer Beobachtung, die im Zuge einer wissenschaftlichen Erhebung gemacht wird, um eine relevante Beobachtung handelt, kann folglich stets nur vor dem Hintergrund einer bestimmten theoretischen Vorannahme getroffen werden (»x hat Relevanz für y, unter der Bedingung, dass z«). Es wird also wichtig sein, sich dem Bezugsrahmen (»z«), der bestimmt, was als relevant gewertet wird, selbst zuzuwenden. Was als relevante Forschung gefasst wird, lässt sich selbst im engeren Kontext der Forschung nicht pauschal bestimmen. Ich werde dies im Folgenden anhand von Beispielen aus zwei wissenschaft­ lichen Forschungsbereichen näher erläutern. Es wird sich einerseits um Forschungsansätze und -ziele der Medizin, mit dem Schwerpunkt auf die Krebsforschung, handeln und andererseits um jene der Klimawissenschaften, einem Amalgam aus Geo- und Inge­ nieurswissenschaften. Beiden Forschungsbereichen ist gemein, dass sie anwendungsnah sind. Die Krebsforschung zielt nicht allein darauf ab, die Genese von Tumorleiden besser zu verstehen, sondern auch darauf, zuverlässige Strategien der frühzeitigen Diagnostik respektive zielgenauen Therapie zu entwickeln. Ähnlich ließe sich dies für die Klimawissenschaften sagen: Im Kern geht es zunächst ein Zur Erkenntnisleistung wissenschaftlicher Forschung | 25

mal darum, das Phänomen selbst wissenschaftlich greifbar zu machen, indem man Kernelemente identifizieren, systemische Zusammenhänge aufzeigen und nicht zuletzt Einflussfaktoren benennen kann, die Fehlentwicklungen zeitigen. In diesem Zuge entstehen sogenannte Klimamodelle, auf deren Grundlage Klimaänderungen präzise prognostizierbar werden, um idealerweise vor dem Eintritt dieser Änderungen durch Gegenmaßnahmen in das Geschehen eingreifen zu können. Bei genauerer Betrachtung erweist sich diese Charakterisierung freilich als recht holzschnittartig. Nehmen wir etwa das Beispiel der Medizin: Der Handlungsdruck, möglichst zeitnah diagnostische und therapeutische Optionen zu entwickeln, kennzeichnet die medizinische Forschung – von den klinischen Studien bis hin zur Biomedizin, in der auf Anwendung zielende Forschung und Grundlagenforschung oftmals zusammengehen. Um nur ein Beispiel zu nennen: 2017 hat die Weltgesundheitsorga­ nisation (WHO) erstmals eine Liste mit antibiotikaresistenten Bakterienstämmen veröffentlicht und die Dringlichkeit grund­legender Forschung in diesem Bereich angemahnt.38 Klinische Forschung ist ungleich anwendungsorientierter als die Biomedizin, deren Forschungsdesigns sich auf humane Zelllinien oder experimentelle Organismen, wie etwa Mäuse, stützen und folglich nur ausgewählte Mechanismen der Krankheitsentstehung in den Blick nehmen können. Als besonders bedeutsames Prüfverfahren der klinischen Forschung gilt die klinische Studie, an die strenge methodische und hohe ethische Maßstäbe angelegt werden. Die klinische Prüfung überführt die Forschungsergebnisse aus der Vorklinik (biomedizinische Laborforschung) an einem ausgewählten Patientenkollektiv und unter hohen Schutzbestimmungen erstmals in die Anwendung. Die medizinische Behandlung oder Vorsorge wiederum, die eigentlichen Anwendungskontexte medizinischer Forschung, setzen Forschungsergebnisse entlang von Handlungsanleitungen und Empfehlungen für die klinische Praxis (»clinical practice guide­lines«) um. Den Anwendungskontexten wird freilich zumindest ein indirekter Anteil am Wirksamkeitsnachweis von neuen Verfahren und Therapeutika nachgesagt. Jede erfolgreiche Therapie, die auf dieser Grundlage realisiert werden kann, stützt den Wirksamkeitsnachweis. Hinzu kommt, dass die Patientengruppe, die ein Medikament im Rahmen der Standardtherapie erhält, ungleich viel größer ist 26 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

als die klinische Kohorte, anhand der der Nachweis ursprünglich erbracht wurde.39 Auf drei Bereiche, in denen die Relevanzermittlung in Bezug auf Forschung und Anwendung zum Thema wird, möchte ich im Folgenden anhand der genannten Beispiele näher eingehen. Der erste Bereich betrifft die Konzeption von Forschungszielen und Forschungsfragen: Wozu wird geforscht ? Der zweite Bereich betrifft die Durchführung von Forschung: Woran wird geforscht, das heißt auf welcher materiellen Grundlage forschen wir ? Nutzen wir computerbasierte Infrastrukturen (»numerische Modelle«) wie die Klimaforschung oder benötigen wir Lebendkulturen wie die Biomedizin ? Der dritte Bereich betrifft die Anwendung von Forschung: Welchen spezifischen Wert besitzen Forschungsergebnisse für Anwendungsfelder, zum Beispiel für die medizinische Behandlung von Kranken oder die Begründung klimapolitischer Entscheidungen ? Die Besonderheit anwendungsorientierter Forschung besteht augenscheinlich eben genau darin, dass sich diese Frage nicht erst am Ende, wenn Forschungsergebnisse erbracht sind, stellt, sondern maßgeblich bereits darauf Einfluss nimmt, wie Forschung konzipiert, das heißt Forschungsziele bestimmt und gewichtet werden. Zunächst wird es also darum gehen, dem Dreischritt der Untersuchung folgend, bei der Konzeption von Forschung zu beginnen, das heißt danach zu fragen, warum überhaupt etwas in den Fokus wissenschaftlicher Forschung rückt, sich als Frage an die Forschung konstituiert oder als wissenschaftliches Problem darstellt. 2.1 Relevante Faktoren: Zur Konzeption von Forschung

Bekanntlich zeugt die Diversität akademischer Forschung von einer Vielzahl an Fragen, denen sich Wissenschaftlerinnen und Wissenschaftler heute widmen. Hinzu kommt die Erkenntnis, dass es gewichtige Probleme gibt, von denen angenommen werden kann, dass ihre Erforschung von allgemeinem Interesse ist, man denke nur an den »anthropogenen Klimawandel«. Es geht mir hier folglich nicht darum, in Abrede zu stellen, dass es Fragen und Pro­ bleme gibt, sondern nachzuzeichnen, welcher Voraussetzungen es bedarf, damit sich diese als wissenschaftliche Fragen oder Probleme  Zur Erkenntnisleistung wissenschaftlicher Forschung | 27

konstituieren, in anderen Worten: wann und wodurch sie zu Fragen oder Problemen werden, die sich vor dem Hintergrund wissenschaftlichen Denkens und mit den Mitteln wissenschaftlicher Methoden überhaupt erst als solche ausweisen und in der Folge als echte wissenschaftliche Probleme verhandeln lassen. Bevor ich dies nun im Einzelnen beispielhaft an ausgewählten Forschungsfeldern schildere, scheint es mir nötig zu sein, einige Bemerkungen zum Stellenwert wissenschaftlicher Erklärungsmodelle vorauszuschicken. Letztere prägen unser Verständnis von Phänomenen der Welt, zum Beispiel ob bestimmte Klimaänderungen durch natürliche Ereignisse, einen Vulkanausbruch etwa, hervorgerufen werden oder aber als »anthropogene«, also auf den Menschen zurückgehenden Einflüsse zu würdigen sind. Erklärungsmodelle haben folglich Einfluss darauf, wie Phänomene sprachlich gefasst werden, wie sie in Bezug auf andere Phänomene bewertet werden, und somit unter Umständen auch, ob sie als hinreichend wichtig erachtet werden, um in den Fokus weiterführender Forschung gerückt zu werden: Idealerweise sollten wissenschaftliche Theorien kausale Zusammenhänge realer Phänomene widerspiegeln und ihr Auftreten erklären können. Mit theoretischen sowie praktischen Modellen verbindet sich der Anspruch, möglichst genaue Vorhersagen über künftige Effekte und Entwicklungen tätigen zu können. Dies gelingt, wenn alle relevanten Faktoren, die für die Veränderung des globalen Klimas, der Entwicklung der weltweiten Bevölkerung oder das Entstehen einer bestimmten Pandemie maßgeblich sind, zuverlässig erkannt wurden. Durch die Einbindung dieser Faktoren (»Parameter«, »Variablen«) in ein Modell erhofft man sich, ein präzises Wissen darüber zu erwerben, wie diese unterschiedlichen Faktoren miteinander interagieren und somit dazu beitragen, das Phänomen, dem das Forschungsinteresse gilt (»Zielphänomen«), zu erklären zu helfen (siehe Abbildung 1). Ein wesentliches Ziel praktischer Modelle wie etwa analoger oder computerbasierter Simulationen (»Strömungsmodell«, »Klimamodell«) besteht darin, konkrete Handlungsmöglichkeiten, die an einzelnen oder verschiedenen Faktoren ansetzen, zu entwickeln und – über klimapolitische Maßnahmen etwa – gezielt eingreifen zu können, um negative Entwicklungen, die sich regional oder gar global niederschlagen, zu unterbinden oder zumindest zu verlangsamen. 28 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Abb. 1: Identifizierung relevanter Faktoren »Faktor A«

Zielphänomen

»Faktor C«

»Faktor B«

Die Frage nach der Relevanz von Forschungsansätzen setzt also voraus, dass das Phänomen in seinen Grundzügen theoretisch be­ kannt ist oder durch die erfolgreiche Modellierung, genau genommen durch die Überführung in praktische Modelle, erkannt wird. Dies können Computermodelle (»in silico«) oder auch materielle Modelle sein, die für Forschungsdesigns der Biomedizin einen hohen Stellenwert besitzen. Hierbei kann es sich um Modelle auf der Basis von Zellkulturen handeln (»in vitro«) oder um gentechnisch veränderte Tiere, z. B. transgene Mäuse, die als »Tiermodell« zur Erforschung pathogener Prozesse herangezogene werden (»in vivo«). Ein wesentlicher Vorteil von Modellen besteht darin, bis dato wenig Bekanntes durch erprobendes Modellieren und Simulieren näher zu erkunden. Bestimmte Vorannahmen (Theorien, Hypothe­ sen) werden gegebenenfalls über Modelle erstmals überprüfbar oder erlauben zumindest, wichtige Parameter, die die Dynamik eines realen Systems konstituieren, zu identifizieren. Hier ist der Übergang zur Grundlagenwissenschaft fließend: Durch den oftmals langwierigen Prozess der Entwicklung und Konstituierung von Modellen werden wichtige Erkenntnisse, zum Beispiel über die Zuverlässigkeit eines Modellsystems, gewonnen. In der lebens­ wissenschaftlichen Forschung geht mit der Etablierung von Tiermodellen der doppelte Anspruch einher, sowohl biologische Mechanismen zu repräsentieren als auch methodische Werkzeuge der  Zur Erkenntnisleistung wissenschaftlicher Forschung | 29

Entdeckung und Erschließung dieser Mechanismen zu generieren.40 Hierzu müssen Nachweisverfahren entwickelt und die Abfolge von einzelnen Evaluierungsschritten festgelegt werden, die die Güte eines Modells experimentell zu validieren erlauben. Ein erfolgreiches Modellsystem ist in der Regel das Ergebnis bereits abgeschlossener, weniger erfolgreicher oder gar gescheiterter Modellierungen im Vorfeld oder die Zusammenführung von Modellen, die verschiedene Teilsysteme erfolgreich abzubilden erlauben. Ganz allgemein kann festgestellt werden, dass die Modellierung durch Komplexitätsreduktion (Abstraktion, Idealisierung) die Handhabbarkeit von Forschungsdesigns erhöht. Kurz gesagt bedeutet dies, dass ausgewählte Prozesse in den Fokus der Forschung rücken und damit bestimmte ebenfalls beteiligte Mechanismen bewusst ignoriert werden, um zu gewährleisten, dass das Modell im Kontext experimenteller Designs nutzbar bleibt: Dazu werden kausale Zusammenhänge vereinfacht oder Mechanismen begradigt (siehe Abbildung 2) – mit der Konsequenz, dass Teilaspekte aus dem Fokus der Untersuchung herausfallen (Komplexitätsreduktion) und Varianten keine Berücksichtigung erfahren (Vereinfachung). Zusammenfassend lässt sich sagen, Modellierungen sind – in Bezug auf die realen Systeme, die sie abzubilden beanspruchen – in der Regel unterkomplex und stark vereinfacht. Abb. 2: Vereinfachung und Begradigung Vereinfachung kausaler Zusammenhänge … wenn »a« und »b« → dann »Z« … weil Teilaspekte »c« bis »n« ignoriert werden. --------Begradigung relevanter Mechanismen … »a« = »a1«; »b« = »b5« … weil Varianten »a2« bis »aN« bzw. »b1–b4« und »b6–bN« ignoriert werden.

30 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Auf diesem Wege nehmen konzeptuelle und praktische Fragen der modellbasierten Forschung freilich umgekehrt auch Einfluss auf das Verständnis von Zielphänomenen, zum Beispiel wenn sich reduzierte Modelle pathogener Prozesse insgesamt verstetigen und in andere Forschungsbereiche hineinwirken. Welche Auswirkungen dies etwa für die klinische Forschung hat, darauf werde ich später noch zu sprechen kommen. Zunächst geht es mir darum, zu schildern, wie es um die Konzeption von Forschung bestellt ist. Dies kann nur exemplarisch geschehen. Das erste Fallbeispiel widmet sich einem bestimmten Bereich der medizinischen Forschung, die sehr allgemein gefasst danach fragt, welche Faktoren das Entstehen von Krankheiten begünstigen oder letztlich verursachen. Im Speziellen wird es um Forschungsansätze zur Pathogenese von »Krebs« gehen, einem heterogenen Krankheitsbild, das auf anomales Zellwachstum zurückgeführt wird. Krebszellen sind im Gegensatz zu gesunden Zellen unbegrenzt teilungsfähig. Tumorgeschwulste (Sarkom, Primärtumor) beeinträchtigen durch ihr Einwachsen in gesundes Gewebe häufig selbst die Funktion von Organen oder stellen durch die Bildung von Tochtergeschwulsten (»Metastasen«) außerhalb des ursprünglichen Gewebeverbandes eine zusätzliche Gefahr für den betroffenen Organismus dar. »Krebs« kann alle Organsysteme betreffen. Bei der Leukämie handelt es sich ebenfalls um eine Form anomalen Zellwachstums. Hier kommt es zu einer unkontrollierten Vermehrung weißer Blutkörperchen.41 Worauf ist dieses Wachstum (Anomalie) zurückzuführen ? Warum bleiben manche Tumore lokal begrenzt, während andere ­Metastasen bilden ? Durch die Verbesserung therapeutischer Verfahren wurde es im 20. Jahrhundert möglich, molekulare Mechanismen in Tumorzellen gezielt anzugreifen, stets unter der Maxime, durch entsprechende Interventionen (Chirurgie, Strahlentherapie, Chemotherapie) möglichst wenig gesundes Gewebe zu entfernen oder gesunde Zellen zu beeinträchtigen: Bekanntermaßen schädigen alle genannten Verfahren, schon um Rezidiven vorzugreifen, stets auch gesundes Gewebe oder Zellen, zum Beispiel indem unmittelbar an den Tumor angrenzendes Gewebe im Rahmen chirurgischer Eingriffe vorsorglich entfernt wird. Die bei Leukämie zum Einsatz kommenden Medikamentenregime der zyto­toxi­  Zur Erkenntnisleistung wissenschaftlicher Forschung | 31

schen Kombinationstherapie greifen unterschiedslos alle Zellen des menschlichen Körpers an. Hinzu kommt, dass therapeutische Maßnahmen wie etwa die Bestrahlung unter Umständen selbst Krebs verursachen können (sekundäre Leukämie). Auch weitere, unerwünschte Nebenwirkungen von Therapien wären zu nennen, die in der Folge Begleitbehandlungen nötig machen, oder Spätfolgen, die auf die zytotoxische Wirkung von Chemotherapeutika zurückgeführt werden können. Als ausschlaggebend für die Konzeption der Forschung im Einzelnen erweisen sich folglich weitere Fragen, vor allem danach, welches Krankheitsmodell im Fokus der Forschung steht: Wie wird das Entstehen einer Krankheit erklärt ? Gibt es verschiedene Ansätze der Erklärung ? Welche Theorie wird priorisiert ? Hinzu kommt die Frage, auf welchen Faktoren der Krankheitsentstehung das besondere Augenmerk liegen soll. Ursächlich für Krebs können, wie Forschungsbefunde mittlerweile gezeigt haben, zum Beispiel Viren sein (»Onkoviren«): Bis in die 1970er Jahre hinein gab es sehr unterschiedliche Theorien, um die Ursache von Krebs zu erklären. Die populärste dieser Theorien besagte, dass Krebs durch Viren verursacht wird (»Infektionstheorie«). 1911 war es dem Pathologen Peyton Rous erstmals gelungen, einen krebsverursachenden Virus zu identifizieren, der bei Hühnern zum unkontrollierten Zellwachstum führt (»Rous-Sarkom-Virus«, RSV). Für seine Entdeckung tumorinduzierender Viren erhielt er 1966 den Nobelpreis für Physiologie oder Medizin, nachdem die Bedeutung seines Ansatzes für die Krebsforschung erkannt worden war. Zwei Jahre zuvor, 1964, war es den Virologen Michael Epstein und Yvonne M. Barr gelungen, erstmals einen humanpathogenen Virus zu identifizieren, den »Epstein-Barr-Virus«, der Pfeiffer’sches Drüsenfieber verursacht und zur Familie der Herpes-Viren zählt.42 Patienten mit einer chronischen Hepatitis B, einer entzündlichen Erkrankung der Leber, die auf Hepatitis-B-Viren (HBV) zurückgeht, zählen weltweit zur Hochrisikogruppe für die Entstehung eines hepatozellulären Karzinoms (HCC). Auch aus einer Infektion mit Hepatitis-C-Viren (HCV) kann eine schwere Leberschädigung (Leberzirrhose, Leberkrebs) resultieren. Der präferierte Forschungsansatz in beiden Fällen ist die Entwicklung von Impfstoffen, die eine Infektion unterbinden und idealerweise frühzeitig, das heißt bevor eine Person 32 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

mit dem Virus in Kontakt kommen kann, verabreicht werden. Die Hepatitis-B-Impfung, die eine Infektion mit HBV-Viren verhindert, gilt als Primärprävention. Empfohlen wird die Schutzimpfung in Deutschland für Risikogruppen, zum Beispiel bei erhöhtem Expositions-, Erkrankungs- oder Komplikationsrisiko, oder aber zum Schutz Dritter.43 Seit 2018 empfiehlt die Ständige Impfkommission (STIKO) am Robert Koch-Institut, Mädchen wie Jungen im Alter von 9 bis 14 Jahren vor dem ersten Sexualkontakt gegen humane Papillomviren (HPV) zu impfen. Die Empfehlung war 2014 auf dieses Alter heruntergesetzt worden und gilt seit 2018 auch für Jungen.44 2007 war die Impfung für Mädchen in einem Alter von 12 bis 17 Jahren eingeführt worden.45 Kurz zuvor waren entsprechende Schutzimpfungen entwickelt worden, die eine Infektion mit HPV verhindern und somit einen Hauptrisikofaktor für die Erkrankung an Gebärmutterhalskrebs (Zervixkarzinom) wirksam ausschließen.46 Auch andere Karzinome, im Mund- und Rachenbereich etwa, können, wie aktuelle Untersuchungen belegen, durch HPV-Infektionen bedingt sein.47 Aber »Krebs« ist nicht per se auf eine Infektion mit Viren oder Bakterien (z. B. Heliobacter pylori) zurückzuführen. Auch chemische Substanzen können allein oder in Verbindung mit anderen Stoffen, zum Beispiel im Tabakrauch, bestimmte Krebsleiden verursachen oder ihr Entstehen begünstigen (»Karzinogene«): Es werden verschiedene Gruppen von Karzinogenen unterschieden: Als »initiierende Karzinogene« werden Stoffe bezeichnet, die Krebs erzeugen können, während »promovierende Karzinogene« Stoffe sind, die die (Weiter-)Entwicklung des Krebses fördern. Als »Co-Karzinogene« wiederum werden Stoffe bezeichnet, die nur in Verbindung mit anderen Stoffen kanzerogen wirken. Gefahrenkategorien in der Chemie stufen die Wirkung von kanzerogenen Stoffen näher ein: Zur Kategorie 1 zählen nachweislich kanzerogene Stoffe, zum Beispiel Asbest und Benzol, zur Kategorie 2 solche Stoffe, für die bereits hinreichende Anhaltspunkte bestehen, dass eine Exposition gegenüber dem Stoff beim Menschen Krebs verursacht, und zur Kategorie 3 werden Stoffe gezählt, die wegen möglicher Krebserzeugung Anlass zur Besorgnis geben, ohne einen kausalen Zusammenhang bis dato sicher belegen zu können. Stoffe der Kategorie 1 und 2 gelten als giftig (T), sie müssen entspre Zur Erkenntnisleistung wissenschaftlicher Forschung | 33

chend gekennzeichnet werden (»R45 Kann Krebs erzeugen«); Stoffe der Kategorie 3 wiederum gelten als gesundheitsschädlich (Xn), dies ist ebenfalls auszuweisen (»R40 Verdacht auf krebserzeugende Wirkung«).48 Hinzu kommen radioaktive Substanzen, die ionisierend wirken, wie etwa Röntgenstrahlung. Je nach Expositionsgrad und -häufigkeit (Ionendosis) können diese Veränderungen im Erbgut von Zellen erzeugen und ein anomales Zellwachstum in Gang setzen. Vor allem die Forschung zu tumorinduzierenden Viren erwies sich als wichtiger Schritt, um genetische Aspekte von Krebserkrankungen zu bestimmen: Die Suche nach »Onkogenen«, auf die sich das Entstehen der Anomalie kausal zurückführen lässt, stehen seit der Entwicklung molekularbiologischer Methoden im besonderen Fokus der Krebsforschung. Hierbei handelt es sich um funktionale Abschnitte der DNS (»Gene«), die für Zellwachstum oder Zellteilung verantwortlich sind: »Gen« bezeichnet heute eine grundlegende physikalische Einheit der Vererbung, die einen spezifischen Platz auf einem Chromosom einnimmt. Chemisch bestehen Gene aus Desoxyribonukleinsäure (DNS). Funktional betrachtet, sind Gene »Träger« der Erbinformation, das heißt, sie übermitteln die biologische Eigenschaft einer Zelle auf andere Zellen desselben Typs oder von einer Zellgeneration auf die nächste. Die Gesamtheit aller Gene und der dort niedergelegten Erbinformation (»genetische Information«) eines Organismus bezeichnet man als Genom. Proteine, die einen Großteil der Zellfunktionen ausführen, sind Umsetzungen der jeweiligen Funktionen, in anderen Worten: Gene liefern den »Bauplan« für Proteine. Die Bildung des Proteins (»Proteinsynthese«) benötigt einen Mediator. Dies ist die Ribonukleinsäure (RNS). Zunächst wird, im einfachsten Fall, eine RNS -Kopie (messenger RNS, mRNS) des DNS -Abschnitts erstellt (»Transkription«). Dieses Transkript wird in ein Protein übersetzt (»Translation«). Das Protein setzt die Funktion, die im Gen niedergelegt ist (»genetischer Code«), schließlich um. Zu einem »Onkogen« werden sie, wenn sie durch Mutation verändert sind, was zur Folge hat, dass das Zellwachstum außer Kontrolle gerät: Forschungsarbeiten der Virologen J. Michael Bishop und Harold Varmus zwischen 1970 und 1984 zeigten, dass unterschiedliche Formen kanzerogener Tumore, die durch Viren verursacht wurden, auf einen gemeinsamen ge34 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

netischen Mechanismus zurückgehen, und bestätigten damit eine Hypothese, die 1969 von Robert Huebner und George Todaro aufgestellt worden war (»Virogen-Onkogen«-Hypothese). 1970 wurde erstmals ein »Onkogen« nachgewiesen, das im Fall des »RousSarkom-Virus« (RSV) Veränderungen des Zellgewebes hervorruft (»sark«, SRC).49 Sie werden daher auch als zelluläre »Proto-Onkogene« bezeichnet, weil sie nur dann maligne, das heißt ›bösartige‹ Tumore induzieren, wenn sie mutieren.50 Mittlerweile wurde festgestellt, dass dieser Prozess begünstigt werden kann, wenn weitere DNS -Abschnitte, die ein unkontrolliertes Wachstum gewöhnlich unterbinden (»Tumorsupressorgene«), ebenfalls verändert oder in ihrer Funktion gestört sind. In jüngerer Zeit kommen zudem auch genetische Defekte in DNS -Reparatursystemen (»Mutatorgene«) in den Blick.51 Zusammengefasst heißt dies, dass die Entstehung von »Krebs« nicht auf eine einzelne Ursache zurückgeht.52 Die Anomalie im Zellwachstum kann von »außen«, zum Beispiel durch den Konsum von Tabak oder durch die Infektion mit bestimmten tumorinduzierenden Viren (Hepatitis-B/C; Humanes Papillomvirus, HPV; Humanes Immundefizienz-Virus, HIV etc.), hervorgerufen werden.53 Somatische Mutationen, spontane Veränderungen in den Körperzellen auf molekularbiologischer Basis, können ebenfalls anomales Zellwachstum verursachen. Die veränderte Form eines Gens (»Mutation«) wird auch als »Allel« bezeichnet. Hinzu kommen genetische Prädispositionen, die somatische Mutationen zusätzlich begünstigen können. Mit dem doppelten Forschungsziel, erstens grundlegende Mechanismen anomalen Zellwachstums zu erkennen sowie zweitens hierauf abgestimmte Diagnose- und Therapieoptionen zu entwickeln, verbinden sich folglich sehr unterschiedliche Ansätze. Folgt man dem genetischen Krankheitsmodell, dass nahelegt, dass bestimmte Mutationen anomales Zellwachstum erzeugen oder begünstigen, liegt es nahe, Personengruppen zu identifizieren, die familiär bedingt ein hohes Risiko besitzen, irgendwann in ihrem Leben von einem Tumorleiden betroffen zu sein. Als eine der häufigsten Krebserkrankung bei Kindern wäre etwa das Retinoblastom zu nennen, bei dem ein Tumor die Retina des Auges befällt: Wenn die Geschwulst frühzeitig erkannt wird und die chirurgische Ent Zur Erkenntnisleistung wissenschaftlicher Forschung | 35

fernung des Tumors erfolgreich verläuft, liegt die Überlebensrate der Kinder bei 95 – 97 %.54 Das Krankheitsbild tritt entweder durch somatische Mutationen in der Retina auf oder aber wird durch genetische Prädisposition, genauer: einer Mutation im RB1-Gen, verursacht. Im letzten Fall, in dem meist beide Augen betroffen sind, handelt es sich um eine autosomal-dominante Vererbung, die dann zur Ausprägung kommt, wenn eine zweite somatische Mutation in einem anderen Allel des Gens in einer retinalen Zelle auftritt. Mit der Mutation im RB1-Gen, einem »Tumorsuppressorgen«, verbindet sich außerdem ein erhöhtes Risiko, im späteren Leben an weiteren primären Tumoren zu erkranken.55 Durch die Genomkartierung und die Verfügbarkeit etablierter technischer Verfahren können heute recht zuverlässig Veränderungen im Erbgut ermittelt werden, hat man erst einmal eine Patientengruppe mit familiärer Disposition identifiziert. Um den Einfluss von somatischen Mutationen auf die Entstehung eines Tumorleidens im Detail zu erforschen (»Onko­genese«) und letztlich potente Therapeutika zu entwickeln, ist es in der Regel unerlässlich, überhaupt erst geeignete Modelle, die alle relevanten Faktoren der Pathogenese abbilden, zu etablieren. In der biomedizinischen Laborforschung handelt es sich, wie ich im zweiten Teil der Analyse ausführen werde, um lebende Modelle. In-vitro-Modelle nutzen tierische oder humane Zellen, die in der Petrischale, einem standardisierten Glasbehälter, vermehrt werden. In-vivo-Modelle basieren auf Organismen, zum Beispiel Mäusen (Mus musculus), die gezielt gezüchtet oder gar gentechnisch verändert werden, um dieselben somatischen Mutationen aufzuweisen, die bei Patienten mit familiärer Disposition nachweislich an der Krankheitsentstehung Anteil haben. Kommen wir zunächst zum zweiten Fallbeispiel, das die Frage, wozu geforscht wird, in einem anderen Bereich der wissenschaftlichen Forschung in den Blick nimmt: Fachgebiete der geowissenschaftlichen Forschung, darunter die Ozeanographie, die Glaziologie und die Atmosphärenwissenschaften widmen sich heute verstärkt der Frage, welche Faktoren darauf Einfluss haben, dass es zu Klimaänderungen kommt. Die Weltorganisation für Meteorolo­ gie (WMO) fasst »Klima« als durchschnittliche Wetterbedingungen, zum Beispiel Temperatur und Niederschlag, die in einem bestimmten Gebiet, über einen langen Zeitraum betrachtet, herrschen. 36 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Gleichzeitig bezeichnet der Begriff den Status des Erdklimasystems, das aus Atmosphäre (allgemeine Zirkulation), Hydrosphäre (Ozeane und Wasserkreislauf), Kryosphäre (Eis und Schnee), Pedo­ sphäre (Boden), Lithosphäre (Gestein) und Biosphäre (Tiere und Pflanzen) besteht.56 Klimaänderungen können nach heutigem Stand des Wissens aus Wechselwirkungen zwischen diesen Klimasubsystemen resultieren, die auch als »inhärente Schwankungen« gefasst werden: So führt eine veränderte Oberflächentemperatur der Meere unter Umständen zu Änderungen in der atmosphärischen Zirkulation. Hier ließe sich etwa auf El Niño, ein regelmäßig eintretendes natürliches extremes Wetterphänomen, verweisen: Diese natürliche Klimaschwankung wird auch als »El Niño Southern Oscillation (ENSO)«-Phänomen bezeichnet. Bekannter­maßen hat es seinen Ursprung im tropischen Pazifik und beeinflusst nicht nur das Regional-, sondern auch das Globalklima.57 Aber auch »externe« Vorkommnisse, zum Beispiel eine veränderte solare Strahlung oder ein lokales Ereignisse mit globaler Wirkung, wie ein Vulkanausbruch, können Änderungen des Klimas hervorrufen: Große, das heißt besonders starke Vulkaneruptionen, wie etwa im Fall der indonesischen Vulkaninsel Krakatau im Jahr 1883, führen zu einem Anstieg des Schwefelsäureaerosols in der unteren Stratosphäre und stehen deshalb gewöhnlich mit Witterungsveränderungen und Klimaanomalien in enger Verbindung.58 Klassischerweise unterscheidet man auch deshalb strikt zwischen natürlichen Klimaänderungen (»natürlicher Treibhauseffekt«) und dem vom Menschen verursachten Klimawandel (»anthropogener Treibhauseffekt«): Bis heute wird der anthropogene Einfluss auf das Klima von Skeptikern aus unterschiedlichen Gründen bestritten. In der wissenschaftlichen Forschung herrscht über diese Tatsache aber mittlerweile großer Konsens, wie eine vielbeachtete Studie der Historikerin Naomi Oreskes belegt.59 Zu den wichtigsten natürlich vorkommenden Spurengasen, die von Menschen durch die Nutzung fossiler Brennstoffe (Erdöl, Kohle und Erdgas) und einer intensivierten Landwirtschaft (Viehwirtschaft, Brandrodungen) vermehrt erzeugt werden, zählen Kohlendioxid (CO2), Methan (CH4) und Distickstoffoxid (N2O). Ferner wären neue Stoffe der chemischen Industrie zu nennen, vor allem die Fluorchlorkohlenwasserstoffe (FCKW): Diese haben sich nicht nur als besonders effektive »Treibhausgase« erwiesen, sondern  Zur Erkenntnisleistung wissenschaftlicher Forschung | 37

schädigen zudem die natürliche Ozonschicht der Erde, die die für Lebewesen schädliche UV-Strahlung absorbiert. Das Montrealer Protokoll, ein internationales Abkommen aus dem Jahr 1987, regelte erstmals den Ausstoß von FCKWs und die Entwicklung alternativer klimafreundlicher Produkte, mit dem Ziel, den Abbau der stratosphärischen Ozonschicht aufzuhalten und langfristig einen Erholungsprozess einzuleiten.60 Besonders dramatisch erweist sich aus Sicht des Klimaschutzes der Umstand, dass alle genannten Spurengase relativ lange als chemische Verbindungen stabil bleiben: CO2 hat beispielsweise eine typische Verweildauer in der Atmo­ sphäre von rund 100 Jahren. Weil sich Spurengase wie CO2 über den Erdball verteilen und sich akkumulieren, nehmen sie auf das globale Klima Einfluss, das heißt ihre Wirkung als Treibhausgas bleibt nicht auf den Ort ihres Ausstoßes beschränkt. Seit Beginn der Industrialisierung steigt der CO2-Gehalt der Atmosphäre, wie Messungen ergeben haben, kontinuierlich an.61 Eine grundlegende Herausforderung der Klimaforschung besteht darin, natürliche Klimaereignisse von solchen zu unterscheiden, die auf den Einfluss des Menschen zurückgeführt werden können, zum Beispiel die Häufigkeit von extremen Wetterereignissen. Hierfür sind Beobachtungen und Messungen über verhältnismäßig lange Zeiträume nötig, die zuverlässig natürliche Klimavorkommnisse in ihrer Schwankungsbreite abbilden, indem sie maßgebliche Faktoren (»Klimavariablen«) hierfür benennen und kontinuierlich erfassen. Erst vor diesem Hintergrund können Ursachen von Klimagegebenheiten, zum Beispiel von Strahlungsprozessen, zuverlässig erkannt und ihr Einfluss gezielt erforscht werden: Welche Gegebenheiten führen zur Veränderung von regionalen Klimasystemen oder beeinflussen gar das globale Klimasystem ? Anhand welcher Faktoren lassen sich »Klimaänderungen« zuverlässig erfassen (Temperatur, Niederschlagsmenge, etc.) ? »Klimamodelle« sind auf dieser Basis Strategien, die es erlauben, am Modell entsprechende Szenarien durchzuspielen. Ziel dieser Modelle ist es etwa, das globale Klima des Erdsystems über lange Zeiträume, das heißt mehrere Jahrhunderte bis Jahrtausende, zuverlässig zu ermitteln. Außerdem sollen geeignete prognostische Werkzeuge etabliert werden, die zum besseren Verständnis regionaler Klimasysteme über weit kleinere Zeiträume, namentlich über Jahrzehnte bis Jahrhunderte, 38 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

beitragen. Wissenschaftliche Schwerpunkte der aktuellen Klimaforschung liegen etwa darin, physikalische Prozesse, die am Klimageschehen beteiligt sind, zu identifizieren und ihre Interaktion zu verstehen. Ziel ist es außerdem, die Biogeochemie von Teilsystemen, zum Beispiel von Wasserflächen, genauer zu quantifizieren und Stoffkreisläufe entsprechend realitätsnah abzubilden. Hinzu kommt die Frage, welche biologischen und biochemischen Prozesse im Einzelnen das Phänomen »Klima« konstituieren. Welche weiteren Prozesse sind darüber hinaus zu berücksichtigen, weil sie zum Beispiel bei biogeochemischen Austauschprozessen zwischen Wasser- oder Landflächen und Atmosphäre eine maßgebliche Rolle spielen ? In der Klimaforschung nutzt man heute, wie ich im ­zweiten Teil der Analyse ausführen werde, numerische Modelle, d.  h. hoch­­dimensionale Gleichungssysteme, die »in-silico«, also unter Rückgriff auf Hochleistungsrechner, relevante Faktoren eines Klimasub­ systems (z. B. »Atmosphäre«) abbilden. Angesichts unvorhergesehen starker Veränderungen der Kryosphäre sieht sich die Klimaforschung derzeit etwa mit der Frage konfrontiert, wie der Schwund von Eismassen zu bewerten ist und warum es überhaupt zu diesen dramatischen Prozessen kommen konnte: Die Kryosphäre ist ein Klimasubsystem der Erde, als dessen wesentliche Faktoren Schnee, Meereis (Packeis), Inlandeis, Gebirgsgletscher und Schelfeis, das fast ausschließlich in der Antarktis vorkommt, gelten. Klimaschwankungen zeigen sich besonders deutlich an der veränderten Meereisgrenze in den Polargebieten. Derzeit beunruhigt Glazio­­ logen vor allem der unerwartet starke Schwund der grönländischen Eismassen, das zweitgrößte Eisschild der Erde. Denn obwohl die Arktis doppelt so stark vom weltweiten Temperaturanstieg betroffen ist, kann dies den gewaltigen Schwund des Eises nicht vollständig erklären.62 Hiermit verbundene Ziele sind etwa, heraus­ zufinden, welchen Einfluss diese Prozesse auf das globale Klima haben, und zwar abhängig davon, wie rasch der Schwund voranschreitet oder ob sich diese Entwicklung umkehren lässt. Dazu ist es nötig, relevante Faktoren, die diese Entwicklung begünstigen, zu identifizieren und Gegenmaßnahmen zu entwickeln, die diesen Prozess verlangsamen oder aufhalten können. Problematisiert wird in diesem Fall, dass die bis dato vorliegenden Klimamodelle diese  Zur Erkenntnisleistung wissenschaftlicher Forschung | 39

spezifischen Veränderungen prekärerweise nicht abbilden, und zwar schlichtweg deshalb, weil noch nicht alle relevanten Faktoren erkannt oder hinreichend erforscht sind. Glaziologen gehen derzeit davon aus, dass neben dem Temperaturanstieg in der Arktis sowie veränderten Wetterbedingungen an den Polen weitere Faktoren das Abschmelzen signifikant begünstigen: Das Eis absorbiere insgesamt mehr Wärme, als bisher angenommen wurde. Zugenommen hätte etwa die Zahl von Mikroorganismen, zum Beispiel Algen, die sich durch die vorangegangenen warmen Sommer stark vermehrt haben. Ihre dunklen Pigmente absorbieren das Sonnenlicht. Gleiches gelte für Rußpartikel, die sich über Jahrhunderte im Eis abgelagert haben.63 Fassen wir die Startbedingungen der hier skizzierten Forschungsfelder zusammen, zeigen sich jenseits der erläuterten fachlichen Unterschiede Gemeinsamkeiten in strategischer Hinsicht. Namentlich die folgenden drei Desiderate lassen sich als leitend für die Konzeption anwendungsorientierter Forschung hervorheben: ▷ Dringlichkeit: Wozu soll geforscht werden ? ▷ Verwertbarkeit: Welche konkreten Ziele verbinden sich mit dem Vorhaben, das heißt worin besteht ihr voraussichtlicher Nutzen ? ▷ Umsetzbarkeit: Welches Erklärungsmodell wird zugrunde gelegt und welche Faktoren des Modells stehen im Einzelnen im Fokus des gewählten Forschungsansatzes ? Bei der letzten Frage geht es um den wissenschaftlichen Zugriff auf das Zielphänomen: In der Regel wird dasjenige Erklärungsmodell favorisiert, das innerhalb der wissenschaftlichen Gemeinschaft, im Kreis der Fachkolleginnen und Fachkollegen, die höchste Anerkennung genießt, das einen komplexen Sachverhalt am besten abbildet oder sich gemessen an den favorisierten Untersuchungsmethoden am zuverlässigsten nutzen lässt, um das gesetzte Ziel zu erreichen. Die Krebsforschung stützt sich, wie sich bereits angedeutet hat, im Idealfall auf eine bereits bekannte Variation, zum Beispiel eine genetische Mutation, die für das Entstehen der Krankheit kausal verantwortlich ist oder einen essentiellen Anteil daran hat. Hiermit verbinden sich zugleich grundlegende Herausforderungen ak­tu­eller Forschungsansätze. Das klassische ätiologische Modell, dass Krank40 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

heiten auf einen Verursacher, einen Krankheitserreger (Bak­te­rium, Virus) oder eine genetische Mutation zurückgeführt werden können, wurde durch Forschungsergebnisse der medizinischen Bakteriologie, der Molekularbiologie und insbesondere der Epigenetik vielfach in Zweifel gezogen. Einmal bedeutet dies, dass das Vorliegen eines Krankheitserregers nicht per se auch zum Krankheits­ geschehen führen muss (immunologischer Schutz). Zweitens zeichnet sich ab, dass zusätzliche und gegebenenfalls bis dato unbekannte Faktoren Einfluss darauf haben können, dass ein pathogener Prozess überhaupt in Gang kommt und klinische Symptome zeitigt. Eine Herausforderung bei der Entwicklung von diagnostischen und therapeutischen Verfahren besteht ferner darin, dass Krankheitsverläufe selbst bei monokausalen Krankheiten unterschiedlich verlaufen können, dass klinische Symptome früher oder später im Leben auftreten, dass sie schwächer oder stärker ausgeprägt sind oder mit zusätzlichen Erkrankungen (Komorbiditäten) einher­ gehen. Grundsätzlich sei als weitere Herausforderung genannt, dass bereits bei der Konzeption von Forschung pragmatische Gesichtspunkte, die eigentlich die Durchführbarkeit von Forschung betreffen, eine große Rolle spielen: Modelle, die in der Krebs- oder Klimaforschung zum Einsatz kommen, bilden auch deshalb nur bestimmte, ausgewählte Faktoren ab. So wird unter Umständen ein stark abstrahiertes Modell der Tumorentstehung auch deshalb favorisiert, weil es am ehesten gewährleistet, das Modell auch praktisch, sprich: im experimentellen Setting, zu realisieren. Die Komplexitätsreduktion im Modell, indem kausale Zusammenhänge vereinfacht oder Mechanismen begradigt werden, kann folglich zugleich als Gewinn und als Herausforderung modellbasierter Forschung thematisiert bzw. problematisiert werden. Eine weitere, pragmatische Voraussetzung für die Durchführbarkeit von Forschung besteht darin, dass Forschungsmethoden bereitstehen, die in der Lage sind, die ausgewählten Parameter überhaupt abzubilden. Was dies im Einzelnen bedeutet, wird im Folgenden zu erläutern sein.

 Zur Erkenntnisleistung wissenschaftlicher Forschung | 41

2.2 Relevante Ähnlichkeit: Zur Durchführung von Forschung

Wenn ich davon spreche, dass geeignete Forschungsmethoden bereitstehen müssen, die in der Lage sind, ein Erklärungsmodell (»a  verursacht b, wenn c«) experimentell überprüfen zu können, deute ich implizit eine Chronologie an, die streng genommen nicht die Realität wissenschaftlicher Forschung widerspiegelt. Es ist tatsächlich in zahlreichen Wissenschaftsfeldern heute so, dass die praktischen Bedingungen, unter denen geforscht wird, zum Beispiel die Wahl eines bestimmten Experimental- oder Laborsystems, auf die Konzeption von Forschungsfragen erheblichen Einfluss nimmt. In anderen Worten heißt dies, dass Entscheidungen, die die Durchführung von Forschung betreffen, nicht der Bestimmung von Forschungszielen im Einzelnen (Konzeption von Forschung) nachfolgen, sondern ihr unter Umständen sogar vorausgehen. Dies ist vor allem darauf zurückzuführen, wie Forschung organisiert ist: Infrastrukturmittel, materielle Ressourcen, methodisches und kognitives Know-how müssen vorgehalten werden, um Forschungsgruppen, die zum Beispiel in Laborgemeinschaften organisiert sind, überhaupt in die Lage zu versetzen, neuartige Forschungsfragen zu stellen. Hinzu kommt die Vertrautheit mit Methoden respektive standardisierten Nachweisverfahren. Dies bedeutet umgekehrt, dass zahlreiche Vorentscheidungen, zum Beispiel, ob und welche tierexperimentellen Verfahren in den Fokus von Forschung rücken, bereits gefallen sind (Durchführung), bevor auf dieser Grundlage neue Forschungsziele in Angriff genommen werden (Konzeption). Für die Durchführung von Forschung ist es entscheidend, dass das gewählte Modellsystem überhaupt ermöglicht, Aussagen über das Zielphänomen zu machen. Im »Trial-and-error«-Verfahren werden idealiter Kernaspekte von Zielphänomenen greifbar und für weitere wissenschaftliche Analysen zugänglich. Meist wird dies dahingehend präzisiert, dass das Modell das Zielphänomen repräsentiert oder in Bezug auf elementare strukturelle oder phänomenale Eigenschaften abbildet. Wie ist dies möglich ? Grundsätzlich wird angenommen, dass das Modell und das Zielphänomen einander »ähnlich« sind. Die Ähnlichkeitsbeziehung ist freilich eine besondere: Das designierte Modell bildet das Zielphänomen nicht eins zu eins ab, stellt also keine Kopie des Zielphänomens dar, sondern 42 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

ist – gemessen an den jeweiligen Anforderungen an Forschungsvorhaben – im besten Fall eine besonders zugängliche Version desselben. Zugänglich meint hier faktisch, dass das Zielphänomen nicht per se, sondern nur einige, ausgewählte Eigenschaften ins Modell überführt werden: Modelle stellen, wie eingangs erläutert, im Vergleich zum Ausgangsphänomen auch deshalb in der Regel abstrakte, reduzierte oder schlichtweg unterkomplexe Versionen desselben dar. Als Minimalbedingung gelungener Modellierung wird folglich betrachtet, dass Modell und Zielphänomen relevante Ähnlichkeiten zeigen. Welche dies sind, ist abhängig davon, welches Erklärungsmodell zugrunde gelegt wird, zum Beispiel welche Krankheitstheorie leitend ist. Ich komme erneut auf die im vorangegangenen Abschnitt gewählten Beispiele zurück. Im Fokus steht jetzt jeweils die Frage, wie und woran geforscht wird. Das Fallbeispiel aus dem Bereich der medizinischen Forschung nimmt hierzu die vorangegangenen Überlegungen auf und referiert die Herangehensweise der biomedizinischen Laborforschung. Diese stützt sich im gewählten Beispiel auf ein genetisches Krankheitsmodell anomalen Zellwachstums. Ihr dezidiertes Interesse gilt einer bestimmten Variation, zum Beispiel einer genetischen Muta­ tion, die für das Entstehen der Krankheit kausal verantwortlich ist oder hieran einen essentiellen Anteil hat. Es sind vor diesem Hintergrund tatsächlich sehr unterschiedliche Ansätze, die zum Ziel der Modellierung werden können, denkbar: Im Fokus der Krebsforschung stehen, wie bereits erwähnt, pathogene Prozesse, die entweder auf veränderte zelluläre »Proto-Onkogene« zurückgeführt werden können, zum Beispiel »ras«, das bei verschiedenen Krebserkrankungen beteiligt ist, oder auf veränderte »Tumorsuppressorgene«, die das Entstehen bestimmter Krebserkrankungen begünstigen: Beim erblichen Retinoblastom wäre dies »RB1« (chromosomale Lokation: 13q14), bei Brust- und Ovarialkrebs »BRCA1« oder »BRCA 2« (chromosomale Lokation: 17q21 bzw. 13q13).64 Für die Durchführung medizinischer Forschung ist es entscheidend, dass die Variationen über das gewählte biomedizinische Regime realisiert, kurz: operationalisiert werden können. Im gegenteiligen Fall hätte der jeweilige Forschungsansatz wenig Aussichten auf Erfolg, das heißt es käme gar nicht erst zu einer experimentellen Tes Zur Erkenntnisleistung wissenschaftlicher Forschung | 43

tung. Dies ist somit keine unwichtige grundsätzliche Überlegung, die nicht zuletzt auch auf die Konzeption von Forschung zurückwirkt. In der Biomedizin ist diese Frage nicht immer, aber oftmals damit verbunden, auf welcher materiellen Grundlage vorzugsweise geforscht wird. Konkret betrifft dies die Wahl eines geeigneten experimentellen Organismus, einer Maus zum Beispiel. Es ist davon auszugehen, dass die Frage, ob eine Forschungseinrichtung zur Krebsforschung beitragen kann, darüber ausgefochten wird, ob sich ein Tier (experimenteller Organismus) als Stellvertreter (»human-stand-in«) für die Erforschung eines humanen Krankheitsbildes überhaupt eignet (»right tools for the job«). Anders gesagt, ähneln sich Modell und Zielphänomen ? Und an welchen Faktoren im Einzelnen wird ihre Ähnlichkeit festgemacht ? Ist ihre Ähnlichkeit – gemessen an den Forschungsdesideraten – hinreichend ? In der Wissenschaftsphilosophie wird darüber diskutiert, unter welchen Bedingungen ein Modell die zuverlässigsten Ergebnisse liefert. Als mögliche Bedingung wird die Gleichheit zwischen Modell und Zielphänomen in ontologischer Hinsicht angeführt (»ontological equivalence«). Demgegenüber wird kritisch hervorgehoben, dass Modell und Zielphänomen streng genommen vor allen anderen Dingen dann ähnlich seien, wenn sie relevante Eigenschaften teilten (»relevant similarity«).65 Als Herausforderung für die Durchführung von Forschung stellt sich dieser Gesichtspunkt vor allem dann dar, wenn hinreichende Ähnlichkeiten zwischen Modell und Zielphänomen nicht von Natur aus bestehen, sondern instanziiert werden müssen, in anderen Worten: wenn Ähnlichkeit hergestellt werden muss. So kann es etwa nötig sein, eine genetische Mutation, die für die Krankheitsentstehung beim Menschen ursächlich ist, in den tierischen Organismus einzubringen, vor allem dann, wenn diese Mutation nicht natürlich im Tier vorkommt. Damit wird zumindest konzeptuell die Ähnlichkeit zwischen Modell und Ziel der Modellierung erhöht, ob sich die Ähnlichkeit auch faktisch zeigt, das heißt in der Pathogenese oder bei der Wirksamkeit von Wirkstoffen ersichtlich wird, die die Pathogenese unterbinden, gilt es freilich von Fall zu Fall zu prüfen. Die Erzeugung »transgener Organismen«, denen ein Abschnitt humaner DNS eingeschleust wurde, ist seit den 1980er Jahren möglich. An der US -amerikanischen Harvard Universität gelang 44 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

es dem Forscherteam um Philip Leder 1984 erstmals, an einem Säugetier eine transgene Tierlinie, die »OncomouseTM« zu etablieren, die ein rekombinantes und aktiviertes »Onkogen« in ihrem Erbgut trägt (»myc-Protein«).66 Für die biomedizinische Forschung stellt die »Oncomouse«, einen Meilenstein dar: Durch die Erzeugung transgener Tiere wurde es erstmals möglich, pathogene Prozesse, die beim Menschen am Krankheitsgeschehen beteiligt sind, hier das humane Myelocytomatose-Onkogen (»myc«), in tierischen Organismen gezielt zu untersuchen.67 Ähnlich wie bei Läsionsstudien, die kontrolliert die Funktion bestimmter Organsysteme beeinträchtigen oder unterbinden, wird durch die Einbringung eines DNS -Abschnittes in das tierische Genom ein bestimmtes »Defizit« gesetzt, um die hieraus resultierenden Prozesse kleinteilig am lebenden Organismus, zum Beispiel an Mäusen, in den Blick zu nehmen. Tiere, denen ein artfremder Abschnitt in ihr Genom eingebracht wurde, nennt man auch »Transplantationschimären« oder »Hybride«. In der Forschung hat es sich eingebürgert, von »mutierten Mäusen« oder »humanisierten Mausmodellen« zu sprechen (»mutant mice«; »humanized mouse models«).68 Entscheidend für die experimentelle Forschung ist es, alle Schritte gezielt und kontrolliert vorzunehmen. Ganz konkret bedeutet dies, dass nicht abgewartet wird, bis eine Maus sporadisch einen Tumor entwickelt. Faktisch wird eine Mauslinie, das heißt eine genetisch homogene Kohorte an Mäusen gezüchtet, die durch die Einschleusung einer genetischen Mutation eine besonders hohe Vulnerabili­tät besitzt, tatsächlich einen Tumor zu entwickeln. Eine andere Möglichkeit, Tumore künstlich zu erzeugen, besteht darin, Organismen gezielt Kanzerogenen, namentlich radioaktiver Strahlung, auszusetzen oder ihnen Tumorzellen respektive tumorinduzierende Viren zu injizieren. Die gentechnische Intervention besitzt aus wissenschaftlicher Sicht freilich klare Vorteile, weil auf dieser Grundlage genau jene Mutation in den Blick kommt, die an der Pathogenese beim Menschen beteiligt ist. Wenn die Ähnlichkeitsbeziehung zwischen Modell (transgene Mauslinie) und dem Zielphänomen »anomales Zellwachstum bei humanem Brustkrebs« über Nachweisverfahren auf physiologischer Ebene bestätigt wird, gilt diese Kohorte von Tieren (z. B. transgene Mauslinie »Brca1/p53«) als Tiermodell für die besagte  Zur Erkenntnisleistung wissenschaftlicher Forschung | 45

Tumorerkrankung beim Menschen, genauer: des familiär bedingten Brustkrebses durch Mutation des Tumorsuppressorgens »BRCA1«. Auf Grundlage des »Modells«, unter das jede einzelne Maus dieser transgenen Tierlinie fällt, wird die Regulation und Funktion des beteiligten Gens auf molekularer Ebene untersuchbar und somit auch die Testung neuer Therapeutika (z. B. Wirkstoffkombina­ tionen) möglich. In einer Studie wurde anhand transgener Mäuse etwa gezeigt, dass die Gabe eines Progesteron-Antagonisten (Mife­ pristone RU 486), der die Wirkung des Gelbkörperhormons Progesteron im Körper hemmt, die Entstehung von Tumorzellen im Brustgewebe der Mäuse verhindert.69 Beispielhaft ließe sich hier auch auf eine Studie von Ophtalmologen zur Effektivität von Vita­ min-D als Therapeutikum bei Retinablastomen verweisen: An rund zweihundert transgenen Mäusen (transgenic retinoblastoma model, LHb-Tag mouse) wurde untersucht, ob die Gabe von VitaminD das Wachstum von Retinablastomen verlangsamt.70 Um auf die eingangs erwähnte, grundsätzliche Frage noch einmal zurückzukommen, nämlich ob eine Forschungseinrichtung zur Krebsforschung beitragen kann, sei erwähnt, dass dies maßgeblich auch davon abhängt, ob die Laborgemeinschaft über ausreichend Expertise in der Handhabung der experimentellen Ressourcen verfügt. Faktisch bedeutet dies, dass die Tiere als experimentelle Ressource entweder durch die Forschenden selbst erzeugt werden oder aber gegen eine Gebühr von einem externen Dienstleister, wie andere standardisierte experimentelle Ressourcen auch, erworben werden.71 Befördert wird dieser Handel mit experimentellen Organismen auch dadurch, dass deren Nutzung für Forschungszwecke unter Umständen bereits markenrechtlich geschützt ist. Die Harvard Universität erwarb insgesamt drei »Oncomouse«-Patente und vergab die Lizenzen exklusiv an die Firma E. I. du Pont de Nemours and Company (DuPont). Als eingetragene Handelsmarke gelten für experimentelle Organismen, wie im Fall der Oncomouse, folglich eingeschränkte Nutzungsrechte.72 Konkret bedeutet dies, dass die Tiere im Labor, das sie gegen Lizenzgebühren erworben hat, nicht erzeugt oder vermehrt werden dürfen.73 Kommen wir zum zweiten Fallbeispiel: Die geowissenschaftliche Forschung arbeitet, wie bereits festgestellt wurde, mit ganz anderen Ressourcen als die Biomedizin. Modelle, die in der Klimaforschung 46 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

entwickelt werden, treten an, das globale Klima des Erdsystems über mehrere Jahrhunderte bis Jahrtausende zuverlässig zu ermitteln oder aber geeignete prognostische Werkzeuge für das Verständnis regionaler Klimasysteme über Jahrzehnte bis Jahrhunderte bereitzustellen. Es handelt sich um numerische Modelle, die »in-silico« relevante Faktoren eines Klimasubsystems abbilden sollen.74 Idealerweise erlauben Modelle, Klimavariablen in ihrem Zusammenspiel zu untersuchen und hieraus resultierende Veränderungen zuverlässig zu ermitteln.75 Ein klassischer Ansatz angewandter Forschung im Bereich der Geowissenschaften oder auch der Ingenieurswissenschaften besteht darin, ausgewählte Naturräume in analoge Modelle zu übertragen. Wasserbauingenieure untersuchen am flutbaren physischen Modell, welche Effekte ein erhöhter Wasserpegel auf Deichbauten oder andere Hochwasserschutzbauten hat (Tidenhubmodell). Hierzu müssen Grundbedingungen festgelegt werden, wie etwa die Höhe und Bauart der Schutzbauten.76 Die Testung erfolgt in mehreren Durchgängen unter denselben Grundbedingungen. Variiert wird etwa der Wasserpegel oder die Kraft des Wellenschlags. Auch Anprall-Tests mit Treibgut sind möglich. Entsprechend stark variieren die Ergebnisse, die auf der Basis der jeweiligen Durchläufe (»Szenarien«) gewonnen werden. Festgehalten werden kann folglich, dass die Ergebnisse, zum Beispiel über die Stabilität eines Hochwasserschutzbaus (z. B. Deiche, Hochwasserschutztore, mobile Hochwasserschutzwände), jeweils nur für die besagten Grundbedingungen als valide angenommen werden können, die zuvor festgelegt wurden. Was für physische Modelle gilt, trifft auch auf numerische Modelle zu. Letztere werden heute vor allem deshalb entwickelt, weil die Abbildbarkeit komplexer Systeme in der analogen Modellierung auf kleinräumige Strukturen begrenzt ist.77 Bei numerischen Modellen werden Gitterpunkte definiert, die die strukturellen Gegebenheiten eines Naturraumes in ein dreidimensionales Rechenmodell übertragen. Auch hier werden Grundbedingungen, auch Anfangs- oder Rahmenbedingungen genannt, festgelegt, die durch vorherige Forschungen, zum Beispiel von meteorologischen Beobachtungen oder Messdaten, ermittelt wurden. Zu den Hauptvorteilen numerischer Modelle zählt, dass sie neue Erprobungsräume eröffnen und somit bis dato nicht greifbare Zielphänomen wie etwa Klimaänderungen in den Fokus  Zur Erkenntnisleistung wissenschaftlicher Forschung | 47

der modellbasierten Forschung rücken: Auf ihrer Basis werden, wie im Fall der Klimamodellierung, räumlich sehr ausgedehnte natürliche Systeme erforschbar. Andere numerische Modelle, zum Beispiel die der Teilchenphysik, bilden wiederum Phänomene ab, die für das menschliche Auge auf natürlichem Wege nicht zugänglich sind. Dies gilt auch für Ansätze, die chemische oder biologische Prozesse auf molekularer Ebene zu simulieren erlauben. Grundsätzliche Herausforderungen der Modellierung, von denen zum Teil schon die Rede war, bleiben freilich auch bei numerischen Modellen bestehen. Auf die Herausforderungen numerischer Modelle werde ich im Fortgang der Analyse noch zu sprechen kommen. Ein klarer Vorteil numerischer Modelle besteht darin, dass sie Naturräume prinzipiell variantenreicher abzubilden erlauben als physische Modelle desselben Naturraums. Kurz gesagt, sie sind, was die Festlegung von Anfangs- und Rahmenbedingungen betrifft, aber auch die Integration zusätzlicher Faktoren flexibler als ihre analogen Pendants. Gleichfalls sind sie bestenfalls Modelle, das heißt im Hinblick auf den Komplexitätsgrad natürlicher Systeme reduzierte und vereinfachte »Stand-ins«. Ihre Prognosen müssen folglich immer wieder mit realen Messwerten und tatsächlichen Wetterereignissen abgeglichen werden, um sie zu verifizieren oder zu falsifizieren. Idealerweise spiegelt das Klimamodell die Dynamik realer Faktoren wider und teilt insofern relevante Ähnlichkeiten mit dem Klimasystem der Erde. Numerische Modelle, die relevante Prozesse in oder auch zwischen den Klimasubsystemen im Einzelnen abbilden, werden auch als »General Circulation Models (GCMs)« bezeichnet. Sie setzen sich aus bestimmten Modulen oder Komponenten zusammen, die jeweils ausgewählte Teilsysteme repräsentieren. Ein Kernkriterium von Zirkulationsmodellen besteht darin, dass sie systemimmanente Dynamiken innerhalb von Teilsystemen wie auch zwischen ihnen repräsentieren.78 Ein numerisches Modell der Hydrosphäre teilt mit der faktischen Hydrosphäre der Erde folgende Eigenschaften: Es stellt ein vereinfachtes Abbild der tatsächlichen Wasserbestände dar – und zwar in flüssiger, gefrorener und gasförmiger Form. Die Hydrosphäre versammelt Daten zu Oberflächenwassern (Ozeane, Seen und Flüsse) und unterirdischen Wasservorräten (z. B. wasserführende Gesteinsschichten), zum Eisvorkommen (v. a. Pack- und Schelfeis, Gletscher) sowie zu 48 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Wasserdampf in der Atmosphäre (Wolken, Nebel). Am Beispiel des Wasserkreislaufes, der Kondensation von Oberflächenwasser, der Wasserspeicherung in der Atmosphäre, des festen Niederschlags (Regen, Schnee), der Versickerung in Gesteinsschichten etc. lässt sich recht gut veranschaulichen, dass die Hydrosphäre kein isoliertes Klimasystem ist, sondern unter anderem mit Kryosphäre, Lithosphäre und Atmosphäre interagiert. Ein wichtiges Klimateilsystem, das der Hydrosphäre zugeordnet wird, bilden Ozeanmodelle ab. Hier ließe sich etwa auf das vom Max-Planck-Institut für Mete­ orologie entwickelte Ozeanmodell »MPIOM« verweisen: In seinem Fokus stehen horizontale Strömungen (Oberflächenströmungen, Tiefseeströmungen). Die wichtigsten physikalischen Größen sind Temperatur und Salzgehalt des Wassers. Hinzu kommen biogeochemische Parameter, die biochemische Stoffkreisläufe abzubilden erlauben, die etwa beim Zerfall biologischen Materials beteiligt sind. Diese werden durch das Teilmodell »HAMOC« abgebildet, das sich auch in andere gängige Ozeanmodelle integrieren lässt.79 Das Ozeanmodell MPIOM ist in verschiedene gekoppelte Klimamodelle eingebunden und stellt damit eine wichtige Basis für Konsortialrechnungen dar, die am Deutschen Klimarechenzentrum im Rahmen nationaler wie internationaler Verbundprojekte durchgeführt werden.80 Computermodelle wie die genannten General Circulation Mo­ dels der Klimaforschung integrieren und verrechnen folglich riesige Datenmengen. Konkret bedeutet dies, dass in quantitativer Hinsicht ausreichend große Datenmengen und qualitativ hochwertige, sprich: zuverlässige Daten über die jeweiligen essentiellen Para­ meter vorliegen müssen, um diese in das System einschleusen zu können. Hierbei handelt es sich um meteorologische Beobachtungen und Messdaten, die weltweit erhoben und gesammelt werden, oder aber um Berechnungen, die auf der Basis von einschlägigen Erhebungen rückwirkend für Jahrhunderte oder Jahrtausende angestellt werden (»climate proxies«). Grundlage dieser Erhebungen der Paläoklimatologie, die zuverlässig über den Zustand von Klimasystemen vor unserer Zeit Aufschluss geben, sind »Klimaarchive«. Dazu zählen Eisbohrkerne, ozeanische Sedimente sowie organisches Material (z. B. Jahresringe von Bäumen, fossile Pollen) oder marine Organismen (z. B. Korallen). In anderen Worten: Die  Zur Erkenntnisleistung wissenschaftlicher Forschung | 49

auf Anwendung zielenden Modelle der Klimaforschung sind ohne diese auf grundlegende Forschung zurückgehenden Daten nicht überprüfbar. Forschung, die allein auf Anwendung und Verwertung zielt, führt in eine wissenschaftliche Sackgasse: Wenn Investitionen in Grundlagenforschung ausbleiben oder ausgesetzt werden, kann dies im Fall der Klimaforschung etwa dazu führen, dass Daten nicht umfassend, nicht detailliert genug oder schlichtweg überhaupt nicht erhoben werden und somit für die Forschung verloren sind. Dies kann konkret zur Folge haben, dass bestimmte Parameter aufgrund der Datenlage schlichtweg nicht im Modell abbildbar sind, oder aber, dass wichtige Zusammenhänge zwischen Parametern unerkannt bleiben. Dies hat unmittelbar Auswirkungen auf die Frage, ob Forschungsziele modellbasierter Designs in diesem Bereich erreichbar werden. Neben den im vorangegangenen Abschnitt bereits genannten grundsätzlichen Fragen liegt das Augenmerk der Klimaforschung darauf, mittels detaillierter Klimamodelle mög­ liche Veränderungen des regionalen wie globalen Klimas zuverlässig und detailliert zu ermitteln. Auf Grundlage belastbarer und genauer Prognosen können idealerweise frühzeitig Schritte zur Bekämpfung dieser Veränderungen entwickelt werden. Der Maßnahmenkatalog zur Reduzierung von Treibhausgasen beschränkt sich nicht nur auf das Offensichtliche, sprich: die Reduzierung von Emissionen durch Mobilität, Landwirtschaft und Industrie, sondern umfasst weitere Strategien, zum Beispiel der Müllvermeidung und -entsorgung. Flankiert werden diese Schritte durch weitere Maßnahmen der Vorsorge respektive Gefahrenabwehr: So ist es unter Umständen notwendig, Interventionsstrategien zu erarbeiten, um Veränderungen rechtzeitig und angemessen begegnen zu können. Für küstennahe Regionen werden etwa neue Bemessungswasserstände für Hochwasserschutz- und Entwässerungsmaßnahmen festgelegt. Mittel- bis langfristig kann es darüber hinaus unerlässlich sein, über weitergehende Schritte nachzudenken, zum Beispiel Landflächen aufzugeben und konkrete Pläne für die Umsiedlung von Anwohnern in höherliegende Gebiete zu erarbeiten. Für die Durchführung anwendungsorientierter Forschung erweisen sich, wie beide Fallbeispiele gezeigt haben, vor allem die folgenden drei Desiderate als leitend: 50 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

▷ Expertise: Wie wird geforscht, das heißt auf welcher Grundlage realisiert sich Forschung ? ▷ Handhabbarkeit: Welche experimentellen Ressourcen eignen sich im Besonderen für die Realisierung von Forschungszielen ? ▷ Potenzialität: Welche Erklärungs- oder Vorhersagekraft besitzt das gewählte Modell: Ist es dem Zielphänomen hinreichend ähnlich ? Übertragen auf die Klimaforschung bedeutet dies etwa, dass bestimmte Vorentscheidungen über die Wahl des Klimasubsystems oder des favorisierten Computermodells bereits getroffen sind, bevor sich Wissenschaftler konkreten Zielen zuwenden: Welche physikalischen Mechanismen des Erdsystems sind von besonderem Interesse ? Was lässt sich aus ihnen hinsichtlich des Auftretens oder der Abfolge von Entwicklungen ableiten ? Wie ist es wiederum um die Datengrundlage bestellt ? Im Falle der medizinischen Forschung sind ebenfalls essentielle Vorentscheidungen tangiert: Welche Ressourcen (Zellkultur, experimenteller Organismus) stehen für meine Forschungsfragen zur Verfügung ? Welcher spezifische Mechanismus, der am Krankheitsgeschehen beteiligt ist, lässt sich aus dieser Warte in den Blick nehmen ? Liegt bereits ein transgenes Modell vor, das ich nutzen kann ? Bei beiden hier gewählten Fallbeispielen handelt es sich um vierdimensionale Modelle, sprich: um Simulationen, weil sie das Zielphänomen nicht nur strukturell im dreidimensionalen Modell repräsentieren, sondern auch zeitliche Verläufe abzubilden erlauben. Im Fall der Klimaforschung dürfte dieser Sachverhalt bereits klar sein. Deshalb gehe ich hier nur kurz auf die biomedizinische Laborforschung ein: Die Mäuse repräsentieren durch die Integration humaner DNS in ihr Genom im Idealfall relevante Aspekte einer erblichen Krankheit. Die Pathogenese, das heißt die kausale Verursachung der Krankheitsentstehungen, wird simuliert, indem die Mäuse über einen bestimmten Zeitraum beobachtet werden, bis die pathogenen Prozesse auch bei ihnen nachgewiesen werden können. Gelingt dies, spricht man vom »Tiermodell« einer humanen Pathogenese. Unter der Vorgabe, dass das gewählte Modell (transgene Maus) pathogene Prozesse zuverlässig expliziert, werden im Rahmen von Medikamententests dann potenzielle Effekte simuliert, die eine kontrollierte Gabe des Präparats auf das Einset Zur Erkenntnisleistung wissenschaftlicher Forschung | 51

zen oder den Ablauf pathogener respektive pathophysiologischer Prozesse hat. Mit beiden modellbasierten Ansätzen verbinden sich freilich auch grundlegende Herausforderungen, die zum Teil an Überlegun­ gen anschließen, von denen bereits im Kontext der Konzeption von Forschung die Rede war: In Bezug auf die Klimaforschung wurde deutlich, dass bereits Klimasubsysteme wie etwa die »Hydro­sphäre« sehr komplex sind. Es sind nicht nur eine Vielzahl an relevanten Faktoren zu berücksichtigen, sondern auch deren Interaktion untereinander müssen erkannt und verstanden werden. Gleiches gilt unter Umständen für weitere, bisher vernachlässigte oder schlichtweg unbekannte Variablen, die nicht im Modellsystem abgebildet werden können. Ferner wäre zu erwähnen, dass nicht zuletzt in Bezug auf die Datengrundlage, die zur Modellierung bereitsteht, große Unterschiede bestehen können, sowohl was ihre Quantität als auch ihre Qualität betrifft. Ziel ist es folglich, Computermodelle zu entwickeln, die Teilsysteme zuverlässig abbilden, wie etwa im Fall des Ozeanmodells »MPIOM«. Um Vorhersagen über die Entwicklung des globalen Klimas zu machen, die Interaktionen zwischen Wasser- und Landflächen abbilden, ist es im nächsten Schritt nötig, bestehende Klimamodelle zu koppeln, sprich: auf diesem Wege relevante Komponenten von Modellen verschiedener Teilsysteme miteinander zu verbinden.81 Die Güte von Klimamodellen wird danach bewertet, ob sie es erlauben, relevante Faktoren unter realitätsnahen Bedingungen zu simulieren. Hierbei ist es mitentscheidend, wie genau, das heißt mit welcher Auflösung Vorhersagen möglich sind. In der Klimaforschung wird zwischen einer Vorhersage im engeren Sinn (»climate prediction«; »climate forecast«) und einer Projektion (»climate projection«) unterschieden. Die Sprachregelung innerhalb der Klimaforschung geht im Wesentlichen auf die Herausforderung zurück, wissenschaftliche Berechnungen in Bezug auf ihre jeweilige Vorhersagekraft zu differenzieren. Anders als Vorhersagen im engen Sinn treten Projektionen an, bestimmte Entwicklungen vorherzusagen, die aufgrund der Datengrundlage plausibel, aber nicht notwendig auch wahrscheinlich sind. Ich werde dieser Unterscheidung im Folgenden nicht weiter nachgehen und einheitlich von Vorhersagen sprechen.82 Numerische Modelle arbeiten 52 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

mit hori­zontalen Gitterskalen. Ihre Auflösung bemisst sich folglich an der jeweiligen Maschenweite. Je kleiner die Maschenweite, desto mehr Gitterpunkte, desto höher die Auflösung. Mit der Auflösung steigt automatisch der numerische Aufwand zur Lösung der Modellgleichungen: Maßstab für aktuelle Klimamodelle stellt die Leistungsfähigkeit von Hochleistungsrechnern dar. Bei inte­ grierten Klimamodellen ist die Maschenweite variabel: Das globale Klima­modell »MPI-ESM« liegt unter anderem in folgender Auf­ lösung vor: hori­zontal 200 km (Atmosphäre, Landbiosphäre) beziehungsweise durchschnittlich 40 km (Ozean inkl. Biogeochemie), vertikal 47 respektive 40 Schichten. Bei Modellen, die der Deutsche Wetterdienst (DWD) zur Vorhersage von regionalen Wetterereignissen nutzt, fällt die Maschenweite selbst beim Globalmodell weit niedriger aus: Die Bandbreite reicht vom Globalmodell (»ICON«) mit einer horizontalen Maschenbreite von 13 km bis zum hochauflösenden Regionalmodell mit einer Maschenbreite (»­COSMO-DE«) von 2,8 km und jeweils 90 vertikalen Schichten.83 Aber nicht nur der Abbildungsgrad ist bei der Bewertung von numerischen Modellen hinzuzuziehen. Zu nennen wäre auch die grundlegende Herausforderung, dass Prozesse, die durch die jeweilige Auf­lösung des Modells nicht erfasst werden können, zum Beispiel die Wolkenbildung, identifiziert und durch »physikalische Parametri­ sierung« in das Modell eingebracht werden müssen: Der Netto­ effekt von Wolken wird zum Beispiel als Funktion aus den an den jeweiligen Gitterpunkten vorhandenen Informationen (Tempera­ tur, Luftfeuchtigkeit etc.) dargestellt, sprich: »parametrisiert«. Die WMO hat im März 2017 erstmaligen einen webbasierten, das heißt digitalisierten Internationalen Wolkenatlas vorgestellt (WMONo. 407), der eine detaillierte Erfassung von Wolkencharakteristika möglich macht.84 Um die Unsicherheit von Klimamodellen, die vor allem auch auf die Parametrisierung zurückzuführen ist, zu minimieren, durchlaufen sie eine Reihe an standardisierten Experimenten, die ermitteln helfen, ob die Modelle in der Lage ist, Zustände des globalen Erdsystems, über das hinreichend Daten vorliegen, abzubilden (»climate predictability«).85 Gleichfalls bleibt die grundsätzliche Herausforderung, ob numerische Modelle, die zukünftige Ereignisse in natürlichen Systemen zuverlässig vorherzusagen erlauben  Zur Erkenntnisleistung wissenschaftlicher Forschung | 53

sollen, dies tatsächlich auch leisten, bestehen. Bestätigen lassen sich Vorhersagen immer erst dann, wenn die prognostizierten Effekte oder Ereignisse auch faktisch eintreten. Drei Gesichtspunkte leiten die Bewertung von Computermodellen folglich, auch außerhalb der Klimaforschung, an: ▷ Konfidenzgrad: Sind die gewählten Anfangs- und Rahmen­ bedingungen des Modells korrekt und mit welcher Wahrscheinlichkeit treffen hiermit verbundene Annahmen zu ? ▷ Vorhersagekraft: Wie zuverlässig sind die Prognosen numerischer Modelle, das heißt wie hoch ist die Wahrscheinlichkeit, dass prognostizierte Entwicklungen sich bewahrheiten ? ▷ Abbildungsgrad: Wie genau bilden Prognosen numerischer Modelle relevante Parameter und hieraus resultierende Effekte ab (z. B. Stärke der Effekte; raum-zeitliche Verteilung) ? Im Fokus weitergehender Forschung steht in jüngerer Zeit nicht zuletzt die Frage, ob und auf welchem Wege Computermodelle als prognostische Werkzeuge validiert werden können. Dies lasse sich als grundsätzliches Desiderat numerischer Modellierung formulieren, so der Wissenschaftsphilosoph Eric Winsberg, im Besonderen gelte dies freilich für Klimamodelle.86 Er benennt hierfür zwei Gründe: Erstens wiesen Klimamodelle, hier ließe sich ergänzen, vor allem gekoppelte Klimamodelle, einen besonders hohen Komplexitätsgrad auf, was zu einer neuen Art des »erkenntnistheo­retischen Holismus« führe.87 Winsberg problematisiert, dass die Analyse hochkomplexer Modellsysteme vor besonderen Herausforderungen steht: Selbst für Klimamodellierer sei es im extremen Fall schlichtweg unmöglich, sicher jene Quellen zu benennen, die den Erfolg ihres Modells begründeten, und diese von solchen zu unterscheiden, auf die das Misslingen ihres Modells zurückzuführen sei.88 Als zweiten Grund für die Besonderheit von Klimamodellen führt Winsberg den Umstand an, dass die Resultate von Klima­simu­ lationen in der Regel einen hohen Einfluss auf die politischen Entscheidungsträger hätten.89 Kurz gesagt erhält die Frage nach der Validierung für Klimamodelle deshalb Gewicht, weil, wie bereits erwähnt, erst das tatsächliche Eintreten der Ereignisse Vorhersagen verifiziert. Wie sind Klimasimulationen aber zu bewerten, die antreten, bestimmte Effekte in der näheren oder auch fernen Zukunft 54 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

vorherzusagen ? Lässt sich die Unsicherheit hinsichtlich der Belastbarkeit ihrer Vorhersagen bzw. der Stärke der prognostizierten Effekte minimieren ? Zur Bewertung von Modellen und ihren Ergebnissen ist es folglich unerlässlich, sich mit modellimmanenten Herausforderungen aus­ einanderzusetzen. Winsberg führt drei ­Gesichtspunkte an, auf die die Unsicherheit zurückgeführt werden kann: Nämlich erstens auf Strukturbedingungen numerischer ­Modelle (»structural model uncertainty«), zweitens auf die Auswahl, Erfassung und Gewichtung von Parametern (»parameter uncertainty«) sowie drittens auf die jeweils zugrundeliegenden Daten­basis (»data uncertainty«).90 Um Empfehlungen von klima­ politischer Relevanz abzugeben und konkrete Gegenmaßnahmen vorzuschlagen, müssen Vorhersagen belastbar sein. Weder ist es möglich, in die Zukunft zu reisen, um die Validität des Modells zu überprüfen, noch kann schlichtweg abgewartet werden, bis der jeweilige Zeitpunkt erreicht ist, um die Stärke der prognostizierten Effekte mit den faktischen Gegebenheiten abzugleichen. Inwiefern Modelle tatsächlich zu einem Erkenntnisgewinn über Zielphänomene verhelfen, kann als grundlegende Herausforderung modellbasierter Forschung bezeichnet werden. Im Bereich der biomedizinischen Forschung lässt sich diese Herausforderung etwa auf die Frage bringen, ob die Krankheitsgenese oder das Krankheitsgeschehen beim Menschen anhand tierbasierter Forschung überhaupt untersucht werden kann. Hinzu kommen namentlich ethische Vorbehalte gegenüber der Forschung an Tieren. Problematisieren ließe sich etwa, dass Mäuse in biomedizinischen Forschungsdesigns als bloßes Mittel zum Zweck gebraucht werden. Im Einzelnen heißt dies, dass sie gezielt erzeugt, eingesetzt und getötet werden, zum Beispiel, um postmortal Gewebe zu gewinnen, noch dazu, ohne dass sie selbst oder ihre Artgenossen einen unmittelbaren Nutzen von den Ergebnissen der Forschung haben. Die grundsätzliche Herausforderung, ob sich tierische Organismen überhaupt dazu eigenen, die Pathogenese eines artfremden biologischen Systems (Mensch) zu repräsentieren, lässt sich angesichts konkurrierender Modellsysteme wie folgt präzisieren: Welche pathogenen Prozesse auf zellulärer oder molekularer Ebene können faktisch am Tier untersucht werden und welche Organismen (Drosophila, Zebrafisch, Maus) eignen sich für derartige Forschungsansätze, an Zur Erkenntnisleistung wissenschaftlicher Forschung | 55

gesichts praktischer Fragen, die die Durchführbarkeit betreffen, am ehesten oder am besten ? Wie wird auf dieser Basis im Einzelnen gewährleistet, dass tierbasierte Modelle der Biomedizin relevante Ähnlichkeiten mit humanen Populationen (Patientengruppe) zeigen ? Im Forschungskontext der Biomedizin wird vorausgesetzt, dass aufgrund der erwiesenen phylogenetischen Verwandtschaft zwischen biologischen Systemen (z. B. Säugetiere) unter denselben Bedingungen (genetische Mutation »x«) dieselben Prozesse in Gang kommen (Bildung von Tumorzellen) – unabhängig davon, ob es sich um eine Maus oder um einen Menschen handelt. Doch lässt sich diese Annahme auch faktisch bestätigen ? Folgenden Gesichtspunkten kommt bei der Bewertung von tierbasierten Modellen eine wichtige Rolle zu: ▷ Umfang der Repräsentation: Welche Faktoren, die an der Pathogenese beteiligt sind, bildet ein Modell zuverlässig ab (Modell eines Teilaspekts, Multi-Faktoren-Modell) ? ▷ Art der Repräsentation: Lässt sich die Pathogenese im Individuum der gewählten Kohorte (transgene Tierlinie) nachweisen, das heißt durch zuverlässige Verfahren erheben (Standardverfahren) ? ▷ Reichweite der Repräsentation: Welche Schlüsse erlauben Ergebnisse, die anhand tierbasierter Forschungsansätze (Zellkulturen, »Tiermodelle«) gewonnen werden: Worauf sind Schlüsse möglich (»scope«) ? Wie weit reicht ihre Erklärungskraft (»reach«) ? Die letzte Frage betrifft etwa den Umstand, dass Toxizitätstests anhand von Tierpopulationen bisweilen Ergebnisse zeitigen, die nicht oder nur begrenzt auf humane Kollektive übertragbar sind. Hier ließe sich etwa auf Tierversuche zu d-Limonen, einem Haupt­ bestandteil von Zitrusölen verweisen: Anfang der 1990er Jahre legten Untersuchungen an Nagern nahe, dass dieser weit verbreitete Zusatz in Lebensmitteln und Kosmetikprodukten in bestimmten Dosen krebserregend ist. Nachfolgende Studien zeigten allerdings, dass sich diese Ergebnisse tatsächlich nur bei einem bestimmten Kollektiv bestätigten, nämlich bei männlichen Ratten. Zurückgeführt wurde dies wiederum auf ein bestimmtes Protein (­»a 2u-globulin«), das ausschließlich bei männlichen Ratten synthe56 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

tisiert wird, das heißt weder bei weiblichen Ratten noch bei Menschen von Natur aus vorkommt.91 Die Biomedizin ist folglich mit der Frage konfrontiert, ob sich die biologischen Systeme Tierxy und Mensch in allen relevanten Eigenschaften gleichen. Im Speziellen heißt dies, ob sie sich bezogen auf grundlegende Bedingungen, die beim Krankheitsgeschehen zum Tragen kommen, hinreichend ähnlich sind. Zu erwähnen ist außerdem der grundsätzliche Einwand, dass Modelle nur bestimmte Eigenschaften (somatische Mutation »x«) der Krankheitsgenese repräsentieren. Es ist schlichtweg nicht möglich, alle relevanten Faktoren, die das Krankheitsgeschehen beim Menschen ausmachen, so sie überhaupt bekannt sind, ins Tier zu übertragen. Entweder ist diese Übertragung aufgrund der Ressourcen und Methoden nicht durchführbar oder aber aufgrund des Komplexitätsgrads biologischer Prozesse, die an der Pathogenese beteiligt sind. Erste Ergebnisse, die auf den jüngeren Forschungen im Rahmen des Krebs-Genom-Atlasses (The Cancer Genome Atlas, TCGA) beruhen, haben bereits deutlich gemacht, dass an der Pathogenese von Tumoren weit mehr als eine Handvoll Mutationen beteiligt sind: Das internationale Forschungsprojekt (International Cancer Genome Consortium, ICGC) ging 2008 aus einem Pilotprojekt hervor und wird aktuell von 88 Arbeitsgruppen in 17 Staaten getragen. Es werden Tumorerkrankungen der Brust, des Zentralen Nervensystems, des endokrinen Systems, des gastrointestinalen Trakts (Speiseröhre, Magen, Darm, Leber, Bauchspeicheldrüse) sowie außerdem urogenitaler Strukturen (u. a. Gebärmutter, Prostata, Blase, Niere), Tumore des Kopfes und Nackens, der Haut, des Bindegewebes und der Lunge untersucht. Ziel des Verbundes ist es, genetische Veränderungen, die bei der Tumorpathogenese beteiligt sind, möglichst vollständig zu erfassen, namentlich somatische Mutationen, abnorme Expression von Genen und epigenetische Modifikationen.92 Die Sequenzierung von zahlreichen Tumoren ist zwar noch nicht abgeschlossen, zweierlei deutet sich aber bereits an: erstens, dass trotz der durchschnittlich recht hohen, meist zweistelligen Zahl an Mutationen nicht alle Mutationen auch tatsächlich aktiv an der Pathogenese beteiligt sind. Zweitens, dass der Vergleich von Gewebeproben desselben Tumortyps, zum Beispiel im Fall des Mammakarzinoms, darauf schließen lässt, dass unterschiedliche und vor allem auch unterschiedlich viele Mutationen  Zur Erkenntnisleistung wissenschaftlicher Forschung | 57

an der individuellen Pathogenese beteiligt sind.93 Die Entdeckung bis dato unbekannter Krankheitsmechanismen, die durch Hochdurchsatz-Sequenzierungstechnik möglich wurde, stellt freilich für die Konzeption und Durchführung von Forschung gleichzeitig auch eine Herausforderung dar. Auf welche dieser Mutationen soll die Forschung fokussieren, um diagnostische und therapeutische Verfahren zu entwickeln, die möglichst allen Patienten mit einem bestimmen Tumortyp zugutekommen ? Dass die Befunde der Krebsgenom-Kartierung letztlich auch Konsequenzen für die Labormedizin und somit für die Modellie­ rung der Pathogenese im Tier haben wird, muss nicht extra betont werden. Zurückgeführt werden kann dies auf praktische Herausforderungen, mit denen die Biomedizin bereits heute konfrontiert ist. Die Ähnlichkeitsbeziehung zwischen Tiermodell und humanem Kollektiv (Patientengruppe) lässt sich vor allem dann proble­ matisieren, wenn das Modell nur einen bestimmten Aspekt eines relevanten Mechanismus repräsentiert, ein Umstand, der bei weitem kein Einzelfall ist. In der Forschung werden jene, vom Zielphänomen aus betrachtet, stark abstrahierte Modelle auch als »Teil­ modelle« (»piecemeal«) bezeichnet, weil sie nur einen Teil­aspekt eines pathogenen Mechanismus abbilden (siehe Abbildung  3). Mini­malziel dieser Forschungsansätze ist es deshalb in der Regel, Bezüge zwischen der vorliegenden Modellierung eines Teilsystems und komplexeren Modellen, die verschiedene Faktoren repräsentieren (Multi-Faktoren-Modelle), herzustellen. Ein besonderer Stel­lenwert kommt hierbei Modellen zu, die besonders gewichtige, kurz: relevante Eigenschaften zusammenbringen und deshalb auch als materielle Repräsentation eines bestimmten Krankheitsmodells fungieren (»proof-of-concept«). Der Status von Modellen kann sich innerhalb eines Forschungsfeldes wie der Biomedizin aus diesen Gründen stark unterscheiden. Dies hat wiederum Konsequenzen im Hinblick auf Ermessensentscheidungen, konkret: welche Schlüsse aus den jeweiligen Modellen für die Entwicklung diagnostischer und therapeutischer Maßnahmen gezogen werden können. Ein weiterer Faktor, der bei der Bewertung von Modellen eine Rolle spielt, ist die Zuverlässigkeit von Nachweisverfahren, die relevante pathogene Prozesse im Tier bestätigen. Idealerweise tritt derselbe pathogene Prozess und 58 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Abb. 3: Teilmodelle und Multi-Faktoren-Modell

Teilmodell »A« Zielphänomen

Teilmodell »C«

Teilmodell »B« Multi-Faktoren-Modell (»proof-of-concept«)

weitere hiermit verbundene Beeinträchtigungen bei jedem Tier der gewählten Kohorte in Erscheinung, kann also post mortem auf der Basis eines Standardverfahrens festgestellt werden.94 Wird nun im Tier, das heißt auf der Basis eines etablierten Tiermodells, gezeigt, dass ein designiertes Therapeutikum Symptome lindert, pathogene Entwicklungen reduziert oder gar vollständig zum Erliegen bringt, ist der Nachweis seiner Wirksamkeit in vivo erbracht. Hat der Wirkstoff aber auch klinische Relevanz, kann er also für die Behandlung von Patienten routinemäßig eingesetzt werden ? Wir kommen folglich zum dritten Schritt der Analyse, der Anwendung von Forschung. Hier zeigt sich, bezogen auf das erste Fallbeispiel, dass dies nicht zuletzt die Frage nach dem Nutzen labormedizinischer Forschungsdesigns für die klinische Versorgung tangiert.

 Zur Erkenntnisleistung wissenschaftlicher Forschung | 59

2.3 Relevanz für Entscheidungen: Zur Anwendung von Forschung

Im einfachsten Fall kommt Forschung zur Anwendung, wenn Ergebnisse, die zum Beispiel aus Detailstudien am Modell gewonnen wurden, umgesetzt werden. Bezogen auf die hier ausgewählten Fälle heißt dies: wenn ein Wirkstoff als Therapeutikum bei Patienten zum Einsatz kommt oder wenn Prognosen politische Entscheidungen von klimapolitischer Relevanz begründen. Tatsächlich zeichne ich hiermit ein sehr vereinfachtes Bild davon, wie sich der Übergang von Forschung zur Anwendung in Wirklichkeit gestaltet. Konkretisieren lässt sich dieses Bild anhand einer doppelten Problematisierung, die unterschiedliche Gesichtspunkte dieses Übergangs abbildet: 1) Wann, das heißt mit welchen konkreten Schritten beginnt die Anwendung von Forschung ? 2) Was kommt im Einzelnen zur Anwendung ? Kommen wir also zur Frage zurück, mit der der vorangegangene Untersuchungsschritt schloss: Welche Bedingungen müssen im Einzelnen erfüllt sein, damit einem Wirkstoff klinische Relevanz zugesprochen wird ? Maßgeblich ist, kurz gesagt, nicht der labormedizinische, sondern der klinische Wirksamkeitsnachweis, der üblicherweise über eine klinische Studie (»randomized clinical study«, RCT) erbracht wird. Hierbei handelt es sich um sogenannte interventionelle Studiendesigns, die bestimmte, in der Regel neuartige Behandlungsmethoden erproben: das kann eine ArzneimittelTherapie, ein chirurgisches Verfahren oder auch ein psychotherapeutisches Angebot sein.95 Die Effektivität eines Therapeutikums gilt noch nicht als erwiesen, wenn in-vitro, zum Beispiel an einer Zellkultur, gezeigt werden konnte, dass es die Zahl von Krankheitserregern, wie etwa Mykobakterien, signifikant reduziert. Zwingend notwendig ist es, den Nachweis im menschlichen Körper, in diesem Fall bei Patienten mit Tuberkulose, zu erbringen.96 Die klinische Prüfung erprobt somit erstmals die Anwendung eines Wirkstoffs beim Menschen. Streng genommen handelt es sich hierbei um einen bestimmten Abschnitt angewandter Forschung, mit dem der Übergang von biomedizinischer Laborforschung zur bettseitigen, das heißt klinischen Forschung vollzogen wird. 60 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Noch genauer bedeutet dies, dass ein Wirkstoff erst dann »klinische« Relevanz besitzt, wenn beides, seine Wirksamkeit, das heißt sein gesundheitlicher Nutzen, und seine Verträglichkeit bei Patienten, die an einer klinischen Studie teilgenommen haben, zuverlässig ermittelt werden konnte. Hierzu wird über einen bestimmten Zeitraum an Studienteilnehmerinnen und Studienteilnehmer ein Therapeutikum kontrolliert abgegeben: Den »Phase-III«-Studien kommt aus statistischer Sicht die größte Bedeutung für die Ermittlung der Effektivität und Sicherheit der Produkte zu, weil sie an einer relativ großen Zahl an Patienten durchgeführt werden (Teststärke).97 Wenn festgestellt werden kann, dass sich durch das Therapeutikum im Vergleich zu Standardverfahren in Bezug auf den Krankheitsverlauf bessere Ergebnisse erzielen lassen und hiermit keine Effekte verbunden sind, die sich auf den Gesundheitszustand der Patienten nachteilig auswirken (Nebenwirkungen), ist eine wichtiges Hindernis für die Zulassung des Präparats durch die Gesundheitsbehörden genommen.98 Die Ergebnisse der medizinischen Forschung werden nun erstmals umgesetzt. Aus Sicht der potenziellen Anwender, zum Beispiel von niedergelassenen Ärzten, bedeutet dies etwa, dass bestimmten Patienten erstmalig ein effektives Therapeutikum angeboten werden kann.99 Im Fall der Klimaforschung ist ein wesentliches Anwendungsziel von numerischen Modellen erreicht, wenn sie detaillierte Pro­gnosen über zukünftige Veränderungen auf regionaler oder gar globaler Ebene erlauben und auf dieser Grundlage Relevanz für klimapolitische Entscheidungen entfalten. Zur Anwendung kommt es, wenn Forschungsdaten etwa über den Anstieg des mittleren Meeresspiegels zur Bestimmung konkreter Maßnahmen herangezogen werden, zum Beispiel wenn auf regionaler Ebene neue Bemessungswasserstände für Hochwasserschutzbauten festgelegt oder präventive Maßnahmen des Hochwasserschutzes umgesetzt werden können. Relevanz entfalten die Ergebnisse aus der Klima­ forschung gegebenenfalls ferner für regionale Bau- und Infrastrukturprojekte, zum Beispiel den Ausbau von Hafenanlagen oder die Anpassung von Fahrrinnen für den Schiffsverkehr. Ob den Ergebnissen der Klimaforschung aber überhaupt Relevanz für Anwendungsfelder zugeschrieben wird, hängt erstens davon ab, ob die Rahmenbedingungen des Modells als hinreichend realitätsnah  Zur Erkenntnisleistung wissenschaftlicher Forschung | 61

betrachtet werden und aussagekräftige Mess- oder Beobachtungs­ daten zu allen relevanten Parametern vorliegen. Als ebenso maßgeblich wird zweitens der Umstand betrachtet, welches »Szenario« über das Auftreten besagter Ereignisse im Einzelnen als Grundlage für politische Entscheidungen auf lokaler, regionaler, nationaler wie internationaler Ebene herangezogen wird.100 Für die Anwendung von Forschungsergebnissen erweisen sich, wie die Beispiele exemplarisch gezeigt haben, vor allem die folgenden drei Fragenkomplexe als leitend: Erstens: Liegen zuverlässige Forschungsergebnisse vor (Reliabilität, Validität) ? Welchen Ergebnissen wird die höchste Evidenz für das Anwendungsfeld zugesprochen (»klinische Effektivität«, »Konfidenzgrad«) ? Zweitens: Welcher konkrete Nutzen verbindet sich mit der Umsetzung dieser Ergebnisse für das jeweilige Anwendungsfeld ? Was leistet ein Forschungsansatz im Einzelnen, inwiefern lässt er sich zu bereits vorliegenden Ergebnissen oder Verfahren ins Verhältnis setzen respektive bewerten ? Drittens: Entfalten die Ergebnisse gegebenenfalls auch für andere Anwendungsdesiderate Relevanz (Nutzen für zusätzliche Patientenkollektive, Prognose klimabezogener Ereignisse in anderen Regionen) ? Das Desiderat der Medizin besteht bekanntlich darin, zuverlässige Verfahren der Früherkennung (Prävention) zu entwickeln und im Fall konkreter Befunde therapeutische Angebote zugeschnitten und zeitnah vorzuhalten (Therapie). Programme der Gesundheitsaufklärung informieren über die Gefahr bestimmter Karzinogene und zeigen Wege ihrer Vermeidung auf. Hinzu kommen Früherkennungsverfahren im Rahmen der Krebsvorsorge, die in der Regel ab einem bestimmten Lebensalter empfohlen und deren Kosten von den Krankenkassen übernommen werden: Als Maßnahmen der Krebsvorsorge werden bei Frauen ab 20 Jahren regelmäßige Gebärmutterhalsabstriche empfohlen, die Selbstuntersuchung der Brüste und Lymphknoten in den Achselhöhlen auf Veränderungen sowie das »Mammographie«-Screening ab 50 Jahren. Bei Männern wird ab 45 Jahren die Untersuchung der Prostata (Tast62 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

untersuchung) empfohlen sowie bereits ab 20 Jahren die Selbstuntersuchung der Hoden auf Veränderungen.101 Testverfahren, die im Rahmen dieser Maßnahmen herangezogen werden, sollten spezi­ fisch und sensitiv sein, das heißt keinen Krankheitsfall übersehen. Die größte Herausforderung besteht in der »Unterdiagnose« oder umgekehrt in der »Überdiagnose«: Eine hohe Sensitivität des Testverfahrens birgt die Gefahr, dass »falsch positive« Befunde auftreten, eine niedrige Sensitivität die Gefahr, dass nicht alle »positiven« Befunde auch als solche erkannt werden. Beides hat unerwünschte Folgen für die betroffenen Personen. Im ersten Fall werden gesunde Personen belastenden Eingriffen unterzogen, die medizinisch nicht notwendig wären, im zweiten Fall unterbleiben medizinisch indizierte Maßnahmen, weil ein Krankheitsfall nicht erkannt wird. So zählt die Untersuchung auf das prostataspezifische Antigen im Blut (»PSA«-Tumormarker) aufgrund der hohen Sensitivität nicht mehr zu den empfohlenen Maßnahmen der Krebsvorsorge. Das Mammographie-Screening wird aus demselben Grund heute nicht mehr für jüngere Frauen, sondern ausschließlich für Frauen zwischen 50 und 65 Jahren empfohlen.102 Flankiert wird das diagnostische Angebot idealerweise durch potente Krebstherapeutika. Hierzu muss, wie bereits zu sehen war, die Wirksamkeit pharmakologischer Substanzen oder aber die Spezifität und Sensitivität diagnostischer Verfahren für gegebenenfalls unterschiedliche Patientengruppen ermittelt und mögliche Nebenwirkungen erkannt und sicher ausgeschlossen werden. Um die Effektivität und Sicherheit von Arzneimitteln und anderen Medizinprodukten zu gewährleisten, wurden standardisierte Prüfverfahren (»best practice«) eingeführt, die rechtlich bindend sind.103 Bevor es in die klinische Prüfung gehen kann, muss namentlich durch vorgeschaltete präklinische Tests gezeigt werden, dass der Wirkstoff in der verabreichten Dosierung nicht toxisch ist.104 Beginnen wir mit dem ersten Fragenkomplex: In Bezug auf die Anwendung, das heißt die Umsetzung von Forschungsergebnissen ist es unverzichtbar, detailliert bestimmen zu können, inwiefern die im Modell gewonnenen Ergebnisse auf reale Systeme übertragbar sind und welche Bedeutung ihnen im Vergleich zu anderen bereits vorliegenden Erhebungen oder Prognosen für Eingriffe in das jeweilige System zukommt. In der Erkenntnistheorie bezeichnet Evidenz  Zur Erkenntnisleistung wissenschaftlicher Forschung | 63

gemeinhin eine Gewissheit, derer man voraussetzungslos einsichtig wird.105 Die zeitgenössische Rezeption des Begriffs zeichnet freilich ein anderes Bild. »Evidenz« wird heute nahezu ausschließlich denjenigen Ergebnissen oder Erhebungen nachgesagt, deren Güte anhand ausgewählter und genau bestimmter Bewertungsschritte der statistischen Analyse sichergestellt werden konnte: angefangen bei der Verlässlichkeit des Testverfahrens (»Reliabilität«) bis hin zur Signifikanz der Testergebnisse (»Validität«). Grundlage der statistischen Analyse bildet das Konzept der »statistischen Signifikanz« (> zufällig). Ein statistischer Test überprüft eine Vermutung (»Nullhypothese«). Hierfür wird zunächst eine maximal zulässige Irrtumswahrscheinlichkeit (»Signifikanzniveau a«) festgelegt. Der Versuchsausgang (»p-Wert«) bestimmt die Wahrscheinlichkeit, dass ein zufälliger Versuch bei gültiger Nullhypothese genauso extrem ausfällt wie der beobachtete Versuch (»Teststatistik«). Die Nullhypothese wird dann verworfen, wenn der »p-Wert« kleiner oder gleich »a« ist. Hiermit geht eine differenzierte Betrachtung des Evidenten einher: Die Evidenz wird in der empirischen Forschung in der Folge nicht nur an bestimmte Verfahren der Evidenzermittlung gebunden, sondern tritt zudem als graduelles Kriterium in Erscheinung: Die Evidenzermittlung steht in direktem Zusammenhang zur Bewertung der Reliabilität von Testverfahren, kurzum: eignet sich Testverfahren »T«, um »A« zu bestätigen oder zu widerlegen ? Die Evidenzgraduierung bildet hingegen die statistische Erhebung der Teststärke (»power«) oder Effektstärke ab. Die Teststärke wird etwa an der Fallzahlgröße bemessen: Studien mit großen Fallzahlen besitzen eine höhere Teststärke als Studien mit geringen Fallzahlen. Die Effektstärke bemisst das jeweilige Ausmaß der Wirkung eines bestimmten Faktors in der experimentellen Testung, wie etwa die Effektivität eines Therapeutikums. Als Grundlage der Evidenzgraduierung in der Medizin dient seit 2008 das System des Oxford Centre for Evidence-Based Medicine (OCEBM), das unter anderem auch von der WHO übernommen wurde.106 Die Evidenzbasierte Medizin (EbM) bewertet grundsätzlich die Ergebnisse klinischer Studien höher als Forschungsergebnisse, die auf der Basis labormedizinischer Studien, an der Zellkultur oder am Tier gewonnen wurden. Im Fokus steht die Frage, auf welcher Basis klinische Entscheidungen, also Handlungen am Krankenbett, am 64 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

besten zu fällen seien. Ziel ist es, möglichst einschlägige und aussagekräftige Empfehlungen zu erarbeiten (»strenght of recommondation«: siehe Abbildung 4).107 Die sicherste Evaluierungsstrategie stellen laut EbM systematische Vergleichsstudien dar, die die Ergebnisse einschlägiger Einzelstudien (v. a. RCTs) zusammentragen, deren jeweilige Evidenz erheben und in Bezug auf weitere Faktoren, die für die klinische Praxis ebenfalls bedeutsam sind, gewichten. Hier wären insbesondere »unerwünschte Arzneimittelwirkungen« (UAW) zu nennen, aber auch weitere Gesichtspunkte wie etwa die Kosteneffizienz spielen eine wichtige Rolle. Das US -amerikanische Cochrane Institute ist weltweit die größte Einrichtung, die nach den Standards der EbM systematische Vergleichsstudien durchführt und auf dieser Grundlage Richtlinien für die medizinische Praxis (»clinical practice guidelines«) erstellt.108 Entschieden wird im ersten Schritt, welche Studienergebnisse überhaupt in die Bewertung einfließen, zweitens, anhand welcher Kriterien die Güte von Studiendesigns erhoben wird, drittens, wie Abb. 4: Schritte zur Empfehlung laut »Grading of recommendations, ­assessment, development, and evaluations« (GRADE)*

1. 2. 3. 4. 5.

Auswahl und Priorisierung von Forschungsdesigns (»Ranking«) Detaillierte Bewertung (»Down-« bzw. »Upgrading«) Finale Evidenzgraduierung (»sehr niedrig« bis »hoch«) Berücksichtigung zusätzlicher Faktoren (z. B. Kosteneffizienz, Präferenz für Patienten) Empfehlung für klinische Praxis

  * Vgl. Gabrielle Goldet und Jeremy Howick, Understanding GRADE: an introduction, Journal of Evidence-Based Medicine 6,1 (2013): 50–54.

 Zur Erkenntnisleistung wissenschaftlicher Forschung | 65

es um die Evidenz der Ergebnisse im Einzelnen bestellt ist, viertens, welche weitere Faktoren jenseits der Evidenzgraduierung für die klinische Praxis bedeutsam sind, und auf dieser Grundlage, fünf­ tens, welche konkrete Empfehlung sich hieraus für die klinische Praxis ableiten lässt.109 Die skizzierten Bewertungsschritte, die für die Evaluierung und Priorisierung von Studienergebnissen im Bereich der Medizin maßgeblich sind, spielen nicht zuletzt eine wichtige Rolle, um Mindestanforderungen der Gesundheitsversorgung festzulegen, die sogenannten Versorgungsstandards (»standards of care«): Hierbei handelt es sich um Mindestanforderungen (»minimum standard«), die in der Gesundheitsversorgung allen Patienten mit einer bestimmten Erkrankung zukommen sollten. Kritisch diskutiert werden vor allem Unterschiede bei Versorgungsstandards, die je nach Umsetzbarkeit für alle Kliniken oder lediglich für Kliniken der Maximalversorgung (Universitätskrankenhäuser) gelten.110 Idealerweise liegen außerdem, zugeschnitten auf die Diagnostik und Therapie einer Krankheit, interdisziplinäre Leitlinien vor, die nicht nur Forschungsergebnisse aus einem Teilbereich gewichten, sondern Erfahrungswissen aus möglichst allen relevanten medizinischen Bereichen, zum Beispiel von der Histopathologie über die Chirurgie bis hin zur Psychoonkologie berücksichtigen. Der Definition nach handelt es sich bei Leitlinien um »evidenzund konsensbasierte Instrumente«.111 Kommen wir zum zweiten Fallbeispiel: Zu den aufwendigsten und zugleich belastbarsten Status-Quo-Berichten im Bereich der Klimaforschung zählen die Erhebungen zum Globalen Wandel, die Weltklimastatusberichte der Vereinten Nationen. Gemeinsam mit dem Umweltprogramm der Vereinten Nationen (UNEP) etablierte die WMO 1988 den Zwischenstaatlichen Ausschuss für Klimaände­ rungen, kurz: Weltklimarat (Intergovernmental Panel on Climate Change, IPCC). Der Sitz des IPCC-Sekretariats befindet sich in Genf: 1990 erschien der Erste Sachstandsbericht (FAR), 2013/14 der bis dato jüngste, der Fünfte Sachstandsbericht (AR5).112 In den Weltklimastatusberichten werden die Ergebnisse weltweiter Forschung zum Themenfeld zusammengetragen und bewertet. Die drei Arbeitsgruppen des Weltklimarats erstellen je einen Teilbericht über die wissenschaftlichen Grundlagen des Klimawandels (»Basis«), die Folgen des Klimawandels für natürliche und sozioökonomische 66 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Systeme (»Impacts, Adaptability, and Vulnability«) und die Strategien, die zur Minderung des Klimawandels beitragen können (»Mitigation«). Für die Erstellung und Bewertung der wissenschaftlichen Ergebnisse, die in die Berichte einfließen, hat sich der IPCC 2010 strenge Verfahrensregeln gegeben, die im Wesentlichen den Standards folgen, die an die Begutachtung von wissenschaftlichen Beiträgen in Fachjournalen angelegt werden (»Peer Review«).113 Es wurden außerdem konkrete Empfehlungen zur Evidenz- und Kon­ fidenzgraduierung wissenschaftlicher Befunde erarbeitet (siehe Abbildung 5): Durch die institutionalisierte Begutachtungspraxis sollen Neuheit, Einschlägigkeit und Richtigkeit der Ergebnisse gewährleistet werden. Dies schließt die transparente Handhabung

Zustimmung (zunehmend)

Abb. 5: Konfidenzgraduierung (IPCC)*

hohe Zustimmung; begrenzte Evidenz

hohe Zustimmung; mittlere Evidenz

hohe Zustimmung; robuste Evidenz

mittlere Zustimmung; begrenzte Evidenz

mittlere Zustimmung; mittlere Evidenz

mittlere Zustimmung; robuste Evidenz

niedrige Zustimmung; begrenzte Evidenz

niedrige Zustimmung; mittlere Evidenz

niedrige Zustimmung; robuste Evidenz

Evidenz (zunehmend)

Die Konfidenz bemisst sich am Grad der Evidenz von­Forschungs­ergebnissen und am Grad der Zustimmung, die die Bewertung von ­Forschungsdaten erfährt. Je dunkler der Grauton, desto höher die Konfidenz.

*  Konfidenzgraduierung des Intergouvernmental Panel on Climate Change (IPCC). Die Grafik entspricht weitgehend der Abb. 1 in: Guidance Note for Lead Authors of the IPCC Fifth Assessment Report on Consistent Treatment of Uncertainties, IPCC Cross-Working Group Meeting on Consistent Treatment of Uncertainties, Jasper Ridge, CA, USA, 6–7 July 2010, Internet-Ressource: (16.02.2020).  Zur Erkenntnisleistung wissenschaftlicher Forschung | 67

möglicher Interessenskonflikte all jener Wissenschaftler ein, die den Arbeitsgruppen angehören oder in die Begutachtung eingebunden sind. Die Evidenzgraduierung soll erlauben, die empirische Beredtheit der Modelle und ihrer Ergebnisse detailliert zu erheben; die Konfidenzgraduierung ergänzt diese Bewertung, indem sie den Zuspruch abbildet, in anderen Worten, darüber Auskunft gibt, wie es um die wissenschaftliche Anerkennung der Modelle innerhalb der Peer Group im Einzelnen bestellt ist.114 Der zweite wie auch der dritte Fragenkomplex, den die Anwendung von Forschung aufwirft, adressiert den auf den Nenner gebrachten Erkenntniswert von Forschung, kurz: ihren konkreten Nutzen für Anwen­dungsfelder. Der qualitative, man könnte auch sagen, genuine Nutzen medizinischer Forschung besteht in der Entwicklung einer Therapieoption, die die Behandlung eines Krankheitsbilds möglich macht oder die Pathogenese durch präventive Maßnahmen im Vorfeld gar verhindert. Hier gilt es freilich außerdem darauf aufmerksam zu machen, dass sich der Erkenntniswert medizinischer Forschung nicht nur qualitativ, das heißt als Wert an sich fassen lässt, sondern zudem auf einen quantitativen Nenner gebracht wird. Zum Beispiel, indem die Zahl potenzieller Nutznießer als weiteres Kriterium bei der Bewertung besonders dringlicher Ziele medizinischer Forschung hinzutritt. Dem Ideal nach soll der medi­zinische Fortschritt möglichst vielen, wenn nicht allen Menschen zugutekommen. Vom konkreten Nutzen zu sprechen, heißt folglich nicht nur, dass potente Wirkstoffe vorliegen, sondern dass sie für Patienten auch verfügbar sind. Abhängig ist dies davon, ob Patienten überhaupt Zugang zur Gesundheitsversorgung haben und ob Therapeutika von den Patienten selbst finanziert werden müssen, weil sie aus dem Leistungskatalog des solidarischen Gesundheitssystems herausfallen. Therapeutische Maßnahmen zielen darauf ab, Krankheiten zu heilen, Leiden zu mindern oder Symptome, wie Schmerzen, zu mäßigen oder zu kontrollieren. Kurz gesagt, der Nutzen eines chirurgischen Eingriffs oder die Gabe eines Arzneimittels sollte mögliche Begleiterscheinungen, die mit therapeutischen Maßnahmen verbunden sein können, überwiegen. Paradigmatisch für dieses Fortschrittsideal steht die Entwicklung von Schutzimpfungen oder von antibakteriellen respektive antiviralen Wirkstoffen, die gegen weit68 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

verbreitete Infektionskrankheiten zum Einsatz kommen.115 Hier ließe sich als Beispiel das Antibiotikum Streptomycin anführen, mit dem der Erreger der Tuberkulose (Mykobacterium tuberculosis), der 1882 von Robert Koch identifiziert wurde, ab den 1940er Jahren erstmals erfolgreich bekämpft werden konnte.116 Tuberkulose wurde durch die Antibiotikatherapie zu einer heilbaren Krankheit: Die WHO veröffentlicht seit 1997 einen jährlichen Bericht zur Tuberkulose (TB). 2016 startete zudem das zweijährige TuberkuloseProgramm End TB Strategy (2016-17). Hiermit verbinden sich ehrgeizige Ziele: Die Zahl der Neuinfektionen soll bis 2035 um 90 %, die Sterberate um 95% gesenkt werden. Ferner sollen Hürden, die weltweit nach wie vor bestehen, abgebaut werden, damit Patienten der Zugang zur medikamentösen Therapie nicht versperrt ist. Mit dem Programm geht die WHO außerdem dezidiert gegen die gesellschaftliche Diskriminierung von Patienten vor (»Leave no one behind«, 2017).117 Als besondere Gefahr gelten heute multiresistente Erreger der Tuberkulose. Die WHO schätzt, dass allein 2015 weltweit 480.000 Patienten eine TB entwickelt haben, die auf multiresistente Erreger zurückgeht. In besonders schwerwiegenden Fällen hat man es mit Erregern zu tun, die gegen mindestens vier der gängigen Antibiotika, darunter Isoniazid und Rifampicin, resistent sind (multidrug-resistance TB/extensively drug-resistant TB).118 Die Entwicklung eines Therapeutikums stellt aus Sicht der Medi­ zin zwar einen Wert an sich dar, das heißt unabhängig von der Größe des jeweiligen Patientenkollektivs. Aus gesundheitsökonomischer Sicht ist es freilich von besonders großem Interesse, Therapeutika für Infektions- und Zivilisationskrankheiten, sogenannte »Volkskrankheiten«, mit einer überdurchschnittlichen Inzidenz und Prävalenz (Herz-Kreislauferkrankungen, Krebs, Diabetes) zu entwickeln, weil hiervon rein zahlenmäßig mehr Menschen betroffen sind und von der Entwicklung potenter Therapeutika folglich einen konkreten Nutzen hätten. Besonders deutlich wird dieser Nenner, wenn man Volkskrankheiten mit Krankheiten vergleicht, die sehr selten auftreten. Letztere werden heute in der Regel als »orphan disease« (auch: »rare disease«) bezeichnet, zum Beispiel im Fall seltener genetischer Mutationen. Es handelt sich folglich um Krankheiten, die potenziell nur wenige Menschen betreffen, wobei international keine Übereinstimmung darüber herrscht,  Zur Erkenntnisleistung wissenschaftlicher Forschung | 69

wie »wenig« zu definieren sei (lt. EU < 5 Personen von 10.000). Die Bezeichnung »orphan disease« problematisiert, dass bestimmte Krankheiten oftmals aus ökonomischen Gründen aus dem Fokus der Forschung herausfallen, das heißt schlicht und einfach deshalb, weil potenziell nur wenige Patienten von der Erforschung dieses Krankheitsbilds profitieren könnten. Patientinnen und Patienten, die von einer seltenen Krankheit betroffen sind, werden im Umkehrschluss aufgrund fehlender Forschung zu ihren Krankheitsbildern und mangelnder oder auch mangelhafter therapeutischer Optionen (»orphan drugs«) auch als Gesundheitswaisen (»health orphans«) bezeichnet. In der Vergangenheit wurden unter anderem in den USA und der Europäischen Union gezielt Programme zur Entwicklung therapeutischer Optionen bei seltenen Krankheiten aufgelegt (z. B. Orphan Drug Act, USA 1983; European Regu­ lation on Orphan Medical Products, EU 2000). Aber auch im Fall von Volkskrankheiten wie »Krebs« ist davon auszugehen, dass die Patientengruppe, die von einem Forschungsvorhaben im Einzelnen profitieren kann, weit kleiner ausfällt als ursprünglich avisiert, wenn sich zum Beispiel der Kreis der potenziellen Nutznießer auf diejenigen Personen beschränkt, die ein familiär bedingtes Risiko tragen, an einem ganz bestimmten Tumorleiden zu erkranken. Was aus Sicht des klassischen Ideals medizinischer Forschung und Versorgung problematisiert werden kann, verhandelt die indivi­ dualisierte Medizin (»personalised medicine«) als eine besonders potente Strategie der zeitgenössischen Gesundheitsversorgung: mit maßgeschneiderter Diagnostik zur maßgeschneiderten Prävention und Therapie. Dem Ideal nach sollen präventive oder therapeutische Maßnahmen in Zukunft zugeschnitten auf den individuellen Krankheitstyp angeboten werden können, hochwirksam, zielgenau und nebenwirkungsarm. Durch bioanalytische Hochdurchsatzverfahren, die unter anderem zur molekularen Tumordiagnostik eingesetzt werden können, erhofft man sich eine Ergänzung zum bisherigen Spektrum der prädiktiven genetischen Diagnostik.119 Ein prominentes Beispiel für ein individualisiertes Diagnostikund Therapiekonzept in der Onkologie ist der Fall »her2/neu«. Das »her2«-Protein ist an der Ausreifung von Körperzellen beteiligt und reguliert die Entwicklung der Brustdrüse. Bei einer Mutation, auch »her2-Überexpression« genannt, entsteht Brustkrebs (»Mam70 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

makarzinom«), indem Zellen mit Wachstumssignalen ›überflutet‹ werden und sich unkontrolliert teilen und vermehren.120 Nicht alle Brustkrebsfälle sind freilich auf eine Überexpression des »her2«Proteins zurückzuführen. Liegt allerdings eine solche Überexpres­ sion vor, dies ist bei 10–30% aller Brustkrebspatienten der Fall, handelt es sich in der Regel um eine besonders schwerwiegende Diagnose, weil der Tumor sehr schnell wächst oder sich rasch ausbreitet. Ziel der biomedizinischen Forschung war es folglich, einen Antikörper zu identifizieren, der sich an den Rezeptor bindet, sprich ihn ›blockiert‹, und somit verhindert, dass die Krebszellen weiterhin wachstumsfördernde Signale des Proteins erhalten. Hierzu war es zunächst nötig, ein Homolog im Tier zu identifizieren, sprich ein Protein zu finden, das mit dem »her2«-Protein beim Menschen einen gemeinsamen Vorläufer teilt. Bei Mäusen (»Mus musculus«) handelt es sich um das »neu«-Protein: »Neu« steht für »neuro/glioblastoma derived oncogene homolog«. Mäuse mit einer Überexpression des »neu«-Proteins weisen eine Degeneration motorischer Nervenzellen auf.121 Erste transgene Mausmodelle (z. B. »MMTV/c-neu«) wurden in den 1980er Jahren etabliert, indem das betreffende Onkogen in einen Virus eingeschleust wurde, der bei Mäusen das Entstehen von Tumoren des Brustdrüsengewebes begünstigt (»mouse mammary tumor virus, MMTV«).122 Als schließlich in der Maus ein Antikörper identifiziert werden konnte, der an das »neu«-Protein bindet, war ein wichtiger Etappenschritt auf dem Weg zu einer therapeutischen Option erreicht. Um einen Wirkstoff zu entwickeln, der bei Patientinnen mit der Mutation auf »her2« wirksam ist, musste der Mäuseantikörper aber wiederum »humanisiert« werden.123 Um 1990 wurde der humanisierte, monoklonale Antikörper Trastuzumab (Handelsname »Herceptin«) erfolgreich an Patientinnen getestet. Rund zehn Jahre später wurde er erstmals zur Behandlung von metastasiertem Brustkrebs zugelassen, Anfang der 2000er Jahre wurde die Zulassung auf frühe Stadien einer Brustkrebserkrankung erweitert. In der Regel wird Trastuzumab heute zur adjuvanten Therapie bei Mammakarzinomen in Kombination mit anderen krebshemmenden Medikamenten verabreicht. Klinische Befunde haben gezeigt, dass der Einsatz des Wirkstoffs tatsächlich nur bei Patienten mit einer starken Überexpression des »her2«-Proteins medizinisch indiziert ist.124 In anderen Worten:  Zur Erkenntnisleistung wissenschaftlicher Forschung | 71

Lediglich sogenannte »her2-positive« Patienten profitieren heute von klassischen und weiterentwickelten Formen der Her2-Antikörpertherapie.125 Eine zweite Beschränkung im Nutzen kann in Bezug auf die Ge­ wichtung der Forschungsergebnisse zu bereits vorliegenden Ergebnissen oder Verfahren festgestellt werden. Aus Sicht der pharmazeutischen Industrie soll die Zulassung neuartiger Präparate nicht nur notwendige Investitionen in medizinische Forschung amortisieren, sondern möglichst Gewinn bringen. Als wesentlicher Faktor der Gewinnmaximierung gilt die Übernahme der Kosten durch die Krankenkassen (»DRG -Fallpauschalen«): Das Akronym »DRG« steht für die Vereinbarung von Fallpauschalen, über die Leistungen, die im Rahmen der stationären Versorgung von Patienten mit einer bestimmten Diagnose erbracht wurden, gegenüber den Krankenkassen in Deutschland abrechenbar sind (»Diagnosis Related Groups«).126 Ein konkreter Nutzen medizinischer Forschung kann freilich auch darin bestehen, dass mit der erfolgreichen Überprüfung einer neuen Medikamentenklasse ein besonders potentes Therapeutikum vorliegt, das im Vergleich zu bisher verfügbaren Therapeutika oder vergleichbaren Maßnahmen deutlich rascher wirkt oder effektiver ist. Oder aber, dass der neue Wirkstoff bei gleicher Effektivität weitaus verträglicher ist als bereits vorliegende Therapeutika, weil er mit deutlich weniger Nebenwirkungen einhergeht. Dies schließt freilich ein, dass das Wirkungsspektrum des neuen Wirkstoffs hinreichend bekannt ist und schwerwiegende unerwünschte Arzneimittelwirkungen (UAW) nicht auftreten. Ziel der Arzneimittelsicherheit ist es, UAWs auszuschließen oder zu minimieren. Erst wenn sie bekannt sind, können sie folglich auch verhindert werden. Maßnahmen der Pharmakovigilanz bestehen darin, UAWs systematisch zu erfassen und zu bewerten (Risikoanalyse).127 Dies betrifft sowohl unerwünschte Wirkungen, die im Rahmen einer klinischen Studie beobachtet werden, als auch solche, die erst nach der Zulassung des Arzneimittels bekannt werden. Bei der Wirkung von Medikamenten (Pharmakodynamik) kommt auch zum Tragen, ob Patienten aufgrund einer systemischen Vorerkrankung etwa bereits regelmäßig Medikamente zu sich nehmen, zum Beispiel blutdrucksenkende Mittel. Unerwünschte Nebenwirkungen können freilich auch durch Dosierungsfehler von 72 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Patienten oder durch ärztliche Medikationsfehler hervorgerufen werden. Die Arzneimittelkommission der deutschen Ärzteschaft, ein wissenschaftlicher Fachausschuss der Bundesärztekammer (BÄK) erfasst deshalb neben UAWs seit 2015 auch Nebenwirkungen, die auf Medikationsfehler zurückgehen. Die Kommission informiert regelmäßig über neue Verdachtsfälle und stellt detaillierte Risikoinformationen zu Arzneimitteln bereit.128 Kommen wir auf den Erkenntniswert wissenschaftlicher Modelle im Bereich der Klimaforschung zu sprechen: Ganz ähnlich wie im Fall der medizinischen Forschung wird angenommen, dass genaueres Wissen über die Identifizierung aller essentieller Faktoren und deren Interaktionen unerlässlich dafür ist, gezielte Gegenmaßnahmen erarbeiten zu können, um die schlimmsten Effekte, die mit dem anthropogenen Klimawandel mittel- bis langfristig verbunden werden, abzumildern. Dass der Klimawandel aufgehalten werden kann, wird aus wissenschaftlicher Sicht nicht angenommen. In ihrem jüngsten, 2013/14 veröffentlichten Fünften Sachstandsbericht (AR 5) hält der Weltklimarat etwa fest, dass zahlreiche Veränderungen, die mit dem anthropogenen Klimawandel einhergehen, über Jahrhunderte hinaus anhalten werden, selbst wenn die Treibhausgas-Emissionen gestoppt werden können. Hierzu zählen im Besonderen die Erhöhung der mittleren Oberflächentemperatur, die Übersäuerung der Ozeane, der Anstieg des mittleren Meeresspiegels sowie die Zunahme extremer Wetterverhältnisse.129 Umso wichtiger ist es, möglichst zeitnah notwendige Schritte, wie etwa die Reduzierung von Treibhausgasen, weltweit umzusetzen. Die Rahmenkonvention der Vereinten Nationen zum Klimawandel (UN Framework Convention on Climate Change, UNFCCC) erklärte die Stabilisierung der Konzentration von Treibhausgasen in der Atmosphäre 1992 zum Kernziel regulierender Empfehlungen und Maßnahmen der internationalen Staatengemeinschaft.130 Mit dem Pariser Abkommen von 2015 tritt die internationale Klimapolitik in eine neue Ära ein, weil nach jahrelangen Verhandlungen erstmals eine Vereinbarung verabschiedet werden konnte, die alle Staaten in die Pflicht nimmt, einen nationalen Klimaschutzbeitrag zu erarbeiten und umzusetzen. Bereits das Kyoto-Protokoll von 1997 gilt als Meilenstein der internationalen Klimapolitik: Es erhielt erstmals rechtsverbindliche Begrenzungs- und Reduzierungsver Zur Erkenntnisleistung wissenschaftlicher Forschung | 73

pflichtungen und legte hierfür zum Teil bis heute gültige Mechanismen dafür fest, namentlich den »Emissionshandel«.131 Auf der Weltklimakonferenz in Paris 2015 wurde die völkerrechtlich verbindliche Verpflichtung getroffen, die Erderwärmung auf deutlich unter 2 Grad gegenüber vorindustriellen Werten zu begrenzen.132 Es geht um nichts Geringeres als die Sicherung der Lebensbedingungen aller zukünftigen Generationen, sprich: das Fortbestehen der Menschen auf dem Planeten Erde. Streng genommen lassen sich alle Individuen, die auf der Erde zuhause sind, ob pflanzliche, tierische oder menschliche, als potenzielle Nutznießer klimapolitischer Maßnahmen verhandeln, gilt doch die Bewahrung der bestehenden Vielfalt an Flora und Fauna des Erdsystems ebenfalls als vordringliches Ziel klimapolitischer Entscheidungen.133 Zwei Gründe lassen sich hierfür anführen: erstens, die Annahme, dass in der Bewahrung natürlichen Lebens ein Wert an sich besteht. Die Schützenswertigkeit von Flora und Fauna leitet sich aus der Tat­ sache ab, dass sie natürlich gegeben sind. Im Fokus steht somit die Bewahrung ihrer Ursprünglichkeit.134 Zweitens lässt sich vor dem Hintergrund der Tatsache, dass Flora und Fauna selbst essentielle Parameter des Klimas (Erdsystems) darstellen, argumentieren, dass sie in ihrer Natürlichkeit und Diversität zu erhalten und somit schützenswert sind. Die Ursprünglichkeit, hier die naturgegebene Diversität der Flora, gilt aber auch noch aus einem weiteren Grund als schützenswert: Weil sie bis dato noch nicht hinreichend erforscht ist, kann nicht sicher ausgeschlossen werden, dass sich auf ihrer Grundlage nicht irgendwann potente Wirkstoffe gegen (humane) Krankheiten gewinnen lassen – eine Argumentation, die die Zweckfreiheit der Natur konterkariert. Tatsächlich spielt die Verwertbarkeit, das heißt die Nutzbarkeit natürlicher Ressourcen, auch bei der Biodiversitäts-Konvention (CBD) eine übergeordnete Rolle: Als eines von drei Kernzielen benennt die Konvention den Schutz der biologischen Vielfalt. Weitere Ziele sind die nachhaltige Nutzung ihrer Bestandteile und der faire Zugang zu natürlichen Ressourcen sowie der gleichwertige Anteil an den Vorteilen, die mit der Nutzung dieser Ressourcen verbunden sind.135 Es ist davon auszugehen, dass nicht alle Menschen zur gleichen Zeit oder gar gleichermaßen nachteilig von den prognostizierten Effekten des Klimawandels betroffen sein werden. Schon heute 74 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

zeichnet sich ab, dass bestimmte Regionen besonders stark unter den Auswirkungen extremer Wetterereignisse leiden. Namentlich Bewohner insularer und küstennaher Regionen werden deutlich früher und umfangreicher mit der Bedrohung ihrer Lebensbedingungen konfrontiert werden als Bewohner auf den Kontinenten.136 Dass dieser Umstand dazu beitragen kann, ob und wie umfassend Maßnahmen eingefordert und umgesetzt werden, zeigen die Weltklimakonferenzen der vergangenen Jahre: Bereits auf der 3. Klimakonferenz 1997 in Kyoto (COP 3) trat etwa die Gruppe der Small Island Developing-States (SIDS) besonders in Erscheinung. Es handelt sich hierbei um eine Koalition aus rund 40 niedrig liegenden Inselstaaten, die von einem weiteren Anstieg des mittleren Meeresspiegels unmittelbar betroffen sind.137 Eine aktuelle repräsentative Umfrage in den USA legt dar, dass zwar eine Mehrheit der Amerikaner davon überzeugt ist, dass sich das Klima der Erde aufgrund des anthropogenen Klimawandels erwärmt, aber nur eine Minderheit auch befürchtet, selbst von diesen Veränderungen betroffen zu sein.138 Bei der Ermittlung der Frage, ob Ergebnisse, die anhand von Computermodellen (in-silico-Modell) oder wie im skizzierten Fall der biomedizinischen Forschung anhand eines Tiermodells (invivo-Modell) gewonnen wurden, für Anwendungsfelder Relevanz besitzen, das heißt in konkrete Handlungsempfehlungen münden, offenbaren sich weitere Herausforderungen. Im Bereich der medi­ zinischen Forschung wären etwa Abwägungen zu nennen, die in Bezug auf die Rekrutierung von Patienten eine wichtige Rolle spielen. Vorausgesetzt wird, dass alle Patienten, die in eine Studie aufgenommen werden, relevante Gemeinsamkeiten aufweisen. Dies kann zum Beispiel das Alter der Patienten, die Dauer und Schwere der Erkrankung, den Krankheitsverlauf, sowie die die Grund­ erkrankung unter Umständen begleitenden oder hinzutretenden Erkrankungen (Komorbidität) betreffen, je nach Definition der klinischen Kohorte und den hieraus folgenden Inklusions- oder Exklusionsparametern. Um statistisch signifikante Ergebnisse zu erzielen, ist es oft erforderlich, dass sich mehrere Kliniken an einer Studie beteiligen (»multizentrische Studie«), um das Therapeutikum an einer hinreichend großen Gruppe von Patienten mit derselben klinischen Symptomatik zu testen. Die Aufnahme in eine  Zur Erkenntnisleistung wissenschaftlicher Forschung | 75

Studie kann für Patienten mit großen Vorteilen verbunden sein, im besten Fall, weil sie auf diesem Wege Zugang zu einem noch nicht zugelassenen Therapeutikum erhalten, das ihren Krankheitsverlauf verlangsamt, Symptome reduziert oder gar zur Heilung führt. Leider trifft bekanntlich auch das Gegenteil zu: in jenen Fällen, in denen das Therapeutikum keine nachweislich positive Wirkung auf den Krankheitszustand hat, unerwünschte Nebenwirkungen auftreten oder Patienten durch die relative Häufigkeit oder Invasivität von Kontrolluntersuchungen zusätzlich belastet werden. Hinzu kommt der Umstand, dass der aus methodischer Sicht unerlässliche Standard des »Placebo-kontrollierten« Studiendesigns dazu führt, dass ein hinreichend großer Teil der Studienteilnehmer nicht das neue Therapeutikum, sondern ein sogenanntes Scheinpräparat (»Placebo«) erhalten: Bei der Placebo-kontrollierten Studie handelt es sich um ein spezifisches Format der RCTs. Der Begriff »Placebo« steht für eine wirkstofffreie Imitation des Therapeutikums in Verabreichungsform und -gestalt, etwa eine geschmacksfreie Zuckerlösung, die folglich rein äußerlich nicht vom eigentlichen Präparat zu unterscheiden ist. Um eine aus medizinischer wie ethischer Sicht problematische Unterversorgung des Patienten zu verhindert, erhalten Patienten der »Placebogruppe«, wenn möglich, die Standardtherapie, das heißt ein bereits verfügbares, für ihr Krankheitsbild zugelassenes Medikament. Die klinische Prüfung betrifft freilich nicht ausschließlich pharmazeutische Produkte, sondern auch Medizinprodukte (z. B. Prothesen, Herzklappen) sowie thera­ peutische Verfahren, wie etwa chirurgische Eingriffe. Nicht alle Verfahren können »maskiert«, das heißt durch ein Placebo ersetzt werden, wie das Beispiel der Psychotherapie zeigt. Mit dem Design werden vor allem ethische Herausforderungen verbunden, schon deshalb, weil Patienten aus methodischen Gründen ungleich behandelt werden und ihnen dies im schlimmsten Fall zum Schaden gereicht.139 Aus medizinischer Sicht wird der Nutzen auf individueller Ebene daran erhoben, welche konkreten Vorteile ein Patient durch die Aufnahme in eine klinische Studie hat, angesichts bekannter zusätzlicher Risiken, die mit interventionellen Verfahren verbunden sind, das heißt den Belastungen, die auf den Patienten zukommen. Dies korrespondiert mit dem medizinethischen Gebot, den Patienten angemessen therapeutisch zu versorgen (»Bene­ 76 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

fizienz: Wohl zu tun«), wobei zusätzlicher Schaden unbedingt zu vermeiden ist (»Non-Malefizienz: Nicht Schaden«). Dieser kann, wenn er aus dem therapeutischen Angebot selbst erwächst (z. B. chirurgische Intervention, Chemotherapie), unter Umständen bewusst in Kauf genommen werden. Leitend für die Entscheidung für eine Therapie ist stets, dass der Nutzen für den Patienten überwiegt und der Patient der Therapie nach umfassender Aufklärung über mögliche Risiken zustimmt. Aus ethischer Sicht ist somit Forschung geboten, wenn der Patient durch die Teilnahme an der Studie einen unmittelbaren Nutzen hat. Problematisiert werden hingegen Studiendesigns, die selbst einen mittelbaren Nutzen für Patienten nicht in Aussicht stellen. Dieser kann darin bestehen, dass durch die erfolgreiche klinische Prüfung eines Wirkstoffs die Marktzulassung des Medikaments zeitnah erfolgt und für die Patienten verfügbar wird. Immer wieder wurden in der jüngeren Vergangenheit deshalb Studiendesigns problematisiert, die entweder die Not bestimmter Patientengruppen oder schlichtweg die Vulnerabilität von Bevölkerungsgruppen ausnutzen, die entweder aufgrund fehlender oder mangelhafter öffentlicher Gesundheitsversorgung in ihren Ländern unterversorgt oder besonders häufig von Infektionskrankheiten wie Malaria oder HIV/AIDS betroffen sind.140 Bei der ethischen Bewertung, ob es sich hierbei um verdeckt fremdnützige Forschung handelt, kommen verschiedene Gesichtspunkte zum Tragen: nämlich einmal die Frage, ob die designierten Studienteilnehmer überhaupt Zugang zur Gesundheitsversorgung haben und im Fall der Zulassung des Therapeutikums dieses auch erhalten oder finanzieren können. Erklärtermaßen fremdnützig ist Forschung, wenn sie an den konkreten Desideraten der Patienten oder der potentiell betroffenen Bevölkerungsgruppen vorbeigeht und stattdessen auf den Nutzen anderer Kollektive, zum Beispiel Touristen (»Reisemedizin«), zielt. In Gebieten, in denen Malaria endemisch ist, besteht der größte Nutzen der dortigen Bevölkerung demgegenüber in der Entwicklung von Schutzimpfungen und kostengünstigen Therapeutika. In der Klimaforschung sieht man sich in methodologischer Sicht mit anderen Problemen, vor allem in Bezug auf die Durchführung von Forschung, konfrontiert. Die Anforderungen an die Qualität von Daten und ihre statistische Signifikanz sind prinzipiell aber  Zur Erkenntnisleistung wissenschaftlicher Forschung | 77

dieselben: Einen dezidierten Erkenntniswert wird vor allem jenen Simulationen zugesprochen, die relevante Veränderungen möglichst detailgenau und präzise vorherzusagen erlauben, zum Beispiel um wieviel Grad die mittlere Temperatur zunehmen wird. Um zu ermessen, wie sehr der mittlere Meeresspiegel ansteigen wird, hängt unter anderem auch davon ab, wie rasant die Eismassen an den Polen abschmelzen werden. Dies setzt wiederum voraus, dass alle relevanten Faktoren, die hierauf einen Einfluss haben, erkannt sind, dass hierzu regelmäßig Daten erhoben werden und in die Simulationen einfließen. Selbst wenn ein solches umfassendes Klimamodell vorläge, es bliebe die Frage, welches Szenario völkerrechtlichen Entscheidungen zugrunde gelegt werden sollte. Tatsächlich gilt das im Pariser Abkommen angestrebte Ziel, die Erderwärmung idealerweise auf 1,5 Grad gegenüber vorindustriellen Werten zu begrenzen, unter Klimaforschern bereits heute als kaum einholbar.141 Es geht also unter Umständen nicht nur um die Herausforderung, welches Treibhausgas-Emissionsszenario Prognosen mit dem höchsten Evidenz- respektive Konfidenzgrad erlaubt, sondern auch darum, auf dieser Grundlage zuverlässige Klimaziele zu definieren, die durch internationale Maßnahmen prinzipiell erreicht werden können. Das Kyoto-Protokoll legte erstmals konkrete Mechanismen fest, darunter den »Emissionshandel« (Emissions Trading, ET), der es erlaubt, dass Industrienationen untereinander mit Emissionsrechten (Zertifikate) handeln. Grundlage hierfür ist, dass ein Land seine Emissionsrechte durch die erzielte Reduktion von Emissionen nicht vollständig ausschöpft. Diese können dann als Lizenzen international meistbietend verkauft werden. Hinzu treten zwei flankierende Maßnahmen, die gewährleisten sollen, dass erstens die Emissionsreduktionen kostengünstiger erreichbar werden und zweitens durch Technologietransfer vor allem Entwicklungsländer frühzeitig beim Aufbau von Klimaschutzprojekten unterstützt werden können. Werden etwa Klimaschutzprojekte partnerschaftlich zwischen zwei Ländern, die beide Reduktionsverpflichtungen haben, in einem der beiden Länder realisiert (Joint Implementation, JI), wird die Kooperation mit Minderungszertifikaten (»Emission Reduction Units«) vergütet, die wiederum auf das jeweilige Reduktionsziel des anderen Landes anrechenbar sind. Im zweiten Fall handelt es sich um eine Kooperation zwischen ei78 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

nem Industrieland und einem Entwicklungsland, das selbst keine Reduktionsverpflichtung hat, durch den Aufbau von Klimaschutzprojekten langfristig aber profitiert (Clean Development Mecha­ nism, CDM). Die hierüber erreichten klimarelevanten Einsparungen werden dem Industrieland gutgeschrieben (Certified Emission Reductions).142 Eignen sich die gewählten Mechanismen aber auch dazu, den mit dem anthropogenen Klimawandel verbundenen Entwicklungen tatsächlich zu begegnen ? In anderen Worten, profitiert die internationale Klimapolitik von den Mechanismen, das heißt setzen sie nicht nur an den relevanten Faktoren an, sondern führen sie nachweislich auch zur Reduzierung dieser Faktoren, hier: die Emission klimaschädlicher Gase wie CO 2 ? Am internationalen Emissionshandel wird vor allem kritisiert, dass er insgesamt zu viele Emissionsrechte einräumt (Überallokation von Zertifikaten), das heißt die CO 2-Menge, die emittiert werden darf (Cap), zu hoch anlegt und damit den potenziellen Verkaufspreis künstlich niedrig hält. Wenn Lizenzen zu preisgünstig auf dem internationalen Markt verfügbar sind, stellt dies wiederum keinen hinreichenden Anreiz für die Reduzierung der Emissionen dar.143 Zusammenfassend lässt sich die Relevanzermittlung als Problem im doppelten Sinne darlegen: erstens aus der engeren Per­ spektive der Methodenkritik heraus und zweitens in Anbetracht der sozialen Realität von Forschung. Aus Sicht der Methodenkritik besteht das spezifische Problem der Relevanzermittlung in Bezug auf Anwendungsfelder, wie wir gesehen haben, darin, auf der Basis anerkannter Verfahren zuver­ l­ässig zu ermitteln, dass Ergebnisse, die durch »In-vivo«-, »Invitro«- oder »In-silico«-Modelle gewonnen wurden, tatsächlich relevant für das Erklären von Zielphänomenen wissenschaftlicher Forschung sind. Es ist wenig aufschlussreich, Faktoren oder Variablen per se als »relevant« zu bezeichnen oder sie als »irrelevant« abzutun. Eine solche Einschätzung kann allein in Bezug auf das jeweilige Deutungsschema, zum Beispiel die priorisierte Krankheitstheorie, gemacht und zur Diskussion gestellt werden. Inner­ halb dieses bestimmten Bezugsystems (»z«), können sich, wie da­rüber hinaus deutlich wurde, nicht nur einzelne, sondern eine Vielfalt und unter Umständen sehr unterschiedliche Faktoren zur Erklärung oder Vorhersage als gewichtig erweisen: »x n1« und/oder  Zur Erkenntnisleistung wissenschaftlicher Forschung | 79

»x n2« sind relevant für »y«, unter der Bedingung, dass »z«. In diesen Fällen gilt: Erst zusammengenommen bezeichnen sie das Zielphänomen in seiner Spezifität und helfen das Entstehen eines Krankheitsbildes beim Menschen zuverlässig zu erklären. Auf die zweite Perspektive, die soziale Realität von Forschung, möchte ich etwas ausführlicher eingehen. Im Speziellen geht es mir um eine grundsätzliche Herausforderung, die vor allem die anwendungsorientierte Forschung betrifft. Faktisch besteht sie darin, dass Interessenlagen der Industrie, der Wirtschaft wie der Politik darauf Einfluss nehmen können, a) wozu geforscht wird, sprich: welche Forschungsfragen und ­-ansätze im Einzelnen verfolgt werden, b) wie geforscht wird, zum Beispiel welche Forschungsmethoden oder -designs priorisiert werden, oder c) ob und welche Forschungsergebnisse ausgewählt und publiziert werden. Der erste Punkt betrifft die Konzeption, der zweite die Durchfüh­ rung und der dritte die Kommunikation von Forschung. Hiermit verbindet sich unter Umständen nicht nur die Frage, ob Ergebnisse zur Anwendung kommen, sondern wie sie in Bezug auf Anwendungsdesiderate bewertet werden. Tatsächlich haben Metaanalysen der Publikationspraxis innerhalb der medizinischen Forschung gezeigt, dass Ergebnisse klinischer Studien oftmals nicht vollständig veröffentlicht werden. Hinzu kommt, weit gravierender noch, dass Einzelstudien, die nicht die gewünschten Ergebnisse bringen, bisweilen gar nicht erst publiziert werden. Dies hat im schlimmsten Fall unmittelbar Konsequenzen für die Bewertung der Wirksamkeit von Medikamenten, weil in die Gesamtbewertung, zum Beispiel im Rahmen von Empfehlungen für die klinische Praxis, nur Studienergebnisse einfließen können, die auch publiziert wurden, das heißt öffentlich zugänglich sind. Die Einflussnahme industrieller Interessen auf die Konzeption, Durchführung und Kommunikation wissenschaftlicher Forschung wird besonders im Fall der Forschung zu gesundheitlichen Schäden durch Tabakkonsum anschaulich: Die US -Gesundheitsbehörde stellte 1964 in einem umfassenden Bericht, der über 7000 wissenschaftliche Aufsätze ausgewertet hatte, fest, dass regelmäßiger Zigarettenkonsum 80 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

mit einer deutlich erhöhten Sterblichkeitsrate einhergehe.144 Im Jahr darauf entschied der US -Kongress, dass Zigarettenpackungen in den USA einen Warnhinweis tragen sollten.145 Der Public Health Cigarette Smoking Act verbot ab 1971 die Werbung für Tabakerzeugnisse im Radio und Fernsehen. Seit 1998 ist die Außenwerbung von Tabakerzeugnissen wie auch Werbeanzeigen in Zeitungen und Zeitschriften in den USA untersagt, seit 2010 gilt dies auch für Werbung auf Kleidungsstücken.146 In Deutschland darf für Tabakprodukte seit 1975 nicht mehr im Radio und Fernsehen, seit 2002 nicht mehr im Kino (vor 18 Uhr), seit 2007 nicht mehr in Zeitungen und Zeitschriften geworben werden.147 Seit 2003 sind Warnhinweise auf Tabakerzeugnissen in Deutschland Pflicht, 2016 wurde die Kennzeichnung um kombinierte Text-Bild-Warnhinweise ausgeweitet.148 Die Außenwerbung und Werbespots im Kino nach 18 Uhr sind in Deutschland bisher weiterhin erlaubt. Ein Gesetzentwurf der Fraktion Bündnis 90/Die Grünen, Außenwerbung und Kinowerbung für Tabakerzeugnisse, elektronische Zigaretten und Nachfüllbehälter zu verbieten, fand im Deutschen Bundestag im Juni 2019 keine Mehrheit.149 Nun zeichnet sich ein Umdenken ab: Im Dezember 2019 legte sich die CDU/CSU-Fraktion in einem Positionspapier zum Verbraucher- und Gesundheitsschutz bei Ta­ bakprodukten und E-Zigaretten darauf fest, gemeinsam mit dem Koalitionspartner einen Gesetzesentwurf zu erarbeiten, der die Außen- und Kinowerbung für Tabakprodukte strenger regeln soll.150 Bis dato bleibt die Werbung für Tabakerzeugnisse in Deutschland freilich weiterhin deutlich weniger eingeschränkt als in anderen europäischen Staaten und Deutschland damit hinter Forderungen der Weltgesundheitsbehörde zur Tabakkontrolle zurück.151 In ihrer 2005 verabschiedeten Rahmenkonvention zur Tabakkontrolle (WHO Framework Convention on Tobacco Control, FCTC) hatte die WHO unter anderem gefordert, dass Werbemaßnahmen für Tabakerzeugnisse verboten werden sollten (Artikel 13). Auch die irreführende Kennzeichnung der Produkte, zum Beispiel »niedriger Teergehalt«, »light«, »ultra-light« oder »mild«, sollte nicht länger zulässig sein (Artikel 11).152 Zwei epidemiologische Studien an Lungenkrebspatienten in den USA und Großbritannien hatten erstmals 1950 einen Zusammenhang zwischen dem Rauchen und Lungenkrebs hergestellt.153 Schon  Zur Erkenntnisleistung wissenschaftlicher Forschung | 81

zuvor hatten einzelne Untersuchungen den Konsum von Tabak mit verschiedenen Krebsleiden des Mund- und Rachenraums sowie der Lunge in Verbindung gebracht. Die epidemiologischen Studien lieferten aus wissenschaftlicher Sicht erstmals zuverlässige statistische Daten über die Ätiologie von Lungenkrebs. Den wissenschaftlichen Nachweis, dass Tabakkonsum zu anatomischen Veränderungen führt, brachte wenige Jahre später eine systematische Untersuchung von Lungengewebe verstorbener Lungenkrebspatienten: Die Studie verglich Lungenpräparate von Rauchern und Nichtrauchern und stellte fest, dass Lungen von Rauchern auffällig oft Läsionen, angefangen bei den Bronchialwegen, aufwiesen. Diese frühen Erscheinungsformen anatomischer Veränderungen (Präkanzerose) sind bereits lange vor dem Auftreten von kanzerogenen Tumoren bei Rauchern im Lungengewebe nachweisbar.154 Experimentelle Studien an Nagern bestätigten wiederum die krebserregende Wirkung von Teerpartikeln, die im Tabakrauch freigesetzt werden.155 Dies hielt die Tabakindustrie nicht davon ab, aktiv gegen die wissenschaftlichen Erhebungen vorzugehen und deren Ergebnisse zu bestreiten.156 Hierzu zählten vor allem gezielte, irreführende Werbemaßnahmen sowie die öffentlichkeitswirksame Gründung des Forschungskomitees der Tabakindustrie (Tobacco Industry Research Committee, TIRC), das vorgeblich unabhängige Untersuchungen über die Wirkung von Tabak auf die Gesundheit durchführen und koordinieren sollte: Das Komitee wurde 1953 unter maßgeblicher Beteiligung von Philip Morris gegründet. 1964 wurde daraus nach Restrukturierungsmaßnahmen das Council for Tobacco Re­ search.157 Die Einflussnahme von Seiten der Tabakindustrie stellt bis heute, wie die WHO seit Jahren in ihren Statusberichten zur Umsetzung der Rahmenkonvention zur Tabakkontrolle festgestellt, das größte Hindernis für die Umsetzung des Maßnahmenkatalogs zur Aufklärung, Kennzeichnung und zum Verbot von Werbemaßnahmen für Tabakerzeugnisse dar.158 Eine nicht unerhebliche Rolle spielt dabei, dass sich Wissenschaftler und Ärzte für Zwecke der Industrie vereinnahmen lassen.159 Selbst die WHO sei, wie Kritiker aufgrund der bestehenden öffentlichen Unterfinanzierung und ihrer wachsenden Abhängigkeit von privaten Fördergeldern problematisieren, nicht frei von der Einflussnahme wirtschaftlicher Interessen: In den 1970er Jahren wurde die WHO noch zu 80 Pro82 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

zent durch Pflichtabgaben der Mitgliedstaaten finanziert (»assessed contributions«), über die sie frei, das heißt zweckungebunden, verfügen konnte (»flexible funds«). Die restlichen 20 Prozent setzten sich aus freien, zweckgebundenen Beiträgen zusammen (»voluntary contributions«). Heute hat sich das Verhältnis annähernd umgekehrt. Die seit Jahrzehnten bestehende Unterfinanzierung durch öffentliche Gelder trägt dazu bei, dass die WHO mehr und mehr von freiwilligen Spenden und privaten Förderern abhängig wird. Hierzu zählen private Stiftungen, namentlich die Bill & Melinda Gates Stiftung, derzeit nach den USA der zweitgrößte Förderer der WHO, aber auch Pharmaunternehmen. Nichtregierungsorganisationen sehen hierdurch die Unabhängigkeit der WHO bedroht.160 Hinzu kommen Interessenskonflikte von WHO -Gremienmitgliedern, die auf Empfehlungen der WHO Einfluss haben, wie etwa im Fall der Bewertung gesundheitlicher Risiken durch das Herbizid Glyphosat.161 Wie weit die Einflussnahme von Wirtschaft und Industrie unter Umständen reicht, wenn es um die Frage geht, ob Forschungsergeb­ nisse und welche im Einzelnen politischen Entscheidungen zugrunde gelegt werden, zeigt die Klimapolitik. Bestehende Abhängigkeiten, in die sich die Nationalstaaten durch die Priorisierung und Förderung bestimmter Industriebereiche zum Teil selbst gebracht haben (z. B. Ölindustrie, Automobilindustrie), sind bis heute oftmals das Zünglein an der Waage, wenn es darum geht, ob sich Staaten überhaupt an der internationalen Klimapolitik beteiligen und wie einschneidend ihre selbstgesetzten Klimaziele ausfallen. Mitentscheidend ist die Frage, welches Treibhausgas-Emissionsszenario klimapolitischen Entscheidungen auf internationaler Ebene zugrunde gelegt wird: dasjenige, das große Eingriffe in wirtschaftliche Abläufe nahelegt, zum Beispiel durch die Maßgabe, den CO2-Ausstoß rapide und stark zu verringern, oder ein anderes, auf dessen Grundlage eine deutlich langsamere und schrittweise Verringerung klimaschädlicher Gase auf lange Sicht hinaus angestrebt werden kann. Die Entscheidung im Einzelnen spiegelt unter Umständen zugleich wider, welchen Interessen den Vorzug gegeben wird oder welche Interessen, seien sie gesellschaftlicher oder seien sie wirtschaftlicher Natur, überhaupt Berücksichtigung erfahren. Dies zeigt sich nicht nur im Großen, in der internatio­nalen  Zur Erkenntnisleistung wissenschaftlicher Forschung | 83

Klima­politik, sondern auch im Kleinen, zum Beispiel auf regionaler Ebene, wenn es etwa darum geht, nachhaltige Lösungen für Infrastrukturprojekte zu erarbeiten: Aus Sicht der Hafenwirtschaft der Hansestadt Hamburg ist eine wiederholte Anpassung der Fahrrinne der Unterelbe bis zur Elbmündung (»Elbvertiefung«) ein vordringliches Desiderat, um die Schiffbarkeit des Flusses auch für große Containerschiffe zu gewährleisten und somit die Wettbewerbs­ fähigkeit des Standorts gegenüber anderen europäischen Häfen zu erhalten. Das aktuelle Bauvorhaben, die Fahrrinnenanpassung von Unter- und Außenelbe für 14,5 m tiefgehende Containerschiffe, wird gemeinhin als neunte Elbvertiefung bezeichnet. Als Unterelbe gilt der tideabhängige Bereich der Elbe zwischen Geesthacht, südlich von Hamburg, und Cuxhafen, als Außenelbe der Flussabschnitt bis Scharhörn.162 Hamburg liegt im Stromspaltungsgebiet der Tideelbe. Seit dem 12. Jahrhundert sind Maßnahmen belegt, die die Entwicklung von einem Flusshafen zu einem Seehafen begleiteten: Eindeichungen, Eingriffe in Flussläufe und andere strom- und wasserbauliche Maßnahmen, nicht zuletzt des Hochwasserschutzes. Der Stellenwert der Hafenwirtschaft prägt die Stadtgeschichte und entfaltet über Hafeninfrastrukturprojekte und vor allem durch die Gewinnung neuer Hafengebiete wie den Freihafen um 1900 (Speicherstadt) oder die Hafenerweiterung im Süderelberaum (Altenwerder) wiederholt gesellschaftliche Brisanz. Hamburg wurde mit der Reichsgründung 1871 Bundesstaat des Deutschen Bundes, der Eintritt in den Deutschen Zollverein 1888 war die logische Folge. Die Hafenwirtschaft stellte dies vor eine Herausforderung: Um den Handel nicht mit Zöllen zu belasten, das heißt Importgüter zollfrei lagern, veredeln und verarbeiten zu können, war es nötig, einen Freihafen zu schaffen, der nicht dem deutschen Zollgebiet angehörte. Zum Bau der Speicherstadt ab 1883 auf den Elbinseln Kehrwieder und Wandrahm wurden etwa 20.000 Menschen zwangsumgesiedelt. Zuletzt wurde 1998 das ehemalige Fischerdorf Altenwerder trotz massiver Proteste der Bevölkerung geräumt und abgerissen. Lediglich die Kirche und der Friedhof blieben bestehen. Seit 2002 erstreckt sich hier das HHLA Container Terminal Altenwerder (CTA), an dem der Containerumschlag weitgehend automatisiert abläuft. Das Gebiet des Hamburger Hafens umfasst heute rund ein Zehntel des Stadtgebiets.163 Durch die Containeri84 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

sierung in den 1960er Jahren und die hiermit verbundenen wachsenden Kapazitätsgrößen im Schiffsverkehr wurden strombauliche Maßnahmen an der Fahrrinne im späten 20. Jahrhundert in immer kürzeren Abständen nötig: Seit 1818 wurde die Fahrrinne der Unterelbe acht Mal vertieft. Die Arbeiten der letzten Fahrrinnenanpassung wurden 2000 abgeschlossen: Tide­unabhängig können den Hafen Hamburg heute Containerschiffe bis zu einem Salzwassertiefgang von 12,5 m (Süßwassertiefgang von 12,8 m) erreichen und verlassen. Für Schiffe mit einem größeren Tiefgang ist dies bei mittleren Tideverhältnissen nur tide­abhängig möglich. Hinzu kommt, dass in dem nur 300 m breiten Fahrrinnenabschnitt an der Landesgrenze Hamburgs bei Tinsdal ein Begegnungs- und Überholverbot für Fahrzeuge mit addierten Schiffsbreiten von 90 m und mehr besteht.164 Die Eingriffe in den Flusslauf haben die Fließgeschwindigkeit der Elbe erhöht. Dies hat auch Auswirkungen auf die Höhe des mittleren Tidenhubs: Hierbei handelt es sich um ein statistisches Maß, genauer ein arithmetisches Mittel, das anhand des mittleren Tideniedrigwassers (TNhw), dem durchschnittlichen Wasserstand bei Niedrigwasser, und des mittleren Tidenhochwassers (MThw), dem durchschnittlichen Wasserstand bei Hochwasser, erhoben wird.165 Die Eingriffe tangieren somit stets auch den Ufer- respektive Hochwasserschutz. Darin sind sich Befürworter wie Gegner einer erneuten Elbvertiefung einig. Zu den Gegnern zählen Naturschutzverbände, aber auch die Elb- und Küstenfischerei sowie Elbanrainer. Haupt- und Nebenerwerbsfischer in der Elbe und im Elbmündungsgebiet sowie Obstbauern im Alten Land sehen durch eine erneute Elbvertiefung ihre wirtschaftlichen Interessen bedroht. Die einen, weil durch die geplanten Eingriffe in die Elbe Fischgründe möglicherweise langfristig verloren gehen, die anderen, weil ihre Anbauflächen schon heute durch Sturmfluten akut bedroht sind.166 In diesem Kontext werden nicht nur grundsätzliche Vorbehalte gegen die Elbvertiefung vorgebracht und in der Folge die Entwicklung eines »nachhaltigen Seehafenkonzepts« gefordert.167 Uneinigkeit besteht gerade auch in der Bewertung der modellbasierten Szenarien über die Auswirkungen der Fahrrinnenanpassungen im Einzelnen, die als Grundlage für die politische Entscheidung dienen: Ein Streitpunkt ist, ob die Rahmenbedingungen des Modells hinreichend realitätsnah sind.  Zur Erkenntnisleistung wissenschaftlicher Forschung | 85

Bezweifelt wird außerdem, ob die gewählten strombaulichen Vorhaben die erwartbare Tidenenergie zuverlässig dämpfen können.168 Hierzu zählt vor allem die Einrichtung von »Unterwasserablagerungsflächen«, zum Beispiel an der Medemrinne, einer parallel zur Fahrrinne verlaufende Vertiefung im Flussbett.169 Problematisiert wird etwa, dass die Strömungseffekte, die aus den Eingriffen an der Medemrinne resultieren, nicht hinreichend bekannt seien und die vorgelegten Modellrechnungen als nicht ausreichend belastbar gelten können. Um eine höhere prognostische Sicherheit über mögliche Veränderungen an der alten Rinne zu erhalten, sei es nötig, das Fließverhalten über einen längeren Zeitraum systemanalytisch in Bezug auf Wasserstände, Strömungen und Sedimentbilanzen zu untersuchen.170 Der Wasserdruck könne etwa dazu führen, dass der Fluss mittel- bis langfristig neue Wege durch den Sand bahne und sich eine neue Rinne bilde. Mit der Konsequenz, dass der mittlere Tidenhub deutlich über dem jetzt prognostizierten Wert liege.171 Bei den hier skizzierten politischen Entscheidungen kommt aus gesellschaftlicher Sicht der Frage besondere Bedeutung zu, ob diese hinter den Nachhaltigkeitsstandards, die an öffentliche Infrastrukturprojekte oder Maßnahmen des Klimaschutzes angelegt werden, zurückbleiben.172 Gleiches ließe sich im Übrigen in Bezug auf ethische Standards sagen: Dies betrifft etwa die Frage, ob Staaten, die zu den Hauptverursachern des anthropogenen Klimawandels gerechnet werden können, ihrer Verantwortung auch nachkommen. Zu berücksichtigen ist hierbei, grundsätzlicher noch, ob die gewählten internationalen Maßnahmen der Klimapolitik, wie der Emissionshandel, Desiderate der Klimagerechtigkeit erfüllen.173 Angesichts der dargelegten spezifischen Herausforderungen, wie ich sie für die auf Anwendung zielende wissenschaftliche Forschung skizziert habe, scheint es mir notwendig festzustellen, dass wir den Dreischritt von der Konzeption, über die Durchführung bis zur Anwendung zwar in wesentlichen Schritten vollzogen haben, freilich aber noch keineswegs am Ende der Analyse über die Ermittlung des Erkenntniswerts angekommen sind. Im Folgenden wird es darum gehen, die Relevanzermittlung ins Verhältnis zu den maßgeblichen Orientierungsnormen, die Zweckfreiheit respektive Zweckorientierung wissenschaftlicher Forschung, zu setzen. 86 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

3. Wissenschaftliche Forschung im Widerstreit: Zweckfreiheit versus Zweckorientierung

Die Ermittlung des Relevanten ist, wie zu sehen war, an spezifische Voraussetzungen wissenschaftlicher Forschung zurückgebunden. Mit dem Resultat, dass immer wieder neu diskursiv ausgelotet werden muss, ob einer Frage oder Thematik im Sinne des wissenschaftlichen Interesses überhaupt Relevanz zugeschrieben werden kann; ob die priorisierte materielle Grundlage vor dem Hintergrund des aktuellen Wissenstands als hinreichend beredt gilt, sowie nicht zuletzt, welchen Gesichtspunkten innerhalb der Forschung begründet Vorrang eingeräumt werden kann, das heißt welche im Einzelnen in den Fokus der Untersuchung zu rücken sind. Wir können nun recht gut abschätzen, wie es sich in der anwendungsorientierten Forschung verhält und welchen strategischen Erwägungen bei der Auswahl, aber auch bei der Gewichtung und Priorisierung von Forschungsfragen eine leitende Rolle zukommen kann. Lassen sich die Ergebnisse auch auf andere Bereiche der Forschung übertragen ? Die auch von mir bis dato unterstellte strenge Dichotomie zwischen auf Anwendung zielender Forschung einerseits und jenen Bereichen, die grundlegende Fragen verfolgen, andererseits gilt es im Folgenden kritisch aufzunehmen: Eingangs habe ich bemerkt, dass in den Forschungsbereichen der Grundlagenwissenschaften eher pauschal angenommen, gewissermaßen unterstellt werde, dass sie Relevanz besitzen, nämlich durch die Erlangung von Erkenntnissen über fundamentale Zusammenhänge der Welt. 174 Der Erkenntniswert der angewandten Forschung hingegen muss sich im Anwendungsnutzen konkretisieren und in der Verwertbarkeit ihrer Ergebnisse erweisen. Getragen ist diese Gegenüberstellung durch die unterstellte Differenz im Erkenntnisinteresse wissenschaftlicher Forschung.175 Dieser Differenz möchte ich im Folgenden nachgehen: Gemeinhin kann angenommen werden, dass sich das Selbstverständnis von Wissenschaftlerinnen und Wissenschaftlern, die Grundlagenforschung betreiben, am Ideal der Zweckfreiheit wissenschaftlicher Tätigkeit ausrichtet. Es geht ihnen vordringlich um den Erwerb und die Sicherung von Wissen um eben dieses Wissens willen. Demgegenüber unterwerfen sich die angewandten Forschungsbereiche dem Diktum der Zweckorientierung: Zwar er Zweckfreiheit versus Zweckorientierung | 87

werben auch sie Wissen und entwickeln elaborierte Methoden der Handhabbarmachung, diese müssen sich aber vorrangig als dienlich für konkrete Zwecke und Ziele erweisen. Unterfüttert wird diese Gegenüberstellung von Erkenntnisidealen durch eine zweite Dichotomie in Bezug auf die Spezifität des Wissens, das aus Forschung in Wissenschaft einerseits und Technik andererseits resultieren kann. Die Rede ist von der systematischen Unterscheidung zwischen wissenschaftlicher Erkenntnis im Sinne des »zweckfreien Wissens« einerseits und technischem Wissen im Sinne des »zweckmäßigen Könnens« andererseits – die in der fundamentalen Scheidung von wissenschaftlicher Entdeckung und technischer Erfin­ dung kulminiert: Technisches Wissen sei nicht auf Wahrheit oder Falschheit ausgerichtet, sondern auf Funktionserfüllung im Sinne instrumenteller Nützlichkeit und Effektivität.176 Zu verweisen wäre, drittens, auf das spezifische Verhältnis von Wissenschaft einerseits und Forschung andererseits: Während sich Wissenschaft mehr und mehr dem Ideal der Sicherheit verschreibe und sich in der Regel damit begnüge, Konsens herzustellen, zeichne sich die Forschung nach Bruno Latour dadurch aus, risikoreiche Ansätzen zu favorisieren und sich, überhaupt nah am Leben, gewissermaßen mit Haut und Haaren der Erkundung wichtiger Fragen zu verschreiben: »Science is certainty; research is uncertainty«, spitzt der Soziologie dies in einem Artikel aus dem Jahr 1998 im Fachjournal Science zu und führt hierzu aus: »Science is supposed to be cold, straight, and detached; research is warm, involving, and risky. Science puts an end to the vagaries of human disputes; research creates controversies. Science produces objectivity by escaping as much as possible from the shackles of ideology, passion, and emotions; research feeds on all of those to render objects of inquiry familiar.”177 Diese drei Gegenüberstellungen – Grundlagenwissenschaft versus angewandte Wissenschaft, Wissenschaft versus Technik, Wissenschaft versus Forschung – möchte ich zum Ausgang nehmen, um über Distinktionsmerkmale aktueller wissenschaftlicher Forschung nachzudenken. Hierauf aufbauend gilt es dann zu erörtern, was sich über die Relevanzermittlung innerhalb der wissenschaft88 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

lichen Forschung insbesondere in Anbetracht des Erkenntnisideals jener Wissenschaftsbereiche sagen lässt, die den Anspruch verfolgen, grundlegendes Wissen zu erwerben und damit nicht zuletzt Grundlagen für weiterführende Forschung zu schaffen. Das erste Distinktionsmerkmal wissenschaftlicher Forschung betrifft den Umstand, dass die gemeinhin angenommene Grenzziehung zwischen grundlagenschaffender respektive anwendungsorientierter Forschung, vorausgesetzt, sie lässt sich klar ausweisen, nicht notwendig zwischen akademischen Disziplinen verläuft und am wissenschaftlichen Selbstverständnis einzelner Fächer festgemacht werden kann. Die vorangegangenen Untersuchungsschritte haben bereits auf zweierlei Besonderheiten wissenschaftlicher Forschung aufmerksam gemacht: erstens, dass innerhalb tradierter akademischer Disziplinen Forschungsinteressen um die Deutungshoheit im Fach konkurrieren können und somit auch dazu Anlass geben, jenseits der streng disziplinären Ausrichtung, die meist die tradierte Grenzziehung bedient, neue Formen der Verbundforschung (»Cluster«) auszubilden. Angetrieben ist diese Entwicklung etwa durch das geteilte Interesse an einem wissenschaftlichen Pro­blem (thematische Präferenz), das geteilte theoretische Vorverständnis des Phänomens (theoretische Präferenz) oder schlichtweg dem geteilten methodisch-technischen Zugriff auf wissenschaft­ liche Probleme (methodisch-technische Präferenz). Zweitens stellt sich die Grenzziehung nicht als Begrenzung im eigentlichen Sinne dar, sondern lässt sich als Einflussbereich auf die jeweils andere Sphäre verhandeln: Die auf Anwendung zielende Forschung bedarf unbedingt des generischen Wissens, das durch grundlegende Forschungsbereiche erworben und für weiterführende Untersuchungen als »Bestand« vorgehalten wird. Umgekehrt hat der Ausweis anwendungsorientierter Desiderate, wie im Fall der modellbasierten Forschung an Mäusen zu sehen war, unter Umständen Konsequenzen für Primate der Grundlagenwissenschaft. Konkret bedeutet dies, dass die Entscheidung über vorrangige Forschungsziele in einem Bereich, zum Beispiel tierbasierte Ansätze für Fragen der Humanmedizin zu entwickeln, spezifische Desiderate erzeugen kann, die wiederum darauf Einfluss nehmen, was als gewichtige Forschungsziele in der grundlegenden Forschung zu tierischen Organismen wahrgenommen wird. Immer vor dem Hintergrund,  Zweckfreiheit versus Zweckorientierung | 89

dass auch Forschende – in beiden Sphären – mit dem Problem konfrontiert sind und dass sie sich entscheiden müssen, welche Fragen oder Themen priorisiert werden – angesichts gemeinhin begrenzter zeitlicher, materieller und finanzieller Ressourcen. Kommen wir zum zweiten Distinktionsmerkmal wissenschaftlicher Forschung, das die strikte Gegenüberstellung von Wissenschaft einerseits und Technik andererseits in Frage stellt. Einzuräumen ist, dass sich die tradierte Unterscheidung zwischen wissenschaftlicher Forschung und technischer Entwicklung in Anbetracht der jeweils assoziierten Erkenntnisideale als weiterhin wirkmächtig darstellt: Wissenschaft, die nach Wahrheit strebt, »entdeckt«, Technik, die im Sinne der Funktionserfüllung zweckrational operiert, »erfindet«. Die Dichotomie zwischen Wissenschaft und Technik, aber auch zwischen Wissenschaft und Industrie stellt sich in Anbetracht dieses Umstands als unüberbrückbar dar. Aber ist dies tatsächlich der Fall ? Was es heißt, Wissenschaft zu betreiben, lässt sich angesichts der fachlichen Disparatheit und der auch dadurch bedingten methodischen Heterogenität kaum pauschalisieren. Es lassen sich aber Gemeinsamkeiten ausweisen, die fachübergreifend zu würdigen sind: Eine dieser für den zeitgenössischen Forschungsalltag so prägenden Gemeinsamkeiten ist der Anteil des Technischen am wissenschaftlichen Denken und Handeln, wobei – das sei gleich herausgestellt – nicht nur der Gebrauch von technischem Gerät und hiermit korrespondierenden Verfahren adressiert ist. Letzteres, von der Mikroskopie bis hin zur Polimerase-Kettenreaktion (PCR), von Teilchenbeschleunigern und Detektoren bis hin zur Informationstechnik, ließe sich allenfalls als das Augenscheinlichste am Technischen bezeichnen. Mit der Erweiterung des wissenschaftlichen Instrumentariums verändern sich Leitvorstellungen des Wissenschaftlichen: Kontrolle und Sicherheit, Genauigkeit und Zuverlässigkeit, Quantität und Qualität. Man denke nur an die Übermacht statistischer Verfahren und die damit einhergehende Prägung des »Signifikanten« (vgl. Abschnitt 2.3). Man könnte auch davon sprechen, dass sich der Anspruch, was wissenschaftliche Forschung leisten kann, und in der Folge, was wissenschaftliche Erkenntnis im Gegensatz zu bloßem Alltagswissen auszeichnet, verändert. Zusammenfassend heißt dies: Die Etablierung und Verbreitung von Schlüsseltechniken erweitert erstens den epistemischen Horizont 90 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

von Forschung, indem Entitäten oder Phänomene greifbar werden, die sich bis dato der wissenschaftlichen Untersuchung entzogen haben. Sie transformiert, zweitens, das methodische Arsenal von Forschungsgebieten, das heißt, sie beeinflusst die Art und Weise, wie geforscht wird, zum Beispiel wie Entitäten erfasst und benannt werden, sowie nach welchen Regularien Beobachtungen zu bewerten und zu kommunizieren sind. Mit dem Ergebnis, dass das Forschungsfeld, drittens, bedingt durch den Status des Technischen für wissenschaftliche Zwecke, selbst einem Wandel unterliegt. Hier wären verschiedene Entwicklungen zu unterscheiden, wie etwa der Übergang von einer beobachtenden zu einer experimentellen Wissenschaft (Psychologie) oder das Ausbilden neuartiger Wissenschafts- und Forschungsfelder (Molekularbiologie; Synthetische Biologie) durch überfachliche Bündnisse disziplinär arbeitender Wissenschaften. Dies führt uns zum dritten Distinktionsmerkmal, nämlich dem gewachsenen Bund zwischen Wissenschaft einerseits und Forschung andererseits. Wenn ich hier vom gewachsenen Bund spreche, geschieht dies in Abgrenzung zur bloßen Unterstellung, dass sich Wissenschaft und Forschung notwendig gegenseitig bedingen. Kritisch würdigen ließe sich der gewachsene Bund damit, dass es nicht reicht, Forschung als wissenschaftsimmanente Praxis zu bezeichnen. Es gilt notwendige und hinreichende Kriterien zu benennen, die Forschung als genuin wissenschaftliches Unternehmen – fachübergreifend – auszuweisen erlauben. Hier ließe sich an den Diskurs um Orientierungsnormen guter wissenschaftlicher Praxis (»lege artis«) anschließen. Große Beachtung erfahren jene vier normativen Dimensionen wissenschaftlicher Praxis, die der Soziologe Robert K. Merton in den 1940er Jahren unterschieden hat – im englischen Sprachraum werden sie unter dem Akronym »CUDOS« gefasst: Unter Kommunismus (Communism) wird erstens der Gemein­ gutcharakter wissenschaftlicher Erkenntnis in Stellung gebracht. Hiermit wird der Einsicht Rechnung getragen, dass Wissenschaftlerinnen und Wissenschaftlern darauf angewiesen sind, dass Forschungsergebnisse öffentlich werden und of­ fen gelegt wird, wie diese im Einzelnen erhoben wurden (»full  Zweckfreiheit versus Zweckorientierung | 91

and open communication«). Im Fokus steht die schiere Notwendigkeit, Ergebnisse und methodische Voraussetzungen in Bezug auf ihre Verlässlichkeit und Wissenschaftlichkeit zu prüfen. Gemeingut adressiert freilich gerade auch die Tatsache, dass wissenschaftliche Forschung kooperativ organisiert ist: aufbauend auf früheren Forschungsleistungen und in kritischer Auseinandersetzung mit ihnen werde ich überhaupt erst in die Lage versetzt, zu neuen Fragen zu kommen und somit am Fortschritt durch Wissenschaft teilzuhaben.178 Als Universalismus (Universalism) wird zweitens das Gebot verhandelt, dass bei der Bewertung wissenschaftlicher Forschung Prüfkriterien herangezogen werden, die intersubjektiv geteilt werden können und aus dieser Warte unverbrüchlich gelten müssen (»preestablished impersonal criteria«). Hiermit verbindet sich auch die strategische Überlegung, dass die Bewertung wissenschaftlicher Forschung unabhängig von kulturellen, ethnischen oder weltanschaulichen Vorannahmen getroffen werden sollte, um der hieraus resultierenden Diskriminierung von Wissenschaftlerinnen und Wissenschaftlern und der Diskreditierung ihrer Positionen vorzugreifen.179 Uneigennützigkeit (Disinterestedness) adressiert drittens die Orientierung wissenschaftlicher Forschung am Gebot des Erkenntniserwerbs, das als Gut prinzipiell allen Menschen zukommen sollte (»benefit to humanity«). Uneigennützig ist Forschung nur dann, wenn sie in Absehung persönlicher Vorteilnahme erfolgt. Ob und wie Forschende für ihre Erfolge vergütet werden, dafür seien, wie Merton bereits deutlich macht, die strengen Richtlinien wissenschaftlicher Prüf- und Anerkennungsverfahren leitend.180 Der Organisierte Skeptizismus (Organized Scepticism) implementiert viertens Reflexivität als konstitutiven Teil wissenschaftlicher Praxis: Wissenschaftlerinnen und Wissenschaftler sind angehalten, gegenüber den eigenen Ergebnissen und den von ihnen favorisierten Theorien unvoreingenommen zu sein, das heißt sie aus der kritischen Prüfung nicht auszuklammern.181 92 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Als notwendige, aber nicht hinreichende Voraussetzung von Wissenschaft und Forschung, die diesem Ideal nachspürt, gilt gemeinhin zweierlei: Es müssen erstens Institutionen geschaffen werden, die Rahmenbedingungen für einen freien Wissenschafts-, Forschungsund Lehrbetrieb gewährleisten.182 Diese sind zweitens adäquat und verlässlich auszustatten, namentlich mit Mitteln, die umfassend verwendbar und unbefristet verfügbar sind (»Grundmittel«). Vor diesem Hintergrund wird nicht nur die hinter dem bestehenden Bedarf zurückbleibende, finanzielle Ausstattung öffentlicher Einrichtungen problematisiert, sondern – als hiermit verbundene Konsequenz – der wachsende Anteil von drittmittelgebundener Forschung an Hochschulen. Hierbei handelt es sich zum Beispiel um programmgebundene Mittel, die nur für bestimmte Zwecke verwendet werden dürfen und befristet verfügbar sind. Die Hochschulrektorenkonferenz (HRK) hat auch deshalb im Jahr 2017 eine Kehrtwende in der Hochschulfinanzierung gefordert: Die im Rahmen des zeitlich befristeten Hochschulpakts an die Hochschulen fließenden Gelder sollten verstetigt werden, sprich: in Grundmittel überführt werden, um eine auskömmliche und verlässliche Finanzierung zu gewährleisten.183 Daneben benötigten die Hochschulen zusätzliche programmbasierte Mittel für Hochschulbau und Sanierung, Digitalisierung, Nationallizenzen etc., um national im Wettbewerb mit außeruniversitären Forschungseinrichtungen und international mit ausländischen Hochschulen bestehen zu können.184 Der ebenfalls zunehmende Anteil an Fördermitteln aus Privat­ wirtschaft und Industrie an universitären Einrichtungen stellt die klare institutionelle Trennung zwischen öffentlich finanzierter Forschung einerseits und privatwirtschaftlicher Forschung andererseits zunehmend in Abrede. Die Wissenschaftsforschung hat die vielfältigen und prägenden Bezüge zwischen universitärer Forschung und der Konturierung der privatwirtschaftlichen Forschung (»Industrieforschungslabor«) in der chemischen, pharmazeutischen und elektrotechnischen Industrie seit dem 19. Jahrhundert und der hiermit vor allem im 20. Jahrhundert verbundenen Kapitalisierung wissenschaftlicher Erkenntnis detailliert nachgezeichnet.185 Die zunehmende Verflechtung öffentlich finanzierter Forschung und privatwirtschaftlicher Verwertung in der Moderne  Zweckfreiheit versus Zweckorientierung | 93

lässt sich am Beispiel der Biotechnik an der US -amerikanischen Westküste der 1970er Jahre anschaulich machen.186 Sie hat mittelfristig nicht nur zu einer Kommerzialisierung und Privatisierung gentechnischer Verfahren geführt, sondern scheint insgesamt dazu beigetragen zu haben, dass sich das Selbstverständnis wissenschaftlicher Forschung in den vergangenen Jahrzehnten nachhaltig verändert hat. Im 25. Jubiläumsjahr der Asimolar-Konferenz zur rekombinanten DNS -Technik (1975) bringt eine Nachfolgekonferenz unter der Ägide des Juristen Alexander M. Capron im Jahr 2000 die damals Beteiligten noch einmal zusammen, um kritisch zu diskutieren, ob ein ähnliches Format unter den aktuellen Bedingungen in Wissenschaft und Forschung denkbar wäre und wie es um die Aussicht stünde, zu einer gemeinsamen Empfehlung zu kommen.187 Problematisiert wird von den Beteiligten im Resümee unter anderem der Umstand, dass es fraglich wäre, inwiefern die Öffentlichkeit den Beteiligten heute dasselbe Vertrauen entgegenbringen würde: »With commercial interests so deeply embedded in the field generating actual or perceived conflicts of interests for scientists, the public is no longer so willing to trust their motivation.«188 Die Grenze zwischen akademisch-wissenschaftlicher Forschung und der Privatwirtschaft sei im Bereich der Genomik kaum mehr zu ziehen: »Many academic researchers hold equity positions, patent rights, and stock options in biotech companies, and there is now a great rush from genetic discovery to patent application, venture capital developments, company formation, and public stock offering. This not only has implications for the education of the general public and informed consent of patients and research subjects, but can also discourage the search for genetic tests and therapies with less commercial value.«189 Diese Einschätzung ist angesichts einer, wenn auch derzeit noch auf einzelne Sparten begrenzten Entwicklung bedenkenswert, die bereits heute dazu beiträgt, die Forschungslandschaft und den Status beteiligter Fachwissenschaftlerinnen und Fachwissenschaftler insgesamt zu verändern: Im Wesentlichen geht es um den Ausweis und die Sicherung von Verwertungsinteressen. Was heute nicht nur 94 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

die Frage betrifft, wer als Autor(in) in Erscheinung tritt, sondern wer hoheitlich auf die erhobenen Datensätze Zugriff hat und welche weiteren Verwertungsinteressen sich hieran entzünden (Patentierung). Um nur ein Beispiel zu nennen: In seiner Empfehlung zu Klinischen Studien aus dem Jahr 2018 verweist der Wissenschaftsrat (WR) auf eine Kategorisierungsmatrix, die detailliert unterscheidet, wer Forschung (Design) initiiert, wer sie finanziert respektive zu welchen Anteilen und wer in der Folge hieraus resultierende Daten hoheitlich besitzt, publizieren kann und/oder Ergebnisse verwerten darf: Um dezidierte »Auftragsforschung« handelt es sich dann, wenn Designs, die an universitären Einrichtungen durchgeführt werden, durch externe Auftraggeber oder Sponsoren vorgegeben und von ihnen vollständig finanziert werden; das Gegenstück wird als »Interne Investigator-iniitierte Studien (IITs)« gefasst, die von der forschungsdurchführenden öffentlichen Einrichtung (Kliniken) selbsttätig entwickelt werden.190 Doch selbst bei IITs könne laut Wissenschaftsrat nicht per se unterstellt werden, dass diese vollständig durch öffentliche Mittel getragen werden könnten, ihre Umsetzung sei gegebenenfalls ebenfalls auf Finanzierungsquellen aus der Privatwirtschaft angewiesen.191 Auf Grundlage dieses Statusberichts möchte ich nun kritisch diskutieren, was sich über die Relevanzermittlung innerhalb der wissenschaftlichen Forschung insbesondere in Anbetracht des genuinen Erkenntnisideals grundlagenschaffender Wissenschaft sagen lässt. Mir geht es in anderen Worten darum, noch einmal die Frage aufzunehmen, wann und wodurch etwas zu einem Thema wird, weil es sich aufgrund der Ausrichtung wissenschaftlichen Denkens oder mit den Mitteln wissenschaftlicher Methoden überhaupt erst als solches ausweisen und in der Folge als echtes wissenschaftliches Problem verhandeln lässt. Hierfür erweist sich die Ausrichtung des Fragens, man könnte auch sagen, die Perspektive, aus der heraus wir zu fragen beginnen, als wegweisend. Kurzum, es ist an der Zeit auf jene zwei Pole zurückzukommen, die die Bewertung von Wissenschaft, Forschung, Technik und Innovation bis heute anleiten: Zweckfreiheit und Zweckorientierung. Mit dem ersten Ideal korrespondiert die Annahme, dass das höchste oder eigentliche Ziel wissenschaftlicher Forschung darin bestehe, Wissen um des Wissens  Zweckfreiheit versus Zweckorientierung | 95

selbst willen zu erwerben. Bekanntlich geht unser Verständnis der zweckfreien Erkenntnis – im Sinne der höchsten Form des Wissens auf Aristoteles zurück.192 Francis Bacon hat die Trennung zwischen Zweckfreiheit und Zweckorientierung durch seine bildhafte Gegenüberstellung von licht- versus fruchtbringenden Experimenten für die moderne Wissenschaftskonzeption – von der programmatisch erneuerten Naturphilosophie des Neuen Organon bis hin zur sich ausbildenden Naturwissenschaft im 17. Jahrhundert – hoffähig gemacht: Bacon verband mit dieser Gegenüberstellung die Reflexion auf echte Erkenntnis durch adäquate Wissenschaft und die Abkehr von jeglichem dem bloßen Nutzenkalkül unterworfenen Forscherdrang.193 Es ist tatsächlich nicht zu leugnen, dass Bacon auch auf den Nutzen zu sprechen kommt. Er tut dies bezeichnenderweise dort, wo er auf die »wahren Ziele der Wissenschaft« verweist, die, wie es bei ihm heißt, nicht aus »niederen« Gründen zu verfolgen seien, sondern »zur Wohltat und zum Nutzen des Lebens«.194 Vor diesem Hintergrund erklärt sich Bacons Eintreten für das auf licht­ bringenden Experimenten beruhende Erkenntnisprimat: Denn nur diese haben, wie es bei ihm heißt, »in sich eine wunderbare Kraft und Eigenschaft, die nämlich, niemals zu täuschen oder irrezuführen. Da sie nicht zu dem Zweck verwendet werden, irgendein Werk herzustellen, sondern um die natürliche Ursache einer Wirkung zu klären, erfüllen sie, mögen sie ausfallen wie sie wollen, immer in gleicher Weise ihren Zweck, denn sie entscheiden die Frage.«195 Wenn man so will, verbindet Bacon das Primat der Zweckfreiheit mit dem der prinzipiellen Ergebnisoffenheit wissenschaftlicher Forschung. Ich meine nun, dass diese sich andeutende fundamentale Dichotomie zwischen Zweckfreiheit und Ergebnisoffenheit einerseits und Zweckorientierung und Planbarkeit oder gar Planmäßigkeit andererseits leitend ist für die Erhebung, ob sich – aus binnenwissenschaftlicher Sicht – ein Erkenntniswert ausweisen lässt, zum Beispiel ob eine Fragestellung im Sinne des wissenschaftlichen Interesses einschlägige Gesichtspunkte behandelt oder ob eine wissenschaftliche Untersuchung in diesem Sinne wichtige Ergebnisse erzielen konnte, wie dies bereits in den vorangegangenen Analyseschritten gezeigt wurde. Worin die Wichtigkeit im Fall zweckfreier Forschung besteht – darum soll es nun im Folgenden gehen. 96 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Zweckfreiheit evoziert einen prinzipiell unbegrenzten Modalraum des Möglichen: Alles kann gefragt, alles in den Blick genommen werden. Forschende sind eingeladen, das theoretische und methodische Arsenal für weiterführende Ansätze zu nutzen oder ganz neue Methoden zu entwickeln, um auf ihrer Basis den Horizont wissenschaftlicher Praxis weiter zu öffnen. Zweckfrei operiert Wissenschaft, wenn zu Beginn der Forschung weder bekannt ist, was ein Ansatz im Einzelnen erbringen wird, noch ob er – in naher oder ferner Zukunft – für bestehende Anwendungsdesiderate verwertbar ist oder gar eigene Anwendungsziele erschließt. Ergebnis­ offen meint in einfachen Worten, dass die Ergebnisse der Forschung nicht bereits vorab feststehen. Forschung erweist sich nur dann als wissenschaftliche Praxis, wenn ein Erkenntnisgewinn erzielt wird – und zwar ungeachtet der Ergebnisse im Einzelnen. Als Gewinn kann bereits gelten, dass etwas sich anders verhält, als erwartet wurde, zum Beispiel, dass eine Beobachtung nicht die erhofften Ergebnisse erbracht hat, dafür aber andere, unerwartete Einsichten in den Ablauf von natürlichen Ereignissen gewonnen werden konnten. Ergebnisoffen meint, dass Forschung, im Gegensatz zum planmäßig vorgehenden Prozess des Herstellens, trotz des gezielten Vorgehens im Handeln weitgehend unberechenbar bleibt und sich, in anderen Worten, der Planbarkeit, zumindest im Hinblick auf die konkreten Ergebnisse und die daraus folgenden Entwicklungen, entzieht.196 Darin zeigt sich wohl am deutlichsten die Differenz zwischen dem genuin wissenschaftlichen Erkenntnisinteresse und außerwissenschaftlichen Interessen, die an Wissenschaft und Technik im Sinne der Nutzbarmachung (Anwendung, Innovation) herangetragen werden. Dem Ideal nach besteht der grundsätzliche Erkenntniswert dieses Leitbilds wissenschaftlicher Forschung darin, Wissen über bisher unbekannte Entitäten oder Phänomene zu erwerben. Gemeinhin ist davon auszugehen, dass es sich dabei um ein Wissen spezifischer Art handelt. Letzteres verweist darauf, dass wir an wissenschaft­ liche Erkenntnis strenge Kriterien anlegen. Wissenschaftliche Forschung in diesem Sinne bringt zweierlei im Überfluss hervor: Sie ist per se produktiv – es wird gefunden, entdeckt, vermessen, bewiesen – und zugleich von Misserfolgen geplagt – dem gescheiterten Design, der nicht wiederholbaren Beobachtung, der letztlich doch  Zweckfreiheit versus Zweckorientierung | 97

widerlegten Vermutung. Nun wäre Forschung keine wissenschaftliche Praxis, wenn sie das, was gemeinhin als Scheitern gehandelt wird, nicht selbst programmatisch zu wenden verstünde. Für die wissenschaftliche Forschung heißt dies, dass sie sich letztlich damit abfinden muss, dass sich die erhofften Ergebnisse am Ende doch nicht einstellen können oder sich theoretische Annahmen vorerst nicht bestätigen lassen – und dies obwohl sie sich, gemessen an den erarbeiteten Standards des Fachs, sehr wohl als gezielt vorgehende, genau kalkulierende und streng bewertende Wissenschaft verstehen mag. Für dieses Leitbild wissenschaftlicher Praxis hat der Molekularbiologe François Jacob den Begriff der »Nachtwissenschaft« geprägt und dieser, das sei nicht unterschlagen, die »Tagwissenschaft« gegenübergestellt. Die Nachtwissenschaft beschreibt Jacob konkreter noch als »Werkstatt des Möglichen«, ganz ähnlich, wie ich dies eingangs getan habe. Bemerkenswerterweise erweist sich die Nachtwissenschaft aber nicht nur als Modalraum, in dem Dinge möglich werden, die nirgendwo sonst in den Blick gekommen wären, sondern im besten Sinne des Wortes als Schutzraum. Geschützt ist die Nachtwissenschaft vor der Notwendigkeit, ihre Ergebnisse sogleich nach außen tragen zu müssen. Im besten Sinne meint folglich, dass die Nachtwissenschaft erprobt, entwickelt, aber auch verwirft, neue Verfahren erkundet und einübt, aber auch zurückstellen kann, wenn sie sich als nicht hinreichend tauglich oder präzise erweisen.197 Jacob fokussiert mit seiner Unterscheidung auf den Alltag wissenschaftlichen Arbeitens und erlaubt auf diesem Wege tradierte Darstellungen darüber, wie Wissenschaft zu Erkenntnis kommt, zu reflektieren. Explizit gilt dies für den Habitus, vom Ergebnis her anfängliche Prozesse des Forschens in den Blick zu nehmen (Wissenschaft als retrospektive Erzählung). Man denke etwa an die gemeinhin unterstellte Linearität der Beweisführung (von der Hypothese zum Experiment) oder auch an das Diktum, dass Phänomene in ihrer Unmittelbarkeit »entdeckt« werden. Die Tagwissenschaft löst die Nachtwissenschaft nicht ab, ist also nicht eine spätere, erfolgreichere Phase wissenschaftlicher Forschung oder gar ein anderer Typ von Wissenschaft. Mit dem Begriff thematisiert Jacob die Art der Verfügbarmachung wissenschaftlicher Erkenntnis, die uns – im Umkehrschluss – ein unvollständiges, vereinfachtes und in der Regel idealisiertes Bild wissenschaftlicher Forschung 98 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

zeichnet: unvollständig, weil schlichtweg nicht über alles berichtet werden kann; vereinfacht, weil die Art der Berichterstattung es nahe legt, auf bestimmte Ergebnisse zu fokussieren oder in der Darlegung nur auf ausgewählte Aspekte näher einzugehen; idealisiert, weil sich nicht zuletzt durch die Auswahl, was überhaupt eine Berichterstattung verdient, der Eindruck verfestigen kann, Wissenschaft konstituiere sich über Erfolgsgeschichten. Dies gilt es nicht nur in Bezug auf die Ergebnisse wissenschaftlicher Forschung herauszustellen, sondern lässt sich auch hinsichtlich des methodisch-technischen Arsenals in Anschlag bringen. Zwei Gesichtspunkte scheinen mir hier besonders erwähnenswert zu sein: erstens der Umstand, dass wir uns selbst kritisch fragen müssen, was wir als Wissenschaftlerinnen und Wissenschaftler über unseren Alltag preisgeben, sprich: was wir Angehörigen anderer Fachkulturen, aber auch der breiteren Öffentlichkeit gegenüber kommunizieren und wie wir »Erfolge« und »Misserfolge« zum Thema machen. Damit ist auch die weitreichende Konsequenz verbunden, welches Bild wir von unserem fachlichen Vorgehen zeichnen, welche Darstellungen wir favorisieren, aber auch welche Vorbehalte wir gegebenenfalls befördern, die gegenüber der Disziplin oder der Wissenschaft als solcher bereits bestehen. Zweitens ließe sich im Umkehrschluss danach fragen, was wir als Forschende über die Genese des eigenen Fachs oder den Forschungsalltag früherer Wissenschaftlerinnen und Wissenschaftler wissen, was darauf verweist, ob überhaupt in Erfahrung zu bringen ist, wie der wissenschaftliche Alltag beschaffen war und wie er sich durch die Eröffnung neuartiger Forschungsfragen oder die Verwendung innovativer Methoden verändert hat. Dies ist vor allem dann bedeutsam, wenn wir antreten, diese Entwicklungen aus der zeitlichen, räumlichen und/oder ideengeschichtlichen Entfernung heraus zu bewerten. Was lässt sich angesichts dieser Überlegungen hinsichtlich der Relevanzermittlung in den grundlagenschaffenden Wissenschaftsbereichen sagen ? Hierzu komme ich auf zwei der drei Ebenen zurück, anhand derer ich die Frage nach der Relevanz in Bezug auf wissenschaftliche Forschung eingangs ausführlich gewürdigt habe. Die erste Ebene beschreibt die Konzeption von Forschungszielen und Forschungsfragen; die zweite Ebene die Durchführung von Forschung.  Zweckfreiheit versus Zweckorientierung | 99

(A) Erste Ebene, über die Relevanz und die Konzeption wissenschaftlicher Forschung: Für Forschende in den grundlagenschaffenden Wissenschaften verbindet sich hiermit der zumutbare Anspruch auszuweisen, wie es sich – auf der Basis bereits bestehender Ergebnisse, angesichts einer Vielzahl an weiterführenden Fragen oder der Auswahl sehr unterschiedlicher Methoden erklären lässt, dass gerade diese Fragestellung oder diese Thematik im Blickfeld der Untersuchung steht. In den geschichts- und sprachwissenschaftlichen Fächergruppen kann es etwa der Fall sein, dass neue Archivbestände zugänglich werden und in der Folge Anlass geben, erschlossen zu werden. Welche Relevanz Archivbestände im Einzelnen entfalten, kann entweder im Rückgriff auf bereits bestehende, längerfristige Forschungsprojekte erläutert werden oder aber in Bezug auf den Umfang, die Qualität und nicht zuletzt die Provenienz der Bestände. Dieser zumutbare Anspruch steht freilich im strengen Kontrast zur Konkretisierungspflicht, der sich – im Rahmen der Drittmittelforschung  – oftmals auch grundlagenschaffende Wissenschaftlerinnen und Wissenschaftlern ausgesetzt sehen, indem auszuweisen sei, worin die Relevanz ihrer Forschung in naher oder gegebenenfalls ferner Zukunft auch für Anwendungsfelder bestehen könnte. Dass wir es hier längst nicht mehr mit Einzelfällen zu tun haben, sondern von einer tendenziösen Erwartungshaltung gegenüber Wissenschaft und Forschung im Allgemeinen gesprochen werden kann, zeigt das im Januar 2020 veröffentlichte Positionspapier des Wissenschafts­ rats (WR) mit dem beredten Titel Anwendungsorientierung in der Forschung: Hier wird frei heraus unterstellt, »dass sich Akteure in allen Teilen des Wissenschaftssystems an möglichen Anwendungen orientieren«.198 Unbenommen der berechtigten Frage, ob dies tatsächlich flächendeckend der Fall ist, scheint mir die hieraus folgende Frage bedenkenswerter zu sein: Wäre dies denn auch wünschbar, das heißt aus erkenntnistheoretischer Sicht geboten ? Mit einer wie auch immer gearteten Konkretisierungspflicht im Hinblick auf Anwendung und Verwertung ihrer Forschung muten wir Wissenschaftlerinnen und Wissenschaftlern nicht nur zu viel zu, wie ich meine, sondern offenbaren mit dieser Forderung zugleich, dass wir nicht verstanden haben, warum wir der Grundlagenwissenschaften und ihrer Freiheit im Forschen bedürfen. Um 100 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

es auf den Punkt zu bringen: Es geht um nichts Geringeres als die Gewährleistung von Wissenschaftlichkeit. Was meine ich damit ? Vor dem oben skizzierten Befund der geschichtswissenschaftlichen Forschung sei darauf verwiesen, dass die Grundlagenwissenschaft unter anderem prinzipiell darum bemüht sein kann, »Bestände« welcher Art auch immer überhaupt als Quellen zu erschließen, das heißt, kritisch zu explizieren, warum es sich von Fall zu Fall überhaupt um eine »Quelle« handelt, wie sie aus binnenwissenschaftlicher Sicht des Faches zu bewerten ist und sich angesichts des bis dato vorhandenen Wissens einordnen lässt (siehe hierzu auch unten: Relevanz und Durchführung von Forschung). Die Relevanzermittlung erstreckt sich folglich auf die spezifische materielle Kultur wissenschaftlicher Forschung – wobei »materielle Kultur« nicht meinen soll, dass es sich stets um »Materialien« im strengen Sinnen handeln muss. Hier sei etwa an die Praxis der Oral History zu denken, die neuartige Quellen ausweist, indem sie Zeitzeugen-Interviews führt und darüber offenlegt, wie es um eine Geschichtswissenschaft als Wissenschaft stünde, die nur schriftlich vorliegende Quellen berücksichtigen könnte. Audio- und Videodateien, die im Zuge wissenschaftlicher Projekte zusammengetragen werden, um mündlich Überliefertes oder immaterielles Gut zu erfassen und für weiterführende Forschung vorzuhalten, stellen einen wichtigen Quellenbestand zahlreicher Fachgruppen dar: Die Sprachwissenschaften, die Kulturwissenschaften, allen voran die Ethnologie wären hier zu nennen, aber eben auch die Naturwissenschaften – man denke nur an das Tierstimmenarchiv am Museum für Naturkunde in Berlin.199 Dem Leitbild der Zweckfreiheit und Ergebnisoffenheit nach besteht der prinzipielle Erkenntniswert wissenschaftlicher Forschung darin, überhaupt zu Wissen zu kommen. Für unseren Fall bedeutet dies, dass es unwissenschaftlich wäre, auf Grundlagen, die uns zu diesem Wissen möglicherweise verhelfen könnten, die es stützen und zur Befragung Anlass geben könnten, willfährig zu verzichten. Ihr konkreter oder faktischer Erkenntniswert, hier: die Erschließung von Quellen und der Aufbau von fachspezifischen Archiven oder Datenbanken, kann in der Folge streng genommen nicht prospektiv (ex ante), sondern allenfalls retrospektiv (ex post) ermittelt werden, vor allem dann, wenn wir in Bezug auf konkrete  Zweckfreiheit versus Zweckorientierung | 101

Fragen mit Zeitbezug Archivbestände neu erschließen.200 Um diesen Gesichtspunkt als Relevanz der Grundlagenforschung für anwendungsorientierte Forschung zu erläutern, ließe sich eine sozialwissenschaftliche Studie vorstellen, die beabsichtigt, das politische Engagement von Jugendlichen über ein Jahrzehnt zu erheben. Ein solches Design ist überhaupt nur durchführbar, wenn wir über archivierte Bestände verfügen, kurzum: über eine einschlägige, verlässliche und hinreichend umfangreiche Datengrundlage, die darüber hinaus so verfasst ist (Aussagekraft), dass wir sie auf die wissenschaftliche Fragestellung hin erschließen können. Angesichts dieser Skizzierung lässt sich erahnen, wie es um eine grundlagenschaffende Wissenschaft bestellt wäre, deren Bestandssicherung allein auf anwendungsorientierte Zwecke hin ausgerichtet ist: Was relevant sein wird, können wir in der Regel stets nur aus unserer Warte projizierend schlussfolgern, indem wir etwa darüber befinden, welche Fragen wahrscheinlich auch weiterhin thematisch sein werden. Konkret bedeutet dies, dass wir versuchen, aus dem uns als Subjekt Wissenschaftsgemeinschaft SWG zum Zeitpunkt tn zur Verfügung stehenden Referenzsystem des Bezuges RB x abzuleiten, was es primär zu erschließen gilt – vor dem Hintergrund des fachlichen Selbstverständnisses, nämlich Sozialwissenschaft und keine Naturwissenschaft zu sein, des bis dato verfügbaren Wissensbestandes und des methodisch-technischen Know-hows. Nur so viel: Wir täten auch jenseits der grundsätzlichen zweckfreien Orientierung grundlagenschaffender Wissenschaft gut daran, uns hinsichtlich der Erschließung von Quellen möglichst breit aufzustellen – um die hieraus resultierenden Bestände aus der Perspektive von Forschungsfragen zu erschließen, die uns heute noch gar nicht thematisch, sprich: in ihrer Relevanz vor Augen treten können. Als besonders weitreichende Herausforderung stellt sich zweitens die Tatsache dar, dass die Konzeption von grundlagenschaffender Forschung bewusst perspektivisch ausgerichtet sein kann. Am deutlichsten ist dies der Fall, wenn Wissenschaft mit einer politischen Agenda zusammenfällt. Hier wären zwei Ausdrucksformen zu unterscheiden, die verpflichtende Indienstnahme der Wissenschaft für außerwissenschaftliche Belange einerseits und die willfährig dienstbare Wissenschaft für außerwissenschaftliche Desiderate andererseits. Beide Ausdrucksformen gefährden Wis102 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

senschaft, weil sie deren Erkenntnisideale in Frage stellen oder gar programmatisch ab absurdum führen. Ob und wie weitreichend bestimmte Bereiche der Forschung zwischen 1945 und 1989 unter den Einfluss der jeweils vorherrschenden Weltanschauungen poli­tischer Systeme gerieten, wird in der jüngeren Wissenschaftsforschung unter dem Schlagwort »Cold War Science« kritisch dis­kutiert.201 Einen anderen, durch die historische Forschung mittlerweile erschlossenen Fall dienstbarer Forschung stellt die Eugenik dar, eine bis ins 20. Jahrhundert hinein höchst anerkannte Wissenschaft. Mir geht es in diesem Zusammenhang nicht darum, auf eine Problematisierung aus ethischer und menschenrechtlicher Sicht abzuheben, sondern in Frage zu stellen, ob es sich bei diesen und vergleichbaren Allianzen, die Wissenschaft und Forschung unter Ideologieverdacht stellt, überhaupt um Wissenschaft handeln kann – vorausgesetzt, wir nehmen das Ideal der Zweckfreiheit und Ergebnisoffenheit ernst. Programmatisch versammelte die Eugenik ab Ende des 19. Jahrhunderts und zu Beginn des 20. Jahrhunderts sehr unterschiedliche Ansätze aus der Anthropologie, Psychologie, Medizin und Psychiatrie unter sich, die, wie historische Studien mittlerweile detailliert zeigen, ein wesentliches Merkmal, vereinte: die Absicht, mittels der zum Teil noch im Entstehen befindlichen neuartigen wissenschaftlichen Methoden der Bio- und Psychometrie signifikante Unterschiede zwischen Populationen zu belegen und eine naturbedingte Überlegenheit der »weißen« (auch: kaukasischen) oder »arischen Rasse« vor allen anderen menschlichen »Rassen« zu belegen. Aus heutiger Sicht sind zwei bemerkenswerte Gesichtspunkte hervorzuheben: Wissenschaftler des 19. und 20. Jahrhunderts haben erstens dazu beigetragen, »Rasse« als vermeintlich wissenschaftliche Kategorie hoffähig zu machen. Sie haben zweitens »rassetypische« Merkmale, darunter eine Gemenge­lage aus physischen, physiologischen, mentalen und sozialen Parametern (Haut-, Haar- und Augenfarbe, Schädelform, Körperbau, pathogene Veränderungen oder Fehlbildungen, Intelligenz, Debilität, psychiatrische Störungen, Nomadentum, Kriminalität, Prostitution etc.), im Rückgriff auf metrische Verfahren zu identifizieren gesucht.202 Naturwissenschaftliche Ideale der Quantifizierung und Metrisierung, nach denen allein über Messung genuines Wissen über Sachverhalte erlangt werden könne, dienten als  Zweckfreiheit versus Zweckorientierung | 103

Vorlagen der Indienstnahme bereits vorhandener Ansätze in der Psychometrie, wie dies Steven Jay Gould am Beispiel der Intelligenztestung detailliert nachgezeichnet hat.203 Als zentrale Einrichtung für rassenkundliche Forschung Anfang des 20. Jahrhunderts in den USA wäre die Eugenics Record Office (ERO) zu nennen, die 1910 auf Initiative der American Breeders Association, einer eugenischen Vereinigung, in Cold Spring Harbor, Long Island (New York), gegründet wurde. Ziel war es, die Weitergabe von Erbanla­ gen beim Menschen, auf Grundlage der sozialdarwinistischen Lehre, systematisch zu erfassen (»hereditary evolution«).204 Als wissenschaftliche Institution durch philanthropische Geldgeber, wie etwa die Carnegie Institution, finanziell gut ausgestattet, leistete die ERO der Vernetzung rassenkundlicher und eugenischer Forschung gezielt Vorschub.205 So stand der erste Direktor der ERO, Charles B. Daven­port, in Kontakt zu Francis Galton, der maßgeblich zur Institutionalisierung der Eugenik als wissenschaftlicher Disziplin beigetragen hat.206 Aus eigener Tasche hatte Galton bereits um 1904 ein Forschungs-Fellowship für Eugenik aufgelegt (Eugenics Research Fellow), woraus schließlich das Galton Laboratory for National Eu­ genics, London, erwuchs. Dem University College in London vermachte er testamentarisch 45.000 britische Pfund, um einen Lehrstuhl für Eugenik einzurichten (Galton Professor for Eugenics).207 Das ERO knüpfte unter dem Superintendenten Harry Hamilton Laughlin auch Kontakte zu führenden deutschen Rassenkundlern wie etwa Eugen Fischer, Direktor des Kaiser-Wilhelm-Instituts für Anthropologie, menschliche Erblehre und Eugenik in Berlin.208 Nicht nur auf die politische Indienstnahme von Wissenschaft und Forschung während der NS -Zeit wäre folglich in der Folge näher einzugehen, sondern auch darzulegen, dass die enge Allianz zwischen Rassenideologie, Rassenhygiene und NS -Vernichtungs­poli­ tik durch die bereitwillige Dienstbarkeit von Wissenschaftlern und Ärzten vorbereitet und getragen wurde.209 Nicht unerwähnt bleiben sollte, dass hierfür bereits in der Weimarer Republik durch die Schaffung von Forschungseinrichtungen und Lehrstühlen ein institutioneller Rahmen geschaffen worden war. Letzteres trug wiederum erheblich dazu bei, dass dezidiert rassenkundliche und eugenische Forschungsprogramme an öffentlichen Einrichtungen auch mit Fördergeldern international agierender philanthro­ 104 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

pischer Stiftungen, die Rockefeller Foundation wäre hier etwa zu nennen, zum Teil bis ins Jahr 1939 hinein, großzügig bedacht wurden.210 Auch auf das Wiederaufleben eugenischer Forschungsprogramme in den Anfängen der Humangenetik respektive der molekularen Medizin wäre zu verweisen: Ernst Klee hat dies für die deutsche Wissenschaftslandschaft nicht zuletzt auf personelle Kontinuitäten vor und nach 1945 zurückgeführt, zum Beispiel, indem die in den 1950er Jahren entstehenden Lehrstühle der Humangenetik mit führenden NS -Rassenhygienikern besetzt werden.211 Dass auch die frühen molekularbiologischen Forschungsprogramme bis in die 1960er Jahre hinein nicht frei waren von »neoeugenischem« Gedankengut, zeigen die prominenten Fälle führender US -amerikanischen Wissenschaftler, des Biochemikers Linus Pauling und des Molekularbiologen und Genetikers Josua Lederberg.212 Aus der Warte kritischer Wissenschaftsforschung ist, das machen diese Beispiele anschaulich, nicht anzunehmen, dass wir als Forschende prinzipiell davor gefeit sind, aus wissenschaftlicher Sicht dogmatische Allianzen einzugehen oder uns durch den bloßen Ausweis von Standards guter wissenschaftlicher Praxis davor zu immunisieren. Jenseits von politischen Programmen, für die sich Wissenschaftlerinnen und Wissenschaftler in Dienst nehmen lassen, sei auch darauf verwiesen, dass die Wissenschaft bezeichnenderweise selbst Motor einer binnenwissenschaftlichen Dogmatisierung sein kann, indem sie bestimmte Theorien oder Modelle favorisiert (Theorienmonismus) und auf diesem Wege daran Anteil haben kann, bereits bestehende alternative Ansätze zu marginalisieren oder die gezielte Entwicklung von alternativen Ansätzen zu diskreditieren.213 Die Marginalisierung bewirkt, dass Forschende davor zurückschrecken, diese Ansätze zu verfolgen, auch weil die Möglichkeit, hierfür gezielt Fördermittel zu akquirieren, zusätzlich erschwert wird. Die Diskreditierung stellt ein weit stärkeres Instrument der sozialen Bloßstellung oder gar Ächtung dar: Diskreditiert sind heute vor allem bestimmte Vorannahmen, Erklärungsansätze oder methodische Strategien, die entweder selbst hinter dem Anspruch auf Wissenschaftlichkeit zurückbleiben oder dezidiert für pseudowissenschaftliche Ansätze entwickelt wurden. Hier sei an Erhebungsmethoden im Zeichen rassenkundlicher Forschung er Zweckfreiheit versus Zweckorientierung | 105

innert. Bezeichnenderweise betrifft die Diskreditierung – ähnlich wie die Marginalisierung – nicht nur die jeweiligen Ansätze oder Methoden, sondern wirkt auf das Ansehen derjenigen zurück, die sie verfolgen oder favorisieren. Wissenschaftliche Tätigkeit und Theorienwahl zu historisieren, das heißt mit der wissenschaftlichen Aufarbeitung als abgeschlossen zu betrachten, erweist sich mit dem Blick auf den Wissenschaftsalltag kaum als Ausweg: Marginalisierung und Diskreditierung erwachsen bekanntlich aus der wissenschaftlichen Praxis selbst, sind mögliche Konsequenzen von Präzisierung und Priorisierung und wären folglich nicht zuletzt in Bezug auf epistemische Kosten immer wieder neu diskursiv und kritisch zu explizieren. Die Konzeption und damit die Frage, welche Ziele mit Forschung vordringlich verbunden werden, hat nicht zuletzt Einfluss darauf, wie geforscht wird: Theoretisches Wissen und praktisches Knowhow haben gleichermaßen daran Anteil, wie wir als Forschende im Einzelnen vorgehen, vordringliche Fragen und Zielen aus dem Realisierungszusammenhang des Forschens heraus stellen und entlang praktischer Bezüge konkretisieren. Beides, das kognitive wie auch das methodisch-technische Herangehen entscheidet – aus Sicht der wissenschaftlichen Fachkultur –, was wir als belastbare Ergebnisse bewerten und somit als Basis für weiterführende Forschungsziele heranziehen. Insofern stellt sich auch die Frage, wie wir mit Datensätzen umgehen, deren Provenienz aus fachwissenschaftlicher Sicht streitbar ist, namentlich ob wir sie als wissenschaftliche Quellen nutzen (können). Dies kann erstens als allgemeine Herausforderung adressiert werden, weil zunächst – etwa über die Begutachtungspraxis – sichergestellt werden muss, dass Standards guter wissenschaftlicher Praxis (»lege artis«) erfüllt wurden. Was wiederum voraussetzt, dass die gewählte Begutachtungspraxis (»Peer Review«) nachweislich dazu in der Lage ist, fehlerhafte Designs, aber auch gezielte Verstöße zweifelsfrei zu identifizieren. Zweitens ließe sich auf den Umstand verweisen, dass Richtgrößen, anhand derer die Wissenschaftlichkeit (Professionalität, wissenschaftliche Redlichkeit) ermittelt wird, oftmals selbst erst aus der kritischen Auseinandersetzung mit Strategien erwuchsen, die in Design, Vorgehen und Bewertung hinter den Standards heutiger Forschung zurückblieben. Am Deutlichsten tritt dieses Problem vor Augen, 106 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

wenn wir den Blick auf Datensätze lenken, die aus dienstbarer Forschung resultieren.214 (B) Zweite Ebene, über die Relevanz und die Durchführung von Forschung: Auch hier wäre, wie ich dies im Abschnitt 2.2. getan habe, vorauszuschicken, dass Entscheidungen, die die Durchführung von Forschung betreffen, nicht der Bestimmung von Forschungszielen im Einzelnen (Konzeption von Forschung) nachfolgen müssen, sondern ihr unter Umständen vorausgehen. Die Erschließung von »Ressourcen« ist, wie bereits ausgeführt wurde, wesentliche Bedingung für Forschung. Gleichzeitig, und hierauf kommt es mir in diesem Zusammenhang an, sind sie oftmals – wie im Fall von textlichen Quellen oder empirischen Datensätzen – selbst Resultat wissenschaftlicher Forschung. Ich bleibe beim zuvor gewählten Beispiel der Geschichtswissenschaft: In den Blick kommt nicht nur die bereits skizzierte Frage, was als Quelle erschlossen werden kann, sondern zusätzlich, wie diese als designierte »Quelle« ausgewählt wird (Fokussierung) und welche weiteren Überlegungen ihre wissenschaftliche Erschließung anleiten (methodisch-technisches Vorgehen). Konkret betrifft dies erstens die Frage, wie ich zum Beispiel Zeitzeugen auswähle (Einschlägigkeit als Zeuge) beziehungsweise wen ich faktisch überhaupt (noch) befragen kann; zweitens, wie ich im Rückgriff auf Standards qualitativer Forschung bei der Befragung vorgehe (Umfang und Art der Befragung); drittens, wie ich diese aufzeichne (Audiodatei, Protokoll etc.) und in welchem Umfang ich zusätzliche Informationen, die die Quelle einzuordnen helfen, bereitstelle (biographische Informationen, Fotographien etc.) ? Hinzu kommen aus methodischer Sicht weitere Gesichtspunkte, wie etwa die Repräsentativität, die Anzahl der befragten Personen und so weiter. Ausschlaggebend für die Beantwortung dieser auf die Durchführung und Fokussierung meiner Untersuchung bezogenen Fragen ist auch hier das jeweilige Referenzsystem des Bezuges (RB x). Insofern wäre ferner auf eine Herausforderung zu verweisen, der selbst die grundlagenschaffende Wissenschaft nicht entkommt: Wie lässt sich gewährleisten, dass das gewählte RB xN mich befähigt, überhaupt einschlägige, verlässliche und hinreichend profunde Ergebnisse zu generieren ? Und ist es möglich,  Zweckfreiheit versus Zweckorientierung | 107

die Daten in Bezug zu anderen Ergebnissen zu setzen, die auf der Basis eines alternativen RB xA erhoben wurden ? Welche Parameter vernachlässigen wir im Zuge der Komplexitätsreduktion, von welchen weiteren Parametern, die sich für den modellierten Prozess ebenfalls als essentiell erweisen könnten, wissen wir bereits ? Die Relevanz grundlagenschaffender Forschung weist sich am deutlichsten, wenn man so will, darin aus, dass sie nicht nur Wis­ sen schafft, sondern Demarkationen des Wissbaren auslotet, indem sie Grenzen des wissenschaftlich Erfassbaren eigens würdigt. Die Auslotung von systemischen Herausforderungen fällt gewöhnlich in den Arbeitsbereich der Methoden- und Technikanalyse, ist also generischer Teil der fachspezifischen Methoden- und Technikkritik, die die Güte, genauer: die Handhabbarkeit, die Genauigkeit, die Belastbarkeit und Verlässlichkeit von Verfahren für priorisierte wissenschaftliche Zwecke ausweist und – so alternative Verfahrensweisen vorliegen – vergleichend bewertet. Güte adressiert die Nutzbarkeit oder Dienlichkeit, in anderen Worten: den instrumentellen Wert eines Verfahrens für wissenschaftliche Zwecke. Gleichzeitig wird durch den Ausweis seines besonderen Leistungsprofils auch deutlich, wie es um seine Fehleranfälligkeit bestellt ist, welche Sorgfaltspflichten es erfordert, um adäquat zum Einsatz zu kommen und so weiter. Die Demarkation des Wissbaren und die Ausweisung von Grenzen des wissenschaftlich Erfassbaren – angesichts der favorisierten Methoden und Verfahren – bedingen sich insofern gegenseitig. Mit der Soziologie ließe sich eine ergänzende Perspektive auf dieses Verhältnis eröffnen: Sie würdigt das gewachsene Selbstverständnis von Wissenschaftskulturen (kurz: »Wissenskultur«) und fragt – vor dem Hintergrund der jeweils favorisierten Methoden – nach deren Umgang mit dem hieraus resultierenden Nichtwissen. Entsprechend wurde die Rede auf »Nichtwissenskulturen« gebracht – man könnte sagen, die Unter- oder Schattenseite der jeweiligen »Wissenskulturen« adressiert, mit denen sie korrespondieren. Im Einzelnen unterscheiden Stefan Böschen, Karen Kastenhofer, Ina Rust, Jens Soentgen und Peter Wehling den »kontrollorientierten«, den »komplexitätsorientierten« und den »einzelfallorientieren Typus« einer Nichtwissenskultur.215 Das Konzept der Nichtwissenskultur expliziert kritisch, könnte man zuspitzend festhalten, 108 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

die Ausgestaltung wissenschaftlicher Praxis – und zwar dahingehend, dass je spezifische Grenzen im Erkenntniserwerb feststellbar sind: In der Molekularbiologie und anderen Bereichen experimentalwissenschaftlicher Forschung, die auf Isolation und Kontrolle abzielen, um Interventionen im Rahmen der experimentellen Prüfung kleinteilig zu überwachen, gelte es etwa potenzielle »Störfaktoren« zu identifizieren und systematisch auszuschließen.216 Nichtwissen erweise sich im Zusammenhang kontrollorientierter Systeme als Resultat begrenzter »Aufmerksamkeitshorizonte«.217 Hiervon zu unterscheiden seien Wissenschaftsbereiche wie etwa die Ökologie, deren primäres Ziel nicht die Isolation, sondern die holistische Betrachtung von Entitäten – in ihrer Komplexität oder Vielschichtigkeit – sei.218 Wehling führt die Besonderheit der kom­ plexitätsorientierten Nichtwissenskultur in einem späteren Aufsatz zum Nichtwissen wie folgt aus: »Unerwartete Phänomene erscheinen hier weniger als Störfaktoren der Wissensgewinnung denn als Ausdruck der Komplexität der Erkenntnisgegenstände, der durch Öffnung und Erweiterung der Beobachtungshorizonte getragen werden müsse. Diese unterschiedlichen epistemischen Kulturen und Praktiken stellen gleichermaßen begründbare und legitime Formen des Umgangs mit dem Nicht-Gewussten dar; ein Überlegenheitsanspruch, wie ihn die kontroll-orientierten Nichtwissenskulturen lange Zeit erhoben haben und teilweise noch immer erheben, lässt sich nicht aufrechterhalten.«219 Im Fall des erfahrungsorientierten Typus einer Nichtwissenskultur, die Autoren nennen die praktische Medizin als Beispiel, stellt sich die Korrelationen zwischen Einzelfällen (»token«) und generellen, typisierenden oder klassifizierenden Aussagen (»typen«) als leitend dar: Derartige Verknüpfungsleistungen könnten als »besondere Expertise« dieser Kultur gefasst werden.220 Entsprechend erweise sich die »starke Orientierung am Einzelfall« als grundsätzliche Herausforderung, »übergreifende Zusammenhänge (z. B. Häufungen unerwarteter Ereignisse) in den Blick zu bekommen.«221 Innerhalb einer Wissens- und zugleich Nichtwissenskultur scheint es somit aus der überfachlichen, vergleichenden Sichtweise  Zweckfreiheit versus Zweckorientierung | 109

prinzipiell keinen Unterschied zu machen, ob wir von physikalischer Messung, psychologischer Testung oder sozialwissenschaftlicher Erhebung sprechen. Überall wo gemessen, getestet oder erhoben wird, stellen sich verwandte Herausforderungen: Was wird gemessen (Zielphänomen) und wie verlässlich ist das Verfahren (Stichhaltigkeit, Signifikanz), wie präzise sind die Ergebnisse (Genauigkeit, Abbildungsgrad), inwiefern lassen sie sich mit Ergebnissen, die mittels alternativer Mess- oder Testverfahren erhoben wurden, so diese verfügbar sind, in Bezug setzen und im Vergleich bewerten (Akkuratheit) ? Der mitunter für weiterführende Fragen bedenkenswerte Unterschied stellt der jeweilige Gegenstands­ bereich dar und die damit verbundene Auslotung, anhand welcher Ressourcen (belebter vs. unbelebter Materie) geforscht wird. Dies impliziert etwa den Ausweis und die notwendige Achtung von Schutzrechten (Lebens-, Würdeschutz etc.). Ich komme auf diesen Gesichtspunkt noch einmal zurück. Aus erkenntnis­theo­retischer Sicht besteht die primäre Herausforderung, wie bereits zu sehen war, darin, potenzielle Störfaktoren zu identifizieren und auszuschließen. Worum geht es mir hier ? Es scheint für bestimmte Untersuchungsobjekte einen signifikanten Unterschied zu machen, dass sie der wissenschaftlichen Prüfung »zugeführt« werden. Wenn diese Tatsache selbst nicht gezielt für eine Untersuchung genutzt werden kann, wird sie als »Störgröße« (auch: Bias) gehandelt, die es, wenn möglich, entsprechend durch Anpassungen des Designs (z. B. Verblindung, Maskierung) zu kompensieren gilt. Beide Gesichtspunkte, die Auseinandersetzung mit methodischtechnischen Begrenzungen wissenschaftlicher Forschung wie auch die diskursive Würdigung des Umgangs mit Nichtwissen erweisen sich als konstitutiv für gute wissenschaftliche Praxis – und zwar sowohl was die auf Anwendung zielende Forschung als auch was die grundlagenschaffende Forschung betrifft. Insbesondere jene Wissenschafts- und Forschungsbereiche, die antreten, Grundlagen zu erforschen und als vorläufig gesicherten »Bestand« für weiterführende Forschung vorzuhalten, entkommen diesem binnenwissenschaftlichen Desiderat nicht: Bestand meint hier, dass überhaupt eine Datengrundlage bereit steht, auf deren Basis Forschung in Angriff genommen werden kann; gesichert verweist auf den Anspruch an Belastbarkeit, sprich: die epistemische Güte, die wir den Daten 110 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

als Basis für wissenschaftliche Zwecke nachsagen – gemessen am gegebenen Wissensstand (»state of the art«); vorläufig adressiert den Umstand, der sich zugleich als Herausforderung verhandeln lässt, weil neu hinzutretende Ergebnisse bis dato vorliegende Datensätze entweder ergänzen und somit weiter sichern (»Bestätigung«) oder aber Anlass zu ihrer Hinterfragung oder gar Widerlegung geben (»Falsifizierung«).222 Als besonders prägnant erweist sich diese vorläufige Sicherung dann, wenn es sich bei der Datengrundlage um sogenannte Referenzsysteme handelt, also die zur Bewertung und zum Abgleich heranzuziehenden Eichmaße (standard, baseline values). Hier ist es aus binnenwissenschaftlicher Sicht besonders geboten, strenge fachspezifische Regularien der Bewertung zu entwickeln, um die unterstellte Verlässlichkeit des jeweiligen Referenz- oder Eichsystems nicht zu unterlaufen. Am Beispiel der Psychologie ließe sich deutlich machen, dass die Verlässlichkeit von wissenschaftlichen Referenzsystemen alles andere als gegeben ist: Ohne im Detail auf die Besonderheiten der Ermittlung von Referenzwerten (normative sample) eingehen zu können, ich habe dies an anderer Stelle bereits getan, 223 sei hier darauf verwiesen, dass systematische Herausforderungen aus der wissenschaftlichen Erhebungspraxis selbst erwachsen können. In einer grundlegenden Untersuchung aus dem Jahr 2010 haben die Psychologen Joseph Henrich, Steven J. Heine und Ara Norenzayan detailliert dargelegt, dass sich die eingeübte Praxis, sich in der Forschung auf die Rekrutierung bestimmter Populationen zu beschränken, für die Kognitions- und Verhaltensforschung als gravierendes Problem darstellen könnte: Sie weisen als Herausforderung erstens aus, dass wissenschaftliche Untersuchungen in der Regel bevorzugt an Probanden aus westlichen, bildungsnahen Schichten erhoben würden.224 Vor diesem Hintergrund würdigen sie zweitens kritisch, ob diese Gruppe – nicht zuletzt aufgrund ihrer spezifischen Beschaffenheit als repräsentativ gelten könne, gemessen an der Absicht, hieraus verlässliche Aussagen über die menschliche Psychologie im Allgemeinen abzuleiten.225 Die Zweckfreiheit grundlagenschaffender Wissenschaft und Forschung fordert angesichts ihres prinzipiell unbegrenzten Modalraumes, den sie, wie zu sehen war, durch ihr Fragen eröffnet, für  Zweckfreiheit versus Zweckorientierung | 111

sich genommen eine strikte Auslegung der im Grundgesetz verankerten Wissenschafts- und Forschungsfreiheit.226 Das Bundesver­ fassungsgericht hat hierzu in seinem »Hochschul-Urteil« aus dem Jahr 1973 erläuternd festgestellt: »Das in Art. 5 Abs. 3 GG enthaltene Freiheitsrecht schützt als Abwehrrecht die wissenschaftliche Betätigung gegen staatliche Eingriffe und steht jedem zu, der wissenschaftlich tätig ist oder tätig werden will (vgl. BVerfGE 15, 256). Dieser Freiraum des Wissenschaftlers ist grundsätzlich ebenso vorbehaltlos geschützt, wie die Freiheit künstlerischer Betätigung gewährleistet ist. In ihm herrscht absolute Freiheit von jeder Ingerenz öffentlicher Gewalt. In diesem Freiheitsraum fallen vor allem die auf wissenschaftlicher Eigengesetzlichkeit beruhenden Prozesse, Verhaltensweisen und Entscheidungen beim Auffinden von Erkenntnissen, ihrer Deutung und Weitergabe. Jeder, der in Wissenschaft, Forschung und Lehre tätig ist, hat – vorbehaltlich der Treuepflicht gemäß Art. 5 Abs. 3 Satz 2 GG – ein Recht auf Abwehr jeder staatlichen Einwirkung auf den Prozeß der Gewinnung und Vermittlung wissenschaftlicher Erkenntnisse. Damit sich Forschung und Lehre ungehindert an dem Bemühen um Wahrheit als »etwas noch nicht ganz Gefundenes und nie ganz Aufzufindendes« (Wilhelm von Humboldt) ausrichten können, ist die Wissenschaft zu einem von staatlicher Fremdbestimmung freien Bereich persönlicher und autonomer Verantwortung des einzelnen Wissenschaftlers erklärt worden.«227 Indem ich als Wissenschaftlerin oder Wissenschaftler mein Freiheitsrecht in Anspruch nehme, verpflichte ich mich, wie sich hier andeutet, verantwortungsvoll damit umzugehen. Es wäre zu ergänzen, dass nicht allein das einzelne Wissenschaftssubjekt hiervon tangiert ist, sondern auch das Wissenschaftssystem als organisierte und institutionalisierte Gemeinschaft – vorausgesetzt, wir nehmen wissenschaftliche Forschung als gemeinschaftliche und koordinierte Praxis ernst. Hier reicht es nicht, auf die weithin sichtbaren Institutionen zu verweisen: die Hochschulen, die außeruniversitären Forschungseinrichtungen und Akademien, die Berufs- und Fachvertretungen, das Förder- und Stiftungswesen. 112 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Auch an kleinere und größere Formate der bis heute in der Regel streng hierarchisch bestimmten Zusammenarbeit im Forschen wäre zu denken, die am alltäglichen Entscheiden und Handeln einzelner Wissenschaftlerinnen und Wissenschaftler großen Anteil haben: Arbeitsgruppen, Laborgemeinschaften, Forschungscluster zwischen Hochschulen und außeruniversitären Einrichtungen, Forschungs- und Lehrkooperationen auf nationaler wie internatio­ naler Ebene.228 Von der verantwortungsvollen Ausgestaltung von Wissenschaft und Forschung wird gemeinhin gesprochen, wenn auch andere verfassungsrechtlich geschützte Güter adressiert und entsprechend geachtet werden: Lebens- und Würdeschutz wären etwa vorrangig zu nennen. Die Debatte, ob die Forschungsfreiheit gegen andere hochrangige Güter abzuwägen und entsprechend einzuschränken sei, lässt sich – bezogen auf die hier unterschiedenen Ebenen – die Konzeption, die Durchführung als auch die Anwendung von Forschung – aufnehmen. Wie es sich im Fall der Anwendung verhält, dazu habe ich bereits einiges gesagt. Zu erinnern wäre an die Auseinandersetzung um Patienten- oder Probandenschutzrechte: Wann kann ein designierter Wirkstoff am Menschen getestet werden ? Welche Auflagen gilt es zu berücksichtigen ? Bezeichnenderweise fällt – um beim Beispiel zu bleiben – in diesem Fall Anwendung und Durchführung zusammen, da ja die klinische Prüfung antritt, die Anwendung eines designierten Therapeutikums erstmalig am Menschen zu erproben. Ziel ist es, die Validität wissenschaftlicher Ergebnisse und die Sicherheit wissenschaftlichtechnischer Produkte zu gewährleisten (vgl. Abschnitt  2.3). Aus forschungsethischer Sicht, die der rechtlichen Regulierung im besten Fall vorausgeht, diese informiert und trägt, wären zwei Gesichtspunkte herauszustellen: Die Motivation, Forschungsfreiheit einzuschränken, kann erstens darauf gründen, dass wir, indem wir Schutzrechte ausweisen, die Auswahl materieller Grundlagen für Forschungszwecke begrenzen, wie im Fall des deutschen Embry­ onenschutzgesetzes geschehen. Oder aber, dass wir Regularien des verantwortungsvollen Umgangs mit materiellen Grundlagen implementieren: Hier wäre an strenge Regularien, die Schutzrechte von Forschungssubjekten (Autonomie, Ausschluss von Leiden etc.) gewährleisten sollen, zu denken, aber auch an informelle Handreichungen zum nachhaltigen Einsatz von Ressourcen überhaupt.  Zweckfreiheit versus Zweckorientierung | 113

Als Folge einer solchen Auseinandersetzung kann die Frage, wie und woran wir forschen, als genuines Desiderat an die grundlagenschaffende Forschung herangetragen werden, indem wir die Entwicklung von Alternativen zum Tierversuch etwa als dezidiertes Ziel bestimmen (vgl. 3R-Prinzip: »Replacement«, »Reduction«, »Refinement«). Gleichfalls kann die Forschung, indem sie vorhandene Ressourcen mittels neuer Methoden und Verfahren erschließen will, angehalten sein, darüber nachzudenken, wie sie Schutzrechten, die hiermit tangiert werden, hinreichend nachkommt. Hier sei, bezugnehmend auf die Bedeutung der Informationstechnik hinsichtlich der Entwicklung zukunftsweisender Strategien für Forschungsbelange, auf die grundsätzliche Herausforderung verwiesen, dass sowohl mit der Provenienz (wo und für welche Zwecke wurden die Datensätze erhoben ?) als auch mit deren konkreter Verwendung (für welche Zwecke sollen sie genutzt werden ?) Fragen des Datenschutzes berührt sind (Recht auf Privatsphäre, Recht auf informationelle Selbstbestimmung, Recht auf Nichtwissen). Dies gilt grundsätzlich für alle Datensätze, die ohne Zustimmung oder ohne hinreichende Information der betroffenen Individuen erhoben wurden, die personenrelevante Informationen enthalten oder auf Individuen zurückgeführt werden können. Im Besonderen tangiert dies freilich die sogenannten »Biomaterialien«, die entweder gezielt für bestimmte Forschungsfragen gesammelt werden und nur bedingt anonymisiert werden können oder aber aufgrund neuartiger Methoden in besonderer Weise auswertbar werden.229 Angetrieben kann die Einschätzung, dass es angeraten ist, die Forschungsfreiheit einzuschränken, ferner zweitens sein, im Sinne des Vorsorgeprinzips vorausschauende Sorge dafür zu tragen, dass Mindeststandards des Arbeitsschutzes greifen. So geht es etwa darum, Gefährdungspotenziale biologischer Arbeitsstoffe auszuweisen (vgl. Biostoffverordnung) und darauf abgestimmt den Umgang mit ihnen näher zu regeln, zum Beispiel indem Schutz- und Sicherheitsstufen im Labor und in der Produktion eingerichtet werden (vgl. Technische Regeln für biologische Arbeitsstoffe; GentechnikSicherheitsverordnung). Sicherheit eröffnet – wie an diesem Beispiel deutlich wird – zwei Perspektiven auf die Auslotung, unter welchen Bedingungen sie hinreichend gewährleistet ist: zu nennen wäre neben den Maßnahmen im Sinne des Arbeitsschutzes (Sicher114 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

heit im Labor: »Biosafety«), die Einführung von Prüfverfahren, auf deren Basis hinreichend ermittelt werden kann, dass die zum Einsatz kommenden Produkte verlässlich und sicher sind (Sicherheit außerhalb des Labors: »Biosecurity«).230 Mit der letzten Frage eröffnet sich aus der Tradition der Technik- oder Forschungsfolgenabschätzung heraus die Debatte um den Ausweis von nichtintendieren Zwecken, sprich: ob wir einen missbräuchlichen Einsatz von wissenschaftlichen Erkenntnissen oder Produkten ex ante antizipieren können. Primär geht es in der Regel um die »Dual-use«Problematik, wenn neben die zivile auch die militärische Nutzung tritt. Vor diesem Hintergrund wird deutlich, dass hiermit bereits die Ebene der Konzeption von Forschung tangiert ist: Schon der Umstand, dass wissenschaftliche Methoden bis dato unbekannte Gefährdungspotenziale eröffnen, weil sie nach dem bisherigen Wissensstand unzureichend beherrschbar sind, kann als hinreichende Begründung für Maßnahmen im Sinne der Selbstregulierung wissenschaftlicher Forschung gelten. Zum Beispiel, indem Wissenschaftlerinnen und Wissenschaftler, die in einem Forschungsbereich tätig sind, übereinkommen, diese Methoden bis auf Weiteres restriktiv zu handhaben (vgl. Stellungnahme zur rekombinanten DNS -Technik: Asilomar 1975). Mit dem Verein Deutscher Ingenieure (VDI) ließen sich diese und verwandte Erwägungen als Ausdruck der »strategischen Verantwortung« von Wissenschaftlerinnen und Wissenschaftlern fassen.231 Wie weit diese auszulegen ist, wäre eine Frage, die spätestens durch die Poli­tisierung von Wissenschaft und Forschung im Sinne der »Scien­tific Citizenship« Ende der 1960er Jahre Aufwind bekam.232 Hier sei zudem auf die Debatte verwiesen, ob Hochschulen – als Einrichtungen der öffentlichen Hand – angehalten sind, in ihren Statuten Güter wie »Nachhaltigkeit« oder »zivile Nutzung« zu adressieren – oder ob dies unzulässig in die Freiheit der einzelnen Wissenschaftlerinnen und Wissenschaftler eingreift. Gerade die Auseinandersetzung um die Ausrichtung von Hochschulforschung an zivilen Zielen macht anschaulich, dass hier auch darum gestritten wird, ob durch Kooperationen mit bestimmten Industriebereichen (hier: Rüstungsindustrie) einer »Indienstnahme« staatlicher Forschungseinrichtungen Tor und Tür geöffnet wird. Beispielhaft ließe sich auf den Fall der Technischen Universität Darmstadt verweisen, die erst in der jüngeren Vergan Zweckfreiheit versus Zweckorientierung | 115

genheit in kritischer Auseinandersetzung mit Chancen wie auch Herausforderungen eines solchen Vorgehens eine »Zivilklausel« in ihre Grundordnung aufgenommen hat.233 Der Deutsche Hochschul­ verband wiederum, das soll nicht unerwähnt bleiben, hat derartigen Initiativen in einer Resolution aus dem Jahr 2014 eine klare Absage erteilt und sich gegen jeglichen »Gesinnungsvorbehalt in der Wissenschaft« ausgesprochen.234 Die zweite Herausforderung, auf die ich abschließend noch eingehen möchte, lässt sich im Anschluss auf das prinzipiell in­ klusive Prinzip der Zweckfreiheit explizieren, dem nicht mit der Gewährleistung freier Wissenschaft und Forschung schon genüge getan ist. Damit ein prinzipiell unbegrenzter Modalraum auch rea­ liter eröffnet wird, bedarf es der Auseinandersetzung darum, wer an Wissenschaft und Forschung gestalterisch teilhat. Dass diese Frage keine beiläufige ist, sondern sich für den Erkenntnishorizont wissenschaftlicher Forschung als sehr bedeutsam erweist, wäre im Anschluss an Miranda Fricker zu erläutern: In ihrer Monographie Epistemic Injustice aus dem Jahr 2007 exploriert sie »Ungerechtigkeiten«, die in der Regel einzelne Personen oder Gruppen von Personen betreffen und sich gleichfalls aus erkenntnistheoretischer Sicht für Wissenschaft und Forschung insgesamt als nachteilig erweisen. Fricker fragt etwa danach, wer als Expertin oder Experte »Gehör« findet und folglich in der Lage ist, Themen als wissenschaftliche Themen zu setzen.235 Im Umkehrschluss – wir sind bei den Konsequenzen aus erkenntnistheoretischer Sicht – hieße dies, dass Wissenschaft, indem sie sich als exklusivere Vereinigung darstellt, als es ihr anstünde, bestimmte Themen nicht als »thematisch« begreifen kann und sich somit sowohl ihnen als auch den hieraus erwachsenden Expertisen verschließt.236 In diesem Fall bleibt sie nicht nur hinter dem sozialen Desiderat kooperativ-gemeinschaftlicher Forschung zurück, sondern wird auch ihrem eigenen Anspruch, Wissenschaft um des Wissens willen zu sein, nicht gerecht. Im Fokus der Untersuchung – zuletzt der grundlagenschaffen­ den Bereiche – stand dezidiert die binnenwissenschaftliche Sicht auf Forschung: Es ging mir darum, die Auslotung des Relevanten aus der Perspektive derjenigen, die Wissenschaften betreiben, erkenntnistheoretisch zu würdigen und zugleich einer kritischen 116 | Relevanz als Kriterium wissenschaftlicher ­Forschung  

Prüfung zu unterziehen. Es wurde nachgezeichnet, welche Rolle dem Erkenntniswert zugesprochen wird, sprich: wann Relevanz zum Thema wird, in welchen Zusammenhängen hierüber das epis­ temisch Beredte ausgewiesen wird und was dies im Einzelnen für den Fortgang des Forschens bedeuten kann. Zweitens wurde dem Umstand Rechnung getragen, dass sich Forschung nichts jenseits, sondern als spezifischer Ausdruck gesellschaftlichen Lebens realisiert: Als Forschende sind wir immer auch mit wirtschaftlichen, politischen oder im weitesten Sinne gesellschaftlichen Interessen, die an Wissenschaft herangetragen werden, konfrontiert: Wie begegnen wir diesen Interessen ? Lassen sie sich gegebenenfalls mit generischen Fragen des Forschungsfeldes, indem wir uns bewegen, in Beziehung setzen oder werden sie als ›Problem‹ erfahren, lassen sich gar als unrechtmäßige Vereinnahmung von Forschung kritisch explizieren ? Mit diesem Untersuchungsschritt verbindet sich, wie sich bereits angedeutet hat, ein doppelter Blick: nach innen wie nach außen. Der Blick nach außen adressiert die Beteiligung an der Bewertung von Wissenschaft und Forschung, nämlich in Gestalt der diskur­ siven Teilhabe durch die kritische Prüfung ihrer Ziele. Sie kann um genuine Formate der partizipativen Teilhabe, die gemeinhin unter dem Label der »Citizen Science« verhandelt wird, ergänzt werden.237 Aber auch die konstituierende Teilhabe durch die Finanzierung wissenschaftlicher Forschung – die je nach Finanzierungsquelle eigens zu bewerten ist – wäre zu nennen. Der Blick nach innen, dem ich mich abschließend widmen möchte, fragt danach, wie wir als wissenschaftlich Tätige »Relevanz« selbst zum Thema machen, indem wir im Rahmen von Publi­ kationen ganz bestimmten Gesichtspunkten den Vorrang geben oder den Erkenntniswert unserer Ergebnisse für weiterführende Forschungsdesiderate anzeigen.

 Zweckfreiheit versus Zweckorientierung | 117

Zur Brisanz der Relevanz

 V

on Wissenschaftlerinnen und Wissenschaftlern wird erwartet, dass sie den Erkenntniswert ihrer Forschung ausweisen können. Eingefordert wird dies von Drittmittelgebern, von staat­lichen oder privaten Einrichtungen, an denen Forschung stattfindet, von der »Scientific community« im engeren Sinne bis hin zur interessierten Öffentlichkeit im weitesten Sinne. Während sie gemeinhin sehr genau angeben können, worin die Erkenntnisleis­ tung ihrer Forschung besteht, ist dies für den Erkenntniswert nur bedingt der Fall. Unter Erkenntnisleistung verstehe ich den Sachverhalt, dass Wissenschaftler ermessen, was sie durch eine Untersuchung gezeigt haben, sprich: worin die Resultate aus sachlicher Bewertung im Einzelnen bestehen. Dazu gehört auch die kritische Auseinandersetzung mit Erkenntnisgrenzen, also der Frage, was eine Untersuchung aufgrund ihrer Eingriffstiefe oder auch aufgrund der jeweiligen Hintergrundannahmen nicht zeigen kann (Methoden- und Theoriekritik). Hinzu kommen gegebenenfalls zusätzliche Probleme, die entweder bereits dem Design der Studie geschuldet oder auf Unstimmigkeiten in der Durchführung zurückzuführen sind: So kann der Fall eintreten, dass keine zuverlässigen Aussagen über die beobachtbaren Effekte möglich sind, weil das Patientenkollektiv zu klein war oder schlichtweg zu wenig Forschungs­daten erhoben werden konnten. Ferner sei auf Fälle verwiesen, in denen die Ergebnisse nicht den wissenschaftlichen Standards entsprechen, weil Fehler gemacht oder Daten nachträglich bereinigt wurden, um die Ergebnisse in einem besseren Licht darzustellen.238 Erkenntnisleistung kann, wie sich im Abschnitt über die Anwendung von Forschung angedeutet hat, eine Voraussetzung für die Ermittlung des Erkenntniswerts sein, also der Frage, inwiefern sich aus den im Labor gezeigten Effekten weitere Schlussfolgerungen ziehen und verlässliche Aussagen über Zielphänomene der Forschung machen lassen. Oder in anderen Worten: inwiefern sich aus   119

der Nachweiskette, die die interne Validität der Ergebnisse bestätigt (Labor), eine externe Validität, kurz: eine nachweisliche Relevanz für die Anwendung ableiten lässt (Klinik). Folgt man dieser Logik, heißt dies aber auch, dass die praktische Relevanz erst am Ende der Forschung kenntlich wird und somit zu Beginn des Forschungsvorhabens streng genommen nur unterstellt werden kann. Wenn also von der Relevanz eines Forschungsansatzes für konkrete Zwecke der Anwendung gesprochen wird, muss dies durch entsprechende Studienergebnisse belegt sein. In allen übrigen Fällen handelt es sich um nichts anderes als eine Relevanzbehauptung, die es folglich – unter Beachtung der Standards des jeweiligen Forschungsfeldes noch zu belegen gilt. Das schließt freilich ganz und gar nicht aus, dass sowohl Wissenschaftlerinnen und Wissenschaftler als auch die breitere Öffentlichkeit angesichts der Bedeutung einer Thematik oder auch des Wissens um ein Problem, wie den anthropogenen Klimawandel, dazu angehalten sind, die Relevanz wissenschaftlicher Forschung oder auch die Notwendigkeit politischer Entscheidungen, zum Beispiel die Reduzierung von Treibhausgasen wie CO 2, zum Thema zu machen. An dieser Stelle treten wir letztlich aber erst in einen Diskurs darüber ein, ob Forschung – im Sinne wissenschaftlichen Interesses – zulässig oder statthaft ist, nämlich angesichts der faktisch verfügbaren oder gegebenenfalls noch zu entwickelnden Methoden oder Verfahren, die zur Erforschung herangezogen werden können. Über die spezifischen Methoden, die den Forschungsstrategien im Einzelnen zugrunde liegen, ist auf dieser Ebene genauso wenig gesagt wie über die methodischen Herausforderungen, denen hierbei im Speziellen begegnet werden muss. Besonders gewichtig gerieren sich Probleme, wenn ein faktischer Handlungsdruck besteht: Wenn ein gentechnisches Verfahren entwickelt wurde, auf dessen Grundlage Risikogruppen identifiziert werden können, die in der Folge konkrete therapeutische Maßnahmen einfordern. Oder wenn ein numerisches Modell zuverlässige Prognosen über regionale Effekte des Treibhauseffektes erlaubt und die hiervon betroffene Bevölkerung folglich darauf drängt, konkrete Maßnahmen zum Beispiel des Hochwasserschutzes zu er­ arbeiten, um diesen Effekten rechtzeitig und hinreichend zu begegnen. 120 | Zur Brisanz der Relevanz 

Beides, die Entwicklung konkreter therapeutischer oder wasserbaulicher Maßnahmen, erweist sich für die jeweilige biomedizinische respektive ingenieurwissenschaftliche Forschung als vordringlich und gewichtig, kurz: als relevant. Dieser, hier zugespitzt als von außen an die Forschung herangetragene Wert eines Themas kann aber zugleich als ein der Forschung inhärentes Thema vorgestellt werden, das durch die öffentliche Aufmerksamkeit, die bestimmte Prognosen, zum Klimawandel etwa, auf diesem Weg erhalten, nach außen gewendet, man könnte auch sagen, gespiegelt wird. Das heißt im Übrigen nichts anderes, als dass etwas, weil es als Thema öffentliche Aufmerksamkeit erhält, gewissermaßen mit Interesse aufgeladen wird, sprich: in seiner Relevanz auch außerhalb der Forschung als »Problem« verständlich wird. Es lohnt sich vor diesem Hintergrund noch einmal auf Schütz und die Frage, wann etwas zum Thema wird, zurückzukommen: Thematisch wird etwas, weil wir uns – als Wissenschaftlerin oder Wissenschaftler – einem Sachverhalt aus freien Stücken, man könnte auch sagen aus ganz bestimmten, guten Gründen nämlich, zuwenden. Es gibt aber auch den Fall, dass sich etwas als Thema durch unerwartete Erfahrungen oder Beobachtungen aufdrängt und als Problem wahrnehmbar wird. Schütz spricht in diesem Fall von »auferlegter Relevanz«, weil etwas gerade aufgrund seiner »Unvertrautheit« als Thema oder Problem vor Augen trete.239 Er unterscheidet diesen Fall, wie eingangs bereits erläutert, dezidiert von Anlässen, in denen etwas aufgrund von bestimmten Vorüberlegungen zum Thema, in unserem Fall: einer wissenschaftlichen Auseinandersetzung, gemacht wird.240 Letztere bezeichnet er in der Folge als »nicht-auferlegte« und folglich »wesentliche thematische Relevanzen«.241 Er begründet dies wie folgt: »Während im ersten System die Gliederung des Feldes in Thema und Horizont durch das Auftauchen einer unvertrauten Erfahrung, durch eine Verschiebung des Wirklichkeitsakzents von einer Region zu einer anderen etc. aufgezwungen wird, ist es für das System der wesentlichen thematischen Relevanzen charakteristisch, daß wir den Anzeichen, die in einem einst konstituierten Thema in der Form innerer oder äußerer horizont Zur Brisanz der Relevanz | 121

artiger Strukturierung bis zu Formen thematischer Relevanzen verborgen sind, folgen können, das heißt, umgebende Horizonte in thematische Gegebenheiten umwandeln oder auch nicht.«242 Das Besondere an dieser Form thematischer Relevanz ist für Schütz notwendig an die Freiwilligkeit gebunden. Der Fokus liegt hierbei auf der Zielgerichtetheit, mit der etwas zum Thema wissenschaftlicher Auseinandersetzung gemacht wird. Und zudem darauf, dass es sich als Thema angesichts eines bestimmten Bezugssystems (»Horizont«) intrinsisch ausbildet und folglich niemals per se – also unabhängig von diesem – kurzum: »isoliert« vorliegt.243 Schütz spricht deshalb auch von der »freiwilligen Überdeckung eines Themas durch ein anderes, während das erste noch im Griff bleibt«.244 Diese Beobachtung gilt, wie meine Ausführungen zur Konzeption und Durchführung von Forschung gezeigt haben, nicht nur für die alltagsweltliche, sondern auch für die wissenschaftliche Wirklichkeit.245 Die wesentlichen, das heißt intrinsischen thematischen Relevanzen sind für den Forscher wie für uns, wie Schütz nicht müde wird zu erläutern, näher als jene, die von »außen« herangetragen werden: »Weil sie uns auferlegt sind«, schreibt er über die Letzteren, »bleiben sie unklar und eher unverständlich.«246 Zwischen der Welt des Experten, dem »gut informierten Bürger« oder dem »Mann auf der Straße« gebe es aber in dieser Hinsicht auch Unterschiede: Denn tatsächlich seien Wissenschaftlerinnen und Wissenschaftler besonders geübt darin, in einem »System auferlegter Relevanzen heimisch« zu werden, indem sie durch das jeweilige »Fachgebiet bereits festgelegte Probleme« zu eigenen, das heißt intrinsischen Themen machten.247 Gleiches ließe sich womöglich über die dort vorherrschenden Methoden, die Handhabung technischer Verfahren oder die Übernahme diskursiver Praktiken sagen. Schütz macht in diesem Zusammenhang – ähnlich wie dies der Mediziner und Wissenschaftsphilosoph Ludwik Fleck getan hat – auf die sozialisierende Funktion der Diskursgemeinschaft aufmerksam und auf die hiermit verbundene Priorisierung ganz bestimmter Erklärungs- oder Deutungsmodelle: »Der Experte geht von der Annahme aus, daß das in seinem Fachgebiet geltende System von Problemen nicht nur relevant, 122 | Zur Brisanz der Relevanz 

sondern das einzig relevante System ist. All sein Wissen verweist auf diesen ein für allemal festgelegten Bezugsrahmen. Wer ihn nicht als monopolisiertes System seiner intrinsischer Relevanzen akzeptiert, teilt mit dem Experten kein Diskursuniversum.«248 Dass es de facto einen Unterschied macht, ob etwas zum Problem wird, in anderen Worten: innerhalb eines Forschungsfelds zum bevorzugten Thema wissenschaftlicher Befragung gemacht wird oder aber als Auslegungsschema herangezogen wird, um das besagte Thema entlang ausgewählter Kriterien der Bewertung zuzuführen, macht Schütz mit seiner Unterscheidung zwischen »thematischer Relevanz« einerseits und »Auslegungsrelevanz« andererseits deutlich. Die Auslegungsrelevanz adressiert, wie bereits zu sehen war, den Umstand, dass ganz bestimmte Gesichtspunkte bei der Behandlung eines Themas als gewichtig gelten und somit als »Auslegungsschema« der Analyse zugrunde gelegt werden können.249 Schütz fasst das Auslegungsschema auch als »die anwendbaren Vor-Erfahrungen, wie sie in unserem zuhandenen Wissen vorgefunden werden«.250 Tatsächlich kann es vorkommen, dass ein und dasselbe Thema unterschiedlich bewertet wird, weil unterschiedliche Auslegungsschemata zur Anwendung kommen. Schütz erklärt sich dies dadurch, dass die gewählten Schemata für sich genommen nicht hinreichend vollständig seien. Anders gesagt: Sie eigneten sich nicht dafür, das Problem hinreichend, das heißt auf der Grundlage all jener Gesichtspunkte zu bewerten, die als wesentlich beschrieben werden können, sondern griffen stattdessen jeweils nur einzelne relevante Aspekte heraus.251 Schütz benennt zwei Leitgedanken, die bei der Bewertung zu beachten seien: »Wir müssen LERNEN, was für die Auslegung relevant ist. Und wir müssen lernen, die für die Auslegung relevanten Momente vor-erfahrener Typen von Objekten unseres Denkens in aktuellen Erfahrungen zu erkennen. Überdies müssen wir lernen, das Ergebnis unserer Auslegungen ›abzuwägen‹, den Einfluss von sich aus den Umständen der Situation ergebenden Modifikationen herauszufinden, innerhalb derer das Auslegen vor sich geht, das für die Auslegung relevante Material zu vervollständigen und zu koordinieren etc.«252  Zur Brisanz der Relevanz | 123

Zusammenfassend kann festgestellt werden, dass Relevanzurteile Aussagen sind, die zuverlässig angeben, ob wissenschaftliche Ergebnisse im Hinblick auf eine Forschungsfrage gewichtig, das heißt bedeutsam sind. Gleichzeitig ist hervorzuheben, dass Relevanzurteile wiederum auf der Auslotung spezifischer Faktoren beruhen, die ein wissenschaftliches Phänomen der Bewertung überhaupt erst zuführen. Entsprechend ließe sich zwischen einem (a) weiten, inklusiven und einem (b) engen, exklusiven Gebrauch des Begriffs differenzieren. Während der allgemeine Sprachgebrauch in der Regel einen weiten Begriff nahelegt, das heißt auf die Gleichrangigkeit einzelner Eigenschaften abhebt (»a«, »b« und »c« sind relevant für »x« in »z«), fokussiert vor allem der zuspitzende wissenschaftliche Sprachgebrauch auf die Auswahl bestimmter Eigenschaften (»a« ist eine relevante Eigenschaft für »x« in »z«, im Gegensatz zu »b« und »c«). Diese engere Lesart bezeichne ich deshalb als exklusive Bedeutung, weil nur jene Eigenschaften als relevant verhandelt werden, die von anderen Eigenschaften geschieden und entsprechend als wesentlich herausgestellt werden – ähnlich, wie dies Schütz in Bezug auf die »Auslegungsrelevanz« beschreibt.253 Relevanzurteile beschränken sich nach dieser Lesart auf die charakteristischen Eigenschaften eines Phänomens. Sie sind nicht nur wichtig, sondern essenziell, um das Phänomen im Kern zu beschreiben und folglich – zum Beispiel modellbasiert – zu erforschen. In der auf Anwendung zielenden Forschung erweist sich das Relevanzproblem insgesamt als weit drängender als im Bereich der grundlagenschaffenden Forschung. Tatsächlich sieht sich die Biomedizin oder die Klimaforschung in der Regel mit der faktischen Anforderung konfrontiert, dass aus ihr ein konkreter Nutzen resultieren müsse, das heißt für Anwendungsziele verwertbar zu sein – etwa im Hinblick auf klimapolitische Entscheidungen oder das ärztliche Handeln am Krankenbett. Relevanz lässt sich somit einerseits als absolutes Kriterium wissenschaftlicher Forschung fassen, in anderen Worten: Der Erkenntniswert ist eine intrinsische Qualität von Forschung im Allgemeinen. Andererseits ist es vor allem für die anwendungsorientierte Forschung unerlässlich, dass sich der qualitative Wert auf einen quantifizierbaren Nenner bringen lässt. Relevanz wird auf diesem Wege folglich auch als gra­ 124 | Zur Brisanz der Relevanz 

duelles Kriterium des »Nutzens« verfügbar. Hierbei kann es sich, wie meine Ausführungen zum »auf den Nenner gebrachten« Erkenntniswert anschaulich gemacht haben, um die Zahl potenzieller Nutznießer, zum Beispiel von Patienten, handeln, aber auch um den summarischen Nutzen, der auf dieser Grundlage durch Einsparungen im Gesundheitswesen erzielt werden kann. Konzepte wie »Verwertbarkeit« oder »Nutzen«, mit denen die Quantifizierung der Relevanz heute verbunden wird, würdigt Schütz mit keinem Wort. Darin liegt, so deutlich gilt es zu sein, keine Schwäche, sondern eine Stärke seines systematischen Ansatzes. Über den Erkenntniswert wissenschaftlicher Forschung zu sprechen, ließe sich vor diesem Hintergrund schließen, enthebt die Bewertung von Wissenschaft und Forschung – zumindest prinzipiell – jener Sphäre, die wissenschaftliche Ergebnisse allein aus der Perspektive der potenziellen Verwertbarkeit und der quantita­ tiven Erfassbarkeit ihres Nutzens in den Blick nimmt. Hier ließe sich nicht zuletzt die Debatte um die spezifische, vielleicht auch per definitionem andersartige ›Nützlichkeit‹ des um sich selbst erworbenen Wissens aufnehmen. Mit Kant, der sich in seiner Schrift Der Streit der Fakultäten (1798) kritisch mit der Verfasstheit universitärer Lehre zu seiner Zeit auseinandersetzt, wäre auf eben eine solche ›Nützlichkeit‹ zu verweisen, die die Fächer der unteren Fakultät (Philosophische F.) entfalten können, weil sie allein »frei und nur unter der Gesetzgebung der Vernunft, nicht der der Regierung stehend gedacht werden müssen« – anders als sich dies angesichts der grundsätzlichen Ausrichtung für die drei oberen Fakultäten (Theologische, Juristische und Medizinische F.) sagen ließe.254 Inwiefern gerade ein Erkenntnisstreben, das sich per se der vordringlichen Nutzbarmachung entzieht, eine genuine ›Nützlichkeit‹ entfalten kann und was diese im Einzelnen auszeichnet, lohnte sich überhaupt – über Kant hinausgehend – zu explizieren.255 Ein weiteres, man könnte auch sagen besonderes Verdienst von Schütz besteht darin, dass er seine systematische Untersuchung nicht auf eine grundsätzliche Erörterung des Relevanten beschränkt, sondern dass er nach den hieraus folgenden Konsequenzen fragt. Er tut dies, indem er überhaupt einen systematischen Zusammenhang zwischen Relevanz und Handeln herstellt:  Zur Brisanz der Relevanz | 125

Demnach entscheide die Motivationsrelevanz darüber, dass etwas für einen bestimmten Schritt, ein konkretes Verhalten oder Handeln wichtig, das heißt kausal relevant sei.256 Hiermit verbindet sich freilich nicht nur die schiere Tatsache, dass es überhaupt zum Handeln kommt. Schütz stellt Relevanz tatsächlich als doppelte Handlungsmotivation vor: Einerseits macht er auf den differenzierenden Einfluss aufmerksam, dem die Handlung für die Bewertung eines Themas zugeschrieben wird, andererseits auf die Wirklichkeit der Relevanzerfahrung, die sich erst im Handeln konkretisiert: Er hält fest, dass es einen Unterschied mache, ob wir eine Handlung »bloß entwerfen« und letzten Endes auf ihre Realisierung »zurückblicken« oder ob »wir in unserer Handlung aufgehen«.257 Unverkennbar sind die Bezüge zum »sinnhaften Handeln« im Frühwerk.258 Hinzu kommen Anleihen aus der pragmatischen Philosophie (James, Dewey), vor allem zum Verhältnis von Handlungsplanung und Handlungsrealisierung wie auch zum grund­legenden Zusammenhang von Handlung und Wissen. So hat etwa auch schon John Dewey in seiner 1929 erschienenen Schrift Suche nach Gewissheit näher dargelegt, dass das Handeln konstitutiv für das Erkennen sei: »Forschung schreitet durch Reflexion voran, durch Nachdenken; aber ganz entschieden nicht durch Denken, wie es in der alten Tradition begriffen wird, als etwas, das im ›Geist‹ eingesperrt ist. Denn experimentelle Forschung oder Denken bezeichnet eine zielgerichtete Aktivität, ein Tun, das die Bedingungen verändert, unter denen wir Gegenstände beobachten und hand­ haben, und zwar dadurch, daß wir sie neu anordnen.«259 Bezogen auf die wissenschaftliche Praxis bedeutet dies, dass sich die Perspektive des Forschenden verändert, abhängig davon, auf welcher (materiellen) Basis sich Tätigsein realisiert. Es macht folglich einen Unterschied, wie etwas als Problem durch Varianten des Tätigwerdenkönnens greifbar und begreifbar wird, abhängig davon, welche methodischen oder technischen Verfahren im Einzelnen gewählt, welche Positions- und Perspektivwechsel durch konkrete Handlungsschritte faktisch operativ werden. Zugespitzt formuliert: ob es gelingt, ein Thema zu erschließen und auf der Ba126 | Zur Brisanz der Relevanz 

sis eines Modellsystems »handhabbar« zu machen. Hier sei auf die grundsätzlichen Überlegungen verwiesen, die ich zu Modellsystemen in Biomedizin und Klimaforschung angestellt habe. Als brisanter Begriff stellt sich Relevanz vor allem dann dar, wenn sich die Ergebnisse wissenschaftlicher Forschung, anders als im Vorfeld prognostiziert, nicht für avisierte Anwendungsziele nutzen lassen. In anderen Worten, wenn das vorab geäußerte Relevanzurteil (»x hat Relevanz für y«) nicht bestätigt werden kann oder der gewählte methodische Ansatz, der die Durchführung anleitete, keine signifikanten Ergebnisse erzielt hat. Faktisch tritt in einem solchen Fall eine unüberbrückbare Differenz zwischen Relevanzbehauptung einerseits und Relevanznachweis andererseits zu Tage. Dass es bei einer bloßen Relevanzbehauptung bleibt, darin liegt die eigentliche Brisanz. Tatsächlich kann beobachtet werden, dass Relevanzbehauptungen in der wissenschaftlichen Publikationspraxis zu einem gewissen Grad hoffähig geworden sind. Einen maßgeblichen Anteil hieran hat der Umstand, dass Wissenschaftlerinnen und Wissenschaftler, nicht nur im Rahmen von Anträgen um Forschungsmittel, sondern auch bei der Berichterstattung oder der Publikation von Forschungsergebnissen, genötigt werden, den Erkenntniswert ihrer Forschung jeweils spezifisch auszuweisen.260 Tatsächlich zeigt die Publikationskultur, das heißt die Art und Weise, wie und was etwa in wissenschaftlichen Fachzeitschriften veröffentlich wird, dass der Ausweis des Erkenntniswerts zur wissenschaftlichen Rhetorik gezählt werden kann: Worin die Relevanz meiner Forschungs­ ergebnisse besteht, gilt es im Rahmen der Einleitung herauszuarbeiten und vor dem Hintergrund bereits verfügbarer Erkenntnisse zu kontextualisieren, das heißt einzuordnen und zu bewerten. Die Soziologin Karin Knorr-Cetina hat sich hierzu die naturwissenschaftliche Publikationskultur näher angeschaut. In ihrer anthropologischen Studie Fabrikation von Erkenntnis beschreibt sie die Herangehensweise wissenschaftlicher Autoren, die in einschlägigen Fachjournalen über die Ergebnisse ihrer Forschung berichten, wie folgt: »Zunächst vertreten die Autoren den Anspruch, daß sie gegenüber dem bisherigen Stand der Dinge etwas Neues, Relevan Zur Brisanz der Relevanz | 127

tes anzubieten haben. Die Eingliederung ihrer Aussagen in die Schriften eines wissenschaftlichen Gebietes mittels Publikation ist daher legitim. Zweitens versuchen die Autoren anzugeben, in welcher Weise ihre Aussagen relevant sind.«261 Gerade die Einleitung besitze aus rhetorischer Sicht einen besonders prägnanten Stellenwert. Faktisch diene sie dazu, die Relevanz von Forschungsergebnissen zu »inszenieren«, wie Knorr-Cetina hervorhebt, indem gezielt ein vorangegangenes »Stadium« des Diskurses und eine »Entwicklungsrichtung«, die der Diskurs genommen habe, konstruiert respektive rekonstruiert werden.262 Hinzu komme, dass die Einleitung oftmals selbst konkrete Relevanzkri­ terien aufstelle und folglich einen genuinen Bewertungsrahmen vorgebe, der die eigenen Ergebnisse in besonders günstigem Licht erscheinen lasse, auch weil sie gegenüber anderen, bereits veröffentlichten Ergebnissen einschlägiger Forschung besser in Stellung gebracht werden könnten.263 Im besten Fall bedeutet dies, dass die zuvor aufgestellten Relevanzurteile durch die Ergebnisse der Studie belegt werden, sprich: dass die Forschungsergebnisse einen spezifischen Erkenntniswert für das jeweilige Anwendungsfeld und die dortigen Forschungsdesiderate besitzen. Im schlimmsten Fall greifen die aufgestellten Relevanzurteile über den faktischen Erkenntniswert der Ergebnisse hinaus, der Erkenntniswert wird lediglich unterstellt, sein Nachweis auf zukünftig geplante Forschungsarbeiten oder weiterführende Forschung im Allgemeinen delegiert. Zusammenfassend bleibt festzuhalten, dass die Frage nach der Relevanz von Forschung heute kaum mehr unabhängig vom Gesichtspunkt ihrer Verwertbarkeit und damit der Quantifizierung ihres Nutzens (»most relevant«) zu beantworten ist. Gleiches ließe sich in Bezug auf den Stellenwert der Nachweiserbringung sagen, also den Umstand, dass die Relevanz von Forschungsergebnissen in prinzipieller Hinsicht fraglich bleibt, solange sie nicht erfolgreich belegt werden konnte. Dass der Nachweis erbracht wird, ist nicht zuletzt ausschlaggebend, um für hieraus resultierende Forschungsdesigns weitere Forschungsgelder zu akquirieren oder um Ergebnisse – in einschlägigen Fachjournalen – zu publizieren. Wann aber ist die Relevanz von Forschung erbracht, das heißt welche Kriterien werden im Einzelnen an die Bewertung (»Relevanzermittlung«) 128 | Zur Brisanz der Relevanz 

angelegt und welche Daten oder Ergebnisse können überhaupt als Beleg gelten ? Anders, als dies die Analysen Knorr-Cetinas über die Rhetorik wissenschaftlicher Fachartikel und den hier dargelegten Spielraum bei der Bestimmung von Relevanzkriterien suggerieren, spielt bei der Bewertung wissenschaftlicher Forschungsansätze die Erkenntnisleistung eine weit größere Rolle als der Erkenntniswert. Wird die Erkenntnisleistung, wie ich sie zuvor bereits skizziert habe, nicht erbracht, weil eine Studie die wissenschaftlichen Standards des Forschungsfelds missachtet, wirkt sich dies notwendigerweise auch auf die Frage aus, ob sich mit den Studienergebnissen ein konkreter Erkenntniswert verbindet. Ob sich Ergebnisse biomedizinischer Forschung für Entscheidungsträger in Politik und Wirtschaft als relevant darstellen, ist in der Praxis an konkrete Nachweisverfahren gebunden, die auf den Forschungsalltag einwirken. Diese können eine Brücke sein, um unterschiedliche Forschungsansätze, die antreten, ein und dasselbe Phänomen darzustellen oder zu erklären, zueinander in Beziehung zu setzen. Dafür müssen sie zunächst gegebenenfalls überhaupt erst als relevante Prüfverfahren innerhalb eines Forschungsfelds bestimmt werden und durch die Wissenschaftsgemeinschaft als »Stan­ dardverfahren« auch Anerkennung erfahren. Auf ihrer Basis wird darüber mitentschieden, ob Ergebnisse für klinisches Entscheiden, also die Behandlung von Patienten, überhaupt herangezogen werden dürfen – aus wissenschaftlicher wie ethischer Sicht. Die Standardisierung von Verfahren und die transparente Hand­habung von Bewertungs- oder Begutachtungskriterien wissenschaftlicher Forschung werden vor diesem Hintergrund als vertrauensfördernde Maßnahmen wahrgenommen, weil sie die Glaubwürdigkeit wissenschaftlicher Forschung unterstreichen. Umgekehrt bedeutet dies, dass die mangelnde Verlässlichkeit von Forschungsdesigns oder die Fragwürdigkeit von Forschungszielen, vor allem wenn diese an den naheliegenden Interessen von Patienten vorbeigehen, die Glaubwürdigkeit von Forschung in diesem Bereich insgesamt herabsetzen (»credibility gap«).264 Die Frage, inwiefern den Ergebnissen wissenschaftlicher Forschung im Einzelnen Relevanz zugeschrieben wird, bleibt freilich zu einem gewissen Grad stets unbeantwortet, man könnte auch sagen, ihre Beantwortung bleibt unabgeschlossen: Neue Ergeb Zur Brisanz der Relevanz | 129

nisse oder Handlungsmöglichkeiten können auf die Bewertung und Gewichtung bestehender Forschungsdesigns nachträglich Einfluss nehmen, alternative Deutungsschemata die Relevanz von Forschungsansätzen und ihren Ergebnissen für Anwendungsfelder gar in Frage stellen. Auffällig ist die vielfach zu beobachtende Dis­ tanzlosigkeit zwischen wissenschaftlicher Tätigkeit (»Handeln«) und der Zurechnung von Relevanz (»Sinn«), bei gleichzeitig bestehender, konstitutiver Unsicherheit, ob sich die konkreten Ergebnisse, die aus wissenschaftlicher Tätigkeit resultieren, in Bezug auf die besagten Forschungsziele auch tatsächlich als »relevant« erweisen oder aber als »irrelevant« abgetan werden müssen. Wissenschaftliches Handeln ist sinnhaft und ist es nicht. In anderen Worten, die Relevanz von Forschung steht unter Vorbehalt, bedingt durch die Ungleichzeitigkeit von wissenschaftlicher Tätigkeit und der Bewertung wissenschaftlicher Ergebnisse im Lichte konkreter Forschungsziele. Der Erkenntniswert wissenschaftlicher Forschung bleibt somit streitbar – angefangen bei der Frage, welche konkreten Ziele für die wissenschaftliche Forschung relevant sind, bis hin zum Diskurs um die Bewertung und Priorisierung von wissenschaftlichen Erklärungsmodellen, die Entscheidungsträger in Klimapolitik oder Gesundheitsversorgung anleiten. Mit Schütz ließe sich ein doppeltes Resümee ziehen: Erstens, dass es notwendig ist, Deutungsschemata, die zur Relevanzermittlung bei der Konzeption, Durchführung oder Anwendung von Forschung herangezogen werden, offenzulegen, das heißt unter Umständen auch zum kritischen Diskurs um die Deutungsmacht wissenschaftlicher Erklärungsmodelle einzuladen. Zweitens ließe sich hieran anschließend festhalten, dass der kritische Diskurs nicht allein den Wissenschaftlerinnen und Wissenschaftlern, den »Experten« aufgebürdet werden kann, sondern gewissermaßen aus der Verantwortung des »gut informierten Bürgers« erwächst.265 Schütz führt die Verantwortung von Bürgerinnen und Bürgern darauf zurück, dass diese – im Gegensatz zu den Expertinnen und Experten – gerade nicht an ein spezifisches Deutungsschema gebunden seien und sich aufgrund ihrer Informiertheit zugleich eine kritische Distanz zur Meinung der Straße erhielten.266 Die »informierte Meinung« von Bürgerinnen und Bürgern positioniert Schütz gegenüber der »öffentlichen Meinung«: Darin wird der »gut infor130 | Zur Brisanz der Relevanz 

mierte Bürger« zum Gegenmodell des »Mannes auf der Straße«, der zwar deutlich seine Meinung sage, an Informationen (heute würde man von »Fakten« sprechen) aber nicht interessiert sei.267 Schütz geht es mit seiner zugespitzten Gegenüberstellung freilich nicht darum, Menschen gegeneinander auszuspielen, weil sie über mehr oder weniger Wissen verfügen, sondern darauf aufmerksam zu machen, dass es an uns ist, zu wählen: ob wir der dargelegten Verantwortung nachkommen, ob wir selbst gewählte Grenzen, seien es die des Labors oder die der Straße, überwinden, kurz ob wir »eine begründete Meinung bilden und nach Informationen suchen«.268 Ähnlich argumentiert auch Feyerabend, von dem eingangs bereits die Rede war: Den kritischen Diskurs über die Bewertung wissenschaftlicher Forschung, ihrer Ergebnisse und Methoden, den er Anfang der 1970er Jahre mit seiner Schrift Wider den Metho­ denzwang eröffnet hat, führt er in Erkenntnis für freie Menschen – durchaus mit der einen oder anderen polemischen Spitze gegenüber Wissenschaftlerinnen und Wissenschaftlern – fort.269 Feyerabend treibt ebenso wie Schütz die Frage um, welche Wissenschaft einer freien, das heißt für ihn, demokratischen Gesellschaft gebühre und wie diese durch kritische Befragung wissenschaftlicher Praxis gewährleistet werden könne. Auch er sieht Bürgerinnen und Bürger hier in der besonderen Verantwortung. Den Fachleuten, die »oft verschiedene Meinungen haben und zu verschiedenen Ergebnissen kommen, und zwar sowohl in grundlegenden Dingen als auch in Fragen der Anwendung«,270 könne und dürfe man dies, wie er meint, nicht alleine überlassen. Ein resümierender Ausblick wäre im Anschluss an diese Einhelligkeit im Urteil noch zu geben. Ich möchte dies mit dem Blick auf zwei Herausforderungen tun: Die erste besteht darin, dass wir in der Regel danach streben, zu einem abschließenden Urteil über die Reichweite (Erkenntnisleistung) oder eben die Relevanz (Erkenntniswert) wissenschaftlicher Forschung zu kommen. Ich habe dargelegt, dass diesem Desiderat oftmals methodologische Gesichtspunkte entgegenstehen – in der grundlagenschaffenden Forschung, weil wir hier streng genommen immer wieder neu damit beginnen, vor dem Hintergrund bestehender Ergebnisse einerseits und dem offenen Horizont hinzutretender Fragen andererseits zu Erkenntnis zu kommen; in der auf Anwendung zielenden Forschung, weil wir  Zur Brisanz der Relevanz | 131

angehalten sind, den besonders drängenden Problemen mit wissenschaftlichem und technischem Sachverstand zu begegnen, was die kritische Auseinandersetzung mit Erhebungsverfahren und Bewertungsregimen, die unser Verständnis wissenschaftlicher Erkenntnis anleiten, einschließt. Die zweite Herausforderung betrifft die Gestaltung des kritischen Diskurses über Wissenschaft und Forschung und damit eben auch der Frage, wie es um ihre Relevanz bestellt ist. Ich meine, dass wir gut daran tun, die Bewertung wissenschaftlicher Forschung, im Rahmen des Möglichen, stets primär denjenigen zuzumuten, die hierzu aus fachlicher Sicht berufen sind, den Wissenschaftlerinnen und Wissenschaftlern. Hieraus lässt sich, wie ich dargelegt habe, keine Konkretisierungspflicht ableiten, indem Forschende grundlagenschaffender Bereiche etwa dazu genötigt werden, die Verwertbarkeit ihrer Untersuchung für Anwendungszwecke anzuzeigen. Was letztlich im Sinne der Zweckfreiheit wissenschaftlicher Forschung meint, so deutlich gilt es zu sein, von Fragen nach der Anwendung und Verwertung grundsätzlich befreit zu sein. Erst vor diesem Hintergrund, nämlich der fachlich-wissenschaftlichen Auseinandersetzung, ist es sinnvoll, zu einem informierten Diskurs über den Status von Wissenschaft und Forschung einzuladen und diesen, wenn nötig, auch auf Desiderate hin zu eröffnen, die von außen an Wissenschaftlerinnen und Wissenschaftler herangetragen werden. Dies schließt im Übrigen ganz und gar nicht aus, dass es den Wissenschaftlerinnen und Wissenschaftlern in der Tradition der »Scientific Citizenship« gut zu Gesicht stünde, diesen Diskurs – aus fachspezifischen Fragen heraus oder in Anerkennung transdisziplinärer Ansätze – selbst anzustoßen und ihn auf diesem Wege beredt mitzugestalten.

132 | Zur Brisanz der Relevanz 

Literatur Wörterbücher, Enzyklopädien, Datenbanken

Bundesrecht, Bundesministerium der Justiz und des Verbraucherschutzes (BMJ), online-Datenbank: (letzter Zugriff 16.02.2020). Cochrane Library, online-Datenbank: (letzter Zugriff 16.02.2020). Drug Information Database, online-Datenbank: (letzter Zugriff 16.02.2020). Duden, Das Herkunftswörterbuch der deutschen Sprache, Etymologie der deutschen Sprache, 5., neu bearbeitete Ausgabe (DUDEN, Bd. 7) Berlin, Mannheim, Zürich: Duden Verlag 2014. Enzyklopädie Philosophie und Wissenschaftstheorie, hrsg. von Jürgen Mit­telstraß, 3 Bände, Stuttgart, Weimar: Verlag J. B. Metzler 1995. Europäisches Recht, online-Datenbank: (letzter Zugriff 16.02.2020). Lexikon der Nachhaltigkeit, online-Datenbank: (letzter Zugriff 16.02.2020). Stanford Encyclopaedia of Philosophy, hrsg. von Edward N. Zalta, onlineDatenbank: (letzter Zugriff 16.02.2020). U.S. National Library of Medicine (NLM), online-Datenbank: (letzter Zugriff 16.02.2020). Online Mendelian Inheritance in Man (OMIM), online-Datenbank: (letzter Zugriff 16.02.2020). OpenThesaurus, Das Wortauskunftssystem zur deutschen Sprache in Geschichte und Gegenwart (DWDS, 09/2016), online-Datenbank: (letzter Zugriff 16.02.2020).

  133

Monographien, Aufsätze, Stellungnahmen

Allen, Garland E., The Eugenics Record Office at Cold Spring Harbor, 1910 – 1940: An Essay in Institutional History, Osiris 2 (1986): 225 –  264. Aristoteles, Metaphysik, Griechisch-deutsch, 2 Bände, Neubearbeitung der Übersetzung von Hermann Bonitz, Mit Einleitung und Kommentar herausgegeben von Horst Seidl, Griechischer Text in der Edition von Wilhelm Christ, Hamburg: Felix Meiner 2017. Oscar Auerbach, Thomas G. Petrick, Arthur P. Stout, Arnold L. Stat­ singer, Gerald E. Muehsam, Jerome B. Forman, J. Brewster Gere, The anatomical approach to the study of smoking and bronchogenic carcinoma: A preliminary report of forty-one cases, Cancer 9 (1956): 76 – 83. Oscar Auerbach und Arthur P. Stout, The role of carcinogens, especially those in cigarette smoke, in the production of precancerous lesions, Proceedings of the National Cancer Conference 4 (1960): 297 – 304. Francis Bacon, Neues Organon, Lateinisch-Deutsch, hrsg. und mit einer Einleitung von Wolfgang Krohn, 2 Bände, 2. Auflage, Hamburg: Felix Meiner 1999. Michele Barry und Malcolm Molyneux, Ethical dilemmas in malaria drug and vaccine trials: A bioethical perspective, Journal of Medical Ethics 18 (1992): 189 – 192. Ulrich Beck, »Gegengifte«: Die organisierte Verantwortlichkeit, Frankfurt a. M.: Suhrkamp 1988. Paul Berg, David Baltimore, Sydney Brenner, Richard O. Roblin III und Maxine F. Singer, Summary Statement of the Asilomar Conference on Recombinant DNA Molecules, Proceedings of the National Acad­ emy of Sciences of the United States of America 72,6 (1975): 1981 – 1984. Dieter Birnbacher, Natürlichkeit, Berlin, New York: Walter de Gruyter 2006. Stefan Böschen, Karen Kastenhofer, Ina Rust, Jens Soentgen und Peter Wehling, Entscheidungen unter Bedingungen pluraler Nichtwissenskulturen, in: Renate Mayntz, Friedhelm Neidhardt, Peter Weingart und Ulrich Wengenroth (Hg.), Wissensproduktion und Wissens­ transfer. Wissen im Spannungsfeld von Wissenschaft, Politik und Öffentlichkeit, Bielefeld: transcript 2008, 197 – 220. Anette Bornhäuser, Jennifer McCarthy und Stanton A. Glantz, Wie die Tabakindustrie in Deutschland durch die Erhaltung wissenschaftlicher sowie politischer Respektabilität Rechtsvorschriften zum Schutz vor Passivrauchen verhinderte, Deutsches Krebsforschungszentrum in 134 | Literatur 

der Helmholtz Gesellschaft, März 2006; Internet-Ressource: (letzter Zugriff 16.02.2020). Allen M. Brandt, The cigarette century: The rise, fall and deadly persistence of the product that defined America, New York: Basic Books 2007. Dennis Bray und Hans von Storch, »Prediction« or »projection« ? The nomenclature of climate science, Science Communication 30,4 (2009): 534 – 543. Michael Bulmer, Francis Galton. Pioneer of Heredity and Biometry, Baltimore, London: The Johns Hopkins University Press 2003. Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU), Klimaschutzplan 2050. Klimaschutzpolitische Grundsätze und Ziele der Bundesregierung, 2016, Internet-Ressource: (letzter Zugriff 16.02.2020). Alexander M. Capron und Renie Schapiro, Remember Asilomar ? Re­ examining Science’s Ethical and Social Responsibility, Perspectives in Biology and Medicine 44,2 (2001): 162 – 169. Martin Carrier, Knowledge and Control. On the Bearing of Epistemic Values in Applied Science, in: Science, Values, and Objectivity, hrsg. von Peter Machamer und Gereon Wolters, Pittsburgh, Pa.: University of Pittsburgh Press 2004, 275 – 293. Martin Carrier und Alfred Nordmann (Hrsg.), Science in the Context of Application, (Boston Studies in the Philosophy of Science, Vol. 274) Dordrecht u. a.: Springer 2011. Baruch C. Cohen, The Ethics of using medical data from Nazi-experiments, Internet-Ressource: (letzter Zugriff 16.02.2020). Lindley Darden, Mechanisms and Models, In: The Cambridge Companion to the Philosophy of Biology, hrsg. von David L. Hull und Michael Ruse, Cambridge, New York u. a.: Cambridge University Press 2007, 139 – 159. Daniel G. Dawson, Joel Gleiser, Michele L. Zimbric, Soesiawaiti R. Darjatmoko, Mary J. Lindstrom, Stephen A. Strugnell und Daniel M. Albert, Toxicity and dose-response studies of 1-alpha hydroxyvitamin D2 in LH-beta-Tag transgenic mice, Ophthalmology 110 (2003): 835 – 839. Deutscher Ethikrat, Mensch-Tier-Mischwesen in der Forschung, Stellungnahme, Berlin: Deutscher Ethikrat 2011, Internet-Ressource: (letzter Zugriff 16.02.2020).  Monographien, Aufsätze, Stellungnahmen | 135

–, Nutzen und Kosten im Gesundheitswesen – Zur normativen Funktion ihrer Bewertung, Stellungnahme, Berlin: Deutscher Ethik­rat 2011, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Biosicherheit – Freiheit und Verantwortung in der Wissenschaft, Stellungnahme, Berlin: Deutscher Ethikrat 2014, Internet-Ressource: (letzter Zugriff 16.02.2020). Deutscher Hochschulverband, Nein zur Zivilklausel, Resolution des 64. DHV-Tages, 25. März 2014, Internet-Ressource: (letzter Zugriff 16.02.2020). John Dewey, Suche nach Gewissheit. Eine Untersuchung des Verhältnisses von Erkenntnis und Handeln, Übersetzt von Martin Suhr, Frankfurt a. M.: Suhrkamp 1998. Richard Doll und Austin Bradford Hill, Smoking and carcinoma of the lung, Preliminary report, British Medical Journal 2 (1950): 739 – 748. Steven Epstein, The construction of lay expertise: AIDS activism and the forging of credibility in the reform of clinical trials, Science, Technol­ ogy, & Human Values 20,4 (1995): 408 – 437. –, Impure science: AIDS, activism, and the politics of knowledge, Berkeley: University of California Press 1998. Paul Feyerabend, Wider den Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie, Frankfurt a. M.: Suhrkamp 1976. –, Erkenntnis für freie Menschen, Veränderte Ausgabe, Frankfurt a. M.: Suhrkamp 1980. W. Gary Flamm und Lois D. Lehman-McKeeman, The human relevance of the renal tumor-inducing potential of d-limonene in male rats: Implications for risk assessment, Regulatory Toxicology and Pharmaco­ logy 13,1 (1991): 70 – 86. Ludwik Fleck, Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv, Mit einer Einleitung hrsg. von Lothar Schäfer und Thomas Schnelle, Frankfurt a. M.: Suhrkamp 1980. Miranda Fricker, Epistemic Injustice. Power and the Ethics of Knowing, Oxford, New York: Oxford University Press 2007 (Reprinted 2010). Bernward Gesang, Klimaethik, Berlin: Suhrkamp 2011. Evarts A. Graham, Adele B. Croninger und Ernest L. Wynder, Experimental production of carcinoma with cigarette tar. Successful experiments with rabbits, Cancer Research 17,11 (1957): 1058 – 1066. Steven Jay Gould, The mismeasure of man. The definitive refutation to the argument of The Bell Curve, Revised and expanded, With a new introduction, New York, London: W. W. Norton & Company 1996. 136 | Literatur 

Gabriele Gramelsberger, Computerexperimente: Zum Wandel der Wissenschaft im Zeitalter des Computers, Bielefeld: transcript 2010. Gabriele Gramelsberger und Johann Feichter (Hrsg.), Climate change and policy. The calculability of climate change and the challenge of uncertainty, Berlin, Heidelberg: Springer 2011. Gabrielle Goldet und Jeremy Howick, Understanding GRADE: an introduction, Journal of Evidence-Based Medicine 6,1 (2013): 50 – 54. Gordon H. Guyatt, Andrew D. Oxman, Gunn E. Vist, Regina Kunz, Yngve Falck-Ytter, Pablo Alonso-Coello und Holger J. Schünemann, GRADE: An emerging consensus on rating quality of evidence and strength of recommendations, British Medical Journal 336 (2008): 924 – 926. Douglas Hanahan und Robert A. Weinberg, The hallmarks of cancer, Cell 100,1 (2000): 57 – 70. –, Hallmarks of cancer: The next generation, Cell 144,5 (2011): 646 – 674. Joseph Henrich, Steven J. Heine und Ara Norenzayan, The weirdest people in the world ?, Behavioral and Brain Sciences 33 (2010): 61 – 135. Carl G. Hempel, Aspects of scientific explanation and other essays in the philosophy of science, New York: Free Press 1965. Hochschulrektorenkonferenz, Perspektiven des Wissenschaftssystems, Entschließung des 124. Senats der Hochschulrektorenkonferenz, 11.6.2013, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Finanzierung des Hochschulsystems nach 2020, Entschließung der 22. Mitgliederversammlung der HRK, 9. Mai 2017, Internet-Ressource: (letzter Zugriff 16.02.2020). Lara Huber, Normal. Konturen eines Leitbegriffs in Wissenschaft und Gesellschaft, Hamburg: Textem 2018. –, Standards und Wissen. Zur Praxis wissenschaftlicher Erkenntnis. Eine philosophisch-systematische Untersuchung, Weilerswist: Velbrück Wissenschaft 2020. Lara Huber und Lara K. Keuck, Mutant mice: Experimental organisms as materialised models in biomedicine, Studies in History and Philo­ sophy of Biological and Biomedical Sciences 44 (2013): 385 – 391. Intergovernmental Panel on Climate Change (IPCC), Guidance Note for Lead Authors of the IPCC Fifth Assessment Report on Consistent Treatment of Uncertainties, IPCC Cross-Working Group Meeting on Consistent Treatment of Uncertainties, Jasper Ridge, CA, USA, 6 – 7 July 2010, Internet-Ressource: (letzter Zugriff 16.02.2020). International Agency for Research on Cancer (IARC), Some Organo Monographien, Aufsätze, Stellungnahmen | 137

phosphate Insecticides and Herbicides, (IARC Monographs on the Evaluation of Carcinogenic Risks to Humans, Vol. 112) Lyon 2017, Internet-Ressource: (letzter Zugriff 16.02.2020). Internationaler Währungsfond (IWF) – International Monetary Forum (IMF), World Economic Outlook, October 2017, Chapter 3: The Effects of Weather Shocks on Economic Activity: How Can Low-Income Countries Cope ?, Internet-Ressource: (letzter Zugriff 16.02.2020). Diana Ionesco, Daria Mokhnacheva und François Gemenne (Hrsg.), Atlas der Umweltmigration, Aus dem Englischen übertragen von Barbara Steckhan, Sonja Schuhmacher und Gabriele Gockel, Kollektiv Druck-Reif, München: oekom Verlag 2017. David Kaldewey, Wahrheit und Nützlichkeit. Selbstbeschreibungen der Wissenschaft zwischen Autonomie und gesellschaftlicher Relevanz, Bielefeld: transcript 2013. Immanuel Kant, Werkausgabe, hrsg. von Wilhelm Weischedel, 12 Bde., Frankfurt a. M.: Suhrkamp 1974. Lily E. Kay, The Molecular Vison of Life. Caltech, The Rockefeller Foundation, and the Rise of the New Biology, Oxford, New York: Oxford University Press 1993. Lara K. Keuck, Relevant similarity in the light of biomedical experimentation, in: Large animals as biomedical models: Ethical, societal, legal and biological aspects, hrsg. von Kristin Hagen, Angelika Schnieke und Felix Thiele, (Graue Reihe, Bd. 51) Bad Neuenahr-Ahrweiler: Euro­päische Akademie 2012, 69 – 83 (publiziert unter dem Namen Lara K. Kutschenko). Daniel J. Kevles, In the name of eugenics. Genetics and the uses of human heredity, With a new preface by the Author, Cambridge/MA, London: Harvard University Press 1995. Eli Kintisch, Meltdown, Science 355/6327 (2017): 788 – 791. Philip Kitcher, Science, Truth, and Democracy, Oxford, New York: Oxford University Press 2001. Ernst Klee, Deutsche Medizin im Dritten Reich. Karrieren vor und nach 1944, Frankfurt a. M.: S. Fischer 2001. –, Das Personenlexikon zum Dritten Reich. Wer war was vor und nach 1945, Frankfurt a. M.: S. Fischer 2003. Richard Kluger, Ashes to ashes: American’s hundred-year cigarette war, the public health, and the unabashed triumph of Philip Morris, New York: Vintage Books 1997. 138 | Literatur 

Karin Knorr-Cetina, Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft, Mit einem Vorwort von Rom Harré, Erweiterte Neuauflage, Frankfurt a. M.: Suhrkamp 2002. Klaus Kornwachs, Philosophie der Technik. Eine Einführung, München: C.H. Beck 2013. Marcos Malumbres und Mariano Barbacid, RAS oncogenes: the first 30 years, Nature Reviews Cancer 3 (2003): 459 – 465. Simon Marsland, Helmuth Haak, Johann Jungclaus, Mojib Latif und Frank Röske, The Max-Planck-Institute global ocean/sea ice model with orthogonal curvilinear coordinates, Ocean Modelling 5,2 (2003): 91 – 127. Max-Planck-Gesellschaft, 100 Jahre Kaiser-Wilhelm-/Max-PlanckGesellschaft zur Förderung der Wissenschaften. Handbuch zur Institutsgeschichte, 2 Bände, Max-Planck-Gesellschaft 2016, InternetRessource: (letzter Zugriff 16.02.2020). Melissa S. McCoy, Cornelia I. Bargmann und Robert A. Weinberg, ­Human colon carcinoma Ki-ras2 oncogene and its corresponding proto-oncogene, Molecular and Cellular Biology 4,8 (1984): 1577 – 1582. Robert K. Merton, The Normative Structure of Science [1942], In: Ders., The Sociology of Science. Theoretical and Empirical Investigations, Edited and with an Introduction by Norman W. Storer, Chicago, London: The University of Chicago Press 1973, 267 – 278. Sarah Milov, »The Cigarette«. A Political History, Cambridge, London: Harvard University Press 2019. Peter Moffett und Gregory Moore, The standard of care: legal history and definitions, the bad and good news, Western Journal of Emer­ gency Medicine 12,1 (2011): 109 – 112. Siddhartha Mukherjee, Der König aller Krankheiten. Krebs – eine Biographie, Aus dem Englischen von Barbara Schaden, Mit einem Vorwort von Fritz Pleitgen, Köln: DuMont 2012. Nationale Akademie der Wissenschaften Leopoldina, Deutsche Akademie der Technikwissenschaften (acatech), Union der deutschen Akademien der Wissenschaften, Individualisierte Medizin: Voraussetzungen und Konsequenzen, Stellungnahme, Dezember 2014, Internet-Ressource: (letzter Zugriff 16.02.2020). Serena Nik-Zainal, Helen Davis, Michael R. Stratton et al., Landscape of somatic mutations in 560 breast cancer whole genome sequences, Nature 534 (2016): 47 – 54. OCEBM Levels of Evidence Working Group, The Oxford 2011 Levels of Evidence, Internet-Ressource: (letzter Zugriff 16.02.2020).  Monographien, Aufsätze, Stellungnahmen | 139

Nuccio Ordine, Von der Nützlichkeit des Unnützen. Ein Manifest. Warum Philosophie und Literatur lebenswichtig sind, München: Graf Verlag 2013. Naomi Oreskes, The Scientific Consensus on Climate Change, Science 306,5702 (2004): 1686. Naomi Oreskes und Erik M. Conway, Merchants of doubt. How a handful of scientists obscured the truth on issues from tobacco to global warming, New York: Bloomsbury Press 2010. Konrad Ott, Ipso facto. Zur ethischen Begründung normativer Implikate wissenschaftlicher Praxis, Frankfurt a. M.: Suhrkamp 1997. Wendy Parker, Does matter really matter ? Computer simulations, experiments and materiality, Synthese 169 (2009): 483 – 496. R. van de Pas und L. G. van Schaik, Democratizing the World Health Organization, Public Health, January 13, (2014), DOI: (letzter Zugriff 16.02.2020). Arthur C. Petersen, Simulating nature. A philosophical study of computer-simulation uncertainties and their role in climate science and policy advice, Apeldoorn: Het Spinhuis 2006. Michael Polanyi, Personal knowledge: Towards a post-critical philosophy, Chicago: The University of Chicago Press 1974. Aleksandra Jovanovic Poole, Ying Li, Yoon Kim, Suh-Chin J. Lin, WenHwa Lee und Eva Y.-H. P. Lee, Prevention of Brca1-Mediated Mammary Tumorigenesis in Mice by a Progesterone Antagonist, Science 213,5804 (2006): 1467 – 1470. Karl Popper, Die Logik der Forschung, Fünfte Auflage, Nachdruck der vierten, verbesserten Auflage [1971], Tübingen: Mohr (Siebeck) 1973. Projektbüro Fahrrinnenanpassung, Fahrrinnenanpassung Unter- und Außenelbe. Das Projekt im Überblick, Planungsstand Antrag 2006, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Fahrrinnenanpassung Unter- und Außenelbe. Die Planänderung III im Überblick, Der aktuelle Planungsstand 2010, Internet-Ressource: (letzter Zugriff 16.02.2020). Günter Ropohl, Die unvollkommene Technik, Frankfurt a. M.: Suhrkamp 1985. Harry Rubin, The early history of tumor viology: Rous, RIF, and RAV, Proceedings of the National Academy of Sciences of the United States of America 108,35 (2011): 14389 – 14396. Maxine Saborowski, Die Pluripotenz von Biodaten, Beobachtungen zu einem Verwertungsgeschehen, in: Thomas Potthast, Beate Herr140 | Literatur 

mann und Uta Müller (Hrsg.), Wem gehört der menschliche Körper ? Ethische, rechtliche und soziale Aspekte der Kommerzialisierung des menschlichen Körpers und seiner Teile, Paderborn: mentis 2010, 367 – 390. Wesley C. Salmon (Hrsg.), Statistical Explanation and Statistical Relevance, Pittsburgh: University of Pittsburgh Press 1971. Richard Sennett, Together. The Rituals, Pleasures & Politics of Cooperation, London u. a.: Penguin 2012. Steven Shapin, The Scientific Life. A Moral History of a Late Modern Vocation, Chicago und London: The University of Chicago Press 2008. Albert Schatz, Elizabeth Bugie und Selman Waksman, Streptomycin, a substance exhibiting antibiotic activity against gram-positive and gram-negative bacteria, Proceedings of the Society for Experimental Biology and Medicine 55 (1944): 66 – 69. Wolfgang Schulz, Molecular biology of human cancers. An advanced student’s textbook, New York: Springer 2005. Alfred Schütz, Das Problem der Relevanz, hrsg. und erläutert von Richard M. Zaner, Einleitung von Thomas Luckmann, Frankfurt a. M.: Suhrkamp 1971. –, Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie, 6. Auflage, Frankfurt a. M.: Suhrkamp [1974] 1993. –, Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie, hrsg. von Martin Endreß und Joachim Renn, (Al­ fred Schütz Werkausgabe, Bd. II), Konstanz: UVK Verlagsgesellschaft mbH 2004 [ASW II]. –, Relevanz und Handeln 1. Zur Phänomenologie des Alltagswissens, hrsg. von Elisabeth List unter Mitarbeit von Cordula Schmeja-Herzog, (Alfred Schütz Werkausgabe, Bd. VI.1) Konstanz: UVK Verlagsgesellschaft mbH 2004 [ASW VI.1]. –, Relevanz und Handeln 2. Gesellschaftliches Wissen und politisches Handeln, hrsg. von Andreas Göttlich, Gerd Sebald und Jan Weyand, (Alfred Schütz Werkausgabe, Bd. VI.2) Konstanz: UVK Verlags­ gesellschaft mbH 2011 [ASW VI.2]. Gerhard Sonnert und Gerald Holton, Ivory Bridges. Connecting Science and Society, Cambridge/MA, London: The MIT Press 2002. Jan Strassheim und Hisashi Nasu (Hrsg.), Relevance and Irrelevance. Theories, Factors and Challenges, (Age of Access ? Grundfragen der Informationsgesellschaft, Vol. 9) Berlin, Boston: Walter de Gruyter 2018. Gerhard Strauß, Ulrike Hass und Gisela Harras, Brisante Wörter von Agitation bis Zeitgeist. Ein Lexikon zum öffentlichen Sprachge Monographien, Aufsätze, Stellungnahmen | 141

brauch, (Schriften des Instituts für deutsche Sprache, Bd. 2) Berlin: Walter de Gruyter 1989. Cassandra Tate, Cigarette wars: The triumph of »the little white slaver«, New York: Oxford University Press 2000. Heinz-Elmar Tenorth, Wilhelm von Humboldt. Bildungspolitik und Universitätsreform, Paderborn: Ferdinand Schöningh 2018. The Cochrane Collaboration, Cochrane Handbook for Systematic Reviews of Interventions, Version 5.1.0 [updated March 2011], hrsg. von Julian P.T. Higgins und Sally Green, Internet-Ressource: (letzter Zugriff 16.02.2020). The International Cancer Genome Consortium, International network of cancer genome projects, Nature 464 (2010): 993 – 998. The Rockefeller Foundation, Annual Report 1936, New York: Rockefeller Foundation, Internet-Ressource: (letzter Zugriff 16.02.2020). United Nations, Convention on Biological Diversity, Rio de Janeiro, 5. June 1992, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Rio Declaration on Environment and Development, Rio de Janeiro, 3.-14 June 1992, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Kyoto Protocol to the United Nations Framework Convention on Climate Change, 1998, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Paris Agreement, 2015, Internet-Ressource: (letzter Zugriff 16.02.2020). Verein Deutscher Ingenieure, Ethische Grundsätze des Ingenieurberufs, März 2002, Internet-Ressource: (letzter Zugriff 16.02.2020). Detlef P. van Vuuren, Jae Edmonds, Mikiko Kainuma, Keywan Riahi, Allison Thomas, Kathy Hibbard, George C. Hurtt, Tom Kram, Volker Krey, Jean-Francois Lamarque, Toshihiko Masui, Malte Meinshausen, Nebojsa Nakicenovic, Steven J. Smith und Steven K. Rose, The representative concentration pathways: an overview, Climatic Change 109 (2011): 5 – 31. Harriet A. Washington, Medical Apartheid: The dark history of medical experimentation on black Americans from colonial times to the present, New York: Doubleday 2006. Wasser- und Schifffahrtsdirektion Nord, Hamburg Port Authority, Strombau- und Sedimentmanagementkonzept für die Tideelbe, 2008, Internet-Ressource: (letzter Zugriff 16.02.2020). Max Weber, Gesammelte Aufsätze zur Wissenschaftslehre, hrsg. von Johannes Winckelmann, 6. erneut durchgesehene Auflage, Tübingen: Mohr (Siebeck) 1985. Peter Wehling, Nichtwissen – Bestimmungen, Abgrenzungen, Bewertungen, Erwägen – Wissen - Ethik 20 (2009): 95 – 106. Robert A. Weinberg, The biology of cancer, Second edition, New York, London: Taylor & Francis 2013. Paul Weindling, The Rockefeller Foundation and German Biomedical Sciences, 1920 – 1940: from Educational Philanthropy to International Science Policy, in: Nicolaas A. Rupke, Science Politics and the Public Good. Essays in Honour of Margaret Gowing, London u. a.: Macmillan Press 1988, 119 – 140. Peter Weingart, Die Stunde der Wahrheit ? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft, Weilerswist: Velbrück Wissenschaft 2001. Simon Winchester, Krakatau. Der Tag, an dem die Welt zerbrach. 27. August 1883, Aus dem Englischen von Harald Stadler, München: Albrecht Knaus Verlag 2003. Eric Winsberg, Science in the Age of Computer Simulation, Chicago, London: The University of Chicago Press 2010. Wissenschaftsrat, Empfehlungen zu Klinischen Studien (Drs. 7301 18), 19.10.2018, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Anwendungsorientierung in der Forschung, Positionspapier (Drs. 8289 – 20), Januar 2020, Internet-Ressource: (letzter Zugriff 16.02.2020). World Medical Association, Declaration of Helsinki. Ethical Principles for Medical Research involving Human Subjects, Journal of the American Medical Association 310,20 (2013): 2191 – 2194. Word Wide Fund, Flussvertiefungen contra Hochwasserschutz. Auswirkungen der Flussvertiefungen auf die Höhe der Wasserstände in den Unterläufen von Elbe, Weser und Ems, 2003, Internet-Ressource: (letzter Zugriff 16.02.2020). –, Hintergrundpapier Zank-Apfel Elbvertiefung, 2014, Internet-Ressource: (letzter Zugriff 16.02.2020). Ernst L. Wynder und Evarts A. Graham, Tobacco smoking as a possible  Monographien, Aufsätze, Stellungnahmen | 143

etiologic factor in bronchogenic carcinoma: A study of 684 proved cases, Journal of the American Medical Association 143 (1950): 329 – 333. Zanke & Partner, Gutachterliche Stellungnahme zu den Auswirkungen der Unterwasserablagerungen (UWAs) in der Medemrinne und auf dem Neufelder Sand im Zusammenhang mit dem Planfeststellungsverfahren zur Vertiefung der Unter- und Außenelbe für 14,5 m tiefgehende Schiffe, Internet-Ressource: (letzter Zugriff 16.02.2020).

144 | Literatur 

Anmerkungen   Hier handelt es sich um Webers Schrift »Der Sinn der Wertfreiheit der soziologischen und ökonomischen Wissenschaften«, 1917, in: ders., Gesammelte Aufsätze zur Wissenschaftslehre, hrsg. v. Johannes Winckelmann, 6. erneut durchgesehene Auflage, Tübingen 1985, 489 – 540, hier: S. 499. 2  Als Einführung in den kritischen Diskurs um die Desiderate und Herausforderungen, die die anwendungsnahe Forschung und hieran beteiligte Wissenschaftsfelder prägen, eignet sich der Sammelband Science in the Context of Application, hrsg. v. Martin Carrier und Alfred Nordmann (Dordrecht u. a. 2011), der auf die gleichnamige Forschergruppe am Zentrum für interdisziplinäre Forschung (ZiF) in Bielefeld zurückgeht (Wissenschaft im Anwendungskontext, 2006 – 07). 3  Vgl. hierzu namentlich den Sammelband Relevance and Irrelevance, hrsg. v. Jan Strassheim und Hisashi Nasu (Berlin, Boston 2018). 4  Vgl. Duden, Das Herkunftswörterbuch der deutschen Sprache, Etymologie der deutschen Sprache, 5., neu bearbeitete Ausgabe (DUDEN, Bd. 7), Berlin, Mannheim, Zürich 2014, S. 691. 5  Das Wort bildet sich aus lat. »relevans«, Partizip Präsenz von »relevare«. Vgl. hierzu auch das Lemma »relevant« in: OpenThesaurus, Das Wortauskunftssystem zur deutschen Sprache in Geschichte und Gegenwart (DWDS) 09/2016, (letzter Zugriff 16.02.2020). 6  Der Begriff wurde in der ersten Hälfte des 18. Jahrhunderts ins Deutsche eingeführt und geht auf das gleichbedeutende französische Wort »relief« zurück, das im 16. Jahrhundert aus dem Italienischen entlehnt worden war (ital. rilievo). Beiden, dem französischen wie auch dem italienischen Begriff, liegt das lateinische Verb »relevare« in der ursprünglichen Bedeutung »aufheben, in die Höhe heben« zugrunde. Vgl. das Lemma »Relief« in: OpenThesaurus (DWDS , 09/2016). 7  Vgl. das Lemma »relevant« in: OpenThesaurus (DWDS , 09/2016). 8  Gerhard Strauß, Ulrike Hass und Gisela Harras, Brisante Wörter von Agitation bis Zeitgeist. Ein Lexikon zum öffentlichen Sprachgebrauch, (Schriften des Instituts für deutsche Sprache, Bd. 2) Berlin 1989, S. 704 [Hervorhebung leicht verändert]. 9  Vgl. das Lemma »relevant« in: OpenThesaurus (DWDS , 09/2016). 10  Mit dem Substantiv »Redundanz« wird seit dem 20. Jahrhundert »über­ 1

  145

flüssige Information« bezeichnet. Vgl. das Lemma »redundant« in: OpenThesaurus (DWDS , 09/2016). 11  Zur Einführung in das Feld der Relevanzlogik vgl. das gleichnamige Lemma in: Enzyklopädie Philosophie und Wissenschaftstheorie, hrsg. v. Jürgen Mittelstraß, Stuttgart, Weimar 1995, Bd. 3: P-So, 575 – 577. 12  Zur Einführung vgl. etwa James Woodward, Scientific Explanation, in: Stanford Encyclopaedia of Philosophy (Winter 2019 Edition), hrsg. v. Edward N. Zalta, (letzter Zugriff 16.02.2020). 13  Zur Einführung in das »DN«-Modell wissenschaftlicher Erklärungen vgl. Hempel, Aspects of scientific explanation and other essays in the philosophy of science. New York 1965. Das Modell der statistischen Relevanz (»statistical relevance model«, auch: »SR«-Modell) geht auf Wesley Salmon zurück, zur Einführung vgl. Salmon (Hrsg.), Statistical Explanation and Statistical Relevance, Pittsburgh 1971. Zu aktuellen Forschungsansätzen zu Relevanzbeziehungen, hier: dem Ausweis logischer, explanatorischer respektive evidentieller Relevanz, vgl. die 2018 eingerichtete Emmy-NoetherNachwuchsgruppe an der Universität Hamburg. Nähere Informationen unter: (letzter Zugriff 16.02.2020). 14  Gleiches gilt selbst für die sogenannte »Relevanztheorie«, ein Zweig der pragmatischen Sprachphilosophie, die den Fokus auf die Relevanz von Aussagen in kognitiver bzw. kommunikativer Hinsicht legt. Zur Einführung vgl. Kepa Korta und John Perry, Pragmatics, in: Stanford Encyclopaedia of Philosophy (Fall 2019 Edition), unter (letzter Zugriff 16.02.2020). 15  Im Deutschen liegt das Werk mittlerweile in zwei Ausgaben vor: Unter dem Titel »Das Problem der Relevanz« wurde der systematische Werkteil erstmals 1971 unter der Herausgeberschaft von Richard M. Zaner bei Suhrkamp veröffentlicht. In der Alfred-Schütz-Werkausgabe erschienen 2004 und 2011 zwei Teilbände, die sämtliche Werkteile zum Themenfeld »Relevanz und Handeln« umfassen. Der erste Teilband [ASW VI.1], erschließt »Das Problem der Relevanz«, inklusive Vorstudien und Entwürfen, mit einem umfangreichen Kommentar, der zweite Teilband [ASW VI.2] versammelt und kommentiert Schriften, in denen sich Schütz mit anwendungsbezogenen Fragen auseinandersetzt, darunter »Der gut informierte Bürger. Ein Essay zur sozialen Verteilung von Wissen«. Da es sich bei der Suhrkamp-Ausgabe um die für eine breite Leserschaft zugänglichste Textausgabe handelt, gebe ich die hier nach der Werkausgabe zitierten Textstellen [ASW VI.1], wenn möglich, auch nach der Suhrkamp Ausgabe an [Suhrkamp 1971]. 16  Zur Einführung vgl. die Einleitung der Herausgeber Martin Endreß und Joachim Renn, in: Schütz, Der sinnhafte Aufbau der sozialen Welt. 146 | Anmerkungen 

Eine Einleitung in die verstehende Soziologie (Alfred Schütz Werkausgabe, Bd. II), Konstanz 2004, 10 – 66, hier v. a. S. 13 ff. 17  ASW II , Zweiter Abschnitt, § 50, S. 439 f.; bzw. ders., Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie, 6. Auflage, Frankfurt a. M. [1974] 1993, S. 349 f. 18  Vgl. List, Einleitung, in: Alfred Schütz, Relevanz und Handeln 1. Zur Phänomenologie des Alltagswissens, hrsg. v. Elisabeth List unter Mitarbeit von Cordula Schmeja-Herzog (Alfred Schütz Werkausgabe, Bd. VI.1) Konstanz 2004, 7 – 40; S. 13 bzw. 15. 19  Zur Unterscheidung der Kategorien vgl. ASW VI .1, 90 – 1 13; Suhrkamp 1971, 56 – 86; zur »Interdependenz der Relevanzsysteme« vgl. ASW VI .1, 113 – 131; Suhrkamp 1971, 87 – 111. Schütz hebt hervor, dass er mit seiner Analyse ihres konstitutiven Ursprungs die Relevanzsysteme künstlich trenne, in der alltäglichen Wahrnehmung würden alle drei »von den denkenden oder handelnden Subjekten als eine unteilbare oder zumindest ungeteilte Einheit erfahren.« (ASW VI.1, 124; Suhrkamp 1971, 102 [Diese Textfassung weicht im Wortlaut von der hier zitierten Fassung ab]) 20  ASW VI .1, 90; Suhrkamp 1971, 56. 21  Ebd. 22  ASW VI .1, 91; Suhrkamp 1971, 58. 23  Vgl. ASW VI .1, 91 f.; Suhrkamp 1971, 58 f. Letztere ordnet er entsprechend als »nicht-auferlegte thematische Relevanzen« ein (ASW VI .1, 93; Suhr­kamp 1971, 61) und bezeichnet sie später gar als »wesentliche thematische Relevanzen« (ASW VI.1, 95; Suhrkamp 1971, 64). Ich werde hierauf noch ausführlich zu sprechen kommen (s. Abschnitt »Zur Brisanz der Relevanz«). 24  ASW VI .1, 98 f.; Suhrkamp 1971, 67 f. 25  ASW VI .1, 106; Suhrkamp 1971, 78. Schütz führt hierzu etwa wie folgt aus: »Diese ›kausale Relevanz‹ aber ist [...] nichts anderes als das objektive Korrelat dessen, was subjektiv als ›motivationsmäßig relevant‹ erfahren wird.« (Vgl. ASW VI.1, 110; Suhrkamp 1971, 83 [kleinere sprachliche Abweichungen zur zitierten Fassung]). 26  ASW VI .1, 107; Suhrkamp 1971, 79 [In dieser Textfassung gibt es kleinere Abweichungen, u. a. fehlt das Wort »seine«]. Zur Unterscheidung zwischen »Um-zu-Sätzen« (auch: »unechte Weil-Sätze«) und »echten Weil-Sätzen« vgl. ASW VI.1, 110 f.; Suhrkamp 1971, 83. 27  ASW VI .1, 93; Suhrkamp 1971, 61. Zum Begriff des Deutungsschemas vgl. auch ASW II, Zweiter Abschnitt, §16, 191 ff.; Suhrkamp 1993, 111 f. 28  ASW VI .1, 48. 29  ASW II , Zweiter Abschnitt, v. a. §14, 179 ff.; Suhrkamp 1993, 100 ff. 30  ASW VI .1, 112; Suhrkamp 1971, 85 [diese Textfassung weicht marginal von der zitierten ab; so heißt es etwa »wenn wir ganz im Handeln aufgehen«].  Anmerkungen | 147

  Feyerabend, Wider den Methodenzwang. Skizze einer anarchistischen Erkenntnistheorie, Frankfurt a. M. 1976, S. 11. Hierbei handelt es sich um die erste deutsche Übersetzung seiner Schrift. In der 1983 revidierten und erweiterten Fassung aus dem Jahr 1983 findet sich nicht mehr derselbe Wortlaut. 32  Vgl. Kant, Kritik der reinen Vernunft (Werkausgabe, Bd. 4, B 762). Evidenz gilt u. a. als Kernkriterium bestimmter Wahrheitstheorien. Danach ist etwa eine Überzeugung nur dann wahr, wenn sie für ein Erkenntnissubjekt evident ist, d. h. »einleuchtet« (lat. »evidens« = sichtbar, augenscheinlich). Im Gegensatz etwa zu Theorien, die den Konsens oder die Kohärenz als Kernkriterium benennen. 33  Dem Konzept der »Signifikanz« (lat. »signare« = (be)zeichnen) kam v. a. im Empirismus eine herausragende Bedeutung zu. Unter dem Stichwort »empirische Signifikanz« adressierte die Philosophie traditionell (v. a. der Wiener Kreis) die Sinnhaftigkeit von Begriffen. Zur statistischen Lesart von Signifikanz vgl. unten Kap. 2.3. 34  Kitcher, Science, Truth, and Democracy, Oxford, New York 2001, S. 65. 35  Vgl. Polanyi, Personal knowledge: Towards a post-critical philosophy, Chicago 1974, S. 135 f.: »An affirmation will be acceptable as part of science, and will be more valuable to science, the more it possesses: (1) certainty (accuracy) (2) systematic relevance (profundity) (3) intrinsic interest.« Polanyis Analysen zum wissenschaftlichen Wert (»scientific value«) fallen in ein Kapitel, in dem er sich, wie er es nennt mit »Leidenschaften des Intellekts« (intellectual passions) auseinandersetzt (Kap. 6, 132 – 202). 36  Ebd., S. 136. 37  Vgl. Schütz, ASW VI .1, 94; Suhrkamp 1971, 62 bzw. meine Ausführungen zur Relevanz als Bedeutungs- und Deutungszusammenhang. 38  Vgl. hierzu die Homepage der WHO unter (letzter Zugriff 16.02.2020). Seit 2015 führt sie zum Zwecke der Gesundheitsaufklärung und -prävention jährliche Aktionswochen zum Thema Antibiotikaresistenzen durch (»World Antibiotic Awareness Weeks«). 39  Freilich mit der Einschränkung, dass die Gabe des Therapeutikums jetzt nicht mehr unter den strengen Standards wissenschaftlicher Forschung erfolgt. Ich werde auf diesen Sachverhalt noch zurückkommen (vgl. 2.3). 40  Vgl. hierzu etwa Lindley Darden, Mechanisms and Models, In: The Cambridge Companion to the Philosophy of Biology, hrsg. v. David L. Hull und Michael Ruse, Cambridge, New York u. a. 2007, 139 – 159. 41  Allgemeinverständliche Informationen zu Krebsentstehung und Krebsarten sowie zu Diagnose- und Therapieoptionen stellen die nationalen Krebsgesellschaften online zur Verfügung, z.B die US -amerikanische Can­ cer Society (; letzter Zugriff 16.02.2020) bzw. die Deutsche 31

148 | Anmerkungen 

Krebsgesellschaft (; letzter Zugriff 16.02.2020); zur Kulturgeschichte der Krankheit vgl. Siddhartha Mukherjee, Der König aller Krankheiten. Krebs – eine Biographie, Köln 2012. 42  Zur Bedeutung tierexperimenteller Studien zu Viren und der Neoplasie von Zellgewebe vgl. Harry Rubin, The early history of tumor virology: Rous, RIF, and RAV, Proceedings of the National Academy of Sciences of the United States of America 108, 35 (2011): 14389 – 14396. 43  Vgl. hierzu die aktuellen Empfehlungen der Ständigen Impfkommis­ sion (STIKO) am Robert Koch-Institut (RKI), in: Epidemiologisches Bulletin, Nr. 34, 29. August 2016; zu weiteren Daten und Informationen zu Informationskrankheiten vgl. auch die Homepage des Robert Koch-Instituts unter (letzter Zugriff 16.02.2020). 44  Um eine Immunisierung vor dem ersten Sexualkontakt zu gewährleisten, werden seit 2014 bei Mädchen im Alter zwischen 9 und 14 Jahren zwei Impfungen im Abstand von mindestens 5 Monaten empfohlen. Vgl. Mitteilung der STIKO am RKI, Wissenschaftliche Begründung für die Änderung der Empfehlung zur Impfung gegen Humane Papillomviren (HPV), in: Epidemiologisches Bulletin, Nr. 35, 1. September 2014. Gleiches gilt seit 2018 auch für Jungen, vgl. ebd., in: Epidemiologisches Bulletin, Nr. 26, 28. Juni 2018. 45  Vgl. Mitteilung der STIKO am RKI , Impfung gegen humane Papillomviren (HPV) für Mädchen von 12 – 17 Jahren – Empfehlung und Begründung, in: Epidemiologisches Bulletin, Nr. 12, 2007, 97 – 103. 46  Vgl. Impfung gegen HPV – Aktuelle Informationen der STIKO, in: Epidemiologisches Bulletin, Nr. 32, 10. August 2009. Für ihre Forschungsarbeiten zu virus-induzierten Krebserkrankungen erhielten Harald zur Hausen, Luc Montagnier und Françoise Barré-Sinoussi 2008 den Nobelpreis für Physiologie oder Medizin (vgl. ; letzter Zugriff 16.02.2020). 47  Zur Übersicht über HPV-attributable Karzinome bei Männern wie Frauen vgl. Epidemiologisches Bulletin, Nr. 26, 28. Juni 2018. 48  Zur kanzerogenen Wirkung von Tabakrauch vgl. Abschnitt 2.3; zu den genannten Einstufungskriterien von »Karzinogenen« und der Bezeichnung besonderer Gefahren vgl. die Europäische Richtlinie 67/548/EWG, Anlage VI, Kapitel 4.2). Die an den Nationalen Gesundheitsinstituten (NIH) angesiedelte Carcinogenic Potency Database (CPDB) versammelt Ergebnisse aus tierbasierten Langzeitstudien zur Exposition gegenüber chemischen Stoffen, die zwischen 1980 und 2005 durchgeführt wurden (vgl. ; letzter Zugriff 16.02.2020); die Internationale Agentur zur Krebs­ forschung (International Agency for Research on Cancer, IARC), eine Einrichtung der WHO, trägt Forschungsergebnisse zu Kanzerogenen in einer  Anmerkungen | 149

eigenen Publikationsreihe zusammen (vgl. ; letzter Zugriff 16.02.2020). 49  Die U.S. National Library of Medicine (NLM), eine online-Datenbank der Nationalen Gesundheitsinstitute (NIH) versammelt wichtige Quellen dieser Forschungsarbeiten, unter (letzter Zugriff 16.02.2020). Der Molekularbiologe Robert A. Weinberg identifizierte schließlich das erste »Onkogen«, das »ras-Protein«, das auch beim Menschen nachgewiesen werden konnte. Vgl. Melissa S. McCoy, Cornelia I. Bargmann, Robert A. Weinberg, Human colon carcinoma Ki-ras2 oncogene and its corresponding proto-oncogene, Molecular and Cellular Biology 4,8 (1984): 1577 – 1582. Mutationen in dieser Proteinfamilie (H-Ras, N-Ras, KRas) gelten heute als häufiger Faktor der Tumorentstehung beim Menschen. Zur Einführung vgl. Marcos Malumbres und Mariano Barbacid, RAS oncogenes: the first 30 years, Nature Reviews Cancer 3 (2003): 459 – 465. 50  Hier sei etwa das »humane myelocytomatose-Onkogen« (»myc-Protein«) genannt. Vgl. hierzu meine Ausführungen in Abschnitt 2.2. 51  Zur Einführung vgl. Wolfgang Schulz, Molecular biology of human cancers. An advanced student’s textbook, New York 2005 bzw. Robert A. Weinberg, The biology of cancer, Second revised edition, London 2013. 52  Ob anomales Zellwachstum auf einige wenige gemeinsame Prinzipien auf zellulärer Ebene zurückführbar ist, wird ebenfalls bezweifelt. Die Krebsforscher Douglas Hanahan und Robert Weinberg haben einen solchen, viel zitierten und gleichfalls umstrittenen Vorstoß unternommen und zunächst sechs, später 10 Charakteristika zellbasierter Mechanismen aufgeführt, die die Bildung von Neoplasien, d. h. die Transformation von Zellen in maligne Zellen bzw. Tumorzellen, anleiten. Vgl. dies., The hallmarks of cancer, Cell 100,1 (2000): 57 – 70; sowie Dies., Hallmarks of cancer: The next generation, Cell 144,5 (2011): 646 – 674. 53  Die Linearität des »Zentralen Dogmas« der Molekularbiologie (»DNS→RNS→Protein«) wurde durch die Forschung an tumorinduzierenden Viren (z. B. Rous-Virus) widerlegt. Diese Viren werden heute auch als »Retroviren« bezeichnet, weil sie in der Lage sind, RNS in DNS umzuschreiben (»reverse Transkription«). Einige dieser Retroviren (u. a. Rous-Virus, Humanes Immundefizienz-Virus) können auf diesem Weg die Bildung von Tumoren induzieren. 54  Das Retinoblastom bleibt zunächst auf das Auge beschränkt (bis ca. 3 – 6 Monate nach Auftreten der Leukokorie), wird nicht rechtzeitig interveniert, greift der Tumor auf das Gehirn über und die Überlebensrate des Kindes sinkt auf ca. 30%. Zur Einführung in Ätiologie, Pathologie und Klinik vgl. etwa das klinische Wörterbuch Pschyrembel, online unter (letzter Zugriff 16.02.2020). 150 | Anmerkungen 

  Weitere Informationen zur genetischen Disposition vgl. das Lemma »Retinoblastoma« in der Online-Datenbank Online Mendelian Inheritance in Man (OMIM), unter (letzter Zugriff 16.02.2020). 56  Vgl. hierzu die Homepage der WMO unter (letzter Zugriff 16.02.2020). 57  Zu den Besonderheiten der Warm- und Kaltphasen des Phänomens vgl. die Homepage des US -amerikanischen Dachverbands National Oceanic and Atmospheric Administration (NOAA) unter (letzter Zugriff 16.02.2020). 58  Vgl. hierzu z. B. die Homepage des Max-Planck-Instituts für Meteoro­ logie, unter (letzter Zugriff 16.02.2020). Als Einführung in die weltweiten Konsequenzen, die sich mit dem Vulkanausbruch des Krakatau verbinden, eignet sich auch Simon Winchester, Krakatau. Der Tag, an dem die Welt zerbrach. 27. August 1883, München 2003. 59  Vgl. Oreskes, The Scientific Consensus on Climate Change, Science 306,5702 (2004): 1686. Allgemeinverständliche Informationen in deutscher Sprache sind auf der Homepage des Umweltbundesamtes unter (letzter Zugriff 16.02.2020) zu finden, Informationen zu den Einschätzungen US -amerikanischer Institutionen hat die National Aeronautics and Space Administration (NASA) zusammengetragen (vgl. ; letzter Zugriff 16.02.2020). Einen Schritt weiter geht der Gouverneur des Bundesstaates Kalifornien: Die Homepage stellt die wohl umfangreichste Liste von nationalen wie internationalen Organisationen bereit, die den anthropogenen Klimawandel als Tatsache anerkennen (vgl. ; letzter Zugriff 16.02.2020). 60  Zu den aktuellen Entwicklungen vgl. die Homepage des zuständigen Ozone Secretariat der Vereinten Nationen (UNEP) in Nairobi, Kenia, unter (letzter Zugriff 16.02.2020). 61  In den 1950er Jahren wurden erste Messstationen für CO eingerichtet 2 (Observatorium Mauna Loa, Hawai, 1958). Mittlerweile gibt es ein weltweites Messnetz, das u. a. auch in der Antarktis die atmosphärische CO2-Konzentration erfasst. Vgl. hierzu das WMO Global Atmosphere Watch Programm unter (letzter Zugriff 16.02.2020) bzw. das WMO Greenhouse Gas Bulletin (GHG Bulletin), das über den Status von Treib­ hausgasen in der Erdatmosphäre in regelmäßigen Abständen Auskunft gibt. 62  Die NASA stellt in ihren aktuellen Beobachtungsdaten den bisher stärksten Rückgang der Eismassen seit Beginn der Messungen an beiden Polen fest. Vgl. hierzu etwa die Homepage der NASA , unter: (letzter Zugriff 16.02.2020). Die sechste Ausgabe des World Ocean Review 55

 Anmerkungen | 151

widmet sich explizit den Naturräumen an den Polregionen. Das Themenheft WOR 6 Arktis und Antarktis – extrem, klimarelevant, gefährdet (2019) kann über die Homepage bezogen werden (; letzter Zugriff 16.02.2020). 63  Zur Einführung vgl. Eli Kintisch, Meltdown, Science 355/6327 (2017): 788 – 791. 64  Vgl. hierzu die Lemmata »Retinoblastoma« bzw. »Breast-Ovarian Cancer, Familial« in der OMIM-Datenbank unter (letzter Zugriff 16.02.2020). 65  Vgl. hierzu etwa Wendy Parker, Does matter really matter ? Computer simulations, experiments and materiality, Synthese 169 (2009): 483 – 496. Lara Keuck hat diese Überlegungen auf das Feld der Biomedizin übertragen vgl. dies., Relevant similarity in the light of biomedical experimentation, in: Large animals as biomedical models. Ethical, societal, legal and biological aspects, hrsg. v. Kristin Hagen, Angelika Schnieke und Felix Thiele, Bad Neuenahr-Ahrweiler 2012, 69 – 83. 66  Vgl. Timothy A. Stewart, Paul K. Pattengale und Philip Leder, Spontaneous mammary adenocarcinomas in transgenic mice that carry and express MTV/myc fusion genes, Cell 38 (1984): 627 – 637. 67  Philip Leder ließ diese Mauslinie als »Oncomouse« als erstes Tier überhaupt 1988 patentieren. Da die »myc«-Mäuse recht unscheinbare Tumore entwickelten, schuf Leder eine zweite Mauslinie, die zwei aktivierte Protoonkogene aufwies (»ras« und »myc«). Insgesamt erwarben Leder und damit die Harvard Universität drei »Oncomouse«-Patente. 68  Der Deutsche Ethikrat hat sich 2011 in seiner Stellungnahme ausführlich mit »Mensch-Tier-Mischwesen in der Forschung« beschäftigt, unterschiedliche Verfahren und Forschungsansätze vorgestellt und hiermit verbundene grundsätzliche ethische Herausforderungen benannt. Diese und andere Stellungnahmen stehen online auf der Homepage zur Verfügung (vgl. ; letzter Zugriff 16.02.2020). 69  Vgl. die Originalarbeit von Aleksandra J. Poole et al., Prevention of Brca1-Mediated Mammary Tumorigenesis in Mice by a Progesterone Antagonist, Science 213, 5804 (2006): 1467 – 1470. 70  Vgl. hierzu die Originalpublikation Daniel G. Dawson et al., Toxicity and dose-response studies of 1-alpha hydroxyvitamin D2 in LH-beta-Tag transgenic mice, Ophthalmology 110 (2003): 835 – 839. 71  Bei privaten Dienstleistern können gezielt Tierlinien bestellt werden. Das Jackson Laboratory ist auf Mauslinien spezialisiert (vgl. ; letzter Zugriff 16.02.2020), Charles River Laboratories listet neben Mäusen auch Ratten, Meerschweinchen und andere Nager (vgl. ; letzter Zugriff 16.02.2020). 152 | Anmerkungen 

  Mittlerweile ist der Patentschutz in den USA und Europa (EP 0169672) abgelaufen, in Kanada endet er 2020 (Canadian Patent 1341442). 73  Im Falle der Oncomouse (hier: »FVB/N-Tg(tet0-MYC)36aBop/J«) gelten bis zum Ablauf des Patentschutzes folgende Einschränkungen des Nutzungsrechts: »The animal(s) contained in this shipment are produced and distributed under patent rights licensed from E. I. du Pont de Nemours & Company (›Du Pont‹). The recipient of the animal(s) is NOT authorized to breed, cross breed, reproduce, transfer possession of or otherwise make ANY use (including use for research purposes) of the animal(s) or biological material derived therefrom (including limitation cells, eggs, or embryos), without first obtaining a license from DuPont. Any making, using, offering to sell, or selling the animal(s) or any biological material derived therefrom without an appropriate license will be considered an infringement of the patent rights of DuPont.« Zit. nach: The Jackson Laboratory, Licenses for strains designated »Oncomouse«, Notice to customers in CANADA . Das Dokument steht auf der Homepage zur Verfügung (vgl. ; letzter Zugriff 16.02.2020). Hier sind auch weitere Informationen zur genannten Tierlinie zu finden (vgl. »Mouse Strain Datasheet – 019376«). 74  Hier sei etwa die Abhängigkeit von technischen Ressourcen (Infrastruktur), insbesondere von Hochleistungsrechnern (Rechenzeit und Archivkapazität), genannt. Auch aufwendige Simulationsrechnungen werden oftmals an spezielle Anbieter, zum Beispiel das Deutsche Klimarechenzent­ rum (DKRZ), ausgelagert. 75  Parameter bezeichnen in der Regel grundsätzliche Annahmen, die im Modell unverändert bestehen, während Variablen zusätzliche Annahmen darstellen, die ausgetauscht werden, um ihren jeweiligen Einfluss auf ein System zu erheben. 76  Das Institut für Wasserbau an der Technischen Universität HamburgHarburg (TUHH) verfügt etwa über ein Versuchsbecken zur experimentellen Erprobung von Hochwasserschutzsystemen. Das Wasserbecken mit den Maßen: 20m (Länge) x 15m (Breite) x 2m (Höhe) besteht aus wasserundurchlässigem Beton. Vgl. hierzu die Homepage des Instituts unter (letzter Zugriff 16.02.2020). 77  Um ein Beispiel zu nennen: Die Versuchshalle des Labors für Hydromechanik und Wasserbau der Universität der Bundeswehr München ist 1000 m2 groß. Sie verfügt über verschiedene Strömungsrinnen zwischen 18 und 27 m Länge, 1 und 2 m Breite und einem maximalen Fassungsvolumen von 600 Litern. Hinzu kommt ein Freigelände mit einer Versuchsfläche von 2500 m 2. Vgl. hierzu die Homepage des Instituts für Wasserwesen unter (letzter Zugriff 16.02.2020). 72

 Anmerkungen | 153

  Zur Einführung vgl. die Homepage des Weltklimarats (IPCC), unter (letzter Zugriff 16.02.2020). 79  Zur Einführung vgl. die Homepage des Instituts unter < http://www. mpimet.mpg.de/en/science/models/mpi-esm/mpiom.html> (letzter Zugriff 16.02.2020). Zu den Details des Ozeanmodells vgl. die Originalarbeit von Simon Marsland et al., The Max-Planck-Institute global ocean/sea ice model with orthogonal curvilinear coordinates, Ocean Modelling 5,2 (2003): 91 –  127. 80  Zu weiterführenden Informationen über das nationale Verbundprojekt STORM und die internationale Verbundforschung im Rahmen des Ocean Model Intercomparison Project (OMIP) vgl. die Homepage des DRZK . Hier finden sich u. a. auch Visualisierungen von Klimadaten des Ozeanmodells »MPIOM« (vgl. ; (letzter Zugriff 16.02.2020). 81  Ausführliche Informationen zum gekoppelten Klimamodell »MPIESM«, das auf Komponenten des Atmosphärenmodells »ECHAM6«, dem Ozeanmodell »MPIOM«, dem Landbiosphärenmodell »JSBACH« und dem Biogeochemiemodell »HAMOCC« beruht, sind auch auf der Homepage des DKRZ zu finden (vgl. ; letzter Zugriff 16.02.2020). 82  Zur Einführung in den Sprachgebrauch vgl. Dennis Bray und Hans von Storch, »Prediction« or »projection« ? The nomenclature of climate science, Science Communication 30,4 (2009): 534 – 543. 83  Vgl. hierzu auch die Homepage des DWD unter (letzter Zugriff 16.02.2020). 84  Der Internationale Wolkenatlas gilt seit seiner Einführung 1896 weltweit als Referenz für die Klassifizierung und Beobachtung von Wolken und anderen Wetterphänomenen und ist damit auch Grundlage für deren Parametrisierung in Klimamodellen (vgl. ; letzter Zugriff 16.02.2020). 85  Hierbei handelt es sich um ein internationales Vorhaben, die Güte bestehender Modelle zu bewerten und in Bezug auf ihre Vorhersagekraft zu vergleichen (»Coupled Modelling Comparison Project 5«) – vgl. die Homepage der Arbeitsgruppe unter ; (letzter Zugriff 16.02.2020). Über die Schwerpunkte der standardisierten Experimente informiert auch die Homepage des DKRZ (vgl. ; letzter Zugriff 16.02.2020). Zu den gewählten Emissionsszenarien im Detail vgl. die Originalarbeit von Detlef P. van Vuuren et al., The representative concentration pathways: an overview, Climatic Change 109 (2011), 5 – 31. 78

154 | Anmerkungen 

  Vgl. Eric Winsberg, Science in the Age of Computer Simulation, Chicago, London 2010. Zur Einführung in die Geschichte der computergestützten Forschung und ihrer erkenntnistheoretischen Herausforderungen – insbesondere in Bezug auf Wetter- und Klimamodelle – vgl. Gabriele Gramelsberger, Computerexperimente: Zum Wandel der Wissenschaft im Zeitalter des Computers, Bielefeld 2010. 87  Ebd., S. 93. 88  Im Wortlaut heißt es Winsberg (ebd., S. 93): »I mean by this that it is extremely difficult, if not all but impossible, for climate modelers to disentangle the various sources of the successes and failures of their models. I argue, moreover, that the source of this holism is a kind of generative entrenchment of various elements of the models. Consequently, climate models are, in interesting ways, products of their specific histories.« Er beschreibt diese strukturelle Besonderheit von gekoppelten Klimamodellen ausführlich ebd., S. 102 ff. 89  Ebd., S. 94. 90  Vgl. hierzu ebd., 100 – 1 19. Als systematische Einführung in die differenzierte Bewertung von Unsicherheit bei der numerischen Modellierung sei die Monographie Simulating Nature: A philosophical study of computersimulation uncertainties and their role in climate science and policy advice von Arthur C. Petersen empfohlen (Apeldoorn 2006). Verwiesen sei außerdem auf den Sammelband Climate Change and Policy: The Calculabi­ lity of Climate Change and the Challenge of Uncertainty, hrsg. von Gabriele Gramelsberger und Johann Feichter (Berlin, Heidelberg 2010), der sich unter anderem mit der Frage auseinandersetzt, wie Klimaforscher und politische Entscheidungsträger dieser strukturellen Herausforderung begegnen. 91  Vgl. hierzu die Originalarbeit von W. Gary Flamm und Lois D. Lehman-McKeeman, The human relevance of the renal tumor-inducing potential of d-limonene in male rats: Implications for risk assessment, Regulatory Toxicology and Pharmacology 13,1 (1991): 70 – 86. 92  Eine detaillierte Liste aller Tumorerkrankungen ist auf der Homepage des Konsortiums zu finden (vgl. ; letzter Zugriff 16.02.2020). Vgl. hierzu ferner: The International Cancer Genome Consortium, International network of cancer genome projects, Nature 464 (2010): 993 – 998. 93  Die jüngste Veröffentlichung vom Juni 2016 stellt Ergebnisse zu somatischen Mutationen bei Brustkrebs vor (auf der Publikationsliste des ICGC trägt sie die Nummer 28, vgl. ; letzter Zugriff 16.02.2020). 93 der identifizierten somatischen Mutationen seien zweifelsfrei an der Tumorgenese beteiligt (»driver mutations«). Hinzu kämen zahlreiche weitere Mutationen, die nicht aktiv zur Pathogenese beitrügen. Insgesamt wurden 560 Tumorgenome analysiert. Vgl. die Originalarbeit 86

 Anmerkungen | 155

Serena Nik-Zainal, Helen Davis, Michael R. Stratton et al., Landscape of somatic mutations in 560 breast cancer whole genome sequences, Nature 534 (2016): 47 – 54. 94  Dies wurde etwa am Beispiel von Tiermodellen der Alzheimer-Forschung im Detail dargelegt, vgl. Lara Huber und Lara K. Keuck, Mutant mice: Experimental organisms as materialised models in biomedicine, Studies in History and Philosophy of Biological and Biomedical Sciences 44 (2013): 385 – 391. Hierbei handelt es sich u. a. um Verfahren der Histopathologie. Wird ein Nachweisverfahren sowohl beim Tier als auch beim Menschen eingesetzt und zeigt in beiden biologischen Systemen denselben pathogenen Prozess, bestätigt dies zugleich die Äquivalenz zwischen Modell- und Zielsystem, wenn auch nur in methodologischer Hinsicht (ebd., S. 389 f.). 95  Hiervon sind nicht-interventionelle Studiendesigns zu unterscheiden: Darunter werden vor allem reine Beobachtungs- bzw. Dokumentationsstudien gefasst, die z. B. retrospektiv den Behandlungserfolg bestimmter Therapeutika dokumentieren bzw. bewerten. 96  Die Tuberkulose wird durch das Mycobacterium tuberculosis verursacht, Lepra geht auf eine Infektion mit Mycobacterium leprae zurück. Beide Krankheiten sind heute gut behandelbar und gelten als heilbar. Vgl. hierzu auch meine Fußnote unten. Armut und begrenzter Zugang zur Gesundheitsversorgung gelten heute als Hauptursachen für Neuinfektionen weltweit. Vgl. hierzu u. a. die Homepage der Deutschen Lepra- und Tuberku­ losehilfe e.V., unter (letzter Zugriff 16.02.2020). 97  Weitere Informationen zu den Phasen klinischer Prüfverfahren stehen auf der Homepage der U.S. Food and Drug Administration (FDA) bereit, unter (letzter Zugriff 16.02.2020). 98  In Deutschland ist dies das Bundesinstitut für Arzneimittel und Medi­ zinprodukte (BfArM), eine selbständige Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Gesundheit mit Sitz in Bonn. Zu den Aufgaben der Behörde, z. B. im Rahmen der europäischen Arzneimittelzulassung, vgl. die Homepage (letzter Zugriff 16.02.2020). 99  Auf die Ausgestaltung dieser »Umsetzung« und konkrete Herausforderung der Anwendung komme ich noch einmal ausführlich zurück. 100  Als »Szenario« wird die modellbasierte Darstellung des Zustands eines Systems unter bestimmten Bedingungen zu einem bestimmten Zeitpunkt bezeichnet. Es handelt sich – aufgrund der strukturellen Begrenzungen von Modellen allgemein – um eine vereinfachte bzw. abstrahierte Darstellung, die ein Zielsystem nicht vollständig repräsentiert, sondern nur ganz bestimmte Rahmenbedingungen abbildet bzw. auf den Einfluss ausgewählter Variablen fokussiert. 101  Eine detaillierte Übersicht über die betreffenden Vorsorgemaßnah156 | Anmerkungen 

men im Rahmen der Krebsfrüherkennung sind online über den Krebsin­ formationsdienst erhältlich, ein online-Angebot des Deutschen Krebsfor­ schungszentrums (DKFZ), vgl. https://www.krebsinformationsdienst.de (letzter Zugriff 16.02.2020). 102  Vgl. hierzu etwa ebd., namentlich die Lemmata: »PSA-Test« respektive »Mammographie«. 103  Näheres regeln in Deutschland das Arzneimittelgesetz (AMG) und das Medizinproduktegesetz (MPG). Hinzu kommen weitere Verordnungen, darunter die Verordnung über die Anwendung der Guten Klinischen Praxis bei der Durchführung von klinischen Prüfungen mit Arzneimitteln zur Anwen­ dung am Menschen (GCP-V). Vgl. hierzu die jeweiligen Gesetzestexte unter (letzter Zugriff 16.02.2020). 104  Hierfür werden u. a. zellbasierte Testverfahren (z. B. »Ames«-Test) herangezogen, aber auch Tierversuche durchgeführt. 105  Vgl. hierzu insbesondere Kants Analysen zu empirischen Beweisgründen in der Kritik der reinen Vernunft (Werkausgabe, Bd. 4, B 762): »Aus Begriffen a priori (im diskursiven Erkennen) kann [...] niemals anschauende Gewißheit, d. i. Evidenz entspringen, so sehr auch sonst das Urteil apodiktisch gewiß sein mag.« 106  Das Zentrum an der britischen Universität Oxford hat 2008 vier Evidenzgrade eingeführt (»levels of evidence«), zur aktuellen Version vgl. OCEBM Levels of Evidence Working Group, The Oxford 2011 Levels of Evidence, Internet-Ressource: (letzter Zugriff 16.02.2020). Das Graduierungssystem geht auf die Arbeiten der Gra­ des of Recommendation, Assessment, Development and Evaluation Working Group (GRADE Working Group) zurück. Vgl. hierzu die Originalpublikation von Gordon H. Guyatt, Andrew D. Oxman, Gunn E. Vist, Regina Kunz, Yngve Falck-Ytter, Pablo Alonso-Coello, Holger J. Schünemann, GRADE: An emerging consensus on rating quality of evidence and strength of recommendations, British Medical Journal 336,7650 (2008): 924 – 926. Zu den aktuellen Dokumenten (Stand 2011) vgl. die Homepage des CEBM unter (letzter Zugriff 16.02.2020). 107  Zur Einführung in die Bewertung nach »GRADE« (ein Akronym für: The Grading of recommendations, assessment, development, and evaluations system), vgl. Gabrielle Goldet und Jeremy Howick, Understanding GRADE: an introduction, Journal of Evidence-Based Medicine 6,1 (2013): 50 – 54. 108  Das Cochrane Institute schreibt über den Fokus systematischer Vergleichsstudien (»systematic reviews«) etwa wie folgt: »Only data that matches certain criteria could be included, so that the results are reliable. For example, selecting research that is good quality and answers the right questions.«  Anmerkungen | 157

Das Zitat ist folgender Videodatei entnommen: »What are systematic reviews«, unter ; (letzter Zugriff 16.02.2020). Vgl. hierzu ferner The Cochrane Collaboration, Cochrane Handbook for Systematic Reviews of Interventions, Version 5.1.0 [updated March 2011], hrsg. von Julian P.T. Higgins und Sally Green, Internet-Ressource: (letzter Zugriff 16.02.2020). Die erarbeiteten Richtlinien für die medizinische Praxis hält eine eigene Datenbank vor (letzter Zugriff 16.02.2020). 109  Vgl. hierzu Goldet und Howick (2013), S. 52: »When the benefit of the treatment is clear, patient values and circumstances are unlikely to affect the decision to take a treatment and a strong recommendation is appropriate. For example, high-dose chemotherapy for testicular cancer is often highly recommended for the increased likelihood of survival in spite of chemotherapy’s toxicity […]. Otherwise, if the evidence is weak or the balance of positive and negative effects is vague, a weak recommendation is appropriate.« 110  Zur Einführung in das rechtliche Konzept des »standard of care« im Rekurs auf die angelsächsische Rechtsgeschichte vgl. Peter Moffett und Gregory Moore, The standard of care: legal history and definitions, the bad and good news, Western Journal of Emergency Medicine 12,1 (2011): 109 – 112. 111  Vgl. hierzu etwa das Dokument Diagnostik und Therapie des hepato­ zellulären Karzinoms, Leitlinienprogramm Onkologie (Version 1.0 – Mai 2013, AWMF-Registernummer: 032/053OL); Internet-Ressource: (letzter Zugriff 16.02.2020). 112  Das IPCC erhielt 2007 gemeinsam mit dem US -amerikanischen Vizepräsidenten Albert Arnold (Al) Gore den Friedensnobelpreis, »for their efforts to build up and disseminate greater knowledge about man-made climate change, and to lay the foundations for the measures that are needed to counteract such change.« (vgl. ; letzter Zugriff 16.02.2020). Alle Klimaberichte sowie der aktuelle Entwicklungsstand zum sechsten IPCC-Bericht, der spätestens 2022 erscheinen soll, finden sich auf der Homepage des IPCC s, unter (letzter Zugriff 16.02.2020). Dies gilt auch für die drei Fokusberichte, die den sechsten Sachstandsbericht ergänzen sollen und bereits vorab seit Ende 2019 zugänglich sind (Special Report on Global Warming of 1.5°C, SR 1.5; Special Report on Climate Change and Land (SRCCL); Special Report on Ocean and Cryosphere in a Changing Climate, SROCC). Über die Funktion und Organisation des Ausschusses informiert auch die nationale Kontaktstelle des IPCC in Deutschland, das Bundesministerium für Umweltschutz, Naturschutz und nukleare Sicherheit (vgl. ; letzter Zugriff 16.02.2020). 113  Zu den Verfahrensregeln im Einzelnen vgl. (letzter Zugriff 16.02.2020). 158 | Anmerkungen 

  Vgl. IPCC , Guidance Note for Lead Authors of the IPCC Fifth Assessment Report on Consistent Treatment of Uncertainties, IPCC Cross-Working Group Meeting on Consistent Treatment of Uncertainties, Jasper Ridge, CA , USA , 6 – 7 July 2010, Internet-Ressource: (letzter Zugriff 16.02.2020). 115  Realisiert wird dieses doppelte Ideal besonders deutlich im Fall von Wirkstoffen, die nicht nur effektiv gegen eine bestimmte bakterielle Infektion eingesetzt werden können, sondern gegen eine Vielzahl unterschiedlicher Bakterien wirken, so genannte Breitband- bzw. Breitspektrumantibiotika (»broad spectrum antibiotic«). 116  Der Wirkstoff wurde aus Streptomyces griseus isoliert. Vgl. hierzu die Originalarbeit von Albert Schatz, Elizabeth Bugie und Selman Waksman, Streptomycin, a substance exhibiting antibiotic activity against gram-positive and gram-negative bacteria, Proceedings of the Society for Experimental Biology and Medicine 55 (1944): 66 – 69. Robert Koch erhielt 1905 den Nobelpreis für seinen Beitrag zur Tuberkulose-Forschung, Selman Waksman erhielt ihn 1952 für die Isolierung von Streptomycin (vgl. ; letzter Zugriff 16.02.2020). Zur Einführung in die Geschichte der Tuberkuloseforschung vgl. etwa Thomas Dormandy, The white death: A history of tuberculosis, London, Rio Grande: Hambledon Press 1999, sowie Helen Bynum, Spitting blood: The history of tuberculosis, Oxford, New York: Oxford University Press 2012. Nähere Informationen zur therapeutischen Breite von Streptomycin, zu Kontraindikationen und unerwünschten Nebenwirkungen sind online zu finden, z. B. unter (letzter Zugriff 16.02.2020). 117  Vgl. hierzu die Homepage der WHO unter (letzter Zugriff 16.02.2020). 118  Im Februar 2017 hat die WHO besonders dringliche Ziele der Forschung zu antibiotikaresistenten Bakterienstämmen identifiziert (vgl. ; letzter Zugriff 16.02.2020). 119  Zu den Zielen der individualisierten Medizin und hiermit verbundenen Herausforderungen aus medizinischer, technischer und ethischer Sicht vgl. die gleichnamige Stellungnahme, die die Nationale Akademie der Wissenschaften Leopoldina zusammen mit der Deutschen Akademie der Technikwissenschaften (acatech) und der Union der deutschen Akademien der Wissenschaften im Dezember 2014 veröffentlicht hat. 120  Beim »her2«-Protein handelt es sich um einen Wachstumsfaktor-Rezeptor (»human epidermal growth factor receptor 2«) an der Oberfläche von Zellen, z. B. der Brustdrüse. Ein immunhistochemisches Verfahren ermittelt die Zahl der »her2«-Rezeptoren. Hierzu ist eine Biopsie notwendig, d. h. die Entnahme einer Gewebeprobe. Anhand des Antigen-Antikörper-Reak114

 Anmerkungen | 159

tionstests wird der Expressionsgrad ermittelt. Ein dünner Gewebeschnitt wird hierzu mit einem Antikörper beschichtet und der Expressionsgrad durch Anfärbung der Zellen sichtbar gemacht. Die Reaktionsskala reicht von 0 (negativ, her2-Expression nicht nachweisbar), 1+ (negativ, her2-Expression gering), 2+ (unklar, her2-Expression mittelgradig) bis 3+ (positiv, her2-Expression hoch). Diese und weitere Informationen zur Brustkrebs­ diagnostik sind online auf der Seite des Krebsinformationsdienstes zu finden (s. Fußnote oben). 121  »her2« bzw. »neu« werden in der offiziellen Nomenklatur auch unter der Bezeichnung »erbb2«, kurz für »erb-b2 receptor tyrosine kinase 2«, geführt, einem Proto-Onkogen (chromosomale Lokation beim Menschen: 17q12). Weitere Informationen stellt das HUGO Gene Nomenclature Com­ mitee (HGNC) online bereit, vgl. (letzter Zugriff 16.02.2020). 122  Vgl. die Originalarbeit von Louise Bouchard, Lous Lamarre, Patrick J. Tremblay und Paul Jolicoeur, Stochastic appearance of mammary tumors in transgenic mice carrying the MMTV/c-neu oncogene, Cell 57,6 (1989): 931 – 936. Eine Auswahl einschlägiger Publikationen über mausbasierte »erbb2«-Krankheitsmodelle (»erbb2 disease models«) stellt die Homepage des Jackson Laboratory bereit, vgl. (letzter Zugriff 16.02.2020). 123  Der das Protein bindende Antikörper (»anti-ErbB2 antibody«) beim Menschen ist »HER 2+« (Human Epidermal growth factor Receptor 2-postive). 124  Vgl. hierzu meine Fußnote oben zur Ermittlung des Expressionsgrads des her2-Proteins. Die Reaktionsskala gibt Aufschluss darüber, ob eine Überexpression vorliegt (3+) und eine Antikörpertherapie (»Herceptin«) indiziert ist. Bei einem Wert von 2+ gilt der Reaktionstest als nicht hinreichend aufschlussreich. In diesem Fall ist eine zusätzliche gentechnische Diagnostik nötig (»FISH«- bzw. »CISH«-Test). Zur Wirksamkeit von Herceptin bei HER2-positivem Brustkrebs im Frühstadium vgl. auch die 2012 beendete Phase III-Studie HERA , die über 5000 Patientinnen einschloss: Herceptin (Trastuzumab) in Treating Women With Human Epi­ dermal Growth Factor Receptor (HERR) 2-Positive Primary Breast Cancer (HERA), NCT00045032 (Laufzeit: 2001 – 2015); vgl. (letzter Zugriff 16.02.2020). 125  Vor allem mit der Indikationsausweitung der Herceptin-Therapie verbinden sich Hoffnungen: Mittlerweile ist der Wirkstoff auch zur Behandlung von Magenkrebs (»her2-positive metastatic cancer of the stomach or gastroesophageal junction«) zugelassen. 126  Zum ethischen Diskurs über den Umfang des Leistungskatalogs der 160 | Anmerkungen 

gesetzlichen Krankenversicherung (GKV) und der Festsetzung von Höchstbeträgen für Arzneimittel vgl. die Stellungnahme des Deutschen Ethikrats zu Nutzen und Kosten im Gesundheitswesen aus dem Jahr 2011. 127  Wenn hier von Risikoanalyse gesprochen wird, schließt dies ein, dass zuvor qualitativ bestimmt werden konnte, inwiefern negative Effekte (Risiken, Schaden) erwartbar sind und sich zu positiven, d. h. erwünschten Folgen (Chancen, Nutzen) verhalten. Vor diesem Hintergrund gilt es dann die Höhe bzw. das Ausmaß von positiven vs. negativen Effekten quantita­ tiv zu ermitteln (Nutzen- bzw. Schadenswert und deren jeweilige Eintrittswahrscheinlichkeit). Dies setzt voraus, dass wir den Entscheidungs- bzw. Handlungszusammenhang – wie bei der Technikfolgenabschätzung auch – möglichst genau eingrenzen können. Ist dies nicht der Fall, sind wir mit Unsicherheit konfrontiert: Weder kann qualitativ ermessen werden, worin positive bzw. negative Effekte im Einzelnen bestehen, noch quantitativ, wie es um deren Höhe, Ausmaß bzw. Eintrittswahrscheinlichkeit bestellt ist. 128  Auf der Homepage können außerdem neue Verdachtsfälle gemeldet werden (; letzter Zugriff 16.02.2020). Am Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) ist eine öffentliche Datenbank angesiedelt, die über alle seit 1995 gemeldeten Verdachtsfälle informiert. Auch hier können von Angehörigen der Heilberufe Verdachtsfälle gemeldet werden. Die »UAW-Datenbank« versammelt ausschließlich Informationen über Arzneimittel, die in Deutschland zulassen sind, vgl. (letzter Zugriff 16.02.2020). Die Datenbank der Europäi­ schen Arzneimittel-Agentur informiert seit 2001 über unerwünschte Wirkungen von Arzneimitteln, die im Europäischen Wirtschaftsraum (EWR) zugelassen sind, vgl. (letzter Zugriff 16.02.2020). 129  Vgl. hierzu insbesondere den Synthesebericht (Synthesis Report, 2014), der die Ergebnisse der drei Teilberichte der Arbeitsgruppen zusammenträgt, unter (letzter Zugriff 16.02.2020). Alle Berichte, darunter auch die Teilberichte der Arbeitsgruppen (Working Group Reports I-III, 2013 bzw. 2014), stehen online auf der Homepage des Weltklimarats bereit (vgl. ; letzter Zugriff 16.02.2020). 130  Vgl. hierzu die Homepage der UNFCCC (; letzter Zugriff 16.02.2020). 131  Vgl. United Nations, Kyoto Protocol to the United Nations Framework Convention on Climate Change, 1998, unter (letzter Zugriff 16.02.2020). Mittlerweile haben 191 Staaten das Protokoll ratifiziert. Ich komme auf die Kyoto-Mechanismen noch einmal ausführlich zurück. 132  Vgl. United Nations, Paris Agreement, 2015, unter (letzter Zugriff 16.02.2020). Deutsch Anmerkungen | 161

land strebt bis 2050 eine »weitgehende Treibhausgasneutralität« an, d. h. die Treibhausgasemissionen im Vergleich zu 1990 um 80 bis 95 Prozent zu reduzieren. Vgl. hierzu im Einzelnen das Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU), Klimaschutzplan 2050. Klimaschutzpolitische Grundsätze und Ziele der Bundesregierung, 2016, unter (letzter Zugriff 16.02.2020). 133  Die Rahmenkonvention der Vereinten Nationen zum Klimawandel (UNFCCC) ist eine von insgesamt drei sich gegenseitig flankierenden Konventionen, die auf den Rio Earth Summit 1992 zurückgehen. Bei den beiden anderen Konventionen handelt es sich um die Rahmenkonvention zur Biodiversität (UN Convention on Biological Diversity, vgl. ; letzter Zugriff 16.02.2020) und die Rahmenkonvention zur Bekämpfung der Wüstenbildung (UN Convention to Combat Desertification, vgl. ; letzter Zugriff 16.02.2020). 134  Dieter Birnbacher spricht in diesem Fall auch vom »eigenständigen Wert der Natürlichkeit im genetischen Sinne«. Vgl. ders., Natürlichkeit, Berlin 2006. 135  Im 1. Artikel der Konvention heißt es: »The objectives of this Convention, to be pursued in accordance with its relevant provisions, are the conservation of biological diversity, the sustainable use of its components and the fair and equitable sharing of the benefits arising out of the utilization of genetic resources, including by appropriate access to genetic resources and by appropriate transfer of relevant technologies, taking into account all rights over those resources and to technologies, and by appropriate funding.« Aus: Convention on Biological Diversity, Rio de Janeiro, 5. June 1992. 136  Eine recht umfassende Einführung in das Thema bietet der Atlas der Umweltmigration, hrsg. von Dina Ionesco, Daria Mokhnacheva und François Gemenne, München 2017. Eine im Oktober 2017 veröffentlichte Studie des Internationalen Währungsfonds (IWF) betitelt die makroökonomischen Folgen des anthropogenen Klimawandels (World Economic Outlook 2017). Hervorgehoben wird unter anderem, dass von den Auswirkungen, wie etwa extremen Wetterereignissen und damit einhergehenden Migrationsbewegungen, voraussichtlich vor allem Länder mit geringem Pro-Kopf-Einkommen betroffen sein werden. Zu den Details vgl. die Homepage des IWF unter (letzter Zugriff 16.02.2020). 137  Die Weltklimakonferenz 2017 stand nicht von ungefähr unter der Präsidentschaft der Fidschi-Inseln, einer kleinen Inselgruppe im Südpazifik. Sie fand vom 6.-17. November 2017 in Bonn, dem Sitz des Klimasekretariats der Vereinten Nationen (UNFCCC), statt. Über die Ergebnisse der UN-Klimakonferenzen informiert die Homepage des Klimasekretariats (; letzter Zugriff 16.02.2020). 162 | Anmerkungen 

  Nähere Informationen zur jüngsten Umfrage (März 2017) und den Ergebnissen im Einzelnen vgl. die Homepage des Yale Program on Climate Change Communication, unter (letzter Zugriff 16.02.2020). Die Ergebnisse, darunter zahlreiche farbkodierte Graphiken, die die Umfrageergebnisse nach Bundesstaaten differenzierte, wurden u. a. in der New York Times an prominenter Stelle veröffentlicht (New York Times, 21.03.2017). 139  Als Gradmesser der ethischen Debatten um Placebo-kontrollierte Studien können die regelmäßige Überarbeitungen ethischer Richtlinien der klinischen Forschung dienen, allen voran die Neufassung der Deklaration von Helsinki von 2013, vgl. World Medical Association, Declaration of Helsinki, Ethical Principles for Medical Research involving Human Subjects, Journal of the American Medical Association 310,20 (2013): 2191 – 2194. Nähere Informationen hält die Homepage des Weltärztebundes (World Medical Association, WMA) bereit, unter (letzter Zugriff 16.02.2020). 140  Zur Einführung vgl. etwa Michele Barry und Malcolm Molyneux, Ethical dilemmas in malaria drug and vaccine trials: A bioethical perspective, Journal of Medical Ethics 18 (1992): 189 – 192 sowie Harriet A. Washington, Medical Apartheid: The dark history of medical experimentation on black Americans from colonial times to the present, New York 2006. 141  Ein Fokusbericht des Weltklimarats, der Ende 2019 veröffentlicht wurde, widmet sich ausführlich den weltweiten Auswirkungen, die mit der Erhöhung der mittleren globalen Temperatur um 1,5 Grad verbunden werden, und vergleicht dies mit Szenarien, die von einer Erhöhung um 2,0 Grad ausgehen. Vgl. Special Report on Global Warming of 1.5°C (SR 1.5) unter (letzter Zugriff: 16.02.2020). 142  Zur Einführung in die Kyoto-Mechanismen vgl. die Homepage des UNFCCC , unter (letzter Zugriff 16.02.2020) bzw. die Homepage des Bundesumweltministeriums, unter (letzter Zugriff 16.02.2020). 143  Zur kritischen Bewertung des Emissionshandels vgl. etwa Bernward Gesang, Klimaethik, Berlin 2011, S. 166 ff. 144  Der Bericht, den die Nationalen Gesundheitsinstitute der USA (National Institutes of Health, NIH), angestoßen durch prominente Gesundheitsorganisationen, z. B. die American Cancer Society, in Auftrag gegeben hatten, trägt den Titel Smoking and Health: Report of the Advisory Com­ mittee to the Surgeon General und kann über die Homepage der National Library of Medicine abgerufen werden (vgl. ; letzter Zugriff 16.02.2020). 145  Vgl. Cigarette Labeling and Advertising Act, 1965. Die Auflagen wurden durch spätere Rechtsdokumente weiter verschärft. Seit 2012 sind kom138

 Anmerkungen | 163

binierte Text-Bild-Warnhinweise auf Tabakerzeugnissen in den USA verpflichtend (vgl. Family Smoking Prevention and Tobacco Control Act, 2009). Über die Regelungen in der Europäischen Union und Deutschland komme ich weiter unten zu sprechen. 146  Näheres regeln Tobacco Master Settlement Agreement (1997) und Family Smoking Prevention and Tobacco Control Act (2009). 147  Rechtliche Grundlagen sind das deutsche Lebensmittel- und Bedarfs­ gegenständegesetz (1975), der Rundfunkstaatsvertrag (1999), der das Sponsoring von Rundfunk- und Werbesendungen durch Zigarettenhersteller untersagt, das Jugendschutzgesetz (2002), das die Tabakwerbung im Kino vor 18 Uhr verbietet, das Gesetz zur Verbesserung des Schutzes junger Menschen vor Gefahren des Alkohol- und Tabakkonsums (2004), das u. a. die kostenlose Abgabe von Zigaretten verbietet, sowie das Vorläufige Tabakgesetz (2007), das die Tabakwerberichtlinie der Europäischen Union (s. unten EU-Richtline 2003/33/EG) umsetzt. Vgl. hierzu auch die Homepage des Deutschen Krebsforschungszentrums (DKFZ) unter ; letzter Zugriff 16.02.2020). 148  Die Kennzeichnung von Tabakerzeugnissen regelt in Deutschland die Verordnung über Tabakerzeugnisse und verwandte Produkte (Tabakerzeugnisverordnung – TabakerzV). Die aktuelle Fassung der TabakerzV (21. Juni 2016) setzt die EU-Richtlinie 2014/40/EU um (vgl. ; ; letzter Zugriff 16.02.2020). 149  Der Gesetzesentwurf steht auf der Homepage des Deutschen Bundes­ tages bereit (Drucksache 19/1878). Auch die Anhörung von Sachverständigen im Ausschuss für Ernährung und Landwirtschaft im Dezember 2018 ist hier dokumentiert (vgl. ; letzter Zugriff: 16.02.2020). Der Bundestag entschied über die Vorlage zum Tabakwerbeverbot in einer abschließenden Beratung ohne Anhörung am 27. Juni 2019, vgl. ; letzter Zugriff: 16.02.2020). 150  Vgl. Verbraucher- und Gesundheitsschutz bei Tabakprodukten und E-Zigaretten. Positionspapier der CDU/CSU-Fraktion im Deutschen Bundestag, Beschluss vom 10. Dezember 2019. Entsprechend der Tabakrahmenkonvention der WHO, die 1:1 umgesetzt werden soll, sind hiervon die Außen- und Kinowerbung betroffen, aber auch die »gewerbsmäßige kostenlose Abgabe« von Tabakprodukten. Für die gesetzliche Verschärfung seien »angemessene Übergangsfristen« geplant: »Inkrafttreten sollen die Regelungen zum 1.1. 2021. Die Beschränkung der Außenwerbung soll für herkömmliche Tabakprodukte ab dem 1.1.2022, für risikoreduzierte Tabakprodukte (Ta164 | Anmerkungen 

bakerhitzer) ab 1.1.2023 und für E-Zigaretten ab dem 1.1.2024 gelten.« Das Positionspapier ist auf der Homepage der Fraktion zu finden (; letzter Zugriff 16.02.20). 151  In der Europäischen Union ist die Tabakwerbung durch die EU-Richtlinie 2003/33/EG geregelt (vgl. ; letzter Zugriff 16.02.2020). Ziel der Regelung ist vor allem auch eine Angleichung unterschiedlicher »Rechts- und Verwaltungsvorschriften für die Werbung von Tabakerzeugnissen und das damit in Verbindung stehende Sponsoring.« (ebd.) Weitere Informationen zu der Haltung der Europäischen Kommission und der Sonderrolle Deutschlands stehen auf der Homepage bereit (; letzter Zugriff 16.02.2020). 152  Die Rahmenkonvention und weitere Dokumente stehen auf der Homepage der WHO bereit, unter (letzter Zugriff 16.02.2020). 153  Vgl. die Originalarbeiten von Ernst L. Wynder und Evarts A. Graham, Tobacco smoking as a possible etiologic factor in bronchogenic carcinoma: A study of 684 proved cases, Journal of the American Medical Association 143 (1950): 329 – 333 sowie Richard Doll und Austin Bradford Hill, Smoking and carcinoma of the lung, Preliminary report, British Medical Journal 2 (1950): 739 – 748. 154  Vgl. die Originalarbeiten von Oscar Auerbach, Thomas G. Petrick, Arthur P. Stout, Arnold L. Statsinger, Gerald E. Muehsam, Jerome B. Forman, J. Brewster Gere, The anatomical approach to the study of smoking and bronchogenic carcinoma: A preliminary report of forty-one cases, Cancer 9 (1956): 76 – 83 bzw. Oscar Auerbach und Arthur P. Stout, The role of carcinogens, especially those in cigarette smoke, in the production of precancerous lesions, Proceedings of the National Cancer Conference 4 (1960): 297 – 304. 155  Vgl. die Originalarbeit von Evarts A. Graham, Adele B. Croninger und Ernest L. Wynder, Experimental production of carcinoma with cigarette tar. Successful experiments with rabbits, Cancer Research 17,11 (1957):1058 – 1066. 156  Die Weltgesundheitsbehörde hat den Wissensstand seit den 1950er Jahren und die Reaktion der Tabakindustrie auf die Ergebnisse detailliert zusammengetragen. Die Datei ist auf der Homepage der WHO zu finden, unter (letzter Zugriff 16.02.2020). Hier stehen ferner weitere Dokumente zur Einflussnahme der Tabakindustrie auf die internationale Forschung (u. a. der WHO) bereit. Vgl. hierzu auch das WHO -Programm »Tobacco Free Initiative (TFI)«. Zur Einflussnahme der Tabakindustrie auf die deutsche Rechtsprechung vgl. auch den Bericht von Anette Bornhäuser, Jennifer McCarthy und Stanton A. Glantz, Wie die Tabakindustrie in Deutschland durch die Erhaltung wissen­  Anmerkungen | 165

schaftlicher sowie politischer Respektabilität Rechtsvorschriften zum Schutz vor Passivrauchen verhinderte, Deutsches Krebsforschungszentrum in der Helmholtz Gesellschaft, März 2006, veröffentlicht auf der Homepage des DKFZ (vgl. ; letzter Zugriff 16.02.2020). 157  Zur Kultur- und Wissenschaftsgeschichte des Zigarettenrauchens und der Einflussnahme der Tabakindustrie vgl. Richard Kluger, Ashes to ashes: American’s hundred-year cigarette war, the public health, and the unabashed triumph of Philip Morris, New York 1997, Cassandra Tate, Cigarette wars: The triumph of »the little white slaver«, Oxford, New York 2000 sowie Allen M. Brandt, The cigarette century: The rise, fall and deadly persistence of the product that defined America, New York 2007. Sarah Milov zeichnet in ihrer jüngst erschienen politischen Geschichte des Tabakkonsums nach, auf welchen Wegen im 20. Jahrhundert privatwirtschaftliche Interessen (Tabakanbau, Tabakindustrie) durch gezielte Maßnahmen staatlicher Behörden gefördert wurden, zum Beispiel über Unterstützungsprogramme für Landwirte (Dies., »The Cigarette«. A Political History, Cambridge, London 2019). 158  Vgl. WHO, Global progress report on implementation of the WHO Framework Convention on Tabacco Control 2016, S. 14: »Tobacco industry interference remains the most important barrier to effective implementation of the convention.« Seit 2017 besteht bei der WHO eine Melde- und Informationsstelle, die jegliche Versuche der Einflussnahme von Seiten der Tabakindustrie auf politisches Entscheiden zusammenträgt und öffentlich macht. Vgl. hierzu Global progress report 2018, S. 19. Alle Statusberichte und weitere Informationen sind auf der Homepage der WHO abrufbar (vgl. ; letzter Zugriff 16.02.2020). 159  Naomi Oreskes und Erik M. Conway haben dies in ihrem Buch Mer­ chants of doubt: How a handful of scientists obscured the truth on issues from tobacco to global warming (New York 2010) anschaulich gemacht. Hierauf beruht der gleichnamige Dokumentarfilm aus dem Jahr 2015. 160  Zu den aktuellen Zahlen vgl. die Homepage der WHO (; letzter Zugriff 16.02.2020). Zu den Kritikpunkten vgl. etwa R. van de Pas und L. G. van Schaik, Democratizing the World Health Organization, Public Health January 13, 2014, DOI: (16.02.2020). 161  Vgl. hierzu etwa The Guardian, UN/ WHO panel in conflict of interest row over glyphosate cancer risk, 17. Mai 2016. In diesem Fall handelt es sich um folgenden Bericht: Joint FAO/WHO Meeting on Pesticide Residues, Geneva, 8 – 13 May 2016, Summary Report, Issued 16 May 2016 (; letzter Zugriff 16.02.2020). Dessen Befund steht im Widerspruch zu den Einschätzungen der Internationalen Agentur für Krebsforschung (IARC), einer 166 | Anmerkungen 

Einrichtung der WHO. Vgl. hierzu IARC , Some Organophosphate Insecticides and Herbicides (IARC Monographs on the Evaluation of Carcinogenic Risks to Humans, Vol. 112), Lyon 2017. 162  Vorhabenträger bzw. Antragsteller sind die Wasser- und Schifffahrtsverwaltung des Bundes/Wasser- und Schifffahrtsamt Hamburg und die Freie und Hansestadt Hamburg/Hamburg Port Authority. Vgl. Projektbüro Fahrrinnenanpassung, Fahrrinnenanpassung Unter- und Außenelbe, Das Projekt im Überblick, Planungsstand Antrag 2006. Dieses Dokument und weitere Informationen zum Planfeststellungsverfahren stellt die Homepage des Projektbüros bereit, unter (letzter Zugriff 16.02.2020). 163  Laut dem Statistischen Amt für Hamburg und Schleswig-Holstein beläuft sich das Hafengebiet auf 74,4 km2, die Gesamtfläche des Stadtgebiets auf 755,2 km2 (vgl. ; letzter Zugriff 16.02.2020). Detaillierte Angaben über die Größe bzw. die Zusammensetzung des Hafengebiets hält die offizielle Website des Hafen Hamburgs bereit, unter (letzter Zugriff 16.02.2020). 164  Vgl. Projektbüro Fahrrinnenanpassung (2006, S. 7). Zu den Zielen der neunten Fahrrinnenanpassung zählen deshalb nicht nur Ausbauarbeiten der Fahrrinnentiefe, sondern auch der Fahrrinnenbreite (zu den Details vgl. ebd., S. 9 f. bzw. S. 11). 165  Zu den Auswirkungen der Fahrrinnenveränderungen auf die Höhe der Wasserstände in der Elbe vgl. etwa WWF, Flussvertiefungen contra Hochwasserschutz, Auswirkungen der Flussvertiefungen auf die Höhe der Wasserstände in den Unterläufen von Elbe, Weser und Ems, 2003. 166  Siehe hierzu etwa die Behördenstellungnahme des Staatlichen Fische­ reiamts Bremerhaven zur geplanten Fahrrinnenanpassung, Planänderung III, aus dem Jahr 2010 sowie die Stellungnahme des Vorhabenträgers zu vorgebrachten Einwendungen aus dem Bereich Schifffahrt, Fischerei bzw. Tidekennwerte, Hochwasserschutz aus dem Jahr 2011. Diese und weitere Unterlagen stellt die Planfeststellungsbehörde, die Generaldirektion Wasserstraßen und Schifffahrt – Außenstelle Nord, auf ihrer Homepage bereit, unter (letzter Zugriff 16.02.2020). 167  Die Naturschutzverbände BUND, NABU und WWF setzen sich für ein »nachhaltiges Seehafenkonzept« ein, das in einer Kooperation der drei deutschen Seehafenstandorte, Hamburg, Bremerhaven und Wilhelmshaven, bestehen könnte. Bei den geplanten Fahrrinnenanpassungen in Elbe und Weser sei bereits heute abzusehen, dass diese angesichts wachsender Schiffsgrößen nicht ausreichen und folglich weitere nach sich zögen. Gleichzeitig sei der einzige tideunabhängige Hafen Deutschlands, der JadeWeserPort  Anmerkungen | 167

in Wilhelmshaven, aufgrund der Konkurrenz mit den historischen Hafen­ stand­orten in Bremen und Hamburg wirtschaftlich nicht ausgelastet. Vgl. WWF, Hintergrundpapier Zank-Apfel Elbvertiefung, 2014. 168  Die Vorhabensträger sprechen von der »Minimierung ausbaubedingter Tidehub- und Strömungsänderungen«, der »Förderung des ebbstromdominierten Sedimenttransportes, mit dem Ziel, langfristig den Aufwand zur Unterhaltung der Fahrrinne zu begrenzen«, sowie der »Minderung ungünstiger natürlicher morphologischer Veränderungen im Elbmündungsbereich«. Vgl. Projektbüro Fahrrinnenanpassung, Fahrrinnenanpassung Unter- und Außenelbe, Die Planänderung III im Überblick, Der aktuelle Planungsstand 2010, S. 2; zu den Detailinformationen über die geplanten strombaulichen Maßnahmen vgl. Wasser- und Schifffahrtsdirektion Nord, Hamburg Port Authority, Strombau- und Sedimentmanagementkonzept für die Tideelbe, 2008. 169  Bei der Medemrinne Ost handelt es sich um eine solche »Unterwasserablagerungsfläche«, in die Sedimente künstlich verbracht werden sollen. Mit einer Fläche von 627,9 ha und einer Kapazität von 12,27 Mio m3 ist sie zudem die größte der geplanten Ablagerungsflächen (vgl. Projektbüro Fahrrinnenanpassung, 2006, S. 14). 170  Ein Gutachten zum Planfeststellungsverfahren hält zur voraussichtlichen Wirkung der Unterwasserablagerungsflächen (UWA s) fest: »Die Einrichtung der Unterwasserablagerungsflächen ist zunächst ein lediglich argumentatives Schlüsselelement zur Akzeptanz der abermaligen Vertiefung der Tideelbe, solange deren positiven Wirkung und Ausschluss von negativen Wirkungen nicht belastbar bewiesen sind. Daher wäre es geradezu zwingend gewesen, diese den UWA s zugesprochenen Wirkungen in den Gutachten des Planfeststellungsverfahrens sehr detailliert nachzuweisen. Hingegen wurden die Auswirkung der UWA s in Bezug auf den Einfluß auf die Tidehochwasserstände Thw und der Tidenniedrigwasserstände Tnw ermittelt. Aussagekräftige Aussagen zur Wirkung auf die Strömungen und auf die Sedimentbewegungen und Sedimentbilanzen fehlen in den Gutachten.« Vgl. Zanke & Partner, Gutachterliche Stellungnahme zu den Auswirkungen der Unterwasserablagerungen (UWA s) in der Medemrinne und auf dem Neufelder Sand im Zusammenhang mit dem Planfeststellungsverfahren zur Vertiefung der Unter- und Außenelbe für 14,5 m tiefgehende Schiffe, 2012, S. 7 f.; vgl. hierzu auch die Homepage des Aktionsbündnisses »Lebendige Tideelbe«, unter (letzter Zugriff 16.02.2020). 171  Vgl. Zanke & Partner, 2012, v. a. 17 ff. 172  Besondere Bedeutung kommt der Deklaration über Umwelt und Ent­ wicklung von 1992, Rio de Janeiro (»Agenda 21«), zu, die erstmals global das Recht auf nachhaltige Entwicklung (»sustainable development«) verankert, 168 | Anmerkungen 

die sich vom tradierten Konzept der Nachhaltigkeit (Forstwirtschaft) deutlich unterscheidet. Vgl. United Nations, Rio Declaration on Environment and Development, Rio de Janeiro, 3.-14 June 1992, Internet-Ressource: (letzter Zugriff 16.02.2020). Umfassende Informationen zum Thema Nachhaltigkeit hält das internetbasierte Lexikon der Nachhaltigkeit bereit, unter (letzter Zugriff 16.02.2020). 173  Zur Einführung in die Debatte um klimagerechte Lösungen (globaler Emissionshandel, CO2-Steuer etc.), vgl. Gesang, Klimaethik, 2011, S. 186 ff. 174  Wenn ich hier von »fundamentalen Zusammenhängen« spreche, meine ich nicht, dass es in den Grundlagenwissenschaften bevorzugt oder gar ausschließlich um die Erkundung von universalen Gesetzmäßigkeiten (»Naturgesetze«) gehen muss, was tradierte Lesarten (»basic«/»pure science«) nahelegen, sondern um die Genese von Wissen überhaupt. Hiermit verbinden sich gewichtige systematische Fragen – namentlich nach den Kriterien von Wissen und Wissenschaftlichkeit, aber auch nach dem Verhältnis von theoretischem Objektbezug (»Untersuchungsgegenstände«) und methodologischem respektive technisch-instrumentellem Know-how. 175  Zur Einführung in den Diskurs um übergeordnete Ziele universitärer Wissenschaft sowie die Distinktionsmerkmale von grundlagen- bzw. anwendungsorientierter Forschung in Geschichte und Gegenwart eignet sich die soziologische Untersuchung mit dem Titel Wahrheit und Nützlichkeit von David Kaldeway (Bielefeld 2013). 176  Zur Einführung in das »technische Wissen«, seine Besonderheit als spezifische Wissensart, aber auch seine Diversität vgl. etwa Günter Ropohl, Die unvollkommene Technik (Frankfurt a. M. 1985) bzw. Klaus Kornwachs, Philosophie der Technik, Eine Einführung (München 2013). 177  Bruno Latour, From the World of Science to the World of Research ? Science (1998) 280,5361: 208 – 9. 178  Vgl. Robert K. Merton, The Normative Structure of Science [1942], In: ders., The Sociology of Science. Theoretical and Empirical Investigations, Edited and with an Introduction by Norman W. Storer, Chicago, London 1973, 267 – 278, hier: 273 – 275. Zur modernen Konzeption kooperativer Arbeitsverhältnisse, den technischen und kognitiven Voraussetzungen (»dialogic communication«; »lateral thinking«) des Innovationsgeschehens und ihrer Bedeutung für wissenschaftliche Formen der Zusammenarbeit vgl. Richard Sennett, Together. The Rituals, Pleasures & Politics of Cooperation, London u. a. 2012, hier v. a. 112 ff. 179  Ebd., 270 – 273. Mertons Analyse geschieht in kritischer Distanzierung zur Indienstnahme von Wissenschaft und Forschung im Zuge von Imperialismus, Nationalismus und Ethnozentrismus. Er setzt sich in diesem Zuge  Anmerkungen | 169

auch damit auseinander, unter welchen Bedingungen die Orientierungsnormen, die den Standesethos der Wissenschaft konstituieren, am ehesten zu gewährleisten seien (vgl. v. a. 272 f.). 180  Ebd., 275 – 277. 181  Ebd., S. 277 f. Zur kritischen Analyse von »Praxisnormen« im Kontext von Wissenschaft und Forschung vgl. insbesondere Konrad Ott, Ipso facto. Zur ethischen Begründung normativer Implikate wissenschaftlicher Praxis, Frankfurt a. M. 1997 (z. B. zum »internen Ethos« der Wissenschaft, 345 – 361). 182  Die Frage, wie diese organisatorisch verfasst sein sollten, um ihre Autonomie/Unabhängigkeit (vor staatlichen Eingriffen) zu gewähren, ließe sich im Anschluss an die kritische Auseinandersetzung mit dem »deutschen Modell« universitärer Forschung und Lehre aufnehmen. Zur Einführung in die Genese des Modells im 19. Jahrhundert, ihre Rezeption in In- wie Ausland bis hin zur Neubewertung ihrer Grundpfeiler angesichts systemischer Herausforderungen der neueren Zeit, vgl. Heinz-Elmar Tenorth, Wilhelm von Humboldt. Bildungspolitik und Universitätsreform, Paderborn 2018. 183  Vgl. hier vor allem auch das zugrunde gelegte Finanzierungsmodell »Zwei Säulen-plus«, in: HRK , Finanzierung des Hochschulsystems nach 2020, Entschließung der 22. Mitgliederversammlung der HRK , 9. Mai 2017, S. 3 bzw. S. 6 – 8. 184  Ebd.; in einer Entschließung der HRK aus dem Jahr 2013 heißt es zum besonderen Status von Hochschulen wie folgt: »Die Hochschulen haben eine zentrale Rolle in unserem Wissenschaftssystem inne, weil sie die einzigen Stätten der Verknüpfung von auftragsfreier und drittmittelunabhängiger Forschung einerseits und Lehre andererseits sind.« Vgl. HRK , Perspektiven des Wissenschaftssystems. Entschließung des 124. Senats der Hochschulrektorenkonferenz, 11.6.2013, S.2. Beide Dokumente stehen auf der Homepage der HRK bereit (; letzter Zugriff 16.02.2020). 185  Zur Einführung in die Thematik vgl. etwa die wissenschaftshistorischen Analysen Steven Shapins in The Scientific Life, A Moral History of a Late Modern Vocation (Chicago, London 2008), hier vor allem das Kapitel 4 Who is the Industrial Scientist ? (93 – 164); zur wissenschaftssoziologischen Bewertung vgl. etwa Peter Weingarts Analysen zur Kapitalisierung des Wissens (z. B. Die Stunde der Wahrheit ? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft, Weilerswist 2001). 186  Vgl. hierzu etwa Doogab Yi, The Recombinant University: Engineering and the Emergence of Stanford Biotechnology, Chicago, London 2015. 187  Zu den Hintergründen der Asilomar-Konferenz (Asilomar Conference on recombinant DNA molecules, auch: Asilomar 2), der 1973 bereits eine erste 170 | Anmerkungen 

kleine Tagung vorausging (Asilomar 1), ihren Ergebnissen und namentlich der gemeinsamen Empfehlung zur restriktiven Nutzung der rekombinanten Technik vgl. die Homepage des US -amerikanischen Gesundheitsbehörde (NIH) unter https://profiles.nlm.nih.gov (05.05.2019) sowie Paul Berg et al., Summary Statement of the Asilomar Conference on Recombinant DNA Molecules, Proceedings of the National Academy of Sciences of the United States of America 72,6 (1975): 1981 – 1984. Zur Nachfolgekonferenz im Jahr 2000 (Asilomar 3) vgl. das Themenheft Project Muse in der Fachzeitschrift Perspectives in Biology and Medicine (2001, Vol. 44, Number 2). 188  Alexander M. Capron und Renie Schapiro, Remember Asilomar ? Reexamining Science’s Ethical and Social Responsibility, Perspectives in Biol­ ogy and Medicine 44,2 (2001): 162 – 169, hier: S. 168. 189  Ebd., S. 168 f. 190  Die Kategorisierungsmatrix geht auf Ergebnisse eine Arbeitsgruppe an der Universität zu Köln aus dem Jahr 2017 zurück, die sich der Kategorisierung Klinischer Studien widmete – vgl. hierzu Wissenschaftsrat, Empfehlungen zu Klinischen Studien (Drs. 7301 18), 19.10.2018, S. 73. Die Empfehlung ist über die Homepage des Wissenschaftsrats abrufbar (; letzter Zugriff 16.02.2020). 191  Ebd. 192  In der Metaphysik führt Aristoteles aus, dass Wissenschaft auf höchster Stufe keine »hervorbringende (poietische)« Wissenschaft sei. Er verweist hierzu auf die Vorgehensweise der »älteren Philosophen« und führt aus: »Wenn sie philosophierten, um der Unwissenheit zu entgehen, so suchten sie das Erkennen offenbar des Wissens wegen, nicht um irgendeines Nutzens willen. Das bestätigt auch der Verlauf der Sache. Denn als so ziemlich alles zur Annehmlichkeit und (höheren) Lebensführung Nötige vorhanden war, da begann man diese Einsicht zu suchen. [...] Daraus erhellt also, daß wir sie nicht um irgendeines anderweitigen Nutzens willen suchen; sondern, wie wir den Menschen frei nennen, der um seiner selbst willen, nicht um eines anderen willen ist, so auch diese Wissenschaft als allein unter allen freie; denn sie allein ist um ihrer selbst willen.« (Buch I, Kap. 2, 982b). 193  Vgl. Neues Organon [NO] (Buch I, § 99). 194  Vgl. hierzu die Vorrede zur Instauratio Magna (in: NO, Buch I, S. 33): Als »niedere« Gründe fasst er u. a. das Streben nach Vorteilsnahme, Ruhm oder Macht. 195  NO, Buch I, § 99. 196  Das Verhältnis zwischen Handeln und Erkennen im Fall experimentalwissenschaftlicher Forschung wie auch den produktiven Charakter wissenschaftlicher Forschung überhaupt habe ich an anderer Stelle näher ausgeführt: Lara Huber, Standards und Wissen. Zur Praxis wissenschaftlicher  Anmerkungen | 171

Erkenntnis. Eine philosophisch-systematische Untersuchung (Weilerswist 2020). Hieran anschließend ließe sich auch der Diskurs um die Planbarkeit wissenschaftlicher Forschung eröffnen: Planbarkeit adressiert hier nicht zuletzt die Frage nach der Rechtmäßigkeit und Möglichkeit politischer Einflussnahme auf die Wissenschaftsentwicklung. Vgl. hierzu etwa den Sammelband Geplante Forschung, hrsg. von Wolfgang van der Daele, Wolfgang Krohn und Peter Weingart (Frankfurt a. M.: 1979). 197  Im besten Sinne meint freilich auch, dass sich Wissenschaftlerinnen und Wissenschaftler dieses Schutzraumes als Wirkungsraum aller an Wissenschaft Beteiligten bewusst sind. Hier ließe sich etwa darauf verweisen, dass Wissenschaft als soziale Praxis – neben wissenschaftlichen Standards – auch soziale Werte pflegt, die es entsprechend zu achten gilt (z. B. Kollegialität). Gleiches ließe sich in Anbetracht von Standeskodizes guter wissenschaftlicher Praxis sagen. Hier sei etwa auf die Güterabwägung zwischen Machbarkeit und Wünschbarkeit verwiesen. 198  WR , Anwendungsorientierung in der Forschung, Positionspapier (Drs. 8289 – 20), Januar 2020, S. 11. Im Einzelnen geht es dem WR erklärterweise darum, die »Dynamik wechselnder Forschungsorientierung« – nämlich zwischen anwendungs- bzw. grundlagenorientierten Bereichen – »zu fördern« (ebd.). Faktisch lässt sich aus dem Forderungskatalog eine grundsätzliche Öffnung gerade auch der universitären Einrichtungen für anwendungsorientierte Forschung herauslesen (u. a. Industry on CampusAnsätze, Citizen Science-Vorhaben; S. 22 ff.). Das Positionspapier ist auf der Homepage des Wissenschaftsrats zu finden (; letzter Zugriff 16.02.2020). 199  Weitere Informationen zum Tierstimmenarchiv sind auf der Homepage der Einrichtung zu finden, unter (letzter Zugriff 16.02.2020). 200  Martin Carrier bemerkt zu dieser Sachlage etwa: »[T]he relevance of a piece of fundamental knowledge for a given practical challenge cannot reliably be estimated in advance«. Das Zitat ist folgendem Beitrag entnommen: ders., Knowledge and Control. On the Bearing of Epistemic Values in Applied Science, in: Science, Values, and Objectivity, hrsg. v. Peter Machamer und Gereon Wolters, Pittsburgh 2004, 275 – 293; hier: S. 281. 201  Vgl. hierzu etwa den Artikel von Thomas Thiel: Kalter Krieg der Vernunft. Einheitswissenschaft unter Ideologieverdacht: Wie stark hat der Konflikt der Weltmächte die Forschung geprägt, in: Frankfurter Allgemeine Zeitung, 31.10.2018. 202  Als Einführung in das Themenfeld eignet sich: Wulf D. Hund, Wie die Deutschen weiß wurden. Kleine (Heimat)geschichte des Rassismus (Stuttgart: J.B. Metzler 2017); zur weiterführenden Lektüre seien empfohlen: 172 | Anmerkungen 

Stuart Ewen und Elizabeth Ewen, Typecasting. On the Arts and Sciences of Human Inequality (New York: Seven Stories Press 2007) und Thomas McCarthy, Race, Empire, and the Idea of Human Development (Cambridge u. a.: Cambridge University Press 2009). 203  Als Richard J. Herrnstein und Charles A. Murray 1994 in ihrer sozialwissenschaftlichen Abhandlung The Bell Curve, Intelligence and Class Structure in American Life mit zweifelhaften Erfolg zu belegen suchten, dass die Zugehörigkeit zu einer bestimmten sozioökonomischen Schicht mit dem Intelligenzquotienten korreliert sei, und hieraus weitreichende Schlussfolgerungen für die US -amerikanische Sozialpolitik ableiteten, sah sich Gould genötigt, seine ursprüngliche Untersuchung aus dem Jahr 1981 um fünf Essays zu erweitern, die sich kritisch mit dem Erbe sozialdarwinistischen Denkens auseinandersetzen. Hier sei entsprechend auf diese jüngere Ausgabe seiner Schrift verwiesen: Steven Jay Gould, The mismeasure of man. The definitive refutation to the argument of The Bell Curve, Revised and expanded (New York, London 1996). 204  Garland E. Allen, The Eugenics Record Office at Cold Spring Harbor, 1910 – 1940: An Essay in Institutional History, Osiris 2 (1986): 225 – 264, hier v. a. S. 238: »The Eugenics Record Office was organized with two general purposes to carry out research on human heredity, especially the inheritance of social traits; and to educate laypersons about the importance of eugenic research and the implications of eugenic findings for public policy.« Zum methodischen Vorgehen und der Datenerfassung am ERO im Einzelnen vgl. ebd., 238 – 245. 205  Allen weist die Finanzierung der Einrichtung durch das US -amerikanische Stiftungswesen in den Jahren 1910 – 39 detailliert aus – vgl. ebd., 260 – 64. Zum Stellenwert der ERO für die Eugenik schreibt er (ebd., S. 226): »The ERO became a meeting place for eugenicists, a repository for eugenic records, a clearinghouse for eugenics information and propaganda, a platform from which popular eugenic campaigns could be launched, and a home for several eugenical publications.« 206  In einem Brief an Galton, in dem Davenport die Einrichtung des ERO ankündigt, heißt es: »As the enclosed printed matter will show in some detail, there has been started here a Record Office in Eugenics; so you see the seed sown by you is still sprouting in distant countries.« Zit. n. Michael Bulmer, Francis Galton, Pioneer of Heredity and Biometry, The Johns Hopkins University Press 2003, S. 88. Galton prägte nicht zuletzt den Begriff »Eugenik«. Er erwähnt ihn erstmals in seiner programmatischen Schrift Inquiries into Human Faculty and its Development aus dem Jahr 1883. Galton war Mitbegründer der wissenschaftlichen Gesellschaft Eugenics Education Society (1907) – zur Einführung vgl. die Homepage der Wellcome Library (; letzter Zugriff: 16.02.2020). 207  Karl Pearson bekleidete den Lehrstuhl von 1911 bis 1933, Ronald A. Fisher von 1933 bis 1944. Unter Lionel Penrose, einem Kritiker des eugenischen Programms (1944 – 65), wurde der Lehrstuhl erst Mitte der 1960er Jahre in Galton Professorship of Human Genetics umbenannt (ab 1963). Zu den Forschungsschwerpunkten im Einzelnen vgl. Bulmer (2003, S. 84 f.) sowie ferner Daniel J. Kevles, In the name of eugenics. Genetics and the uses of human heredity, Cambridge/MA, London 1995 (hier: v. a. S. 37 f. und 251 f.). 208  Vgl. hierzu etwa Allen (1986, 252 f.). Zur Person Eugen Fischer vgl. Ernst Klee, Das Personenlexikon zum Dritten Reich. Wer war was vor und nach 1945 (Frankfurt a. M. 2003); zur Institutsgeschichte vgl. Hans-Walter Schmuhl, The KWI for Anthropology, Human Heredity and Eugenics, 1927 – 45: crossing boundaries (Dordrecht 2008). 209  Zur Einführung vgl. Ernst Klee, Deutsche Medizin im Dritten Reich. Karrieren vor und nach 1944 (Frankfurt a. M. 2001); zu rassenkundlichen und rassenhygienischen Forschungsprojekten an weiteren Einrichtung der Kaiser-Wilhelm-Gesellschaft zur Förderung der Wissenschaft e.V. , u. a. das KWI für Hirnforschung (Berlin, 1914 – 45) und die Deutsche Forschungsan­ stalt/KWI für Psychiatrie (München, 1917/1924 – 45), vgl. die Einzelstudien von Carola Sachse und Benoit Massin, Biowissenschaftliche Forschung an Kaiser-Wilhelm-Instituten und die Verbrechen des NS -Regimes: Informationen zum gegenwärtigen Wissensstand (Max-Planck-Gesellschaft zur Förderung der Wissenschaft 2000); Schmuhl, Hirnforschung und Krankenmord. Das Kaiser-Wilhelm-Institut für Hirnforschung 1937 – 1945 (MaxPlanck-Gesellschaft zur Förderung der Wissenschaft 2000). 210  Paul Weindling hat dies am Beispiel der Rockefeller Foundation detailliert dargelegt, vgl. ders., The Rockefeller Foundation and German Biomedical Sciences, 1920 – 1940: from Educational Philanthropy to International Science Policy, in: Nicolaas A. Rupke, Science Politics and the Public Good. Essays in Honour of Margaret Gowing, Macmillan Press 1988, 119 – 140. Lily E. Kay hat in ihrer Monographie zur Genese der Molekularbiologie The Molecular Vison of Life, Caltech, The Rockefeller Foundation, and the Rise of the New Biology (Oxford, New York 1993) deutlich gemacht, dass das eugenische Gedankengut die forschungspolitische Agenda der Rockefeller Foundation (»Science of Man«) zu Beginn des 20. Jahrhunderts maßgeblich prägte. Hier wäre auch auf die finanzielle Unterstützung von Einrichtungen der KWG mit eindeutig rassenkundlicher Ausrichtung, wie etwa das KWI für Anthropologie in den Jahren 1931/32, zu denken (vgl. hierzu auch Max-Planck-Gesellschaft, 100 Jahre Kaiser-Wilhelm-/MaxPlanck-Gesellschaft zur Förderung der Wissenschaften, Handbuch zur 174 | Anmerkungen 

Institutsgeschichte, 2016, Bd. 2, Tb 1, S. 80). Beginnend in den 30er Jahren setzte durch die Diskreditierung der Eugenik allmählich ein Umdenken ein, was einerseits zur Neuausrichtung der Förderung führte, Kay verweist hier namentlich auf die Programmförderung der »neuen Biologie« (Molekularbiologie). Auch die Unterstützung von Wissenschaftlern, die aufgrund ihres Glaubens oder ihrer politischen Überzeugung aus Deutschland in die USA flohen (»Scholars in Exile«), wäre anzuführen (vgl. The Rockefeller Foundation, Annual Report 1936, S. 57 ff.). 211  Klee verweist etwa auf die Personalie Ottmar Freiherr von Verschuer: Verschuer, ab 1928 am KWI für Anthropologie tätig und dessen Direktor (ab 1942), u. a. zuständig für die Forschungen Josef Mengeles in Auschwitz, hat von 1951 – 65 eine Professur für Genetik in Münster inne und leitet das dortige Institut für Humangenetik – vgl. Klee (2001, v. a. Kap. 12: 254 – 279) und ders. (2003, S. 636 f.). 212  Vgl. hierzu die Homepage des Eugenics Archive, einer interaktiven Plattform, eingerichtet vom Social Science and Research Council, Kanada, unter: (letzter Zugriff 16.02.2020). 213  In der kritischen Wissenschaftsforschung wird seit Thomas S. Kuhn nicht zuletzt die Orientierung an außerepistemischen Kriterien (Einfachheit, Eleganz) adressiert, denen bei der Priorisierung von Theorien und Modellen – vor dem Hintergrund strenger epistemischer Kriterien – ein wichtiger Stellenwert zugeschrieben wird. 214  Gemeinhin lassen sich zwei Herausforderungen unterscheiden: ers­ tens die erkenntnistheoretische Bewertung, sprich: ob sich Datensätze für wissenschaftliche Zwecke nutzbar machen lassen, obwohl sie – aus heutiger Sicht – nur begrenzt als belastbare wissenschaftliche Ergebnisse gelten können. Zweitens wäre die gegebenenfalls zusätzlich hinzutretende moralische Bewertung von Forschungsdesign und Umsetzung zu nennen: Diese tangiert vor allem bekanntermaßen menschenverachtende, z. B. rassistische Designs (Eugenik, NS -Forschung, Koloniale Forschung etc.) oder Forschungsvorhaben, die missbräuchlich mit Forschungssubjekten umgehen (z. B. Versuche an Heimkindern und anderen vulnerablen Gruppen unter Missachtung bestehender gesetzlicher und moralischer Standards). Zur Debatte, ob es geboten ist, Ergebnisse der NS -Rassenforschung, so sie aus erkenntnistheoretischer Sicht überhaupt dazu taugen, für heutige Forschungsziele heranzuziehen, vgl. etwa den Beitrag von Baruch C. Cohen, The Ethics of using medical data from Nazi-experiments, auf der Homepage der Jewish Virtual Library, unter: (letzter Zugriff 16.02.2020). 215  Stefan Böschen, Karen Kastenhofer, Ina Rust, Jens Soentgen und Peter Wehling, Entscheidungen unter Bedingungen pluraler Nichtwissenskultu Anmerkungen | 175

ren, in: Renate Mayntz, Friedhelm Neidhardt, Peter Weingart und Ulrich Wengenroth (Hg.), Wissensproduktion und Wissenstransfer. Wissen im Spannungsfeld von Wissenschaft, Politik und Öffentlichkeit, Bielefeld 2008, 197 – 220, hier: S. 204 (s. Tabelle 1). 216  Ebd., S. 204/205. 217  Ebd., S. 205. 218  Ebd., S. 204. 219  Peter Wehling, Nichtwissen – Bestimmungen, Abgrenzungen, Bewertungen, Erwägen – Wissen – Ethik 20 (2009): 95 – 106, hier: S. 102. 220  Böschen et al. (2008, S. 204/205). 221  Ebd., S. 205. 222  Ich greife hier auf eine klassische Unterscheidung zurück, auf die Karl Popper in seinem frühen Hauptwerk Logik der Forschung aufmerksam gemacht hat. Popper war wie Isaak Newton ein Anhänger des deduktiven Schlussverfahrens: Eine Hypothese, die aus einer Theorie abgeleitet wurde, gelte es mittels Prüfverfahren, zum Beispiel systematischer Beobachtung, auf ihre Richtigkeit (empirische Wahrheit) hin zu testen. Popper treibt – ähnlich wie David Hume (s. Induktionsproblem) vor ihm, die Frage um, ob mittels Prüfverfahren abschließend festgestellt werden könne, dass die aus der Theorie geronnene Vermutung (Hypothese) gelte, sprich: wahr sei (Verifikation). Bekanntermaßen kommt er zum Schluss, dass allein die Widerlegung (Falsifizierung) der Vermutung uns Sicherheit im Urteil gebe (Gewissheit). So heißt es bei ihm wie folgt (ebd., 1973, S. 223): »Unsere Wissenschaft ist kein System von gesicherten Sätzen, auch kein System, das in stetem Fortschritt einem Zustand der Endgültigkeit zustrebt. Unsere Wissenschaft ist kein Wissen (episteme): weder Wahrheit noch Wahrscheinlichkeit kann sie erreichen.« 223  Was für die Messtechnik das »Normal«, ist für die Sozialwissenschaft das »normative sample« oder die »Referenzgruppe« – vgl. hierzu Lara Huber, Normal, Konturen eines Leitbegriffs in Wissenschaft und Gesellschaft (Hamburg 2018). 224  Joseph Henrich, Steven J. Heine und Ara Norenzayan, The weirdest people in the world ?, Behavioral and Brain Sciences 33 (2010): 61 – 135. 225  Nicht zuletzt machen sie auf der Basis ihrer Erhebung deutlich, wie es um die Datenlage innerhalb der Kognitions- bzw. Verhaltensforschung insgesamt bestellt ist – vgl. hierzu etwa ebd., S 63. 226  Das deutsche Grundgesetz sichert im Einzelnen die Trias aus Wissenschaft, Forschung und Lehre. Im Wortlaut heißt es (GG, Art. 5, Abs. 3): »Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.« Vgl. hierzu auch die Kampagne der Allianz der Wissenschaftsorganisationen »Freiheit ist unser 176 | Anmerkungen 

System: Gemeinsam für die Wissenschaft. 70 Jahre Grundgesetz« unter: (letzter Zugriff 16.02.2020). 227  BVerf GE 35, 79 (128). Der Volltext des Urteils ist im Internet abrufbar unter (letzter Zugriff 16.02.2020). 228  Aus korrumpierten wissenschaftlichen Systemen kann keine gute wissenschaftliche Praxis (»lege artis«) erwachsen: Entweder wird in Absehung bestehender Regeln geforscht (»questionable research practice«; »misconduct«) oder aber es werden Mängel, die auf die Arbeitsbedingungen an wissenschaftlichen Einrichtungen etwa zurückzuführen sind, wissentlich ausgenutzt. In der Folge ist darauf zu achten, dass bei der Ermittlung von Verantwortlichkeit nicht nur das Individuum, die Wissenschaftlerin oder der Wissenschaftler, in den Blick gerät, sondern auch systemische Bedingungen verantwortungsvollen Entscheidens und Handelns Beachtung finden, um jeglicher Form »organisierter Verantwortungslosigkeit«, um einen Begriff des Soziologen Ulrich Beck aufzugreifen, vorzubeugen. Beck kommt hierauf in einem anderen Kontext, bezogen auf spezifische Herausforderungen, die aus der Komplexität und Unübersichtlichkeit von Entscheidungsund Handlungssystemen im Zeichen der »Risikogesellschaft« erwachsen, erstmals in seiner Monographie »Gegengifte«: Die organisierte Verantwort­ lichkeit (Frankfurt a. M. 1988) zu sprechen. 229  Zur Einführung in Forschungsdesiderate, die Biomaterialien nutzen, und deren generische Herausforderungen (Gewinnung, Einholung von Zustimmung, Verwahrung, Nutzung respektive Verwertung) vgl. Maxine Saborowski, Die Pluripotenz von Biodaten, Beobachtungen zu einem Verwertungsgeschehen, in: Thomas Potthast, Beate Herrmann und Uta Müller (Hrsg.), Wem gehört der menschliche Körper ? Ethische, rechtliche und soziale Aspekte der Kommerzialisierung des menschlichen Körpers und seiner Teile, Paderborn 2010, 367 – 390. 230  Als Einführung in den Diskurs um Biosicherheit eignet sich etwa die gleichnamige Stellungnahme des Deutschen Ethikrats, Biosicherheit – Freiheit und Verantwortung in der Wissenschaft, Stellungnahme, 2014. Vgl. hierzu die Homepage des Ethikrats, unter: (letzter Zugriff 16.02.2020). Zur weiterführenden Lektüre in den ethischen Diskurs um Wissenschafts- und Forschungsfreiheit wäre etwa auf Torsten Wilholts Monographie Die Freiheit der Forschung, Begründungen und Be­ grenzungen (Berlin 2012) zu verweisen. 231  VDI, Ethische Grundsätze des Ingenieurberufs, März 2002, vgl. hierzu die Homepage des VDI unter: (letzter Zugriff 16.02.2020). Der VDI unterscheidet u. a. zwischen technischer und strategischer Verantwortung, so heißt es etwa (ebd., 1.4): »Ingenieurinnen und Ingenieure  Anmerkungen | 177

bekennen sich zu ihrer Bringpflicht für sinnvolle technische Erfindungen und Lösungen: Technische Verantwortung nehmen sie wahr, indem sie für Qualität, Zuverlässigkeit und Sicherheit sowie fachgerechte Dokumentation der technischen Produkte und Verfahren sorgen. Sie sind mitverantwortlich dafür, daß die Nutzer technischer Produkte über die bestimmungsgemäße Verwendung und über die Gefahren eines naheliegenden Fehlgebrauchs hinreichend informiert werden. Strategische Verantwortung nehmen Ingenieurinnen und Ingenieure wahr, indem sie daran mitwirken, die jeweiligen Leistungsmerkmale technischer Produkte und Verfahren festzulegen: Sie zeigen Lösungsalternativen auf, eröffnen neue Suchräume und berücksichtigen die Möglichkeiten von Fehlentwicklungen und vorsätzlichem Fehlgebrauch.« Zur moralischen Verantwortung heißt es ferner (ebd., 2.3): »Die spezifische Ingenieursverantwortung orientiert sich an Grundsätzen allgemeiner moralischer Verantwortung, wie sie jeglichem Handeln zukommt. Sie verbietet, Produkte für ausschließlich unmoralische Nutzung (beispielsweise ausgedrückt durch internationale Ächtung) zu entwickeln und unabwägbare Gefahren und unkontrollierbare Risikopotentiale zuzulassen.« 232  Zum Stellenwert des »Citizen-Scientist’s Activism«, darunter auch das Engagement von Wissenschaftlerinnen und Wissenschaftlern, die sich in kritischer Distanzierung zum »Manhattan Project« (USA , Los Alamos, 1942 – 46) gegen die Vereinnahmung wissenschaftlicher Forschung für militärische Zwecke ausgesprochen haben, vgl. etwa Gerhard Sonnert und Gerald Holton, Ivory Bridges. Connecting Science and Society, Cambridge/ MA , London 2002; hier v. a. die ausführliche Darstellung entsprechender Vereinigungen gefasst als »Scientists Voluntary Public-Interest Associations« (vgl. Annex D, 133 – 198). 233  In der Grundordnung der TU Darmstadt heißt es: »Forschung, Lehre und Studium an der Technischen Universität Darmstadt sind ausschließlich friedlichen Zielen verpflichtet und sollen zivile Zwecke erfüllen; die Forschung und insbesondere die Entwicklung und Optimierung technischer Systeme, sowie Studium und Lehre sind auf eine zivile Verwendung ausgerichtet.« Vgl. hierzu die Homepage der TU Darmstadt, unter: (letzter Zugriff 16.02.2020). Eine Übersicht über die Ausrichtung universitärer Forschung in Deutschland an zivilen Zielen bietet die Homepage der Initiative Hochschulen für den Frieden unter: (letzter Zugriff 16.02.2020). 234  Deutscher Hochschulverband, Nein zur Zivilklausel, Resolution des 64. DHV-Tages, 25. März 2014. Im Einzelnen heißt es hier (ebd., S. 1 f.): »Zivilklauseln greifen verfassungswidrigerweise in die vom Grundgesetz verbürgte Freiheit von Forschung und Lehre ein. Grundsätzlich ist jede Wissen178 | Anmerkungen 

schaftlerin und jeder Wissenschaftler in der Wahl und Bearbeitung seines Forschungssujets frei. Weder der Gesetzgeber noch die Hochschulen haben die Befugnis Wissenschaftlerinnen und Wissenschaftler unter einen noch so wohlmeinenden Gesinnungsvorbehalt zu stellen. Wissenschaftlerinnen und Wissenschaftler tragen für ihre Forschung autonome Verantwortung.« Die Resolution ist auf der Homepage des DHV zu finden unter: (letzter Zugriff 16.02.2020). 235  Miranda Fricker, Epistemic Injustice. Power and the Ethics of Knowing, Oxford, New York 2007 (Reprinted 2010). Fricker eröffnet zwei Perspektiven auf »Ungerechtigkeit«: Die erste Perspektive tangiert die Glaubwür­ digkeit wissenschaftlicher Akteure. Fricker verhandelt diesen Gesichtspunkt unter dem Stichwort der »wissenschaftlichen Zeugenschaft«. Im Wesentlichen setzt sie sich kritisch mit Steven Shapins Analysen auseinander, der mit dem Blick auf die Genese experimenteller Methoden im 17. Jahrhundert und dem Status einer bestimmten sozialen Gruppe (»Gentlemen«) darlegt, dass das Zusammengehen von Glaubwürdigkeit und Zeugenschaft ein konstitutives Element in der Sozialgeschichte wissenschaftlicher Forschung darstellte. Fricker problematisiert hiermit verbundene Ungerechtigkeiten als »testimonial injustice«. Hiervon unterscheidet sie ferner die »hermeneutic injustice«, die darauf zurückzuführen sei, dass Personen in Bezug auf ihre spezifische Erfahrungswelt (social experiences) im wissenschaftlichen Kontext kein oder unzureichend Gehör fänden. 236  Mir geht es mit diesem Punkt dezidiert nicht um die Frage, ob es geboten sei, »Laien« an wissenschaftlichen Vorhaben zu beteiligen (»Citizen Science«) oder sie in Entscheidungsprozesse miteinzubinden, die auch über inhaltliche Ziele wissenschaftlicher Forschung befinden – etwa im Zuge strategischer Überlegungen der Technik- und Forschungsfolgenabschätzung (vgl. Responsible Research and Innovation). 237  Ich rekurriere hier auf jene Lesart der »Citizen Science«, die »partizipative« Strategien oder in anderen Worten Beteiligungsoptionen für NichtWissenschaftlerinnen und Nicht-Wissenschaftler eröffnet. In der Regel werden hier vor allem Beteiligungsoptionen an a) genuin wissenschaftlicher Forschung oder b) Entscheidungsfindungen im Zuge der Forschung- oder Technikfolgenbewertung (»Responsible Research and Innovation«) unterschieden. Zum Stellenwert der »Citizen Science« für Demokratisierungsprozesse innerhalb von Wissenschaft und Forschung sind in den letzten Jahrzehnten zahlreiche Untersuchungen erschienen. Gleiches ließe sich für die quantitative und qualitative Forschung zu partizipativen Formaten selbst sagen. Exemplarisch sei auf die jeweiligen Themenhefte der Fachzeitschriften Science, Technology & Human Value (2008) 33,2; Public Understanding of Science (2014), 23, 1 und Science and Technology Studies (2019) 32,2 verwiesen.  Anmerkungen | 179

  Dass es in der Forschung nicht nur z. B. durch fehlende Einsicht oder mangelnde Expertise zu Fehlern bzw. zu Fehleinschätzungen kommen kann, ist selbstredend. Gleiches gilt für den Umstand, dass Forschende aus Geltungssucht Daten fälschen oder bei der Interpretation von Daten bzw. ihrer Darstellung von Ergebnissen zu ihren Gunsten nachhelfen. 239  ASW VI .1, 91; Suhrkamp 1971, 58. 240  Vgl. ASW VI .1, 91 f.; Suhrkamp 1971, 58 f. 241  ASW VI .1, 93 bzw. 95; Suhrkamp 1971, 61 bzw. 64. 242  ASW VI .1, 95 f.; Suhrkamp 1971, 64. [Diese Textfassung weicht aus sprachlicher Sicht deutlich von der hier zitierten Fassung der Werkausgabe ab.]. 243  ASW VI .1, 97; Suhrkamp 1971, 66. Mit dem »intrinsischen Relevanzsystem« setzt sich Schütz auch in seinem Essay Der gut informierte Bürger auseinander (vgl. ASW VI.2, 115 – 132). Hier heißt es: »Die intrinsischen Relevanzen sind das Ergebnis unserer gewählter Interessen, die durch unsere spontane Entscheidung, ein Problem durch Denken zu lösen, ein Handlungsziel zu erreichen oder einen geplanten Zustand herbeizuführen, festgelegt werden. Sicherlich können wir frei wählen, was uns interessiert, aber das einmal festgelegte Interesse bestimmt das dem gewählten Interesse intrinsische Relevanzsystem. Wir müssen uns mit den so gesetzten Relevanzen abfinden, die durch deren innere Struktur bestimmte Situation hinnehmen und ihre Anforderungen erfüllen.« (ebd., 121) 244  ASW VI .1, 93; Suhrkamp 1971, 61 [Die Textpassage ist kursiv gesetzt; Hervorhebung verändert, L.H.]. 245  Vgl. hierzu Abschnitt 2.2. 246  ASW VI .2, 122. 247  ASW VI .2, 125. 248  Ebd. Was Schütz als »Diskursuniversum« bezeichnet, zeigt Parallelen zu Flecks Begriff des »Denkstils«: Wissenschaftlerinnen und Wissenschaftler seien keine isolierten Forscher, sondern je in eine spezifische wissenschaftliche Arbeits- und Diskursgemeinschaft eingebunden (»Denkkollektiv«). Die Zugehörigkeit zu einem wissenschaftlichen Kollektiv erweise sich als grundlegend für die Aneignung von Methodenkenntnissen und weiterer grundlegender Überzeugungen (»Denkstil«). Vgl. hierzu insbesondere ders., Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Mit einer Einleitung hrsg. v. Lothar Schäfer und Thomas Schnelle, Frankfurt a. M. 1980. 249  ASW VI .1, 98 f.; Suhrkamp 1971, 67 f. 250  ASW VI .1, 105; Suhrkamp 1971, 76 [sprachliche Abweichungen zur zitierten Fassung]. Zuvor hatte er bereits festgehalten: »Es sind die Gegebenheiten insgesamt, räumliche, zeitliche, autobiographische, und, wie wir 238

180 | Anmerkungen 

später sehen werden, die Weise, in der das auszulegende Objekt erscheint, die einerseits die Gegenstandsmomente (seine Wahrnehmungsphänomene) und andererseits die Elemente meines zuhandenen Wissensvorrats, von denen das eine in bezug auf das andere für die Auslegung relevant ist, bestimmen.« (Vgl. ASW VI.1, 99; Suhrkamp 1971, 69 [sprachliche Abweichungen zur zitierten Fassung]). 251  ASW VI .1, 102: »Zwei Auslegungen des gleichen thematischen Gegenstandes sind gleich möglich, die eine hat das gleiche Gewicht wie die andere, mit der sie unvereinbar ist. Wie kommt das ? Die Auslegungsrelevanzen sind nicht vollständig genug, um eine eindeutige Bestimmung zu ermöglichen.« Vgl. Suhrkamp 1971, 73 [sprachliche Abweichungen zur zitierten Fassung]. 252  ASW VI .1, 105; Suhrkamp 1971, 76 [sprachliche Abweichungen zur zitierten Fassung]. 253  Schütz spricht etwa davon, dass es darum gehe, »für die Auslegung relevante Motive zu sammeln, die dem selben thematischen Gegenstand wesentlich sind« (vgl. ASW VI.1, 103; Suhrkamp 1971, 74 [sprachliche Abweichungen zur zitierten Fassung]). 254  Kant, Der Streit der Fakultäten (Werkausgabe, Bd. 11, A 25/26). Über die Philosophische Fakultät heißt es im Einzelnen (ebd.): »In Ansehung der drei obern dient sie dazu, sie zu kontrollieren und ihnen eben dadurch nützlich zu werden, weil auf Wa h rheit (der wesentlichen und ersten Bedingung der Gelehrsamkeit überhaupt) alles ankommt; die Nüt z l ic h keit aber, welche die oberen Fakultäten zum Behuf der Regierung versprechen, nur ein Moment vom zweiten Range ist.« 255  Der Nützlichkeit des »Unnützen« widmet sich etwa Nuccio Ordine in seiner gleichnamigen Abhandlung Von der Nützlichkeit des Unnützen. Ein Manifest. Warum Philosophie und Literatur lebenswichtig sind (München 2013). Der Band enthält den erstmals in Deutsche übertragenen Aufsatz von Abraham Flexner aus dem Jahr 1939 »Die Nützlichkeit unnützen Wissens« (im Original: The Usefulness of Useless Knowledge, Harper’s Magazine, Oktober 1939, 544 – 552). Dort bringt Flexner die Sprache auf die »Neugier, die in etwas Nützliches münden kann, aber nicht muss« (in: Ordine 2013, S. 217). 256  ASW VI .1, 106; Suhrkamp 1971, 78. 257  ASW VI .1, 112; Suhrkamp 1971, 85 [diese Textfassung weicht marginal von der hier zitierten Fassung ab; so heißt es hier etwa »wenn wir ganz im Handeln aufgehen«]. 258  Vgl. ASW II , Zweiter Abschnitt, §§9  – 12, 152 – 175; Suhrkamp 1993, 74 – 96. 259  Dewey, Suche nach Gewissheit. Eine Untersuchung des Verhältnisses von Erkenntnis und Handeln, Übersetzt von Martin Suhr, Frankfurt a. M. 1998, S. 125.  Anmerkungen | 181

  Siehe hierzu auch meine Kritik an der »Konkretisierungspflicht« in Abschnitt 3. 261  Dies., Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft. Mit einem Vorwort von Rom Harré, Erweiterte Neuauflage, Frankfurt a. M. 2002, S. 208. Knorr-Cetina zieht hier Parallelen zum wissenschaftlichem Gespräch (ebd.): »In Konversationen beanspruchen die Beiträge der Sprecher zu jedem gegebenen Zeitpunkt, für das vorhergehende Gesprächsstadium bzw. die weitere Entwicklung der Unterhaltung relevant zu sein und auch als relevant gehört zu werden. Das wissenschaftliche Papier verteidigt, so genommen, für die dargelegten Ergebnisse, das zugrundeliegende Forschungsmethoden und Bewertungsverfahren eine ebensolche Relevanz.« 262  Ebd., 208. 263  Beispielhaft erläutert sie diesen Sachverhalt folgendermaßen (ebd., 208): »Indem die Autoren mit Begriffen wie Energiekosten, Stickstofflöslichkeit und biologischem Wert argumentieren, legen sie es dem Leser nahe, FeCl3 zu favorisieren, das auf diesen Dimensionen gegenüber den anderen untersuchten Methoden Vorteile aufweist. Gleichzeitig unterstellen die Autoren, daß weitere, im Abschnitt Ergebnisse berichtete Meßresultate [...] weniger relevant sind [...]. Dies bedeutet, daß die Einleitung auch die Relevanzkriterien zur Verfügung stellt, gemäß denen im weiteren Papier einigen Resultaten mehr Gewicht als anderen zukommen soll«. 264  Hier sei etwa auf die soziologischen Studien von Steven Epstein zur Beteiligung von Patientinnen und Patienten an der Ausrichtung wissenschaftlicher Forschung verwiesen, namentlich auf seine Monographie mit dem Titel Impure Science: AIDS, activism, and the politics of knowledge (Berkeley 1998). In seinem Aufsatz The construction of lay expertise: AIDS activism and the forging of credibility in the reform of clinical trials, in: Sci­ ence, Technology, & Human Values 20,4 (1995): 408 – 437, schreibt Epstein über diesen Sachverhalt etwa wie folgt (429): »Negotiations over credibility in AIDS research (and perhaps often elsewhere) are multilateral in the sense of involving many different players. They are also multi-layered in that those negotiations help determine who is credible, which knowledge claims are credible, and which ways of doing biomedical research are credible.« 265  Vgl. hierzu den um 1946 erstmals in englischer Sprache veröffentlichten essayistischen Text Der gut informierte Bürger. Ein Essay zur sozialen Verteilung von Wissen. In deutscher Sprache liegt der Text seit 1972 vor, für die Werkausgabe wurde die englische Textfassung (The well-informed citizen: An essay on the social distribution of knowledge, Social Research 13,4 (1946): 463 – 478) neu übersetzt. Vgl. Editorischer Bericht, in: ASW VI.2, 113. 260

182 | Anmerkungen 

  Der »Experte«, der »gut informierte Bürger« wie auch der »Mann auf der Straße«, die Schütz hier einander gegenüberstellt, sind »Idealtypen« im Sinne Max Webers. Über die Verantwortung des »gut informierten Bürgers« schreibt Schütz entsprechend wie folgt (ASW VI.2, 125 f.): »Er muß seinen Bezugsrahmen wählen, indem er sein Interesse wählt. Er muß die dazugehörenden Relevanzbereiche untersuchen; er muß so viel Wissen wie möglich über den Ursprung und die Quellen der ihm aktuell oder potentiell auferlegten Relevanzen sammeln. Im Sinne der oben gebrauchten Klassifikation begrenzt der gut informierte Bürger so weit wie möglich den Bereich des Irrelevanten. Dabei ist er sich dessen bewußt, daß das, was heute relativ irrelevant ist, morgen als primäre Relevanz auferlegt werden, ja daß der Bereich des sogenannten absolut Irrelevanten sich als die Heimstätte der anonymen Mächte offenbaren kann, die ihn zu überwältigen drohen. Damit unterscheidet sich seine Haltung sowohl von der des Experten, dessen Wissen durch ein einziges Relevanzsystem begrenzt ist, als auch von der des Mannes auf der Straße, der sich gegenüber der Relevanzstruktur als solcher gleichgültig verhält. Aus eben diesem Grund muß er sich eine begründete Meinung bilden und nach Informationen suchen.« 267  Vgl. ebd., 129: »Meinungsumfragen in Form von Interviews oder Fragebögen versuchen, die Meinung des Mannes auf der Straße einzuschätzen, der sich um Informationen, die sein habitualisiertes System intrinsischer Relevanzen überschreiten, gar nicht kümmert. Seine Meinung, die heute als öffentliche Meinung gilt, wird zunehmend auf Kosten der informierten Meinung sozial gebilligt und legt sich deshalb den besser informierten Mitgliedern der Gemeinschaft als relevant auf. Eine gewisse Tendenz, die Demokratie als eine politische Institution mißzuverstehen, in der die Meinung des uninformierten Mannes auf der Straße vorherrschen muß, verstärkt die Gefahr. Es ist daher die Pflicht und das Privileg des gut informierten Bürgers in einer demokratischen Gesellschaft, seine Privatmeinung gegenüber der öffentlichen Meinung geltend zu machen.« 268  Ebd., 126. 269  Feyerabend, Erkenntnis für freie Menschen. Veränderte Ausgabe, Frankfurt a. M. 1980. 270  Ebd., 170. 266

 Anmerkungen | 183

Personen- und Sachregister A Abbildungsgrad  53, 54, 110 Abstraktion  30, 43 Ähnlichkeit  42, 43, 44, 45, 48, 51, 56, 57, 58 American Breeders Association 104 Antibiotikum  69, 148 Antikörper  71, 160 Arbeitsschutz  114, 115 Aristoteles  23, 96, 171 Arzneimittel  73, 161 Arzneimittelkommission der deutschen Ärzteschaft  73 Asilomar-Konferenz  94, 115, 170 Auflösung  52, 53 Autonomie  Siehe Freiheit B Bacon, Francis  96 Bias  Siehe Störgröße Biomedizin  Siehe Medizin Bishop, Michael J.  34 Bundesärztekammer (BÄK)  73 Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM)  156, 161 Bundesministerium für Umweltschutz, Naturschutz und nukleare Sicherheit (BMU)  158, 162, 163 Bundesverfassungsgericht (BVerGE) 112

C Carnegie Institution  104 Chemie 33 –– Biogeochemie  39, 53 Citizen Science  117, 179 Cochrane Institute  65, 157 D Daten  77, 78, 82, 95, 102, 106, 107, 108, 110, 111, 114, 119, 129 Datenbank  15, 101 Datenschutz 114 Denken  20, 123, 126, 180 Denkstil 180 Deutscher Bundestag  81, 164 Deutscher Ethikrat  152, 161, 177 Deutscher Hochschulverband  116 Deutscher Wetterdienst (DWD)  53 Deutsches Klimarechenzentrum (DKRZ)  49, 153 Dewey, John  126 Diagnose  20, 63, 71, 72 Diagnosis Related-Groups (DRG) 72 Diagnostik  25, 63, 70 Diskurs  128, 130, 132 Diskursgemeinschaft 122 Diskursuniversum  123, 180 Diversivität 74 Dringlichkeit  26, 40 Dual-use 115 E Effektivität  46, 60, 61, 62, 63, 64, 72, 88  185

Elbvertiefung  84, 85 El Niño Southern Oscillation (ENSO) 37 Emission  50, 73, 78, 79 Emissionshandel  74, 78, 79, 86 Emissionsrechte  78, 79 Eugenics Record Office (ERO)  104, 173 Eugenik (Rassenhygiene)  103, 104, 173, 175 Evidenz  23, 24, 62, 63, 64, 65, 66, 157 Evidenzbasierte Medizin (EbM)  64, 65 Evidenzgraduierung  64, 66, 68, 157 Experte  122, 123, 130, 183 Expertise  46, 51, 109, 116 F Feyerabend, Paul  23, 24, 131 Fischer, Eugen  104, 174 Fleck, Ludwik  122, 180 Flexner, Abraham  181 Freiheit –– personale F. (Auto­nomie)  113 –– Wissenschafts-/Forschungsfreiheit  112, 113, 114, 115, 177 –– Zweckfreiheit  14, 74, 87, 96, 97, 101, 111, 116 Fricker, Miranda  116 G Galton, Francis  104, 173 Galton Laboratory for National Eugenics 104 Genauigkeit  24, 90, 108, 110 Gesundheitsaufklärung  62, 148 Gesundheitsversorgung  66, 68, 70, 77 Gesundheitswaisen (health ­orphans)  70 186 | Personen- und Sachregister 

Gewissheit  24, 64, 126, 157, 176 Gitterpunkte  47, 53 Glaubwürdigkeit  129, 179 Gould, Steven Jay  104 Gute wissenschaftliche Praxis  91, 106, 110, 177 H Handhabbarkeit  14, 30, 51, 108, 127 Hochschulrektorenkonferenz (HRK) 93 Hochwasserschutz  47, 50, 61, 84, 85 Holismus 54 Humangenetik 105 Humboldt, Wilhelm von  112 I Intergovernmental Panel on Climate Change (IPCC)  66, 67, 73, 163 International Agency for Research on Cancer (IARC)  149, 166 International Cancer Genome Consortium (ICGC)  57 Internationaler Währungsfond (IWF) 162 Internationaler Wolkenatlas  53 Irrelevanz  17, 79, 130, 183 J Jackson Laboratory (JAX)  152, 153, 160 K Kaiser-Wilhelm-Gesellschaft 174 Kant, Immanuel  24, 125, 157 Karzinogen  33, 62 Karzinom  Siehe Tumor Kitcher, Philip  24 Klimaarchiv 49 Klimasubsystem  37, 39, 47, 48, 51

–– Atmosphäre  37, 38, 39, 49, 53, 73 –– Hydrosphäre  37, 48, 49, 52 –– Kryosphäre  37, 39, 49 Klimawandel  37, 66, 73, 74, 75, 79, 86, 151 Knorr-Cetina, Karin  127, 129 Koch, Robert  69 Komplexität  48, 54, 57, 108, 109 Komplexitätsreduktion  30, 41, 108 Konfidenz  54, 62 Konfidenzgraduierung 68 Krebs-Genom-Atlas  Siehe The Cancer Genome Atlas (TCGA) Krebsmedizin  Siehe Onkologie Kuhn, Thomas S.  175 L Latour, Bruno  88 Lederberg, Josua  105 Leder, Philip  45, 152 M Max-Planck-Institut für Meteoro­ logie  49, 151 Medizin –– Biomedizin  9, 14, 15, 26, 36, 43, 44, 45, 51, 55, 56, 57, 58, 71 –– molekulare Medizin  105 Merton, Robert K.  91 Messung  38, 103, 110 Modell  23, 28, 29, 40, 41, 42, 43, 44, 51, 52, 60, 85 –– deduktives M.  18 –– General Circulation Model (GCM)  48, 49 –– numerisches M.  28, 29, 39, 47, 48, 51, 52, 53, 54, 55, 61, 75 –– physisches M.  47 –– theoretisches M.  8, 10, 28 –– tierbasiertes M.  29, 36, 45, 51, 56, 58, 59, 71, 75

Molekularbiologie  34, 41, 105, 109, 150 Mutation  34, 35, 36, 40, 43, 44, 45, 46, 56, 57, 58, 69, 70, 71 N Nachhaltigkeit  74, 84, 85, 86, 113, 115, 168 Nachweis  24, 26, 27, 30, 56, 59, 60, 82, 120, 128, 129 National Aeronautics and Space Administration (NASA)  151 Natur  44, 47, 48, 57, 74 Natürlichkeit 162 Nebenwirkungen  Siehe Unerwünschte Arzneimittelwirkungen (UAW) Nichtwissen  108, 109, 110, 114 Nullhypothese 64 Nutzen  25, 40, 55, 59, 61, 62, 68, 72, 76, 77, 96, 125, 128, 161, 171 –– konkreter N.  13, 62, 68, 69, 72, 124 Nutzenkalkül  14, 96 Nutznießer  68, 70, 74, 125 Nützlichkeit  11, 88, 125 Nutzung  37, 46, 74, 106, 114, 171 –– zivile N.  115 Nutzungsrecht  46, 153 O Oncomouse  45, 46 Onkogen  34, 35, 45, 71 Onkologie  9, 66, 70, 158 Onkoviren (tumorinduzierende Viren)  Siehe Virus Oreskes, Naomi  37 Oxford Centre for Evidence-Based Medicine (OCEBM)  64

 Personen- und Sachregister | 187

P Paläoklimatologie 49 Parameter  28, 29, 41, 49, 54, 55, 62, 74, 75, 103, 108, 153 Parametrisierung  53, 154 Pathogenese  9, 31, 36, 44, 45, 51, 55, 56, 57, 58, 68 Pauling, Linus  105 Pearson, Karl  174 Peer Review  67, 106 Polanyi, Michael  24 Popper, Karl  176 Prävention  33, 61, 62, 68, 70 Prognose  Siehe Vorhersage Provenienz  100, 106, 114, 183 Q Quelle  54, 55, 101, 102, 106, 107, 183 R Rassenhygiene  Siehe Eugenik Rassenkunde  104, 105 Redundanz 17 Referenzsystem  102, 107, 111 Referenzwert 111 Relevanz –– auferlegte R.  20, 121, 122, 126, 183 –– Auslegungsrelevanz  20, 123, 124 –– explanatorische R.  17 –– intrinsische R.  122, 123, 180 –– kausale R.  20 –– Motivationsrelevanz  20, 126 –– statistische R.  146 –– systematische R.  24 –– thematische R.  19, 20, 121, 122, 123 Relevanzlogik 17 Relevanzsystem  19, 20 Relevanztheorie 146 Repräsentation  29, 42, 48, 51, 55, 56, 57, 58 188 | Personen- und Sachregister 

Ressource  8, 14, 16, 42, 46, 51, 74, 90, 107, 110, 113, 114, 153 Richtlinien für die medizinische Praxis (clinical practice guidelines)  26, 65 Risiko  33, 36, 73, 76, 83, 88, 161 Risikogruppe  33, 35, 70, 120 Robert Koch-Institut (RKI)  33 Rockefeller Foundation  105 Rous, Reyton  32 S Schema  20, 21, 123 –– Auslegungsschema 123 –– Deutungsschema  10, 79, 130 Schütz, Alfred  10, 19, 20, 21, 25, 121, 122, 123, 124, 125, 126, 130, 131 Schützenswertigkeit 74 Sensitivität  15, 63 Sequenzierung 57 Sicherheit  14, 61, 63, 72, 86, 88, 90, 113, 114, 176, 178 Signifikanz  8, 23, 24, 64, 77, 90, 110 Spezifität  15, 63, 80, 88 Ständige Impfkommission (STIKO) 33 Störgröße  109, 110 Szenario  9, 38, 47, 62, 78, 83, 85 T Tabakrauch  33, 81, 82, 149 Teilhabe  11, 117 Testung  44, 46, 47, 64, 104, 110 The Cancer Genome Atlas (TCGA) 57 Therapie  7, 25, 26, 32, 60, 62, 66, 68, 69, 70, 71, 76, 77 –– Antibiotikatherapie 69 –– Antikörpertherapie  72, 160 –– Chemotherapie  31, 77

Tobacco Industry Research Committee (TIRC)  82 Treibhausgas  38, 50, 73, 120, 151 Tuberkulose (Mykobacterium tuberculosis)  60, 69 Tumor  31, 34, 35, 36, 45, 57, 71, 82 –– hepatozelluläres Karzinom  32, 158 –– Mammakarzinom  46, 57, 71 –– Retinoblastom  35, 43, 46, 150, 151 –– Zervixkarzinom 33 U Umweltbundesamt (UBA)  151 Unerwünschte Arzneimittelwirkungen (UAW)  9, 32, 61, 63, 65, 72, 76 United Nations (UN)  66, 151 –– Convention on Biological Diversity (CBD)  74 –– Framework Convention on Climate Change (UNFCCC)  73, 162 –– Rio Declaration on Environment and Development  168 Unsicherheit  53, 55, 88, 130, 155, 161 V Validität  14, 24, 55, 62, 64, 113, 120 Varmus, Harold  34 Verantwortung  86, 112, 115, 130, 131 Verein Deutscher Ingenieure (VDI) 115 Vereinte Nationen  Siehe United Nations (UN) Verschuer, Ottmar Freiherr von  175 Vertrautheit  20, 42 Verwertbarkeit  40, 74, 87, 124, 125, 128, 132 Virus (tumorinduzierendes V.)  32, 35 –– Hepatitis-B.-V.  32, 33

–– Hepatitis-C.-V. 32 –– Humanes Immundefizienz­ virus  35, 150 –– Humanes Papillomvirus  35 Vorhersage  13, 48, 50, 54, 55, 60, 61, 62, 63, 78, 120, 121 Vorhersagekraft 54 Vulnerabilität  45, 77 W Wahrheit  17, 24, 88, 90, 112, 176 Wahrscheinlichkeit  54, 64, 176 Weber, Max  13, 19, 183 Wehling, Peter  108, 109 Weltärztebund (World Medical Association, WMA)  163 Weltgesundheitsbehörde (World Health Organization, WHO)  26, 64, 69, 81, 82, 83 –– Framework Convention on ­Tobaccco Control (FCTC)  81 Weltklimakonferenz (UNFCCC Conference of the Parties, COP)  74, 75, 162 Weltklimarat  Siehe Intergovernmental Panel on Climate Change (IPCC) Weltorganisation für Meteorologie (World Meteorological Organization, WMO)  36, 53, 66 Winsberg, Eric  54, 55 Wirksamkeit  9, 44, 59, 61, 63, 80 Wissenschaftsrat (WR)  95, 100 Wissenskultur 108 Z Zivilklausel 116 Zugang  16, 68, 69, 74, 76, 77 Zuverlässigkeit  8, 178

 Personen- und Sachregister | 189

Rupert Read | Samuel Alexander

DIESE ZIVILISATION IST GESCHEITERT · · · ·

2020 134 Seiten ISBN 978-3-7873-3802-3 Kartoniert auch als eBook erhältlich

Die industrielle Zivilisation hat keine Zukunft. Sie basiert grundsätzlich auf unbegrenztem Wachstum – auf einem begrenzten Planeten. Die unverminderte, rücksichtslose Verbrennung von fossilen Rohstoffen heizt das Klima weiter an. Durch kleinteilige Reformen und technologische Innovationen, wie sie gegenwärtig auf der politischen Agenda stehen, wird sich das Problem aber nicht in den Griff bekommen lassen. Eher früher als später wird – so die These der Autoren – das globale kapitalistische System sein Ende finden, zerstört aufgrund der von ihm selbst hervorgebrachten ökologischen Widersprüche. Wie soll man damit umgehen, dass angesichts des viel zu zögerlichen Handelns in der Klimakrise die düstersten Szenarien immer realistischer werden? Der britische Philosoph Rupert Read und der australische Nachhaltigkeitsforscher Samuel Alexander sprechen in diesem Buch über technologische Illusionen, zivilen Ungehorsam und die gesellschaftlichen Chancen, die die Krise trotz allem eröffnet.

MEINER.DE