Kognition künstlicher Systeme 9783110321104, 9783110320916

In dieser Arbeit wird die Frage nach der Handlungsfähigkeit künstlicher Systeme im Schnittfeld von Philosophie und KI be

201 24 1MB

German Pages 191 [190] Year 2006

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Kognition künstlicher Systeme
 9783110321104, 9783110320916

Table of contents :
Inhaltsverzeichnis
Einleitung
I. Was ist Künstliche-Intelligenz-Forschung?
II. HANDLUNGEN
II.1 Ereignisklassen
II.2 Handlungstheorien
II. 3 Kritik am bestehenden Handlungsbegriff
II.4 Verhältnis Intentionalität – Bewusstsein
III. Entwicklung des Begriffes einer Quasi-Handlung
III.1 Weltmodell einer dynamischen, komplexen Umwelt
III.2 Informationsverarbeitung
II.3 Exkurs: Kognitive Psychologie – Voraussetzungen fürLernfähigkeit
III.4 Kognitive Fähigkeiten
III.5 Überprüfbarkeit
III.6 Wahrnehmung – Informationsaufnahme
III.7 Systemeigenschaften der Effektoren bei Quasi-Handlungen
IV. Anwendung in der KI
IV.1 Definition von Agenten in der KI
IV.2 Definition eines autonomen, nicht-kognitiven Agenten
IV.3 Definition eines kognitiven Agenten
IV.4 Definition eines quasi-handlungsfähigen Agenten
V. Quasi-Handlungen
VI. Ausblick
VII. Literaturverzeichnis
Version für Ausdruck - doppelseitig

Citation preview

Anna Strasser

Kognition künstlicher Systeme

ontos verlag Frankfurt I Paris I Ebikon I Lancaster I New Brunswick

Bibliographic information published by Die Deutsche Bibliothek Die Deutsche Bibliothek lists this publication in the Deutsche Nationalbibliographie; detailed bibliographic data is available in the Internet at http://dnb.ddb.de

North and South America by Transaction Books Rutgers University Piscataway, NJ 08854-8042 [email protected]

United Kingdom, Ire, Iceland, Turkey, Malta, Portugal by Gazelle Books Services Limited White Cross Mills Hightown LANCASTER, LA1 4XS [email protected]

Livraison pour la France et la Belgique: Librairie Philosophique J.Vrin 6, place de la Sorbonne ; F-75005 PARIS Tel. +33 (0)1 43 54 03 47 ; Fax +33 (0)1 43 54 48 18 www.vrin.fr



2006 ontos verlag P.O. Box 15 41, D-63133 Heusenstamm www.ontosverlag.com ISBN 3-937202-96-X

2006 No part of this book may be reproduced, stored in retrieval systems or transmitted in any form or by any means, electronic, mechanical, photocopying, microfilming, recording or otherwise without written permission from the Publisher, with the exception of any material supplied specifically for the purpose of being entered and executed on a computer system, for exclusive use of the purchaser of the work Printed on acid-free paper ISO-Norm 970-6 FSC-certified (Forest Stewardship Council) This hardcover binding meets the International Library standard Printed in Germany by buch bücher dd ag

Danksagung Bedanken möchte ich mich bei Herrn Prof. Dr. Gerhard Strube für die Betreuung dieser Arbeit und dafür, dass ich diese Arbeit mehrmals im Kolloquium vorstellen und diskutieren konnte. Außerdem danke ich Herrn Prof. Dr. Michael Pauen für die philosophische Betreuung und für seine konstruktive Kritik. Weiterer Dank geht an die DFG, die mich mit einem zweijährigen Stipendium im Rahmen des Graduiertenkollegs ,Künstliche und Natürliche Intelligen’ gefördert hat. Und nicht zuletzt möchte ich mich bei den unverzichtbaren KorrekturleserInnen dieser Arbeit, bei meiner Tochter Darja für ihre endlose Geduld mit ihrer gestressten Mama und bei allen Freunden bedanken, die uns in dieser Zeit beigestanden haben. Besonders erwähnen möchte ich Silvia Hermann, die mich in meinen Arbeitspausen immer wieder neu motiviert hat. Ganz besonders dankbar bin ich Regine Amann, die Darja zwei Wochen vor der Abgabe dieser Arbeit mit in den Urlaub genommen hat. Gewidmet sei diese Arbeit meinen Eltern, Frau Dr. med. Petra und Herrn Dr. med. Florian Strasser, die mir gerade in schwierigen Zeiten immer wieder gezeigt haben, dass man handlungsfähig bleiben kann. KOGNITION KÜNSTLICHER SYSTEME Inaugural-Dissertation zur Erlangung der Doktorwürde der Wirtschafts- und Verhaltenswissenschaftlichen Fakultät der Albert-Ludwigs-Universität Freiburg i. Br. vorgelegt von Anna Strasser aus Freiburg i. Br.

Sommersemester 2004

Inhaltsverzeichnis Einleitung

7

I. Was ist Künstliche-Intelligenz-Forschung? I.1 Geschichte der KI I.2 Paradigmenwechsel in der KI I.3 Die philosophische KI-Debatte I.3.1 Starke KI-These versus schwache KI-These I.3.2 Die Debatte um den Turing Test I.3.3 Die Debatte um das chinesische Zimmer I.3.4 Die phänomenologische Kritik an der KI – Dreyfus I.3.5 Warum Philosophie?

13 18 27 28 30 33 37 41 44

II. HANDLUNGEN II.1 Ereignisklassen II.1.2 Einfaches/komplexes Verhalten versus Quasi-Handlung/ Handlung II.1.3 Handlung als Unterbegriff von Verhalten II.2 Handlungstheorien II.2.1 Georg Henrik von Wright II.2.2 C. G. Hempel II.2.3 Donald Davidson II.2.4 Harry Frankfurt II.2.5 Zusammenfassung II. 3 Kritik am bestehenden Handlungsbegriff II.3.1 Intentionalität II.3.1.1 intrinsische und abgeleitete Intentionalität II.3.1.2 Intentionaler Realismus – eine naturalistische Spielart II.3.1.3 Intentionalität ist Intentionalität ist Intentionalität II.3.2 Speziezismus II.4 Verhältnis Intentionalität – Bewusstsein II.4.1 Zielgerichtetheit II.4.2 Zielgenerierungsfähigkeit II.4.3 Bewusstsein

47 48 56 70 72 77 79 80 85 88 89 92 97 99 99 100 101 102 102 105

III. Entwicklung des Begriffes einer Quasi-Handlung 107 III.1 Weltmodell einer dynamischen, komplexen Umwelt 109 III.1.1 Antizipation von Verhalten anderer Systeme 110 III.1.2 Informationsaufnahme für die Bildung eines Weltmodells 112 III.1.4 Handlungskontrolle und -steuerung mithilfe des Weltmodells113

III.1.5 Planen mithilfe des Weltmodells III.2 Informationsverarbeitung III.2.1 Kognition – Anpassungsfähigkeit – Lernen III.2.1.1 Automatisiertes Verhalten III.2.2 Planen in komplexen, dynamischen Umwelten III.2.3 Kognitive Darstellung der Fähigkeit, Klassisch-Konditionierbar zu sein III.2.4 Menschliche Formen des Lernens in der Psychologie III.2.4.1 Instrumentelles Lernen III.2.4.2 Unterschied: klassisches und operantes Konditionieren III.2.4.3 Formen des Lernens in der KI III.2.5 Erste Beschreibung einer Quasi-Handlung III.2.6 Zwischenresümee II.3 Exkurs: Kognitive Psychologie – Voraussetzungen für Lernfähigkeit III.4 Kognitive Fähigkeiten III.5 Überprüfbarkeit III.6 Wahrnehmung – Informationsaufnahme III.7 Systemeigenschaften der Effektoren bei Quasi-Handlungen

114 117 120 121 127 128 131 138 139 140 145 146 148 152 156 159 165

IV. Anwendung in der KI IV.1 Definition von Agenten in der KI IV.2 Definition eines autonomen, nicht-kognitiven Agenten IV.3 Definition eines kognitiven Agenten IV.4 Definition eines quasi-handlungsfähigen Agenten

167 168 171 172 172

V. Quasi-Handlungen

175

VI. Ausblick VI.1 Ethischer Ausblick VI.2 Juristische Konsequenzen

177 177 179

VII. Literaturverzeichnis VII.1 Nachschlagewerke im Internet

181 191

7

Einleitung Diese Arbeit ist sowohl aus einem Interesse am Forschungsgebiet der Künstlichen Intelligenz als auch aus der Beschäftigung mit kognitionswissenschaftlicher Theoriebildung entstanden. Im Vordergrund steht das Bemühen, Differenzierungen zwischen verschiedenen Ereignisklassen herauszuarbeiten. Die Ausgangsfrage dieser Arbeit ist, ob man einen Handlungsbegriff vertreten kann, der auch künstliche Systeme als Handelnde zulässt. Handlungsfähigkeit wird in dieser Arbeit als etwas verstanden, das kognitive Fähigkeiten voraussetzt. Ausgehend von einem philosophischen Hintergrund werde ich mich mit der Frage beschäftigen, inwiefern künstlichen Systemen kognitive Fähigkeiten zugeschrieben werden können. Es wird hier nicht die KI-Debatte wieder aufgerollt werden – d. h. es wird nicht diskutiert, ob Maschinen Intentionalität, Selbstbewusstsein oder gar einen freien Willen haben können, sondern es wird eine neue Perspektive auf diese Debatte vorgeschlagen, indem die Frage thematisiert wird, ob künstliche Systeme handlungsfähig sein können, ohne dass man ihnen Intentionalität, Selbstbewusstsein oder einen freien Willen zuschreiben muss. Dabei wird gezeigt, dass es durch eine Erweiterung der Begrifflichkeiten für Ereignisse möglich ist, zwischen verschiedenen Klassen von Ereignissen adäquat zu unterscheiden, die stattfinden, wenn künstliche Systeme involviert sind. Man wird sehen, dass man ohne diese Erweiterung künstlichen Systemen nur Verhalten zuschreiben und nicht weiter differenzieren kann. Um zwischen verschiedenen Klassen von Ereignissen unterscheiden zu können, werden zum einen die Begrifflichkeiten von ‚Handlung’, ‚Kognition’ und ‚Lernen’ untersucht, zum anderen soll eine Kategorisierung von Informationsverarbeitungsprozessen vorgeschlagen werden. Der Fokus dieser Arbeit liegt auf den verschiedenen Klassen von Ereignissen, die man beschreiben kann, wobei hier die Klassen ‚Verhalten’ und ‚Handlungen’ im Vordergrund stehen. In dieser Arbeit wird die Auffassung vertreten, dass der Handlungsbegriff die Möglichkeit einer Ausdifferenzierung der verschiedenen Ereignisklassen bieten sollte. Jedoch ist dies mit dem vorherrschenden traditionellen Handlungsbegriff nicht möglich, denn zumindest aus philosophischer Sicht gilt der Handlungsbegriff ausschließlich für lebendige, meist menschliche Wesen: "The philosophy of action deals with the notion of action that applies only to beings who have wills." (Ginet 1990, ix)

8

Handlungsfähigkeit ist zum einen sicherlich eine Fähigkeit, die bei Menschen anzutreffen ist, zum anderen aber ist es sinnvoll zu fragen, inwiefern dieser Begriff auch für Fähigkeiten von komplexen künstlichen Systemen verwendet werden kann, ohne dabei die Unterschiede zwischen Mensch und Maschine verwischen zu wollen. Dafür muss man klären, was die minimalen kognitiven Fähigkeiten für Handlungsfähigkeit sind. Kognitionswissenschaft setzt voraus, dass es sinnvoll ist, sich auch mit künstlichen Systemen zu beschäftigen. Kann man zeigen, dass künstlichen Systemen Handlungsfähigkeit auf Grund der Art und Weise der Informationsverarbeitungsprozesse zuzuschreiben ist, hat man damit gute Argumente für die Kognitionswissenschaft gesammelt. In dieser Arbeit werde ich zeigen, wie man den Begriff ‚Handlung’ erweitern kann, sodass er nicht a priori auf Ereignisse, die von menschlichen oder wenigstens lebendigen Wesen verursacht sind, einschränkt ist. Hier wird die These vertreten, dass in der Dichotomie der Klassen von Ereignissen, die als Verhalten bezeichnet werden, und derjenigen, die unter den Begriff Handlung fallen, noch differenziert werden sollte. Ausgangspunkt der Argumentation ist das Dilemma, dass es Ereignisse gibt, die offensichtlich komplexer sind als einfaches Verhalten, jedoch den Bedingungen bestehender Handlungstheorien nicht Genüge leisten können. Diese Ereignisse kann man weder der einen noch der anderen Klasse zuordnen. Deswegen wird eine feinkörnigere Unterteilung der verschiedenen Ereignisklassen vorgeschlagen. So werde ich in dieser Arbeit eine Handlungstheorie entwickeln, mit der man einfache Handlungen (sie werden im Folgenden als QuasiHandlungen bezeichnet) sowohl von einfachem und komplexem Verhalten als auch von Handlungen im traditionellen Sinn unterscheiden kann. Das Ziel der Arbeit besteht darin, zwischen vier Kategorien von Ereignissen zu unterscheiden: •der Klasse von einfachem Verhalten, •der Klasse von komplexem Verhalten, •der Klasse von einfachen Handlungen (QuasiHandlungen) und •der Klasse von komplexen Handlungen. Der Vorteil eines Begriffes einer Quasi-Handlung liegt zum einen darin, dass dieser Begriff nicht von vorneherein auf menschliche Handlungen

9

eingeschränkt ist, denn er wird keine wesentlich menschlichen Eigenschaften wie z. B. Selbstbewusstsein, Intentionen und freien Willen als Bedingung für Handlungsfähigkeit setzen. Menschliche Handlungen, z. B. ausgeführt mit Selbstbewusstsein, lassen sich als eine Spezialklasse von Verhalten beschreiben. Zum anderen kann ein Begriff der Quasi-Handlung Unterschiede zwischen verschiedenen Ereignissen, bei denen künstliche Systeme involviert sind, beschreiben. Mit einem Ereignisbegriff, der vom Ereignistyp Handlung menschliche Eigenschaften fordert, kann man Ereignisse, die von künstlichen Systemen verursacht werden, grundsätzlich nur als Verhalten klassifizieren. Jedoch ist es sicherlich unstrittig zu behaupten, dass Informationsverarbeitungsprozesse künstlicher Systeme sich kategorial unterscheiden können. Im Falle einer Quasi-Handlung wird man im Gegensatz zu einem Verhalten eher so genannte kognitive Prozesse erwarten. Diese Arbeit soll zeigen, dass es möglich ist, künstlichen Systemen kognitive Informationsverarbeitungsprozesse zuzuschreiben. Deswegen ist auch eine Klärung des Begriffes ‚Kognition’ notwendig. Die Maximalanforderungen, die durch die Zuschreibung von Kognition gefordert werden, sind durch den Menschen erfüllt, jedoch über eine solche Abgrenzung des Begriffes nach unten herrscht keine Einigkeit. Der hier vorgestellte Handlungsbegriff wird eine Abgrenzung des Kognitionsbegriffes vorschlagen. Die Zuschreibung von Kognition geht immer mit der Zuschreibung von Lernfähigkeit einher, sodass auch eine begriffliche Klärung des Lernbegriffes notwendig wird, um den Kognitionsbegriff klarer zu spezifizieren. Es soll dargestellt werden, welche kognitiven Fähigkeiten und welche Form von Lernfähigkeit als Minimalbedingung für die Zuschreibung einer Quasi-Handlung gelten können. Eine solche Einordnung der Ereignisse, bei denen künstliche Systeme involviert sind, kann weitreichende Konsequenzen mit sich führen. Fragen der Verantwortlichkeit können über die Differenzierung zwischen Verhalten und Handlung entschieden werden. Ein System, welches sich ,nur’ verhält, wird sicherlich als Werkzeug eingestuft, dem man selbst keine Verantwortung für die mit ihm hervorgebrachten Ereignisse zuschreiben kann. Ein System jedoch, dem man Handlungsfähigkeit zuschreiben kann, kann in so einem Fall wohl anders eingeschätzt werden. Die Verantwortung liegt dann wohl eher beim Programmierer (Hersteller oder auch Verkäufer) als beim Benutzer? Wer ist Schuld, wenn meine Software nicht beim vereinbarten Limit die Aktien verkauft, das ich vorher ausgewählt habe? Wie schwierig ist es in vielen Fällen, eine eindeutige Entscheidung zu treffen, ob man es mit einem Fall von menschlichem oder technischem Versagen zu tun hat?

10

Fragen wie diese wird meine Arbeit sicherlich nicht beantworten, aber sie kann die Basis für einen Umgang mit solchen Fragen legen. Werkzeuge, die sich nur verhalten, sind nicht verantwortlich, jedoch Werkzeuge, die quasi selber handeln, müssen haftbar gemacht werden. Und da man Programme nicht wirklich bestrafen kann, wird man sich an ihre Erzeuger halten: „Eltern haften für ihre Kinder.“ Diese Arbeit gliedert sich in vier Teile: In Kapitel I, Was ist Künstliche-Intelligenz-Forschung?, wird gezeigt, warum man präzisere Fachbegriffe für Handeln und Verhalten gerade in der Künstlichen-Intelligenz-Forschung (KI-Forschung) braucht. Dies ergibt sich aus der Herleitung einer neuen Perspektive auf die philosophische KIDebatte, zusätzlich gibt diese Arbeit einen Überblick über die bisherige KIDebatte. Ein Kritikpunkt an der bisherigen KI-Debatte wird darin bestehen, dass in der philosophischen Debatte nicht genügend zur Kenntnis genommen wurde, worin die Forschungsziele und -erfolge der KI bestehen. Zum anderen werde ich auch die Fokussierung auf die Bereiche des Verstehens, der Intentionalität und des Bewusstseins problematisieren. Nachdem ich eine Einführung in die wichtigsten Schlüsselbegriffe der Debatte geliefert habe, werde ich in einem zweiten Schritt beschreiben, wie sich die Entwicklung der KI-Forschung selbst vollzogen hat. Dieser knappe Überblick wird illustrieren, warum ich in der KI von einem Paradigmenwechsel spreche. Der Paradigmenwechsel hin zu handelnden Systemen macht es auch aus der Perspektive der KI notwendig, sich erneut mit dem Begriff ,Handlung’ auseinander zu setzen. Hier zeigt sich, dass es sinnvoll ist, den vollzogenen Paradigmenwechsel in der KI auch aus philosophischer Sicht zur Kenntnis zu nehmen. Das zweite Kapitel, Handlungen, nimmt eine Taxonomie der verschiedenen Ereigniskategorien vor und beschreibt den Forschungsstand bezüglich des Handlungsbegriffes. Um im Hauptteil die Kritik an einem konkreten Beispiel vollziehen zu können, werde ich hier die Handlungstheorie von Donald Davidson ausführlicher referieren. Hierbei steht eine Auseinandersetzung mit Davidson mehr im Hintergrund, stattdessen sollen die Bedingungen, die ich aus Davidsons Handlungstheorie herausarbeiten werde, prototypisch für einen philosophischen Handlungsbegriff stehen.

11

In Kapitel III, Entwicklung des Begriffes einer Quasi-Handlung, werde ich zuerst den bestehenden Handlungsbegriff kritisieren, um dann einen erweiterten Handlungsbegriff vorzuschlagen. Man wird hier zum einen sehen, dass einige Bedingungen nicht notwendig für einen allgemeinen Begriff einer Handlung sind. Sie sind jedoch kennzeichnend für menschliche Handlungen. Zum anderen wird es durch das ,Weglassen’ einiger impliziter Bedingungen notwendig, die übrigen Bedingungen genauer auszuformulieren, da sich sonst der Handlungsbegriff kaum von einem einfachen Verhaltensbegriff unterscheiden lässt. Pointiert kann man sagen, dass diese Arbeit zeigen wird, dass sowohl Thermostate (oder Plattwürmer) nicht als handlungsfähige Systeme eingestuft werden können als auch dass menschliche (lebendige) Wesen nicht die einzige Klasse von möglichen Verursachern von Handlungen bilden. Im vierten Kapitel, Anwendungen in der KI, möchte ich diskutieren, welche Bedingungen eine Agentendefinition fordern muss, damit der beschriebene Agent als möglicher Handelnder in Frage kommen kann. Im Ausblick dieser Arbeit werde ich noch auf juristische und ethische Implikationen der vorgelegten Klassifizierung hinweisen.

13

I. Was ist Künstliche-Intelligenz-Forschung? „Artificial Intelligence is the science of making machines do things that would require intelligence if done by men.” (M. Minsky, 1968) Mit dem Begriff ‚Künstliche Intelligenz’ (KI) bezeichnet man ein Gebiet der Informatik. Man kann jedoch auch die Informatik als ein Teilgebiet der KI bezeichnen, da zur Forschung im Bereich der KI auch Teilbereiche der Psychologie, Linguistik und Kognitionswissenschaft gehören. Maschinen (Systeme) zu entwickeln, welche Aufgaben bewältigen, für dessen Erledigung ein Mensch Intelligenz benötigt, kann man mit Marvin Minsky als eines der Forschungsziele der KI beschreiben.1 Jedoch ist das nicht das einzige Ziel der KI, es geht auch darum zu verstehen, was intelligentes Verhalten ist, wie aus folgender Definition aus der ‚Encyclopedia of Artificial Intelligence’ zu ersehen ist: „Artificial Intelligence is a field of science and engineering concerned with the computational understanding of what is commonly called intelligent behavior, and with the creation of artifacts that exhibit such behavior.” (Shapiro 1992, p. 55) Eine allgemein gültige Definition von KI ist schwer zu geben. Russell & Norvig (1995)2 unterscheiden zwischen vier verschiedenen Zielsetzungen in der KI:

1

Vgl.: „Ability of a machine to perform tasks thought to require human intelligence. Typical applications include game playing, language translation, expert systems, and robotics. Although pseudo-intelligent machinery dates back to antiquity, the first glimmerings of true intelligence awaited the development of digital computers in the 1940s. AI, or at least the semblance of intelligence, has developed in parallel with computer processing power, which appears to be the main limiting factor. Early AI projects, such as playing chess and solving mathematical problems, are now seen as trivial compared to visual pattern recognition, complex decision making, and the use of natural language.“ (Artificial Intelligence. Britannica Concise Encyclopedia. Retrieved August 20, 2004, from Encyclopedia Britannica Premium Service.) 2 Vgl. Russell & Norvig (1995, p. 5).

14

Tabelle 1: Zielsetzungen der KI Systems that think like humans. Systems that act like humans.

Systems that think rationally. Systems that act rationally.

Die erste Zielsetzung – thinking humanly – beschreibt das, was man auch als kognitive Modellierung bezeichnen kann, nämlich Denkprozesse so zu modellieren, wie sie beim Menschen ablaufen könnten: „If the program input/output and timing behavior matches human behavior, that is evidence that some of the program’s mechanism may also operating in humans.” (Russell & Norvig, 1995, p.6) Hier wird von den künstlichen Systemen nicht gefordert, dass sie physisch an die Außenwelt angekoppelt sind, das Verhalten der Systeme ist auf sprachlich formulierten Output reduziert. Sie brauchen keinen Körper, da vorausgesetzt wird, dass der Geist mit seinen Denkprozessen unabhängig vom Körper existiert. Die physikalische Simulation einer Person scheint deswegen keine notwendige Bedingung für Intelligenz. Es geht dabei primär um Sprachverhalten (natural language processing), Wissensrepräsentation (knowledge representation), automatisches Schlussfolgern (automated reasoning) und maschinelles Lernen (machine learning). Hinzu kommen Erkenntnisse aus der Kognitionswissenschaft und Psychologie. Acting humanly Bei dieser Zielsetzung liegt der Fokus auf Verhalten, welches Veränderungen in der Umwelt bewirken kann, deswegen stehen zwei anderen Gebiete der KI mehr im Mittelpunkt: visuelle Wahrnehmung (vision) und Robotik (robotics). Sowohl die Wahrnehmung (nicht nur die visuelle) als auch die Umweltveränderungsmöglichkeiten sollen nach dieser Zielsetzung denen von Menschen entsprechen. Oben erwähnte Gebiete spielen natürlich auch hier eine Rolle.

15

Thinking rationally Bereiche der KI, die sich dieser Zielsetzung verschrieben haben, haben als Grundlage die Regeln der Logik.3 Die Informationsverarbeitung folgt hier festgelegten Standards und ist auf Utilitymaximierung ausgerichtet. Rational ist, was effizient zum Ziel führt. Ziel ist nicht – wie bei den am Menschen orientierten Zielsetzungen –, auch menschliche Fehlleistungen zu reproduzieren, sondern diese sollen gerade vermieden werden. Mit Hilfe von Wahrscheinlichkeitstheorie und Entscheidungstheorie kann auch unsicheres, unvollständiges Wissen verarbeitet werden. Jedoch führt das prinzipielle Lösen von Problemen nicht zwangsläufig zur Fähigkeit, Probleme in einer komplexen und dynamischen Umwelt zu lösen. Dieser Ansatz wird auch als ,The laws of thought approach’ bezeichnet. Acting rationally Unter rationalem Handeln versteht man, dass die sich durch eigene Wünsche und Vorstellungen ergebenden Ziele stringent verfolgt werden. Dafür müssen alle Ressourcen effizient eingesetzt werden. Gesucht wird der schnellste Weg zum Ziel, und dies impliziert in den meisten Fällen den Einsatz von Vernunft. Eine andere Bezeichnungsweise für diesen Ansatz ist: ‚The rational agent approach’. Schon bei der Beschreibung dieser vier Zielsetzungen der KI-Forschung sieht man, dass im Kontext der KI das Wort ‚Handeln’ ohne Einschränkungen benutzt wird. Die eingangs aufgeworfene Frage, ob künstliche Systeme handeln können, scheint innerhalb der KI keine Rolle zu spielen. Selbst wenn es sich um Systeme handelt, die offensichtlich nur einfaches oder komplexes Verhalten zeigen, wird von handelnden Agenten gesprochen. Aus philosophischer Perspektive wird zwischen starker und schwacher KI unterschieden. Pointiert kann man Vertretern der starken KI unterstellen, dass sie Systeme entwickeln wollen, die sowohl so denken als auch so handeln wie Menschen. Solchen Systemen kann man nach ihrer Auffassung Geist – im selben Sinne wie bei Menschen – zuschreiben. Anzumerken ist, dass man, um ein angemessenes Modell des menschlichen Denkens und Handelns zu entwickeln, auch menschliche Fehlleistungen reproduzieren muss. Starke KI reduziert Kognition und Intelligenz auf bloße Datenverarbeitung. Intelligenz muss hier operationalisierbar sein. Vertreter der schwachen KI-These wollen dagegen Systeme entwickeln,

3

Grundlagen der Regeln der Logik gibt es schon bei Aristoteles (vgl. Organon, 1831).

16

die rational handeln und denken. Sie erheben nicht den Anspruch, dass bei diesen Systemen identische Prozesse wie beim Menschen ablaufen. Immerhin halten sie die Entwicklung solcher Systeme für ein gutes Instrument für die Untersuchung des Geistes, betonen dabei aber den Modellcharakter.4 Die Schwierigkeit, eine allgemeingültige Definition für die KI zu geben, hat ihren Ursprung in der Ungeklärtheit des Begriffes ‚Intelligenz’. Denn schon die wortwörtliche Übersetzung des Begriffes ‚Artificial Intelligence’ ist nicht unproblematisch: Zum einen impliziert ‚artificial’ im Englischen nicht so sehr, wie das im Deutschen der Fall ist, einen Als-ob-Charakter und zum anderen bedeutet ‚intelligence’ im Englischen zunächst nur ‚Fähigkeit, Wissen zu erwerben und anzuwenden’5, während im Deutschen Intelligenz häufig mit der Forderung nach Bewusstsein einhergeht: „Intelligenz ist die allgemeine Fähigkeit eines Individuums, sein Denken bewusst auf neue Forderungen einzustellen; sie ist allgemeine geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens.“ (Stern, 1912, S. 3, Hervorhebung Verfasserin) Daneben wird gerade in psychologischen Kontexten die Meinung vertreten, dass Intelligenz das sei, was man mit einem Intelligenztest messen könne.6 Auch wenn es keine allgemeingültige Definition von Intelligenz gibt, herrscht zumindest eine breite Übereinstimmung darin, unter Intelligenz ‚höhere’ mentale Prozesse wie Erkenntnisvermögen, abstraktes Denken, Bildung von Repräsentationen, Urteilsfähigkeit, Problemlösen und Entscheidungsfindung zu subsumieren.7 Intelligenz äußert sich also in logischem Denken, Rechnen und verschiedenen Gedächtnisleistungen, insbesondere in der Fähigkeit zur Reflexion, zum Sprachgebrauch oder zum Erkennen von Gegenständen und Situationsverläufen. Deswegen fokussiert KI-Forschung auf mögliche 4

Der Unterschied zwischen starker und schwacher KI wird in Kapitel I.3.1 ausführlicher dargestellt. 5 „Intelligence: the ability to learn or understand or to deal with new or trying situations; artificial intelligence: 1: the capability of a machine to imitate intelligent human behavior 2: a branch of computer science dealing with the simulation of intelligent behavior in computers“ (Intelligence. Merriam-Webster Online Dictionary. Retrieved August 20, 2004, from http://www.m-w.com/cgi-bin/dictionary). 6 Vgl. Alfred Binet (1916). 7 Vgl. Görz & Nebel (2003, S.10).

17

Komponenten von Intelligenz wie z. B. auf Lernen, logisches Schlussfolgern, Problemlösen, Handeln, Wahrnehmen und Sprachverstehen. Probleme sollen hier situationsbezogen gelöst werden, d. h. sowohl die Anpassungsfähigkeit an die Umwelt als auch die Fähigkeit, die Umwelt zu verändern, spielen eine wichtige Rolle. Ob Intelligenz an einen bestimmten Körper (Hardware) gebunden sein muss, ist eine Frage, die letztendlich nicht entschieden werden kann. Die philosophische Grundlage der Anfänge der KI setzt in der Regel eine funktionalistische Sichtweise8 voraus, bei der eine Unabhängigkeit von der Hardware postuliert wird. In der Nouvelle AI, einem neuen Zweig der KI, spielt die Körperlichkeit (embodiment) wiederum eine gewichtige Rolle. Zusammenfassend kann man sagen, dass ein Hauptziel der KI in der Operationalisierung menschlicher Fähigkeiten besteht: „Künstliche Intelligenz ist eine wissenschaftliche Disziplin, die versucht, sowohl menschliche Wahrnehmungsleistungen als auch Verstandesleistungen zu operationalisieren.“ (Görz, 2000, S. 1) „KI ist die Untersuchung von Berechnungsverfahren, die es ermöglichen wahrzunehmen, zu schlussfolgern und zu handeln.“ (Winston, 1987) Vorausgesetzt wird in obiger Definition die so genannte Berechnungsthese. Jedoch haben gerade in letzter Zeit Hirnforscher auf den Zusammenhang von Intelligenz und Emotionalität hingewiesen.9 Emotionalität wie auch Bewusstsein kennzeichnen menschliches Denken, entziehen sich meiner Auffassung nach bis jetzt hartnäckig der Operationalisierung, womit Grenzen für die KI gesetzt werden.10 Betrachtet man die Terminologie der KI, kann man Folgendes feststellen: „Da die KI eine junge Disziplin ist, zeichnet sich ihre Grundlagendiskussion zudem durch eine metaphernreiche und 8

„Der Funktionalismus ist eine Lehre über die Natur von Geisteszuständen, derzufolge diese wesentlich dadurch charakterisiert sind, welche kausale (oder funktionale) Rolle sie im Gesamtsystem einer Person (oder eines sonstigen geistbegabten Subjekts) einnehmen.“ (Saporiti, 1996, p. 192). 9 Vgl. Damasio (2000). 10 Sollte sich herausstellen, dass man Emotionalität und Bewusstsein doch operationalisieren kann, wäre diese Begrenzung der KI aufgehoben.

18

aufgrund ihres Gegenstandes stark anthropomorphe Sprache aus.“ (Görz, 2000, S. 1) Die Ausbildung von präzisen Fachbegriffen ist noch nicht erfolgt, wie auch Görz & Nebel feststellen: „Die Benutzung von Metaphern ist bei jungen Disziplinen etwas durchaus Übliches – solange eben die präzisen Fachbegriffe noch nicht erarbeitet sind.“ (Görz & Nebel, 2003, S. 9) Man darf also die in der KI verwendeten Begriffe nicht wortwörtlich verstehen. Bzw. man muss sie klar definieren. Nach einem kurzen historischen Überblick werden in diesem Kapitel verschiedene Forschungsgebiete (Communities) der KI vorgestellt. Außerdem soll gezeigt werden, dass man in der KI von einem Paradigmenwechsel sprechen kann, der es notwendig macht, sich mit dem Handlungsbegriff auseinander zu setzen. Ich bin der Auffassung, dass sich die Ziele in der KI inzwischen verschoben haben, weswegen es sinnvoll ist, die philosophische KI-Debatte aus einer neuen Perspektive heraus wieder zu beleben. Argumente gegen die ‚alte´ KI müssen nicht zwangsläufig für die jetzige KI gelten. I.1 Geschichte der KI Als Geburtsstunde der Künstlichen Intelligenz gilt die Konferenz von Dartmouth: 1956 (zwei Jahre nach dem tragischen Selbstmord von A. Turing) organisierten John McCarthy (Mathematiker in Dartmouth), Marvin Minsky (Mathematiker und Neurologe in Harvard), Nathaniel Rochester (Manager bei IBM) und Claude Shannon (Mathematiker bei Bell Telephone Laboratories) in Vermont einen zweimonatigen Workshop mit dem prägenden Titel: ,The Dartmouth summer research project on artificial intelligence´. Im Förderungsantrag wurde Folgendes ausgeführt: „Wir schlagen eine zweimonatige Untersuchung der Künstlichen Intelligenz durch zehn Personen vor, die während des Sommers 1956 am Dartmouth College in Hanover, New Hampshire, durchgeführt werden soll. Die Untersuchung soll auf Grund der Annahme vorgehen, dass jeder Aspekt des Lernens oder jeder anderen Eigenschaft der Intelligenz im Prinzip so genau beschrieben werden kann, dass er mit einer Maschine simuliert werden kann.“ (zitiert nach McCorduck, 1987, S. 93)

19

Durch diese Konferenz bekam die KI ihren Namen; begonnen hat die KIForschung jedoch schon früher: z. B. durch Warren McCulloch & Walter Pitts (1943), die schon 1943 Überlegungen zur Konstruktion künstlicher neuronaler Netze (KNN) veröffentlichten, wie such durch die Arbeiten von Donald Hebb, Donald Michie, Alan Newell, Herbert Simon, Alan Turing, von Neumann und Dean Edmonds. Auch kann man in der Frühzeit der KI-Entwicklung auf die Kybernetiker Claude Shannon (1948) und Norbert Wiener (1948) verweisen. Einen Ursprung der starken KI–These kann man in Norbert Wieners Beobachtungen über Prinzipien der Feedbacktheorie sehen. Die Beschreibung eines Thermostaten bildet das berühmte Beispiel aus dieser Theorie: N. Wiener behauptet, dass man jedes Verhalten, das aus einem Feedbackmechanismus resultiert, als intelligentes Verhalten bezeichnen kann. Die technischen und auch philosophischen Voraussetzungen für die KI haben eine viel weiter zurückreichende Geschichte. Philosophische Grundlagen Philosophische Grundlagen der KI findet man schon bei Sokrates und Platon, die untersuchen, ob Wissen in eindeutigen Definitionen formulierbar ist. Auch der Ursprung der Berechnungsthese, nämlich die These, dass man schlussfolgerndes Denken auf spezielle Rechenverfahren reduzieren kann, ist in dieser Zeit anzusiedeln. Die Idee, dass Denken prinzipiell operationalisierbar ist, d. h. dass Denken im Grunde ein Berechnungsprozess ist, findet man sowohl bei Boole (1854) als auch bei Hobbes: „Die Römer nannten Geldrechnungen rationes […], und was wir in Rechnungen oder in der Buchführung als Posten bezeichnen, nannten sie nomina, das heißt Namen. Und von da her scheinen sie die Bedeutung des Wortes ratio auf die Fähigkeit des Rechnens in allen anderen Gebieten ausgedehnt zu haben. Die Griechen besitzen für Sprache und Vernunft nur das Wort logos. Nicht, daß sie gedacht hätten, es gebe keine Sprache ohne Vernunft, sondern umgekehrt kein Denken ohne Sprache. Und den Denkakt nannten sie Syllogismus, was Zusammenzählen der Folgerungen aus einer Aussage mit der einer anderen bedeutet. […] Denken heißt nichts anderes als sich eine Gesamtsumme durch Addition von Teilen oder einen Rest durch Subtraktion einer Summe von einer anderen vorstellen. Geschieht dies durch Wörter, so ist es ein Vorstellen dessen, was sich aus den Namen aller Teile für den Namen des Ganzen, oder aus den Namen

20

des Ganzen und eines Teiles für den Namen des anderen Teiles ergibt. […] Kurz: Wo Addition und Subtraktion am Platze sind, da ist auch Vernunft am Platze, und wo sie nicht am Platze sind, hat Vernunft überhaupt nichts zu suchen. […] Denn Vernunft in diesem Sinne ist nichts anderes als Rechnen, das heißt Addieren und Subtrahieren, mit den Folgen aus den allgemeinen Namen, auf die man sich zum Kennzeichnen und Anzeigen unserer Gedanken geeinigt hat.“ (Hobbes, 1966, S. 29ff., Hervorhebung Verfasserin) Technische Grundlagen11 Die technischen Voraussetzungen sind in der Antike für die Entwicklung künstlicher Systeme gelegt worden; z. B. wurden beim Bau der Pyramiden sehr komplexe Maschinen entwickelt. Auch wurde von sprechenden Götterstatuen (Ägypten, ca. 2500 v. Chr.) berichtet, sodass man davon ausgehen muss, dass es so etwas wie eine antike Androidenkunst gegeben haben muss. Zeitgleich zu Hobbes´ (1588 – 1679) Entwicklung eines materialistischen Standpunktes gab es beeindruckende Fortschritte im Automatenbau. So haben Pierre und Henri-Louis Jacquet Droz Puppen konstruiert, die sowohl schreiben als auch musizieren konnten. Jacque de Vaucanson baute um 1738 eine automatische Ente, die trinken, fressen, verdauen und ausscheiden konnte. In einem Interview im Jahre 1777 für die Enzyklopädie der Wissenschaften erklärte Vaucanson, dass es nicht sein Ziel gewesen sei, den Verdauungsprozess perfekt nachzubilden, stattdessen hätte er nur die umfassenderen Aspekte imitieren wollen und mit dieser Ente ist ein gutes Beispiel für eine Simulation gegeben.12 Zur Zeit der Industrialisierung gab es weitere enorme Fortschritte im Automatenbau, die anhand der Entwicklung des automatischen Webstuhles deutlich wird. Die Entwicklung des Computers ist eine der grundlegenden Voraussetzung für die KI: Die erste einfache digitale Rechenmaschine wurde 1642 von Blaise Pascal gebaut. Leibniz (1646–1716) entwickelte diese Rechenmaschine weiter. Charles Babbage entwickelte in Zusammenarbeit mit Lady Ada Lovelance die ,Differenzmaschine´ und konzipierte eine ‚Analytische Maschine’, eine programmierbare Maschine, die man als ersten Vorläufer des Computers

11 12

Vgl. McCorduck (1987). Vgl. ebd.

21

sehen kann.13 Er glaubte, dass solche Maschinen geistige Tätigkeiten von Menschen übernehmen könnten: „Wir haben bereits erwähnt […], dass die Arbeitsteilung mit gleichem Erfolg auf geistige wie mechanische Verrichtungen angewandt werden kann und dass sie beide die gleiche Zeitersparnis garantiert.“ (Babbage, 1833) Das weltweit erste Computerprogramm ist eine Vorschrift für die Berechnung von Bernoulli-Zahlen, die Ada Lovelace in den Jahren 1842/1843 für die mechanische Analytical Engine von Charles Babbage erstellt hat. Dieses Programm wurde zu ihrer Zeit zwar von Hand ausgeführt, denn im 19. Jahrhundert gab es noch keine funktionsfähige Maschine. Hundert Jahre später entwarf Konrad Zuse die Rechner Z1 und Z2; sie konnten lange Befehlsfolgen auf einem Lochstreifen ausführen. Diese Rechner beherrschten die vier Grundrechenarten und Quadratwurzelberechnungen auf binären Gleitkommazahlen; der Lochstreifen enthielt jeweils eine Rechenoperation und eine Speicheradresse. Einen weiteren Meilenstein stellt der EDVAC-Rechner dar, der inzwischen Von-Neumann-Rechner genannt wird. Nach von Neumann (1945) wurde auch die so genannte Von-Neumann-Architektur benannt; in diesem Computer lagen Daten und Programm binär codiert im selben Speicher. So gut wie alle modernen Rechner beruhen auf von Neumanns Idee.14 Auch die Idee der KI, künstliche menschenähnliche Maschinen zu bauen, kann man in vielen, verschiedenen literarischen Zeugnissen verorten.15 Der Begriff des Roboters wurde in Varel Capeks (1921) negativer Utopie R.U.R. (Rozums Universal Robota)16 zum ersten Mal verwendet.

13

Vgl. Menabrea (1842). Translated and with extensive commentary by Ada Augusta, Countess of Lovelace. 14 „Die wesentlichen Ideen der so genannten Von-Neumann-Architektur wurden jedoch schon vorher 1936 von Konrad Zuse ausgearbeitet, in zwei Patentschriften von 1937 dokumentiert und größtenteils bereits 1938 in der Z1 realisiert.“ (Retrieved August 20, 2004, from http://de.wikipedia.org/wiki/John_von_Neumann). 15 Vgl. Julien Offray de la Mettrie (1747). L’Homme Machine. (Englische Übersetzung: Man a Machine. Retrieved August 31, 2004, from http://cscs.umich.edu/~crshalizi/LaMettrie/Machine/). Judah ben Loew (1850). Golem. Mary Wollstonecraft Shelley (1818). Frankenstein oder der moderne Prometheus. ETA Hoffmann (1986). Der Sandmann. 16 Übersetzung: rozum= Verstand, robota = Fronarbeit.

22

Das erste Manifest der KI, ‚Intelligent Machinery’, wurde 1948 von A. Turing verfasst.17 Einige der weiteren Meilensteine der KI-Entwicklung lassen sich an folgender Abbildung ablesen:

Abbildung 1: Meilensteine der KI18 Im Folgenden wird die Entwicklung der KI in fünf Phasen unterteilt und knapp charakterisiert: (1) Gründungsphase (1947–1962): Der Ansatz in der Gründungsphase der KI wird in der Regel als der ,Power-based Approach’ bezeichnet. Dabei geht es um symbolische, nicht-numerische ,Top-Down’ Informationsverarbeitung. Kognitive Prozesse werden hier als Transformation von Symbolstrukturen verstanden. Ein anschauliches Beispiel für den ,Power-based Approach’ sind Schachprogramme. Diese Programme können inzwischen immens viele (mehrere Millionen) Stellungen pro Sekunden berechnen, während gute menschliche Schachspieler ,nur’ wenige hundert Stellungen im voraus erwägen können. Diese Methode wird auch als brute-force-Methode bezeichnet. Themen in dieser Zeit waren: •heuristisches Programmieren: The Logic Theorist19, die Entwicklung des General Problem Solver20

17

Dieser Artikel wurde von Alan Turing (1948) nicht veröffentlicht, aber es gibt im Internet Zugang zu diesem Papier: The Turing Archive for the History of Computing [AlanTuring.net]. Retrieved July 20, 2004, from http://www.alanturing.net/turing_archive/archive/l/l32/L32-001.html). 18 Retrieved 20 August, 2004, from http://library.thinkquest.org/2705/history.html. 19 Newell & Simon (1956). 20 Newell, Shaw, Simon (1957).

23

(GPS), der einwandfreie, logische Schlussfolgerungen produzierte und gleichzeitig versuchte, menschliche Problemlösestrategien zu imitieren (sie repräsentieren starke KI im Sinne von ‚thinking humanly’), •game-playing: Schach, Dame, checkers,21 •die Entwicklung der Programmiersprache LISP,22 •ein erstes LISP-Programm: SAINT (first symbolic integration program), welches einfache Rechenaufgaben23 löste und •die Gründung des ersten industriellen Roboterunternehmens: ,Unimation´ (1962). (2) Entwicklungsphase (1963–1974) In der nächsten Phase wurden die Gebiete Sprachverarbeitung, automatisches Problemlösen und visuelle Szenenanalyse systematisch bearbeitet. In dieser Zeit erschien die erste Aufsatzsammlung der KI (Feigenbaum & Feldman, 1963). In der Sprachverarbeitung wurde ELIZA24 – ein interaktives Programm – entwickelt, mit dem man sich auf Englisch über beliebige Themen unterhalten kann. Beim Problemlösen beschäftigte man sich mit der Lösung von begrenzten Problemen in so genannten Mikrowelten z. B. der ‚block world’ (SHRDLU25, ARCH26, SIR27). Auch wurden die ersten Expertensysteme entwickelt: DENDRAL28, MYCIN29.

21

Samuel, Arthur (IBM). Mc Carthy (1958). LISt Processing. 23 Slagle, James (PhD, MIT, 1961). 24 Weizenbaum, Joseph (MIT, 1966). 25 Winograd (PhD, MIT, 1971) demonstrierte die Fähigkeit eines Programmsystems [SHRDLU], einfache, sprachliche Beschreibungen einer Klötzchenwelt aus bunten Blöcken, Kugeln und Pyramiden im Frage-Anwort-Spiel zu analysieren, zu beschreiben und getippte Instruktionen mit der Simulation eines Roboterarm auszuführen. 26 Patrick Winstons (PhD, 1970). ARCH ist in der Lage, Konzepte aus Beispielen anhand der Welt eines Bausteinkastens zu entwickeln. 27 Bert Raphael (PhD, MIT). Das SIR-Program stellt die Bedeutung einer logischen Repräsentation von Wissen für ein Fragen beantwortendes System dar. 28 Lindsay, Buchanan, Feigenbaum & Lederberg (1980). 29 Shortliffes (PhD, Stanford, 1974) beschreibt die Leistungsfähigkeit von regelbasierten Systemen für Wissensrepräsentation und Inferenzen im Bereich der medizinischen Diagnose und Therapie. Diese Systeme werden manchmal als die ersten Expertensysteme bezeichnet. 22

24

In dieser Zeit entwickelte sich auch der konnektionistische Ansatz: „Konnektionistische Ansätze versuchen, die neuronalen Architekturen des menschlichen Gehirns zu simulieren, um so kognitive Prozesse letztlich „nachstellen“ zu können.“ (Ahrweiler, 1995, S. 26) Erste neuronale Netze wurden konstruiert und deren Begrenztheit demonstriert.30 1969 wurde ein SRI-Roboter namens Shakey konstruiert, der in der Lage war, sich selbst zu bewegen, seine Umwelt wahrzunehmen und Probleme zu lösen. Neue Programmiersprachen wurden entwickelt wie z. B. Prolog31 und auch eine erste objektorientierte Sprache (Smalltalk32). Gerade in den Anfangsjahren war eine optimistische Einstellung gegenüber den Möglichkeiten von KI weit verbreitet. Neben Prognosen, in zehn Jahren den Schachweltmeister schlagen und neue mathematische Theoreme mit KI-Programmen beweisen zu können, machte Herbert Simon folgende Aussage: “It is not my aim to surprise or shock you – but the simplest way I can summarize is to say that there are now in the world machines that think, that learn and that create. Moreover, their ability to do these things is going to increase rapidly until – in a visible future – the range of problems they can handle will be coextensive with the range to which human mind has been applied.” (Newell & Simon, 1958, p. 6) Hans Moravec ging in seinem Buch ‚Mind Children’ noch einen Schritt weiter und behauptete: “Die Menschheit wird in etwa 50 Jahren überflüssig und dann möglicherweise in einem Krieg mit superintelligenten Robotern vernichtet werden.” (Moravec, 1990) Vertreter der starken KI-These mussten jedoch im Laufe der Zeit feststellen, dass die Prognosen ihrer Forschungsergebnisse wohl viel zu

30

Minsky, Marvin & Papert, Seymour (1969). Colmerauer, Alain (1972). 32 Kay, Alan, Goldberg, Adele (Mitte 70er) 31

25

optimistisch gewesen sind.33 Insofern kann man behaupten, dass sich in heutiger Zeit offensichtlich die schwache KI-These durchgesetzt hat.34 Insgesamt kann man darauf hinweisen, dass in der KI meist der Schwerpunkt darauf liegt, dass Systeme funktionieren, und weniger das Augenmerk darauf gelegt wird, wie oder ob sie ähnlich wie Menschen funktionieren. Eine Strömung der schwachen KI-These bezeichnet man auch als angewandte KI (applied AI = advanced information-processing), sie hat zum Ziel, smarte, d. h. verkaufbare Systeme zu entwickeln. „Applied AI, […], aims to produce commercially viable „smart“ systems – such as, for example, a security system that is able to recognize the faces of people who are permitted to enter a particular building.”35 (3) dritte Phase 1975–1980 Die dritte Phase der Entwicklung der KI ist gekennzeichnet durch den so genannten ‚Knowledge-based approach’. Es wurden weitere Expertensysteme entwickelt und die Formalisierung von Problemlösungswissen wurde vorangetrieben, wobei das Thema der Wissensrepräsentation eine wichtige Rolle spielte. (4) ab 1980 In der vierten Phase kann man von einer Mathematisierung des Gebietes sprechen; die Verarbeitung von Wissen wurde präzisiert. Mitte der 80ger Jahre begann die zweite Welle der neuronalen Netzwerke.36 Außerdem kommt mit den Multiagenten-Systemen der Begriff ‚Verteilte KI’ auf. Marvin Minsky beschrieb in seinem Buch „The Society of Mind“ den Geist als ein Multiagentensystem. Das neue Stichwort ‚Situiertheit’ spielt nun vor allem in der verhaltensbasierten Robotik eine Rolle. Seit 1997 wird regelmäßig ein Fußballroboterwettbewerb (RoboCup) abgehalten.

33

„Some critics doubt whether research in the next few decades will produce even a system with the overall intellectual ability of an ant.” (Copeland, 2000). 34 Obwohl es laut meiner Untersuchung (nicht veröffentlichten) auf der IJCAI 2001 immer noch einige Vertreter der starken KI-These gibt. Fragebogen (ohne Ergebnisse). Retrieved 30 August, 2004, from http://cogweb.iig.uni-freiburg.de/CogSci_Anna/. 35 Copeland (2000). 36 Vgl. Rumelhart & McClelland (1986).

26

Daneben kann man die kognitive Modellierung mit der Entwicklungsumgebung SOAR (Laird, Newell, Rosenbloom 1987) erwähnen. Des Weiteren gab es einige Entwicklungen im Themenbereich Spiele, wie z.B. Deep Blue, ein Schachcomputer, der 1997 gegen den Weltmeister Garry Kasparov gewann. Seit 1990 tauchen vermehrt integrierte Ansätze auf: Schwerpunkte bilden die Wiederverwendung von Wissensbasen – das so genannte Wissensmanagement – und der Erwerb des erforderlichen Wissens. Nachdem Expertensysteme nicht die Hoffnungen erfüllt haben, die man in sie gesteckt hatte, entwickelte sich ein neuer Zweig der KI: Nouvelle AI (Brooks (1999) und Pfeifer & Scheier (1999)) Diese Richtung legt den Schwerpunkt auf Körpergebundenheit (embodiment). Sie geht davon aus, dass Intelligenz nicht allein eine Frage von Rechenleistung ist. Sie versucht die evolutionäre Entwicklung von Intelligenz zu verstehen und vertritt die These, dass die Struktur und der Aufbau des Körpers – die morphologische Intelligenz – das Gehirn entlastet und somit intelligentes Verhalten möglich macht. •R. Pfeifer & C. Scheier (1999) sind an dieser Stelle als die berühmtesten Vertreter der evolutionären Robotik zu nennen. •KISMET (Cynthia Breazeal (2000)) ist ein Roboter, der durch die Veränderung seiner Mimik Emotionen zeigt.37 Betrachtet man die KI vom heutigen Standpunkt aus, kann man verschiedene Unterteilungen ausmachen. Zum einen gibt es die Unterscheidung zwischen symbolischer und subsymbolischer KI. Man findet jedoch auch viele Projekte, in denen die beiden Ansätze miteinander in Verbindung gebracht werden. Gerade in der Robotik werden oft Ergebnisse der so genannten subsymbolischen KI aus dem Bereich visuelle Wahrnehmung (vision) verwendet, und im Bereich der Handlungsplanung wird auf symbolische KI zurückgegriffen. Eine weitere Unterteilung der Forschungsbereiche der KI schlägt K. Morik vor. Sie unterteilt die KI in drei Ansätze: • den Ingenieursansatz (engineering approach),

37

Mehr Informationen über KISMET findet man unter folgender Internetseite: Retrieved August 20, 2004, from http://www.ai.mit.edu/projects/humanoid-robotics-group/kismet/kismet.html.

27

• den Konstruktionsansatz (constructing approach), und • den Beschreibungsansatz (describing approach).38 I.2 Paradigmenwechsel in der KI In der heutigen KI kann man viele verschiedene Gebiete – communities – ausmachen: Kern-KI •Agenten, fallbasiertes Schließen, Computerlinguistik und Sprachverarbeitung und -generierung, computational logic, theoretische Informatik, ZweiPersonen-Spiele (game playing), verteilte KI, MenschMaschine-Interaktion – HCI (Human Computer Interaction), Wissensrepräsentation und -verarbeitung (knowledge representation and reasoning), Programmiersprachen (z. B. objektorientiertes Programmieren), Planen, Robotik (z. B. RoboCup), automatisches Beweisen, heuristische Suche, Problemlösen und Expertensysteme Maschinelles Lernen •Maschinelles Lernen, Wissensentdeckung (knowledge discovery in databases) bzw. Data Mining39 Vision •Mustererkennung und Bildverstehen (computer vision) Soft computing (computational intelligence) •Konnektionismus, Künstliche Neuronale Netze (KNN), evolutionary computing •Fuzzy-Systems Kognitive Modellierung [Kognitionswissenschaftlicher Ansatz] und Nouvelle AI [Neue KI ] • Artificial Life Auch wenn oben genannte Gebiete in verschiedenen Communities bearbeitet werden, kann man die Verbreitung von integrierten Ansätzen zunehmend beobachten. Gerade in der Robotik wird auf Ergebnisse aller 38 39

Vgl. K. Morik (1997). Verwiesen sei hier auf Kapitel III.2.6: Formen des Lernens in der KI.

28

anderen Bereiche zurückgegriffen. Inzwischen liegen Trends der KI in Bereichen wie Multiagentensysteme und Ansätzen, die an Embodiment und/oder an Situiertheit orientiert sind. „Konsequenterweise steht heutzutage in der Künstlichen Intelligenz auch nicht mehr das reine Denken im Vordergrund, sondern das Handeln innerhalb einer Umwelt.“ (Nebel, 2002, S. 1) Man kann die Auszählung aller eingereichten Papers für die IJCAI 2001 (Internationale KI Konferenz) in Seattle so interpretieren, dass 51% aller eingereichten Papers40 etwas mit Voraussetzungen und Durchführungen von Handlungen zu tun haben: • multiagent systems (14%) • knowledge representation (14%) • machine learning (12%) • planning (11%) Deswegen halte ich es für sinnvoll, den Begriff einer Handlung gerade in Bezug auf KI-Systeme differenziert zu klären. Die metaphorische Verwendung des Handlungsbegriffes in der KI lässt eine klare Differenzierung zwischen verschiedenen Agentensystemen nicht zu. Am Ende dieser Arbeit (IV.4) wird eine Definition eines kognitiven, quasihandlungsfähigen Agenten gegeben. I.3 Die philosophische KI-Debatte Die Fragestellung dieser Arbeit, ob man künstlichen Systemen kognitive Fähigkeiten zuschreiben kann, führt mitten in die so genannte KI-Debatte. Systemen, denen man Intelligenz zuschreibt, kann man auch Kognition zuschreiben. Kognition scheint eine Voraussetzung für Intelligenz zu sein. Jedoch der Umkehrschluss, alle kognitiven Systeme seien notwendigerweise intelligent, gilt nicht. Man wird in der Auseinandersetzung um den Kognitionsbegriff sehen, dass Kognition mit Lernfähigkeit einhergeht. Jedoch ist weder die Zuschreibung von einfacher Lernfähigkeit noch die von Kognition gleichzusetzen mit der Zuschreibung von Intelligenz. Die Bedingungen, die in der Regel an den Intelligenzbegriff41 geknüpft sind, kann man als Maximalforderung für kognitive Systeme betrachten. Kritisiert wird in dieser Arbeit zum einen, dass die Formulierung solcher

40

Personal communication (E-mail): IJCAI-01 Paper Summary (Keyword) – B. Nebel. Das deutsche Wort Intelligenz wird oft als eine prinzipiell Menschen vorbehaltene Fähigkeit verstanden. 41

29

Maximalbedingungen oft essentiell an Eigenschaften geknüpft ist, die Menschen vorbehalten sind. (Speziezismus-Vorwurf42) Zum anderen wird darauf hingewiesen, dass die Postulation von Maximalbedingungen nichts über mögliche hinreichende Minimalbedingungen aussagt. Ziel dieser Arbeit ist es, sowohl Minimalforderungen für kognitive Systeme als auch Minimalforderungen für handlungsfähige Systeme herauszuarbeiten. In diesem Kapitel wird zuerst dargestellt, welche Fragen in der KI-Debatte bisher thematisiert wurden. Anstatt eine erneute, ausführliche Auseinandersetzung mit diesen Diskussionen zu führen, soll gezeigt werden, dass gerade die Fokussierung auf Verstehen, Intentionalität und Bewusstsein in der KI-Debatte impliziert, dass Maximalforderungen postuliert werden, die von künstlichen Systemen zumindest zum heutigen Zeitpunkt nicht erfüllt werden können. Aus philosophischer Perspektive ist es fragwürdig, ob Maximalforderungen von künstlichen Systemen überhaupt erfüllt werden können, da sie zumeist einhergehen mit speziezistischen Forderungen. Eine neue Perspektive der KI-Debatte darf nicht demselben Fehler verfallen und die Hürde für künstliche Systeme zu hoch hängen. Da ich die Auffassung vertrete, dass es sinnvoll ist, künstlichen Systemen kognitive Fähigkeiten zuzuschreiben, wird in dieser Arbeit ein Begriff von Kognition dargestellt, der nicht notwendigerweise Maximalforderungen aufstellt. Mit diesem Begriff lässt sich der Unterschied zwischen Mensch und Maschine differenzierter beschreiben, indem aufgezeigt wird, welche kognitiven Fähigkeiten bei künstlichen Systemen anzutreffen sind. Im zweiten Teil dieses Kapitels wird problematisiert, inwiefern die Teilnehmer der philosophischen KI-Debatte zur Kenntnis genommen haben, womit sich KI-Forschung beschäftigt. Hier wird man gerade an der Debatte rund um das ‚chinesische Zimmer’ von John R. Searle sehen, dass es die Tendenz gibt, Strohmänner aufzubauen, die mit den gegenwärtigen Forschungsrichtungen nicht allzu viel gemein haben. Aus philosophischer Sicht ist eine wichtige Unterscheidung bei der Beschreibung der Ziele der KI-Forschung zu treffen: Das Ziel kann entweder darin bestehen, Systeme zu entwickeln, die bestimmte Aufgaben lösen können oder für deren Lösung Menschen Intelligenz brauchen. Sie kann aber auch zum Ziel haben, Systeme zu entwickeln, die eben solche Aufgaben auf dieselbe Art und Weise (kognitiv adäquat) wie Menschen lösen.

42

Der Speziezismus wird in Kapitel II.3.2 behandelt.

30

So differenziert z. B. Andy Clark zwischen menschlicher und nichtmenschlicher Intelligenz und dem Modell menschlicher Intelligenz als möglichen Forschungszielen der KI: „For we must be careful to distinguish the question of whether such and such a program constitutes a good model of human intelligence from the question of whether the program (when up and running) displays some kind of real, but perhaps non human form of intelligence and understanding.” (Clark, 2001, p. 21) Eine ähnliche Unterscheidung trifft die Einteilung der KI in zwei Gruppen: die Verfechter der so genannten starken und die der schwachen KI-These. Nach der Vorstellung dieser beiden Thesen werde ich eine Einführung in die Debatten rund um den Turing-Test geben, da diese den Anfangspunkt in der Auseinandersetzung mit der KI darstellen. Dieser Einführung folgt die Darstellung des wohl am häufigsten diskutierten Argumentes gegen den Turing-Test und gegen die starke KI-These, des chinesischen Zimmers von John Searle. I.3.1 Starke KI-These versus schwache KI-These Der Begriff der starken KI-These stammt ursprünglich von Searle, er beschreibt die Vertreter der starken KI-These folgendermaßen: „ … according to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have cognitive states. In strong AI, because the programmed computer has cognitive states, the programs are not mere tools that enable us to test psychological explanations; rather, the programs are themselves the explanations.” (Searle, 1980a, p. 417) Vertreter der starken KI-These vertreten demnach die Auffassung, dass künstliche Systeme mentale (kognitive) Zustände haben können, und würden diesen auch so etwas wie Geist und Bewusstsein zuschreiben. Es wird also behauptet, dass Maschinen prinzipiell auf dieselbe Art und Weise wie Menschen in der Lage sind zu denken und zu handeln. Auch wenn die theoretische Möglichkeit, dass es Maschinen geben kann, die denken wie Menschen, nicht ausgeschlossen werden kann, wird es schwierig sein, in der aktuellen Forschungslandschaft KI-ler zu finden, die behaupten, dass sie existierenden Systemen so etwas wie Geist und Bewusstsein

31

zuschreiben. An allgemeinen Beschreibungen der Ziele der KI kann man jedoch sehen, was es heißen würde, ein starker KI-ler zu sein: „[…], the exciting new effort to make computers think. […] 'AI' wants only the genuine article: machines with minds, in the full and literal sense.” (Haugeland, 1988, p. 2) Wissenschaftsgeschichtlich kann man bei der Entstehung der KIForschung Ziele diagnostizieren, die der starken KI-These entsprechen: „[the goal of strong AI is] … nothing less then to build a machine on the model of a man, a robot that is to have its childhood, to learn languages as child does, to gain knowledge of the world by sensing the world through its own organs, and ultimately to contemplate the whole domain of human thought.” (Weizenbaum, zitiert nach Copeland, 2000) Es gibt verschiedene Voraussetzungen, die oft axiomatisch in der KIForschung angenommen werden. Zu nennen sind folgende drei Kernthesen: •Computermodell des Geistes, •Unabhängigkeit der Software von Hardware (Funktionalismus) und •Gültigkeit des Turing-Tests als Kriterium für Mentales. Ad 1) Die erste These entspricht der so genannten Berechnungsthese, von der nach einem kognitionswissenschaftlichen Forschungsparadigma ausgegangen wird. Man spricht von Informationsverarbeitungsprozessen im Sinne von Berechnungsprozessen, die einen Input mithilfe einer Übergangsfunktion in einen Output überführen. Denken wird hier mit Berechnungsprozessen gleichgesetzt. Ob sich alle kognitiven Fähigkeiten durch die Berechnungsthese erklären lassen, kann in dieser Arbeit nicht endgültig geklärt werden, aber einige kognitive Fähigkeiten lassen sich dadurch erklären. Ad 2) Die zweite These kann man nicht widerlegen, denn man kann die theoretische Nichtexistenz nicht beweisen. Es kann nicht ausgeschlossen werden, dass es Systeme geben könnte, die trotz unterschiedlicher Hardware alle möglichen kognitiven Fähigkeiten haben. Das muss jedoch

32

nicht heißen, dass sie wahr ist. Zumindest bei Betrachtung der existierenden künstlichen Systeme kann man konstatieren, dass eine Zuschreibung von Intelligenz mit Bewusstsein sehr fragwürdig ist.43 Ad 3) Fraglich ist meiner Meinung nach die Gültigkeit der dritten These, da sie einen behavioristischen Standpunkt voraussetzt, der von Kognitivisten nicht eingenommen werden kann. Vorausgesetzt, es gäbe irgendwann künstliche Systeme, die den Turing-Test bestehen würden, müsste man von neuem diskutieren, ob man diesen Systemen mentale Zustände zuschreiben kann, und diese Diskussion wird in keinem Sinne einfacher sein als der Versuch, das other-mind-Problem in Bezug auf den Menschen zu lösen.44 So wie man sich bei Menschen auf sprachliche Äußerungen verlässt, so wird man Ähnliches bei künstlichen Systemen machen müssen. Die Frage nach einem Kriterium für Mentales ist aber sicherlich zu unterscheiden von der Frage nach einem Kriterium für Kognition, denn geistige Zustände und vor allem die Forderung nach Bewusstsein müssen keine notwendige Voraussetzung für Kognition sein. Flexible, anpassungsfähige Informationsverarbeitungsprozesse müssen nicht zwangsläufig von Bewusstsein begleitet sein. Wichtig ist, dass die theoretisch nicht auszuschließende Möglichkeit, künstlichen Systemen Intelligenz mit Bewusstsein (Geist) zuzuschreiben, nicht dazu führen muss, dass man existierenden Systemen Geist zuschreiben muss. Und auch Anhängern der These, dass künstliche Systeme rein theoretisch geistige Zustände haben können, kann man nicht zwangsläufig unterstellen, dass sie selbst versuchen, eben solche Systeme zu entwickeln. In der Anfangszeit der KI-Forschung kann man zwar diesbezüglich eine optimistische Haltung antreffen, betrachtet man jedoch aktuelle Forschungsprojekte, findet man kaum ein Projekt mit einer solchen Zielsetzung. Im Gegensatz dazu behaupten die Vertreter der schwachen KI-These lediglich, dass es möglich ist, menschliche Intelligenz mit künstlichen Systemen zu simulieren. Dies bedeutet, dass von einem künstlichen System nur gefordert wird, auf einen bestimmten Input mit dem adäquaten Output 43

Vgl. Clark (2001, p. 25). Vgl.: „Minds exist in brains and may come to exist in programmed machines. If and when machines come about, their causal powers will derive not from the substance they are made of, but from their design and program that run in them. And the way we will know they have those causal powers is by talking to them and listening carefully to what they have to say.” (Hoffstadter & Dennett, 1981)

44

33

zu reagieren. Damit stellt man keine Behauptung darüber auf, ob der zu Grunde liegende Informationsverarbeitungsprozess selbst identisch mit dem des Menschen ist; genauso wenig muss man mentale Zustände oder gar Bewusstsein postulieren. Umso wichtiger ist es an dieser Stelle, die Eigenschaften (Flexibilität) des ablaufenden Informationsverarbeitungsprozesses zu untersuchen. Das Prädikat ‚kognitiv’ kann man dann aufgrund dieser Eigenschaften zuschreiben und muss nicht behaupten, sie seien identisch mit den Informationsverarbeitungsprozessen bei Menschen. Damit postuliert man eine mittlere Klasse von Forschungszielen, die zwischen starker und schwacher KI anzusiedeln wäre. Anstatt kognitiv adäquate Informationsverarbeitungsprozesse zu fordern oder keine speziellen Forderungen an den Informationsverarbeitungsprozess zu stellen, fordert man, dass der Informationsverarbeitungsprozess kognitiv – d. h. flexibel (durch das System veränderbar) – sein soll. I.3.2 Die Debatte um den Turing Test 1950 erschien der berühmte Artikel ‚Computing Machinery and Intelligence’ von Alan Turing, in dem der so genannte Turing Test entwickelt wurde. In den folgenden Debatten geht es nicht mehr um die Diskussion von Intelligenz, sondern um die Zuschreibung von Denk- und Handlungsfähigkeit. Dem wird die Annahme zugrunde gelegt, dass ein System mit Intelligenz notwendigerweise in der Lage sein muss zu denken und zu handeln und dass umgekehrt jedes System, das denken und handeln kann, Intelligenz hat. A. Turing reformuliert die Frage, ob Maschinen denken können, indem er die Frage stellt, ob Maschinen den Turing Test bestehen können. Das Bestehen des Turing Tests wird somit als hartes Kriterium für die Zuschreibung von Denkfähigkeit postuliert. Dieser Test beruht auf dem so genannten ‚Imitation Game’. In der ursprünglichen Version ist das ‚Imitation Game’ folgendermaßen aufgebaut: Ein Interviewer, eine Frau und ein Mann befinden sich in drei akustisch und visuell voneinander abgeschirmten Räumen und können über einen Computer Fragen und Antworten austauschen. Dabei geht es in der ersten Runde darum, wie gut der Mann dem Interviewer vortäuschen kann, eine Frau zu sein. Danach wird der Mann durch eine Maschine ersetzt und der Interviewer muss dieselbe Aufgabe lösen. Als bestanden wird der Test angesehen, wenn der Interviewer auch in der zweiten Runde nicht mehr Fehler (also höchsten 30%) als in der ersten Runde macht. In der generellen Interpretation des Turing Tests geht es jedoch nicht mehr um die Geschlechterfrage, sondern

34

darum, ob eine Maschine in der Lage ist, einen Menschen glaubwürdig zu imitieren. Beurteilt wird damit nicht der Informationsverarbeitungsprozess, der dem Verhalten der Maschine zugrunde liegt, sondern die Wirkung des Verhaltens auf einen Menschen. Dies ist eine zutiefst behavioristische Herangehensweise, wie ich später noch genauer erläutern werde. Seit 1991 gibt es den Loebner-Preis-Wettbewerb.45 Der erste Preis würde für das Bestehen des Turing Tests vergeben werden, jedoch konnte bis zum heutigen Tage kein erster Preis vergeben werden. Um den Turing Test gab es eine rege Diskussion.46 Schon 1948 hat A. Turing in einem unveröffentlichten Papier mit dem Titel ‚Intelligent Machinery’ – das erste Manifest der KI – einige grundsätzliche Entgegnungen vorweggenommen. In diesem Papier werden mögliche Einwände diskutiert, die gegen eine Untersuchung der Frage sprechen, ob es Maschinen möglich ist, intelligentes Verhalten zu zeigen: •kontra Rivalität •religiöse Gründe (Promethean irreverence) •Limitiertheit von Maschinen •mathematische Entgegnung (Gödel) •reine Reflexion der Intelligenz des Erschaffers Die ersten beiden Einwände haben einen eher emotionalen Hintergrund: Zum einen wollen Menschen keine Rivalen und halten es deswegen nicht für gut (und lieber auch nicht für möglich), ‚künstliche Intelligenz’ zu entwickeln. Zum anderen kann man auch religiöse Einwände gegen die Entwicklung von ‚künstlicher Intelligenz’ vorbringen. In der jüdischchristlichen Tradition ist es Gott vorbehalten, „ein Wesen nach seinem Angesicht zu schaffen“47. Diese Einwände sind für Turing nicht diskutabel, aber sie bieten natürlich Stoff für eine ethische Diskussion, die sich damit auseinandersetzt, was man wollen soll. Trotzdem lassen sich solche Auffassungen gerade im philosophischen Lager immer wieder verorten. Die Zuschreibung von Geist auf Maschinen scheint einem Tabubruch gleichzukommen. Obwohl das nicht offen behauptet wird, drängt sich doch der Eindruck auf, dass Thesen des ‚Nicht-Möglich-Sein-Könnens’ ihren Ursprung in Postulaten von ‚Nicht-Wollen-Sollen’ haben.

45

Mehr über den Loebner-Preis findet man unter folgender Internetadresse: Retrieved August 20, 2004, from http://www.loebner.net/Prizef/loebner-prize.html. 46 Weitere Einwände gegen den Turing Test findet man schön zusammengefasst in ‚Turing test 50 years later’. (Saygin et al., 2000). 47 Vgl. 1. Mose 1,26.

35

Auch der dritte und vierte Einwand haben für Turing keine wirkliche Relevanz, da er zum einen darauf verweisen kann, dass es schon jetzt Maschinen gibt, die in der Lage sind, eine immense Anzahl von Operationen durchzuführen. Zum anderen stellt die prinzipielle Limitiertheit, der diskrete Maschinen nach Gödels Theorem unterliegen, kein Argument gegen die Denkfähigkeit von Maschinen dar, da ja auch nicht bewiesen ist, ob nicht auch Menschen solchen Begrenzungen unterliegen: „…although it is established that there are limitations to the powers of any particular machine, it has only be stated, without any sort of proof, that no such limitations apply to the human intellect.” (Turing, 1950, p. 445) Außerdem merkt er an, dass der Einwand von Gödel darauf abzielt, dass Maschinen keine Fehler machen können: „The argument from Gödel and others theorem rests essentially on the condition that the machines must not make mistakes. But this is not a requirement for intelligence.” (Turing, 1948, p. 2) Ebenso wenig kann er dem letzten Einwand zustimmen. Hier entgegnet Turing, dass die Leistungen eines Schülers nicht dem Lehrer zugeschrieben werden. Des Weiteren wurde im Verlauf der Debatte um den Turing Test eingewandt, dass mit diesem Test weder die Existenz von Bewusstseinszuständen noch irgendwelchen anderen Fähigkeiten, zu denen Menschen in der Lage sind, überprüft werden können. Diese Art des Einwandes setzt voraus, dass sowohl Bewusstsein als auch weitergehende Fähigkeiten Voraussetzungen für Denkfähigkeit sind. Man muss zu mehr in der Lage sein, als das ‚Imitation Game’ spielen zu können, wenn man denkfähig sein möchte. Man kann die Argumente, die auch heute noch gegen die Zuschreibung von Intelligenz bei Maschinen hervorgebracht werden, in vier Kategorien einteilen48:

48

Vgl. McCorduck (1987, S. 166). In diesen vier Kategorien kann man die vorweggenommenen Einwände von Turing wieder finden.

36

•Gefühlsargumente (z.B. Speziezismus), •ethische Bedenken (sprechen nicht gegen die Möglichkeit!), •Argumente aufgrund von Schwierigkeiten (können gelöst werden) und •Argumente aufgrund von nicht vorhandenen Beispielen (Nichtexistenz kann man nicht beweisen!). Ad 1) Argumente aus der ersten Kategorie stützen sich auf die unbegründete Voraussetzung, dass Intelligenz ausschließlich Menschen zuzuschreiben ist. Göttlicher Ursprung oder biologischer Zufall begründen hier, dass nur Menschen Intelligenz haben können. Rudimentäre Intelligenz wird bestenfalls anderen komplizierten Organismen zugestanden. Dies ist eine sehr speziezistische Argumentationsweise. Denk- und Handlungsfähigkeit werden Systemen hier aufgrund der Zugehörigkeit zu einer bestimmten Art zugeschrieben, anstatt bestimmte Systemeigenschaften zu benennen, welche die Voraussetzungen für Denkund Handlungsfähigkeit erfüllen können.49 Ad 2) Argumente, die sich auf ethische Überlegungen stützen, setzen meist voraus, dass es bis jetzt noch eine Maschinenintelligenz gibt, und diskutieren, ob man wollen sollte, dass es andere Intelligenzen gibt. Dies sagt natürlich nichts über die Möglichkeit der Existenz aus. Ad 3) Diese Argumente setzen z. B. voraus, dass sowohl Kreativität als auch Originalität zur Intelligenz gehören. Beides wird Maschinen hier von vorneherein grundsätzlich abgesprochen. Es wird z. B. postuliert, dass man Intelligenz nur entwickeln kann, wenn man „inmitten der realen Welt im lebendigen Austausch mit anderen des gleichen Geistes“50 Erfahrungen macht. „Da das wahre Wesen der Anpassungsfähigkeit – nämlich Lernen – und zielstrebiges Verhalten erst in Zukunft bestimmt werden, dürfen wir daraus schließen, dass Computer zur Zeit noch auf eindeutig 49

Auch wenn das Speziezismus-Argument in der praktischen Philosophie, wie es von P. Singer verwendet worden ist, kritisch zu betrachten ist, ist es eine gerechtfertigte Frage, ob Zuschreibungen aufgrund der Zugehörigkeit zu einer Art und nicht aufgrund ausgebildeter Eigenschaften vorgenommen werden sollen. 50 Siehe McCorduck (1987, S. 166).

37

spezifische Aufgaben begrenzt sind, bei denen die eine oder andere Art von Datenverarbeitung weitestgehend routinemäßig abläuft.“ (Hiller & Isaacson, 1959)51 So wird z. B. von Mortimer Taube (1961) in ‚Computers and Common Sense’ zwar nicht behauptet, dass nur Menschen denken könnten, jedoch wird ausgeschlossen, dass das für Maschinen jemals möglich sei. Das angeführte Argument besteht in der Behauptung, dass die Formalisierung von Denken schlichtweg nicht möglich ist, da menschliches Lernen kein formaler Prozess sei. Auch die Argumente, die darauf verweisen, dass Intelligenz mit Emotionalität verbunden sei, setzen voraus, dass Emotionalität nicht formalisierbar ist. Aber aus den bestehenden Schwierigkeiten der Formalisierung kann man nicht schließen, dass es niemals möglich sein kann, diese Schwierigkeiten zu überwinden. Ad 4) Argumente aus dieser Kategorie beziehen sich in der Regel auf konkrete Einzelsysteme und führen ihre Begrenztheit vor. Aber wie bereits erwähnt, kann man aus dem aktuellen Nicht-Vorhandensein konkreter Systeme ohne Begrenztheit nicht auf ihre Unmöglichkeit schließen. Das wichtigste Gegenargument aus kognitionswissenschaftlicher Perspektive wurde unter anderem von Ned Block (1981) vorgebracht. Dieser Einwand zeigt, dass der Turing Test von einer behavioristischen Auffassung ausgeht und von daher von keinem Kognitivisten verteidigt werden kann. „[Psychologism is …] the doctrine that whether behavior is intelligent behavior depends on the character of the internal information processing.“ (Block, 1981, p. 5) Genauso resümiert Lycan: “Any behaviourist will subscribe to what has come to be called the ‘Turing Test’.” (Lycan, 1999, p.4) Der am ausführlichsten diskutierte Einwand gegen den Turing Test stammt von J. Searle, dessen Argument ich im Folgenden darstellen werde. I.3.3 Die Debatte um das chinesische Zimmer

51

Zitat aus: Hiller & Isaacson (1959). Zitiert nach McCorduck, 1987, S. 169).

38

‚Minds, Brains and Programs’ war der Targetartikel in der dritten Ausgabe (1980a) der Zeitschrift ‚Behavioral and Brains Science’. Mit diesem Artikel hat John R. Searle eine Diskussion angestoßen, die bis in die heutigen Debatten hineinreicht. Es würde den Rahmen dieser Arbeit sprengen, wenn man die Reaktionen auf diesen Artikel vollständig nachzeichnen und kommentieren wollte.52 Deswegen folgen hier nur eine Darstellung des Arguments des ‚chinesischen Zimmers’ und eine knappe Übersicht der wichtigsten Entgegnungen. Das Gedankenexperiment des chinesischen Zimmers soll zeigen, dass die These der starken KI, nämlich dass künstliche Systeme tatsächlich wie Menschen denken und handeln können, grundsätzlich nicht haltbar ist. Das Ausführen regelgeleiteter Symbolmanipulation kann zwar nach außen hin so wirken, als ob das ausführende System denken und damit auch verstehen würde, es ist jedoch nach den Voraussetzungen des Gedankenexperiments nicht dem symbolmanipulierenden System im chinesischen Zimmer zuzuschreiben: Ein qua Voraussetzung nicht des Chinesischen fähiger Mensch reagiert hier schlichtweg nur gemäß eines Regelwerkes (geschrieben in dessen Muttersprache) auf hereinkommende chinesische Zeichen mit der Herausgabe chinesischer Zeichen. Für den Außenstehenden mag es so wirken, als ob aus dem chinesischen Zimmer Antworten auf gestellte Fragen kämen, jedoch der Mensch im chinesischen Zimmer versteht weder die hereingereichten Fragen noch die Antworten, die er selber herausgibt. Die Begründung von Searle läuft darauf hinaus, dass Symbolmanipulation alleine zu wenig ist, menschlichem Denken liegen seiner Meinung nach intentionale Inhalte zugrunde, die eben nicht auf sprachliche Syntax oder eben formale Programmierung reduziert werden können.53 Informationsverarbeitenden Systemen, die nur Symbolmanipulation betreiben, kann man nach Searle keine Verstehensprozesse unterstellen. Mit diesem Argument kritisiert Searle auch das behavioristische Paradigma des Turing Tests: Das beobachtbare Verhalten könne kein hinreichendes Kriterium sein, um die zugrunde liegenden Informationsverarbeitungsprozesse beurteilen zu können. Es sei immer vorstellbar, dass sprachliche (in diesem Fall schriftliche) Äußerungen so wirken, als ob sie von einem Verstehensprozess begleitet wären, aber das sage noch nichts über die Art und Weise der zugrunde liegenden Informationsverarbeitungsprozesse aus. Ob man einen Informationsverarbeitungsprozess als Verstehen oder Denken bezeichnen kann, hängt für Searle wiederum nicht nur an dem richtigen Programm, durch das 52 53

Es sei hier nur verwiesen auf die Dissertation von Larry Hauser (1993). Vgl. Mainzer (1994, S. 655).

39

dieser Prozess beschrieben werden könnte, sondern auch daran, dass das Programm in dem richtigen Stoff implementiert ist. Dieser Stoff muss die kausale Kraft haben, Intentionalität zu verursachen. Das menschliche Gehirn besteht seiner Meinung nach aus einem solchen Stoff mit der benötigten kausalen Kraft. Die Argumentskette dieses Gedankenexperiments lässt sich folgendermaßen darstellen: (A1) Programme sind formal, d. h. syntaktisch (regelgeleitete Symbolmanipulation). (A2) Der Geist hat einen intentionalen, d.h. semantischen Inhalt. (A3) Syntax alleine ist weder konstitutiv noch hinreichend für Semantik. (A4) Gehirne können Geist verursachen (Silizium nicht).54 Daraus folgt: (C1) Programme sind weder konstitutiv noch hinreichend für Geist.55 (C2) Jedes künstliche System, das Geist verursachen kann, muss analoge kausale Kräfte wie das Gehirn besitzen.56 Auf den Punkt gebracht, charakterisiert Searle seine Auffassung folgendermaßen: “(5) Any attempt literally to create intentionality artificially (strong AI) could not succeed just by designing programs but would have to duplicate the causal powers of the human brain.” (Searle, 1980a, p. 417) Abgesehen davon, dass das vierte Axiom in keiner Weise selbstverständlich oder durch irgendwelche Argumente gestützt ist, gibt es viele Entgegnungen, die sich mit der ersten Konklusion, die sich scheinbar allein aus den ersten drei Axiomen ergibt, auseinander setzen. Im Folgenden wird kurz auf die Systementgegnung, die Roboterentgegnung, die Gehirnsimulationsentgegnung und die konnektionistische Entgegnung eingegangen: Die so genannte Systemantwort gibt zu bedenken, dass man zwar nicht dem menschlichen Agenten als einem Element des chinesischen Zimmers 54

“(1) Intentionality in human beings (and animals) is a product of causal features of the brain. […] (2) Instantiating a computer program is never by itself a sufficient condition of intentionality.” (Searle, 1980a, p. 417). 55 “(3) The explanation of how the brain produces intentionality cannot be that it does it by instantiating a computer program.” (ebd.). 56 “(5) Any mechanism capable of producing intentionality must have causal powers equal to those of the brain.” (ebd.).

40

zuschreiben kann, Chinesisch zu verstehen, jedoch dem gesamten System, dem Zimmer inklusive Regelwerk und menschlichem Agent, könne man schon unterstellen, dass es Chinesisch verstehe. So konstatiert auch D. Dennett: „The systems reply suggests, entirely correctly in my opinion, that Searle has confused different levels of explanation (and attribution). I understand English; my brain doesn’t – nor, more particularly, does the proper part of it (if such can be isolated) that operates to >process< incoming sentences and to execute my speech act intentions.” (Dennett, 1980, p. 429) Searle lässt sich von dieser Argumentation nicht beeindrucken und schlägt vor, das Gedankenexperiment insofern zu verändern, als man voraussetzt, der Insasse des chinesischen Zimmers hätte das Regelwerk auswendig gelernt; und auch dann könne man dieser Person nicht die Fähigkeit, Chinesisch zu verstehen, zuschreiben. An dieser Stelle kann man einwenden, dass auch der Hersteller des Regelwerkes zum Gesamtsystem gehören müsste, und ihm kann man die Fähigkeit, Chinesisch zu verstehen, wohl kaum absprechen. Ebenso wenig kann man bestreiten, dass der Mensch im chinesischen Zimmer, der seine Muttersprache beherrscht, Intentionalität (im Sinne Searles) besitzt, was bedeutet, dass ein Verstehensprozess, nämlich das Verstehen des Regelwerkes, notwendigerweise im chinesischen Zimmer stattfindet. Die Roboterentgegnung schlägt vor, in einem geschlossenen Zimmer statt eines Menschen einen interaktiven Roboter auf die chinesischen Zeichen reagieren zu lassen.57 Da aber Searle voraussetzt, dass wahrscheinlich nur das menschliche Gehirn (und auf keinen Fall der Stoff, aus dem Roboter gemacht sind) zu mehr fähig ist als reiner Symbolmanipulation, ist dies für ihn kein schwerwiegender Einwand, da er sich auf die Behauptung, man habe es hier nur mit Symbolmanipulation zu tun, zurückziehen kann. Genauso wenig lässt sich Searle von der Gehirnsimulationsentgegnung beeindrucken, denn für ihn kann es hierbei nur um eine formale Simulation gehen bei der die kausalen Kräfte des menschlichen Gehirns nicht reproduziert werden. Er begegnet dieser Entgegnung, indem er darauf hinweist, dass eine formale Simulation prinzipiell auch in eine Simulation mit Wasserpumpen transferiert werden könne, und einem System, welches aus Wasserpumpen besteht, würde sicherlich niemand Intentionalität und

57

Vgl. Fodor (1980).

41

insofern Verstehensprozesse zuschreiben. Auch einer Kombination aus diesen drei Einwänden kann Searle aus demselben Grund nicht zustimmen. Ebenso hält Searle den so genannten ,konnektionistische Einwand´, welcher von Paul und Patricia Churchland hervorgebracht wurde, für nicht wirklich überzeugend: Selbst in einer chinesischen Turnhalle, in der viele Module parallel an der Symbolverarbeitung partizipieren, sei kein Verständnis von Chinesisch zu finden. Zusammenfassend kann man sagen, dass es aufgrund des vierten Axioms, welches behauptet, das künstliche Systeme nicht aus einem Stoff bestehen, der die kausale Kraft hat, Intentionalität zu verursachen, für Searle qua Voraussetzung nicht möglich ist, künstlichen Systemen Intentionalität zuzuschreiben. Die hervorgebrachten Entgegnungen heben jedoch nur auf die ersten drei Axiome ab und ignorieren das vierte. Trotz dieses Problems lässt sich konstatieren, dass dieses Argument sowohl gegen den Behaviorismus als auch gegen den Funktionalismus spricht. Ersteres kann man an der Reaktion von R. Rorty ersehen: „If you can fool all the people all of the time, behaviorists and operationalists say, it doesn't count as fooling any more.” (Rorty, 1980, p. 445) An alternativen Positionen bleiben zum einen dualistische und zum anderen identitätstheoretische Positionen. Searle vertritt jedoch einen so genannten biologischen Naturalismus, der weder der einen noch der anderen Position wirklich zuzuordnen ist. Viele Interpretationen von Searles Standpunkt bescheinigen ihm jedoch eine dualistische Position, jedoch Searle selber widerspricht solchen Zuschreibungen vehement. Die Schwierigkeit, die dieses Gedankenexperiment aber in jedem Fall nach sich zieht, ist die einengende Beschreibung des Forschungszieles der KI. Wie man im nächsten Kapitel sehen wird, ist es schon lange nicht mehr das erklärte Ziel der KI – von vereinzelten Ausnahmen abgesehen –, Maschinen mit Geist und Intentionalität zu entwickeln. In dieser Arbeit wird die These vertreten, dass man für die Zuschreibung von Kognition nicht notwendigerweise die Maximalforderungen von Kognition erfüllen muss. Nicht alle kognitive Fähigkeiten setzen Bewusstsein, Selbstbewusstsein oder intrinsische Intentionalität voraus. Unter dieser Voraussetzung kann die These, dass man künstlichen Systemen kognitive Fähigkeiten (z. B. Handlungsfähigkeit) zuschreiben kann, selbst von Anhängern des chinesischen Zimmers vertreten werden. I.3.4 Die phänomenologische Kritik an der KI – Dreyfus

42

Hubert L. Dreyfus58 (1972) hat in seinem Buch What Computers Can't do The Limits of Artificial Intelligence den symbolischen Ansatz der KIForschung aufs schärfste kritisiert.59 Konnektionistische Systeme liegen nicht im Fokus seiner Kritik: „Wie vor zwanzig Jahren gehe ich noch immer davon aus, dass es eines Tages intelligente Computer geben kann […]. Künstliche Intelligenz kann jedoch erst dann verwirklicht werden, wenn die Forscher ihre Idee aufgeben, nach einer zeichenhaften Darstellung der Welt zu suchen, und sich stattdessen an einem neutralnetzartigem60 Modell des menschlichen Geistes orientieren.“ (Dreyfus, 1989, S. 15) Das Grundproblem der KI-Forschung sieht Dreyfus in der der Annahme, dass „das Alltagsverstehen als ein riesiges Gefüge von Behauptungen, Meinungen, Wahrnehmungen, Regeln, Fakten und Verfahren“61 vorzustellen ist, und das Scheitern sieht er darin begründet, dass für dieses Gefüge geeignete formale Modelle gesucht werden. Man bezeichnet dieses Problem als das Problem des Alltagswissens. Er behauptet, dass Informationen für symbolmanipulierende Systeme bloß vorhanden sind. Das bedeutet, dass die repräsentierten Symbole nur nach starren, fixen Regeln manipuliert werden können. „Wenn man das menschliche Wissen operationalisieren will ‒ und dies tut der Entwickler von intelligenten Systemen im wesentlichen ‒ so ist man daher typischerweise mit der Implizitheit menschlichen Wissens in den unbewußten Denkprozessen konfrontiert.“ (Hoffmann, 2002)62

58

Die Heideggersche Phänomenologie und die KI wurden durch Dreyfus' Veröffentlichung Alchemie und KI (Dreyfus, 1965) bereits in den 60er Jahren miteinander in Verbindung gebracht. Doch erst in den 80er Jahren fand diese Verbindung eine breitere Fachöffentlichkeit. Das größere Interesse in der Fachwelt ist unter anderem durch Winograds Abkehr vom traditionellen Forschungsprogramm der KI und seinem Buch Understanding Computers and Cognition (Winograd & Flores, 1986) zu erklären. 59 Die Nähe seiner Kritik zur Phänomenologie Merleau-Pontys und zu Philosophen wie Martin Heidegger und J.-P. Satre wird in dieser Arbeit nicht weiter thematisiert. 60 Dies ist wohl ein Druckfehler, gemeint ist hier „neuralnetzartig“, Verfasserin. 61 Dreyfus (1989, S. 13). 62 Retrieved from August, 27, 2004, http://www.cse.unsw.edu.au/~achim/Research/Philosophie/node65.html

43

Nach Dreyfus ist Wissen bei Menschen zu einem großen Teil nur implizit in der spezifischen Struktur des Handelns enthalten und eben nicht symbolisch repräsentiert oder repräsentierbar. Das Bewusstwerdende allein reicht nicht aus, um unsere Denkprozesse vollständig zu beschreiben. Dreyfus weist hier auf die Unterscheidung zwischen knowing how and knowing that hin: Mit knowing how ist nicht-formalisierbares Handlungswissen gemeint, welches sich nur in durchgeführten Handlungen zeigt und eben nicht symbolisch repräsentiert ist. Handlungen sind nach Dreyfus nur in einem philosophischen Sinne regelgeleitet – d. h. es werden Regeln mit nicht näher bestimmbaren Ausnahmen befolgt. Aufgabe der KI wäre es, dieses implizite Wissen zu operationalisieren (Implizitheit menschlichen Wissens in den unbewussten Denkprozessen), denn das bewusst gewordene, explizite Wissen reicht – wie schon erwähnt – allein nicht aus, um Denkprozesse vollständig zu beschreiben. Unbewusstes (implizites) Wissen sei aber so komplex, dass es nicht operationalisierbar sei, sagt Dreyfus. Ganz abgesehen davon, dass bei künstlichen Systemen die Unterscheidung zwischen bewusstem und unbewusstem Wissen so nicht zu machen ist, kann man aber zeigen, dass eine Turingmaschine63, betrachtet als black box, durch einfache Symbolverarbeitung (Manipulation der Zeichen auf dem Band) ohne explizite Regelanwendung Verhalten zeigt, in dem gerade dieses knowing how enthalten ist. Natürlich müssen diese Regeln (Turingmaschinentabelle) angemessen interpretiert werden, dies übernehmen bei physikalischen Realisierungen einer Turingmaschine entsprechend entworfene, physikalische Prozesse. So behauptet Hoffmann (2002): „[...] dass man sich bei dem ,schlichten Vollzug’ der Aktionen der Turingmaschine ein beliebig komplexes Verhalten vorstellen kann. Mithin kann ein beliebig komplexes ,implizites Wissen’ durch das schlichte Verhalten der Turingmaschine realisiert werden, wenn die

63

Die Funktionsweise einer Turingmaschine ist durch die zugehörige Turingmaschinentabelle definiert. Jede Aktion der Turingmaschine ist abhängig von ihrem jeweiligen internen Zustand und dem Zeichen, das sich gerade auf dem Band unter dem Schreib-/Lesekopf befindet. In Abhängigkeit von diesen beiden Komponenten bestimmt eine entsprechende Regel, die in der Turingtabelle angegeben ist, die jeweils nächste Aktion. Damit ist festgelegt, welches Zeichen auf das Band geschrieben wird, welchen internen Zustand die Turingmaschine als Nächstes einnimmt und wie sich der Schreib-/Lesekopf auf dem Band bewegt.

44

Turingmaschinentabelle nur hinreichend lang ist und ein komplexes Verhalten vorschreibt. In diesem Sinn wäre das Verhalten durch ein knowing-how bestimmt - und nicht durch ein knowing-that!“ I.3.5 Warum Philosophie? Das Projekt der KI hat von philosophischer Seite wenig Zuspruch bekommen. Das ist zum Teil darin begründet, dass relativ häufig von einem ethisch motivierten ‚Nicht-Wollen-Sollen’ auf ein ‚Nicht-SeinKönnen’ geschlossen wird. Aber die reine Tatsache, dass man bei der Vorstellung von künstlicher Intelligenz oder künstlichem Bewusstsein z. B. einen möglichen Freiheitsverlust von Menschen antizipieren kann, wie z. B. die Möglichkeit, dass künstliche Intelligenz uns eventuell beherrschen könnte, macht die Gegenargumente ihre Möglichkeit betreffend nicht gewichtiger. Gerade Searle ist in den Augen von D. Hoffstadter jemand, mit dem er sozusagen einen religiösen Dissens64 hat, und wird von ihm folgendermaßen beschrieben: “Searle is representative of a class of people who have an instinctive horror of any ,explaining away’ of the soul.” (Hoffstadter, 1980, p. 434) Hinzu kommt, dass gerade durch das Abheben auf die von Searle beschriebene These der starken KI, andere Forschungsrichtungen in der KI weniger betrachtet und kommentiert wurden. Möchte man das Problem, das viele Philosophen mit dem Projekt der KI haben, genauer diagnostizieren, muss man auf die Leib-Seele-Diskussion verweisen. Eine etwas positivere Einstellung gegenüber der KI ist gerade in neuerer Zeit zu verzeichnen und scheint einherzugehen mit der zunehmenden Attraktivität materialistischer Positionen zum Leib-SeeleProblem. So kann man konstatieren, dass Forschung, die sich einem kognitionswissenschaftlichen Paradigma verpflichtet fühlt und somit die Berechnungsthese vertritt, dualistische Standpunkte und somit viele Kritiklinien gegenüber der KI vehement ablehnen würde. Da aber weder die These ‚Maschinen können Geist haben’ noch die Gültigkeit eines monistischen Standpunktes falsifiziert aber ebenso wenig verifiziert werden können, sind Begriffe zu entwickeln, die gerade in Bezug auf solche Fragestellungen neutral sind. So sollte man weder intrinsische (prinzipiell dem Menschen vorbehaltene) Intentionalität von

64

Vgl. Hoffstadter (1980, p. 434): “[…] religious disagreement […]”.

45

künstlichen Systemen fordern noch sollte man behaupten, Menschen können prinzipiell auf keinen Fall mehr als Maschinen können, wenn es darum geht, Ereignistypen zu beschreiben, die auf bestimmten Informationsverarbeitungsprozessen beruhen. In der philosophischen KI-Debatte scheint gerade die Fokussierung auf höhere kognitive Fähigkeiten, die offensichtlich zwangsläufig einhergehen mit Bewusstsein, Selbstbewusstsein oder auch intrinsischer Intentionalität, dazu zu führen, dass einem künstlichen System nur dann Kognition zugesprochen wird, wenn es die Maximalanforderungen erfüllt. Meines Erachtens gibt es nichtsdestotrotz einen Umschlagpunkt, an dem einfaches Verhalten, das nicht kognitiv ist, zu etwas Kognitivem (zu komplexem Verhalten oder zur Quasi-Handlung) wird, und es wäre sehr verwunderlich, wenn dieser Umschlagpunkt durch das plötzliche Erfülltsein von Maximalforderungen gekennzeichnet wäre. Man kann diesen Umschlagpunkt besser als eine kontinuierliche Entwicklung beschreiben: Verschiedene Voraussetzungen müssen zusammenkommen, damit die Minimalanforderungen von Kognition erfüllt sind. Die Minimalforderungen an kognitiven Fähigkeiten stehen – wie oben schon dargestellt – in direktem Zusammenhang mit der Komplexität der Umwelt, in der das System situiert ist. Im vierten Kapitel dieser Arbeit werden verschiedene Agentendefinitionen gegeben werden, die eine präzise Begrifflichkeit zur Unterscheidung verschiedener künstlicher System bieten.

47

II. HANDLUNGEN Jede Beschäftigung mit dem Begriff ‚Handlung’ muss eine Antwort auf die Frage geben, wie sich Handlungen von bloßem Verhalten unterscheiden. In dieser Arbeit wird vorausgesetzt, dass jede Handlung der Kategorie ‚Ereignis’ zuzuordnen ist.65 Jede Handlung ist ein Ereignis, aber nicht jedes Ereignis ist eine Handlung. Das Ziel der Entwicklung eines Begriffes einer Quasi-Handlung besteht darin, die notwendigen und hinreichenden Bedingungen herauszuarbeiten, die vorliegen müssen, um ein Ereignis als Quasi-Handlung auszuzeichnen. Ziel dieser Arbeit ist es, einen Beitrag zur Klärung der Frage zu leisten: Was muss der Fall sein, damit ein Ereignis als Handlung oder als Quasi-Handlung klassifiziert werden kann? Dabei muss man zwischen Bedingungen von Handlungsfähigkeit einerseits und notwendigen und hinreichenden Bedingungen für das Vorliegen einer Handlung andererseits unterscheiden. Erstere Überlegungen beantworten die Frage, wer oder was prinzipiell in der Lage ist zu handeln; letztere würden Kriterien liefern, wann man ein beobachtetes Ereignis als Handlung klassifizieren kann. Dies ist aber aufgrund der schlechten Beobachtbarkeit der ablaufenden Informationsverarbeitungsprozesse nicht immer eindeutig möglich.66 Der Schwerpunkt dieser Arbeit liegt darauf herauszuarbeiten, welche Bedingungen Systeme erfüllen müssen, damit sie als handlungsfähig oder als quasi-handlungsfähig ausgezeichnet werden können. Allein durch die Beobachtung eines Ereignisses wird man nicht endgültig entscheiden können, ob ein spezielles Ereignis eine Handlung oder eine QuasiHandlung ist. Erst die Art und Weise des Informationsverarbeitungsprozesses (IVP) des handelnden Systems wird notwendige Bedingungen für die Verwendung des Handlungsbegriffes liefern. Und gerade der Informationsverarbeitungsprozess anderer Systeme ist dem Beobachter von

65

Auch wenn auf die ontologische Einordnung in dieser Arbeit nicht weiter eingegangen wird, möchte ich hier darauf hinweisen, dass es in der Philosophie Theorien gibt, die Handlung nicht als Ereignis fassen würden. Vgl. Bach (1980). 66 An dieser Stelle sei auf das Kapitel III. 5 Überprüfbarkeit verwiesen.

48

Ereignissen nicht immer zugänglich. Daher lautet die Leitfrage dieser Arbeit: Welche Bedingungen muss ein System erfüllen, damit es als handlungsfähig ausgezeichnet werden kann? Handlungsfähige Systeme brauchen bestimmte kognitive Fähigkeiten, insofern kann man die Leitfrage dieser Arbeit wie folgt umformulieren: Welche Bedingungen muss ein System erfüllen, damit es die kognitiven Voraussetzungen für Handlungsfähigkeit besitzt? Daher wird sich diese Arbeit nicht nur mit Handlungsfähigkeit als einer Fähigkeit, die sich unter anderem aus kognitiven Systemeigenschaften ergibt, sondern auch mit dem Begriff der Kognition auseinandersetzen. Vor der Vorstellung verschiedener handlungstheoretischer Ansätze (II.2) soll spezifiziert werden, wie in dieser Arbeit der Ereignisbegriff expliziert wird und welche verschiedenen Klassen von Ereignissen angenommen werden. Bei der Unterteilung der Ereignisse in verschiedene Klassen wird das Augenmerk vor allem auf den Eigenschaften und Fähigkeiten der sie verursachenden Systeme liegen. II.1 Ereignisklassen Mit dem Begriff eines Ereignisses wird in dieser Arbeit der Prozess einer Veränderung von einem Zustand in einen anderen Zustand bezeichnet. Ein Ereignis wird hier als eine prozessuale Entität verstanden.67 Diesen Prozess der Veränderung kann man als dynamisches Aufeinanderfolgen von verschiedenen Zuständen eines Systems verstehen. Ein Ereignis lässt sich insofern sowohl zeitlich als auch räumlich bestimmen, d. h. es gibt RaumZeit-Koordinaten, an denen ein Ereignis mit bestimmten Eigenschaften stattfindet.

67

Vgl. Davidson (1995, p. 272): „I call only changes events.“; vgl. Keil (2000, p. 280ff.).

49

Im alltagssprachlichen Gebrauch wird jedoch nicht jeder Veränderungsprozess als ,Ereignis’ bezeichnet. Überschreitet die Dauer der Veränderung z. B. einen überschaubaren Rahmen (etwa bei Gletscherbewegungen) spricht man in der Regel nicht mehr von einem Ereignis, auch wenn man solche Prozesse als Ereignis beschreiben könnte. Prozesse können andauern, so kann man beispielsweise davon sprechen, dass es immer regnet, und bezeichnet damit einen Prozess; spricht man jedoch von einem Regenschauer, bezeichnet man damit ein Ereignis, das geschieht. Der Prozess des Regnens hat hier einen Anfangspunkt und einen Endpunkt. Spricht man von einem Ereignis, setzt man voraus, dass es sowohl eine begrenzte zeitliche als auch räumliche Ausdehnung hat. Man kann also immer fragen, wann ein Ereignis stattgefunden hat, und ebenso ist es möglich zu fragen, wo ein Ereignis stattgefunden hat. Die zeitliche Begrenzung kommt auch zum Ausdruck, wenn man wie Pauen (2001, S. 17) „EREIGNISSE […] im Anschluss an Jaegwon Kim als kurzfristige, ZUSTÄNDE als längerfristige Exemplifikationen von Eigenschaften“ versteht. Anders ausgedrückt lässt sich ein Ereignis auch als eine Abfolge von Gegebenheiten (kurzen Zuständen) beschreiben oder der Prozess der Veränderung als Zustands-Transformation bezeichnen.68 Bei einem Ereignis kann man immer fragen, wie der Zustand vor dem eingetretenen Ereignis aussah (Startzustand), inwiefern der erreichte Zustand nach dem Eintreffen des Ereignisses ein anderer ist (Zielzustand) und welche Prozesse dazwischen stattgefunden haben.69 Ein Ereignis lässt sich darstellen durch die Angabe eines Startzustandes, der Menge des Inputs, der Übergangsfunktionen und des erreichten Zielzustandes. Für den Regenschauer lässt sich etwa folgende Beschreibung angeben: Ausgangszustand (Startzustand): Thermodynamische, also physikalische Vorgänge haben zur Bildung einer Wolke geführt, z. B.: Das Wetter in Freiburg ist wolkig, aber trocken. Äußerer Einfluß (Menge des Inputs): Weitere physikalische Prozesse führen zum Wachstum einzelner Wolkentropfen, z. B.: Regenwolken stoßen an den 68

Vgl. von Wright (1979, 41). Man kann sich natürlich auch Ereignisse (z.B. Handlungen) vorstellen, die ihre Konsequenzen selbst aufheben. Bildlich gesprochen sozusagen einen Schritt vorwärts und direkt danach einen Schritt zurück machen, womit der Zielzustand identisch mit dem Startzustand wäre.

69

50

Schwarzwald, und reiben sich dadurch vermehrt aneinander und vereinigen sich. Naturgesetz (Übergangsfunktion): Wolkentropfen fallen genau dann als Niederschlag aus, wenn sie eine bestimmte Größe erreicht haben: Es regnet in Freiburg, da die Wolkentropfen eine bestimmte Größe erreicht haben. Ergebnis (Menge des Outputs, Zielzustand): Regenschauer an einem bestimmten Ort und von einer bestimmten Dauer, z. B. zwanzig Minuten Niederschlag in Freiburg. Es hat geregnet, die Erde ist nass geworden und die Wolke hat sich aufgelöst, z. B.: Das Wetter in Freiburg ist sonnig und trocken, und die Erde ist nass. Der Begriff des Ereignisses steht oft in engem Zusammenhang mit dem Begriff ‚Ursache’; alle Ereignisse – außer den zufälligen Ereignissen – haben mindestens eine Ursache. Irgendetwas oder irgendjemand ist verantwortlich für das Ereignis, d. h. man kann von einer kausalen Relation70 zwischen einer Ursache und Wirkung sprechen. Ohne Sonne und ohne Wasser gäbe es keine Wolken und ohne Wolken keinen Regen. Ohne Wolkenbildung gäbe es also keinen Regen. Hier verursacht unter anderem ein anderes Ereignis – nämlich die Wolkenbildung – den Regenschauer. Die Ursache eines Ereignisses kann entweder eine Person, irgendein Lebewesen, ein künstliches System, eine Pflanze oder sonst ein Teil der Natur, oder eine Menge, bestehend aus den vorher genannten Elementen, oder ein anderes Ereignis oder ein Zustand sein. Möchte man die verschiedenen Klassen von Ereignissen beschreiben, unterscheidet man zuallererst zwischen Geschehnissen (Naturereignissen, Nicht-Verhalten) und Verhalten. Ereignisse, die nicht als Verhalten bezeichnet werden, finden ihre Ursache in der Regel in anderen Ereignissen, als Beispiel kann man sich ein Gewitter vorstellen, das durch das Zusammenspiel anderer Ereignisse zustande kommt. Ursache für das Gewitter ist hier weder ein künstliches System noch eine Person oder gar einen Donnergott. Es kann aber auch vorkommen, dass man einen Zustand für das Eintreten eines Ereignisses verantwortlich macht, so kann man z. B. einen Konstruktionsfehler für das Einstürzen einer Brücke als Ursache

70

Es gibt auch Theorien, die an dieser Stelle von einer logischen Relation sprechen. Vgl. von Wright (1979), Melden (1961), Dray (1957a).

51

benennen.71 So lässt sich aus naturwissenschaftlicher Perspektive festhalten, dass, immer wenn ein Ereignis geschieht, physikalische Kräfte auf Materie einwirken. Geschehnisse können natürlich auch Subjekten zustoßen, aber diese Klasse von Ereignissen liegt nicht im Fokus dieser Arbeit. Nicht-Verhalten wird in dieser Arbeit nicht weiter thematisiert.

Abbildung 2: Taxonomie Ereignis II.1.1 Ereignisklasse Verhalten Bei den Ereignissen, die man als Verhalten klassifizieren kann, kommt der Subjektbegriff ins Spiel. In den Verhaltenswissenschaften wird in der Regel Lebewesen als Subjekten Verhalten zugeschrieben. Mit Verhalten wird hier erst einmal „jede physische Aktivität eines lebenden Organismus, die […] grundsätzlich von anderen Beobachtern […] feststellbar ist“ bezeichnet.72 Damit scheint der Verhaltensbegriff erst einmal auf lebende Organismen eingeschränkt zu sein. Im alltagssprachlichen Gebrauch und in den Naturwissenschaften wird jedoch der Verhaltensbegriff auch auf nicht-lebendige Systeme angewandt. So kann man von dem Verhalten von Molekülen oder von Maschinen sprechen, womit man die Reaktionseigenschaften (den Output) auf einen bestimmten Input bezeichnet. Dies führt aber dazu, dass man jedem Objekt, das irgendwie auf Veränderungen in seiner Umwelt reagiert, Verhalten zuschreiben könnte.73 Im Interesse einer Eingrenzung des Verhaltensbegriffs wird hier noch einmal die Definition von Verhalten bei lebendigen Systemen betrachtet: In biologischen Kontexten zeichnet sich Verhalten dadurch aus, dass es eine Funktion (Erhaltungs- oder Fortpflanzungsfunktion) für den sich verhaltenden Organismus hat. So hat das Herunterfallen einer Zecke auf ein 71

Vgl. Davidson (1963). Häcker & Stapf (1998). 73 Vgl.: „Unter ,Verhalten´ könnte alles verstanden werden, was Personen oder Organismen oder sogar mechanische Systeme tun und was öffentlich beobachtbar ist.“ (Kim, 1998, S. 32). 72

52

Wirtstier für die Zecke eine Funktion, jedoch ist z. B. das Herunterfallen eines Steines für den Stein funktionslos und wird insofern nicht als Verhalten bezeichnet.74 Auch bei künstlichen Systemen kann man von Funktionen ihres Verhaltens sprechen: So ist das Erhitzen des Wassers bei einem Kaffeeautomaten ein Verhalten mit einer Funktion für das Kaffeekochen, während das Herunterfallen eines Kaffeeautomaten kein Verhalten wäre, da es für diesen funktionslos ist. Die Funktion des Wasserkochens ist keine Erhaltungsfunktion, die Funktionen künstlicher Systeme kann man als abgeleitete Funktionen begreifen, abgeleitet in dem Sinne, dass sie sich aus den Zwecksetzungen des Konstrukteurs ableiten lassen. Damit künstliche Systeme als mögliche Verursacher von Handlungen überhaupt in Betracht gezogen werden können, müssen sie unter den Verhaltensbegriff fallen. An dieser Stelle ergibt sich jedoch das Problem, dass damit der Verhaltensbegriff auf alle möglichen künstlichen Systeme ausgedehnt werden kann. So müsste man dann vom Verhalten einer Lampe sprechen, die auf Schalterdrücken mit dem Angehen des Lichtes reagiert. Je komplexer die Informationsverarbeitungsprozesse sind, die man als Übergangsfunktionen der Inputreize zum Output sehen kann, desto näherliegend ist es, dem System Verhalten zuzuschreiben. Man kann beispielsweise vom Verhalten eines PCs sprechen, aber bei der Lampe ist es schwierig, überhaupt einen Informationsverarbeitungsprozess auszumachen. Schon bei der Zuschreibung des Verhaltensbegriffs lässt sich sehen, dass es auf die Betrachtungsweise ankommt. Genauso wie man von Systemverhalten sprechen kann, kann man menschliches Verhalten sehr gut mit der Maschinenmetapher erläutern. Grundsätzlich ließe sich jede reizgesteuerte Zustandsveränderung eines Systems als Verhalten bezeichnen, sodass man jede Veränderung eines Systems als eine Reaktion auf einen Reiz verstehen könnte. Verhaltensweisen können sich in der Anzahl der möglichen Reize und in der Anzahl der möglichen Reaktionen unterscheiden. So sind von dem einfachsten System mit nur einer Eingabe- und einer Ausgabemöglichkeit (Beispiel: Kniesehnenreflex) bis zu adaptiven und lernenden Systemen mit sehr vielen Möglichkeiten alle Übergänge denkbar. Wird ein Reiz aus der Umwelt ignoriert, kann dies verschiedene Gründe haben:

74

Vgl. Immelmann (1988).

53

•Das System kann den Input auf Grund fehlender Strukturen weder aufnehmen noch weiterleiten noch verarbeiten. Dies kann der Fall sein, wenn etwa ein Sinnesorgan fehlt oder gerade ausgefallen ist. •Es gibt eine Reizschwelle, die nur durch Input von bestimmter Stärke überschritten werden kann. •Der Beobachtungszeitraum ist zu kurz gewählt, da das System in seiner Reaktion sehr langsam (,träge’) ist. •Das System hat Kompensationsmechanismen, um seinen stationären Zustand (Gleichgewichtszustand) aufrecht zu erhalten (Beispiel: Verhaltensweisen, die auf einer inneren Uhr basieren, z. B. Wach-SchlafRhythmus, autonomer Herzschlag).75 Von sich verhaltenden Systemen wird hier gefordert, dass sie in der Lage sein müssen, Informationen (Reize, Stimuli) aufzunehmen, weiterzuleiten, zu verarbeiten und Veränderungen in der Welt oder an sich zu bewirken. Für die Eingrenzung des Verhaltensbegriffs ist die Forderung sinnvoll, dass das Verhalten funktional beschreibbar sein soll, wobei hier ein Unterschied zwischen Erhaltungsfunktionen und abgeleiteten Funktionen zu machen ist. Somit wären alle künstlichen Systeme, die Rezeptoren und damit verbundene Effektoren besitzen, in der Lage, Verhalten zu zeigen. Eine weitere Eingrenzung kann man durch eine genauere Forderung an den Informationsverarbeitungsprozess begründen. Denn das einmalige Schließen eines Stromkreises als Input führt nicht zu einer Verarbeitung von Informationen, sondern löst direkt einen Zustand aus. So leuchtet die Glühbirne, wenn man durch das Drücken des Lichtschalters den Stromkreis schließt, da dadurch Materialeigenschaften von Teilsystemen zu Tage treten. Im Unterschied dazu kann man beim Kniesehnenreflex beobachten, dass der Input (Erregung der Muskelspindeln durch Dehnung) nicht nur weitergeleitet, sondern beim Übergang zum Motoneuron an den Synapsen in ein anderes Medium übergeht. Diesen Unterschied kann man mit der direkten oder indirekten, informationsverarbeitenden Kopplung zwischen Rezeptor und Effektor beschreiben. Bei dem Kaffeeautomaten allerdings löst man nach dem Anschalten durch das Drücken eines Knopfes zunächst nur die Überprüfung des Wasser75

Vgl.: Systemverhalten. Wikipedia. Retrieved August 20, 2004, from http://de.wikipedia.org/wiki/Systemverhalten.

54

standes aus, erst danach wird der Reiz weitergeleitet und die Maschine signalisiert entweder ‚Wasser füllen’ oder beginnt das Wasser zu erhitzen. Damit wird der anfängliche Reiz quasi in neue Reize überführt, womit es nahe liegt, diesen Prozess wiederum als Informationsverarbeitung zu bezeichnen. Einer Lampe mit einer Ausschaltautomatik (einem Timer) könnte man insofern auch Verhalten zuschreiben, denn in diesem Fall löst das Schließen des Stromkreises einen Timer-Prozess aus, dessen Endpunkt ein zweiter Reiz für das System darstellt, der dazu führt, dass der Stromkreislauf wieder unterbrochen wird und die Lampe ausgeht. Es gibt also Graubereiche, und der Versuch einer Eingrenzung kann keine scharfe Grenzlinie ziehen, da man das Ausschalten der oben beschriebenen Lampe ja auch als Materialeigenschaft des Systems bei geschlossenem Stromkreislauf begreifen könnte und somit dem Nicht-Verhalten zuordnen würde. Aber es lässt sich argumentieren, dass der Kaffeeautomat Verhalten zeigt, da hier durch das Schließen eines Teilstromkreises andere Teilstromkreise nacheinander geschlossen oder unterbrochen werden. Denkt man z. B. an die elektronische Datenverarbeitung (EDV) kann man sehen, dass hier Informationen verarbeitet werden, auch wenn auf der Mikroebene nur das Schließen und Unterbrechungen von verschiedenen Teilstromkreisen zu beobachten sind. „Grundsätzlich kann ein Computer nichts anderes, als bestimmte Stromimpulse oder elektrische Ladungen durch entsprechende Steuerungsmechanismen entlang dem System eingebauter fester Leitungswege transportieren.“ (Cobabus, 1988, S. 64) Im Rahmen dieser Arbeit werden im Folgenden nur Systeme als verhaltensfähig angesehen, bei denen man auch von einem Informationsverarbeitungsprozess sprechen kann. Damit sind alle Systeme ausgeschlossen, die man nur ein- oder ausschalten kann, wie z. B. ein Tauchsieder oder eine Lampe. Da, wie oben hergeleitet wurde, auch künstliche Systeme unter den Verhaltensbegriff fallen können, wird im Folgenden von Systemen anstatt von Subjekten die Rede sein, wobei hier immer verhaltensfähige Systeme gemeint sind (siehe Abb. 3). Verhalten zeichnet sich dadurch aus, dass man es einem System auf funktionale Art und Weise zuschreiben kann, z. B. einem lebenden Organismus (Menschen, Tieren oder auch Pflanzen), einem künstlichen, verhaltensfähigen System oder einer Gruppe, die aus beidem besteht (z. B. die Gesellschaft). Damit fallen Materialeigenschaften wie die Zer-

55

brechlichkeit von Glas in diesem Kontext nicht unter den Verhaltensbegriff. Als verhaltensfähig lässt sich ein System klassifizieren, wenn es sowohl Input aufnehmen als auch die Übergangsfunktion (einen Informationsverarbeitungsprozess) ausführen kann, wodurch dann der Startzustand in den Zielzustand überführt wird; dabei muss dieser Zielzustand eine Funktion für das sich verhaltende System haben.

Abbildung 3: verhaltensfähiges System Alle Systeme, die •über eine sensorische Komponente (Rezeptoren), •über Informationsverarbeitungsprozesse (IVP) und •über eine motorische Komponente verfügen (Effektoren), sind in der Lage, sich zu verhalten, wenn die durch die motorischen Komponenten bewirkte Veränderung eine Funktion für das System hat. Die sensorische Komponente bestimmt die Menge an Input, auf die überhaupt reagiert werden kann; der Informationsverarbeitungsprozess besteht aus einer indirekten, rigiden Kopplung an feststehende, motorische Programme (Effektoren). Die motorischen Komponenten verändern das System und/oder seine Umwelt. Mit Verhalten bezeichnet man Ereignisse, die sich in der Regel beobachten und messen lassen, z. B. alle physiologischen Reaktionen bei lebendigen Organismen. Jedoch ist dies nur in einem sehr allgemeinen Sinne zu verstehen, durch den Funktionsbegriff ist der Verhaltensbegriff noch weiter eingegrenzt. Auch Denken und Wollen – also innere Erlebnisprozesse –

56

werden als Verhalten bezeichnet, obwohl sie weder direkt beobachtbar, noch empirisch messbar sind.76 In dieser Arbeit geht es aber weniger um die beobachtbaren Ereignisse, sondern um die Systemeigenschaften, die ein System in die Lage versetzen, sich zu verhalten. Zusammenfassend kann man festhalten, dass verhaltensfähige Systeme im Stande sein müssen, •Informationen (Reize) aufzunehmen, •diese zu verarbeiten (und weiterzuleiten) und •Veränderungen an sich und oder der Umwelt zu bewirken. Die bewirkte Veränderung muss eine Funktion für das System haben. Dadurch dass die Funktion auch eine abgeleitete Funktion sein kann fallen auch künstliche Systeme unter diesen Verhaltensbegriff. II.1.2 Einfaches/komplexes Verhalten versus Quasi-Handlung/ Handlung Eine weitere Unterscheidung zwischen verschiedenen Klassen von Ereignissen bietet der Begriff ‚Handlung’. Eine Handlung ist eine besondere Verhaltensform, man kann sie als Unterklasse (Teilklasse) der Ereignisse, die Verhalten sind, bezeichnen. Jede Handlung ist ein Verhalten, aber nicht jedes Verhalten ist eine Handlung.

Abbildung 4: Taxonomie Ereignis II Obige Taxonomie kann man als common sense ansehen.77 Bestehende Handlungstheorien beschäftigen sich primär mit Ereignissen, die von Menschen verursacht werden. Mit Handlung wird in der Regel eine zielgerichtete, bewusst gewählte und bewusst eingesetzte Aktivität des Menschen bezeichnet, die den 76

Vgl. Häcker & Stapf (1998); vgl. Kim (1998, S. 32). An dieser Stelle ist zu erwähnen, dass Bach (1980a) bezweifelt, ob Handlungen überhaupt Ereignisse sind.

77

57

Zweck hat, eine Veränderung in der Umwelt bzw. in der bestehenden Situation herbeizuführen. Bestehenden Handlungstheorien stellen vor allem Unterschiede zwischen menschlichen Handlungen und menschlichem Verhalten in den Mittelpunkt ihrer Untersuchung. Mit dem Begriff einer Handlung werden Verhaltensformen bezeichnet, zu denen das sich verhaltende System in einer besonderen Beziehung steht. Im Gegensatz zu bloßem Verhalten liegen Handlungen in der Kontrolle des handelnden Systems und man kann dem Handelnden eine Absicht bezüglich des Handlungszieles unterstellen. Diese Zielgerichtetheit wird in philosophischen Theorien oft mit dem vieldeutigen Begriff der Intentionalität bezeichnet, damit geht in manchen Fällen auch die Postulation eines Willens einher.78 Stellt man sich die Frage, wie und welches Ziel erreicht werden soll, sieht man, dass man handelnden Systemen Zielrepräsentationen und Überzeugungen bezüglich der möglichen Konsequenzen von möglichen Verhaltensformen zuschreiben muss. Dies impliziert sowohl antizipatorische Fähigkeiten als auch die Fähigkeit, Ziele zu repräsentieren. Ein Mensch, der auf einen Lichtschalter drückt, ist überzeugt davon, dass durch das Drücken das Licht angeht, und er hat das Ziel, dass das Licht angeht. Schon hier kann man von Planungsfähigkeit sprechen: Indem der handelnde Mensch antizipiert, welche Verhaltensweisen welche Konsequenzen haben, handelt er sozusagen Probe. Die Probehandlung stellt im weiteren Verlauf die Basis des Handlungsplans dar, nach dem sich die motorischen Komponenten zu richten haben. Neben den Fragen, was und wie etwas erreicht werden soll, kann man bei Handlungen auch fragen, warum etwas erreicht werden soll. Die Antwort auf diese Frage liefert so genannte Handlungsgründe (z. B. Wünsche und Überzeugungen bei Davidson). Schon bei Aristoteles wird eine Handlung als ein Vorgang beschrieben, der drei Bedingungen erfüllen muss:

78

Vgl.: “Intentionality is a much abused word and it means a variety of different things.” (Dretske, 1994, p. 471). Vgl.: “Intentionality has been thought to be the central mark of the mental; but even if it is not that, it is central to the sorts of elements which, in everyday contexts, explain our actions.” (Audi, 1993, p. 4). Vgl.: „[...] enthalten die meisten Definitionen [...] mehrere der folgenden Konstituenten: Intentionalität, Sinnhaftigkeit, Willkürlichkeit, Zielgerichtetheit, Kontrolle, Bewusstsein, freie Wählbarkeit (Groeben, 1986; Greve, 1994; [...]).“ (Christmann, 1999, S. 2)

58

Die Handlung muss •freiwillig ( hekousis)79 , •aufgrund einer Entscheidung (prohairesis)80 unternommen werden und •die Entscheidung ist mit Planung (logos) und Durchdenken verbunden.81 Zum Begriff einer Handlung gehört immer auch der Begriff des Akteurs, des Handelnden. Diese Arbeit kritisiert an den bestehenden Handlungstheorien, dass oft das ‚Menschsein’ – die Zugehörigkeit zu einer Gattung – als implizite Bedingung für handlungsfähige Systeme gefordert wird, wenn die Bedingungen für das Vorliegen von Handlungsfähigkeit spezifiziert werden sollen. Wie man später sehen wird, werden hierbei Eigenschaften von den möglichen Akteuren einer Handlung gefordert, die oft dem Menschen vorbehalten zu sein scheinen, die aber streng genommen nicht notwendig für die Zuschreibung von Handlungsfähigkeit sind. Hier wären beispielsweise Bewusstsein, Selbstbewusstsein, Wünsche und 82 Intentionalität im starken Sinne zu nennen. Um begriffliche Verwirrungen zu vermeiden, wird im Folgenden Verhalten, welches keine Handlung ist, als einfaches (und später auch als komplexes) Verhalten bezeichnet (siehe Abb. 5). Denn auch jede Handlung kann als Verhalten bezeichnet werden, da Verhalten die Oberklasse bildet.

Abbildung 5: Taxonomie Verhalten I

79

„Man muss also von ,freiwillig´ und ,unfreiwillig´ sprechen im Hinblick auf das Handeln. Er (der Mensch) handelt aber freiwillig.“ (Aristoteles, 1831, EN 3,1 [1110a14-15]) 80 Vgl. Aristoteles, 1831, EN 3,4 (1111b4-1112a17). „Die Entscheidung scheint nun etwas freiwilliges zu sein.“ (Aristoteles, 1831, EN 3,4 [1111b7]) 81 „Die Entscheidung ist nämlich mit der Planung (logos) und mit dem Durchdenken (der Sache) verbunden.“ (Aristoteles, 1831, EN 3,4 [1112a15-16]) 82 Der Intentionalitätsbegriff wird in Kapitel II.3.1 (Intentionalität) genauer erläutert.

59

Betrachtet man Ereignisse, die man eindeutig als Nicht-Handlungen ausweisen kann, stößt man immer wieder auf Beschreibungen, die solche Ereignisse als (einfaches) Verhalten klassifizieren, welche sich nicht in der Kontrolle des sich verhaltenden Systems befinden. In den Ablauf solcher Prozesse kann das sich verhaltende System nicht selbst eingreifen. So gehört nach Brandstädter zur Handlungsfähigkeit die Kontrolle des handelnden Systems: „Auch wenn psychologische und philosophische Handlungstheorien bislang noch keine einheitliche Bestimmung des Handlungsbegriffes hervorgebracht haben, so besteht doch weitgehend Übereinstimmung, dass Verhaltensabläufe und -ereignisse, die außerhalb der Kontrolle des Handlungssubjektes liegen und ihm in diesem Sinne lediglich widerfahren oder zugestoßen sind, keine Handlungen sind.“ (Brandstädter 2001, S. 31) Hier wird der Handlungsbegriff klar abgegrenzt von Ereignissen, die einem System zustoßen und die es nicht kontrollieren kann. Damit ist klar beschrieben, was einfaches Verhalten im Unterschied zu Handlungen auszeichnet. Ereignisse, die einem System widerfahren, das weder einen beschreibbaren Informationsverarbeitungsprozess aufweist noch sensorische oder motorische Möglichkeiten hat, fallen in jedem Fall in die Klasse des NichtVerhaltens. Brandstädter beschreibt aber den Fall, in dem eine quasi vorprogrammierte Reaktion des Systems auf einen Reiz stattfindet; diese Reaktion kann das System jedoch nicht beeinflussen. Menschen können z. B. physiologische Reaktionen wie Erröten, Speichelfluss oder Schwitzen nicht beeinflussen.83 Solche Reaktionen treten ein, sobald der auslösende Reiz auftritt. Begreift man den Menschen als informationsverarbeitendes System, besteht zwischen dem Input (Reiz) und dem Output (Reaktion) eine rigide Kopplung. Der Mensch kann sich bestehende rigide Kopplungen zu Nutze machen, indem er sich entsprechenden Reizen aussetzt, das nachfolgende Verhalten liegt jedoch nicht in seiner Kontrolle. So kann man in die Sauna gehen, um zu schwitzen, aber man ist nicht in der Lage, in der Sauna das Schwitzen zu unterlassen. Eine andere Klasse von Beispielen für einfaches Verhalten sind z. B. die lebenserhaltenden Funktionen des Körpers wie Atmen, Herzschlag usw.

83

Vgl. Brandstädter (2001, S. 33).

60

Man kann zwar den Atem für eine gewisse Zeit anhalten, womit man eine Handlung vollzieht, aber man kann nicht aufhören zu atmen.84 Mit diesem Verhaltensbegriff beschreibt man eine außen- bzw. reizgesteuerte, sequentielle Abfolge motorischer Vollzüge.85 Eine vorläufige folgendermaßen:

Definition

von

einfachem

Verhalten

lautet

Ein System zeigt einfaches Verhalten, wenn es auf einen Reiz (Input) mit der immer gleichen Reaktion (Output) reagiert, diese Reaktion eine Funktion oder eine abgeleitete Funktion für das System hat und zwischen In- und Output ein Informationsverarbeitungsprozess stattfindet. Der im System ablaufende Informationsverarbeitungsprozess, der für die Reaktion verantwortlich ist, zeichnet sich durch rigide, nicht durch das System veränderbare Kopplungen aus. Definition 1: einfaches Verhalten Als Musterbeispiel aus der Klasse des einfachen Verhaltens soll hier bei Organismen auf Reflexe verwiesen sein. Zu nennen sind hier beispielsweise beim Menschen Rückziehreflex, Kniesehnenreflex, Niesreflex, Hustenreflex, Brechreflex, Pupillenreflex und Lidschlussreflex, die alle eine wichtige Schutzfunktion haben. Ein Reflex ist ein im Zentralnervensystem ablaufender Vorgang (Informationsverarbeitungs-prozess), bei dem durch einen äußeren Reiz (Input) über einen Reflexbogen eine Antwort des Körpers (Output) zustande kommt, z. B. eine Muskelkontraktion. Genauer betrachtet kann man den Ablauf des Kniesehnenreflexes folgendermaßen beschreiben: Startzustand: Knie leicht gebeugt. Menge des Inputs: Schlag auf die Kniesehne unterhalb der Kniescheibe. Dadurch wird der Unterschenkelstrecker-Muskel ruckartig gedehnt. Informationsaufnahme: 84 85

Vgl. Dretske (1999a, S. 84). Vgl. Stadler & Seeger (1981).

61

Rezeptor: Diese Muskeldehnung erregt die Muskelspindeln. Weiterleitung: Afferente Bahn: Die Erregung wird über die sensible Faser ins Rückenmark geleitet. Übergangsfunktion/Informationsverarbeitungsprozess: Verrechnung im ZNS: In der grauen Substanz des Rückenmarks wird die Erregung über eine Synapse auf das Motoneuron übertragen. Weiterleitung: Efferente Bahn: Über das Axon des Motoneurons gelangt die Erregung zum Muskel zurück. (= Verbindung zwischen dem Axon der Sinneszelle und dem Motoneuron) Menge des Outputs: Effektor: Die motorische Endplatte (neuromuskuläre Synapse) erregt den Unterschenkelstreckermuskel. Zielzustand: Das Bein wird kurz gestreckt und befindet sich dann wieder im Startzustand. Von den Axonen der Sinnesnervenzellen, deren Dendriten in den Muskelspindeln sitzen, wird hier unmittelbar auf motorische Nervenzellen umgeschaltet. An diesem Beispiel kann man sehen, dass der Informationsverarbeitungsprozess auch in der Weiterleitung der Reizung des Rezeptors an einen bestimmten Effektor bestehen kann. Ebenso kann man z. B. Stolpern als einen Reflex beschreiben, der das Hinfallen beim Laufen verhindert. In der Domäne der künstlichen Systeme erfüllen im Grunde alle Systeme, die man als deterministische, endliche Automaten (DFA, deterministic finite automata) beschreiben kann, die oben genannte Bedingung. Die Übergangsfunktion (der Informationsverarbeitungsprozess) legt eindeutig fest, wie auf einen gegebenen Input reagiert wird. Hier sei allerdings schon erwähnt, dass die Menge des möglichen Inputs bei künstlichen Systemen sich in der Regel sehr von der Menge des möglichen Inputs bei lebendigen Systemen unterscheidet.86 Ebenso erfüllt die einfachste Agentendefinition aus der KI die Kriterien für verhaltensfähige Systeme; sie besitzen sowohl Rezeptoren (Sensoren) als

86

Ein weiterer Unterschied zwischen Reflexen bei Organismen und einfachem Verhalten künstlicher Systeme besteht darin, dass Reflexe habituieren können.

62

auch Effektoren, die durch einen Informationsverarbeitungsprozess miteinander verbunden sind. „An agent is anything that can be viewed as perceiving its environment through sensors and acting upon that environment through effectors.” (Russell & Norvig, 1995, p. 31) Hier muss man auf den durch keine Handlungstheorie unterstützten Gebrauch des Verbs ‚handeln’ hinweisen. Nicht jeder Agent ist handlungsfähig, Agenten mit rigiden Kopplungen im Informationsverarbeitungsprozess können in ihrer Umwelt nur einfaches Verhalten zeigen. Die Forderung nach Maximalbedingungen für das Vorliegen von Handlungen der traditionellen Handlungstheorien führt dazu, dass man aber eine Klasse von Ereignissen ausmachen kann, die weder einer bestehenden Handlungsdefinition genügt noch vergleichbar mit dem oben beschriebenen einfachen Verhalten ist (siehe Abb. 6).

Abbildung 6: Taxonomie Verhalten II Man stelle sich das Verhalten eines komplexen KI-Systems vor, bei dem offensichtlich ist, dass der Informationsverarbeitungsprozess nicht allein aus rigiden Kopplungen besteht, sondern dieser Prozess je nach Häufigkeit des Inputs (kontextsensitiv) vom System selbst verändert werden kann. So ein System wäre in der Lage, bestehende Übergangsfunktionen zu modifizieren, und man könnte die Kopplungen im Informations-

63

verarbeitungsprozess nicht mehr als rigide ansehen. Formal gesehen gäbe es unterschiedliche Beschreibungen von DFAs, die zu unterschiedlichen Zeitpunkten auf das System zutreffen. Verhalten, das ein solches System zeigt, unterscheidet sich klar von dem oben beschriebenen einfachen Verhalten. Der Informationsverarbeitungsprozess zeichnet sich durch flexible Kopplungen aus, er kann durch das System modifiziert werden. Hingegen basieren Ereignisse, die einem System quasi widerfahren, auf rigiden Kopplungen im Informationsverarbeitungsprozess. Das System hat dann nicht die Möglichkeit einer Selbstveränderung, es kann seinen Informationsverarbeitungsprozess weder beeinflussen noch kontrollieren. Es kann sich somit auch nicht an die Umwelt anpassen, weder willentlich noch aufgrund von Erfahrungen. Es kann höchstens durch Umwelteinflüsse verändert werden. Derselbe Input hat immer denselben Output zur Folge. Ein System, das in der Lage ist, sich an Umweltveränderungen (hier die Häufigkeit des Inputs) anzupassen, indem es seinen Informationsverarbeitungsprozess modifiziert, verursacht Ereignisse, die nicht durch die obige Definition von einfachem Verhalten abgedeckt sind. Hier kann man nicht mehr von einer rigiden Kopplung im Informationsverarbeitungsprozess sprechen. Das Moment der Selbstveränderung kommt bei lebendigen Systemen hinzu, z. B. durch die Eigenschaft, klassisch konditionierbar zu sein87. Erst dann kann man von einer gewissen Anpassungsfähigkeit sprechen. Es wird sich im Folgenden zeigen, dass klassisches Konditionieren allein nicht ausreicht, um Systemen Handlungsfähigkeit zuzuschreiben. Um Systeme, denen man Anpassungsfähigkeit zuschreiben kann, da sie ihren Informationsverarbeitungsprozess verändern können, von Systemen zu unterscheiden, deren Informationsverarbeitungsprozess sich nur durch rigide Kopplungen auszeichnet, wird hier zuerst eine weitere Unterteilung des Verhaltensbegriffes vorgeschlagen. Es soll zwischen einfachem und komplexem Verhalten differenziert werden:

87

Erläuterung der klassischen Konditionierung in Kapitel III.2.4.

64

Systeme, die komplexes Verhalten zeigen können, zeichnen sich durch ein gewisses Maß an Selbstveränderungsfähigkeit (Anpassungsfähigkeit) aus, wie es z. B. bei lebendigen Systemen durch klassische Konditionierung gegeben ist. Zwischen In- und Output besteht eine flexible Kopplung. Definition 2: komplexes Verhalten Diese Unterteilung findet man so in der Differenzierung zwischen Lebewesen mit Instinktverhalten (rigide Kopplung) und solchen mit Verhalten, welches auf Grund höherer Verstandesleistungen (z. B. Lernverhalten) zustande kommt. Übersteigt das Maß an Selbstveränderungsfähigkeit die Flexibilität, die z. B. durch Konditionierung gegeben ist, ist zu fragen, ob die so verursachten Ereignisse auch in die Klasse ,komplexes Verhalten’ fallen. Ein wichtiges Merkmal von Systemen mit komplexem Verhalten ist, dass sie im Falle von klassischer Konditionierung die Anpassung an die Umwelt auch nicht verhindern können. Hier findet eine von Reizen – und damit von außen gesteuerte Anpassung statt. Unter den künstlichen Systemen finden sich solche, die ihr Verhalten aufgrund der Häufigkeit bestimmter Reize verändern. So bietet ‚Word’ inzwischen die adaptive Fähigkeit, die Einträge der aufklickbaren Taskleisten nach der Häufigkeit ihrer Benutzung zu sortieren. Hier bestimmt nicht nur der Input selbst den Output, sondern der Output hängt auch von der Häufigkeit des Inputs ab. Dies bedeutet, dass derselbe Input (Anklicken der Taskleiste ‚Bearbeiten’) nicht immer den selben Output hat, sondern der Output von der Historie der Benutzung abhängt. Hier findet eine reizgesteuerte Selbstveränderung des Systems statt. Auffallend an den im Folgenden referierten Handlungstheorien ist, dass der qualitative Umschlag von einfachem/komplexem Verhalten zu einer Handlung weder Kontrolle noch autonome (nicht von außen gesteuerte) Selbstveränderungsfähigkeit in einem bestimmten Maß als auszeichnendes Merkmal postulieren, sondern dass sie die Art und Weise der Verursachung oder Charakteristika – wie Wünsche und Überzeugungen – als Kriterium nennen. Eine Ausnahme ist die Handlungstheorie von Harry Frankfurt (1978), auf die ich in Kapitel II.2.4 eingehen werde. Oft wird bei Handlungstheorien implizit Bewusstsein mit eingefordert, denn in der Regel wird davon ausgegangen, dass die Überzeugungen und

65

Wünsche oder Absichten im Bewusstsein des handelnden Systems liegen. Aber selbst bei Menschen kann man Fälle ausmachen, in denen z. B. das Handlungsbewusstsein nachhaltig gestört ist. Dies trifft beispielsweise bei schizophrenen Patienten zu: Das Handlungsbewusstsein ist bei diesen Patienten häufig nachhaltig gestört. Der Handelnde ist sich nicht sicher, ob er es gewesen ist, der gehandelt hat. Oft empfindet er sich als Werkzeug, das von anderen Mächten benutzt wird. Auch wenn Handlungen dieser Art nicht strafrechtlich verfolgt werden, unterscheiden sie sich kategorial von einfachem oder auch komplexem Verhalten. Sie setzen ein großes Maß an Selbstveränderungsfähigkeit voraus, ebenso wie Handlungen, deren Absichten klar im Bewusstsein des Handelnden zu finden sind. Unbewusste Handlungen zeigen, das Bewusstsein keine notwendige Bedingung für Handlungsfähigkeit darstellen kann. Deswegen würde man wohl nicht so weit gehen, diesen Menschen Handlungsfähigkeit prinzipiell abzusprechen. Trotz des fehlenden Handlungsbewusstseins können sie ihren Informationsverarbeitungsprozess flexibel modifizieren. Ebenso kann man hier Fehlhandlungen, die aus dem Unbewussten gesteuert sind, als Beispiel verwenden, um Vorkommen von Handlungen zu zeigen, bei denen die Absicht nicht von Bewusstsein begleitet ist. Man muss sich beim Handeln nicht seiner Absicht bewusst sein. Es bleibt eine offene Frage, wie Verhalten zu klassifizieren ist, dessen Informationsverarbeitungsprozesse sich analog zu denen von handlungsfähigen Menschen vollziehen – also insofern nicht unter den Begriff des einfachen/komplexen Verhaltens fallen –, deren Verursacher aber nicht alle Bedingungen für Handlungsfähigkeit erfüllen. Man stelle sich ein künstliches System vor, das mit einem handelnden Menschen in allen Eigenschaften identisch ist und sich nur darin von ihm unterscheidet, dass es kein Bewusstsein besitzt, und sich insofern weder einer Handlungsabsicht noch der Handlungsurheberschaft bewusst sein kann. In den philosophischen Diskussionen würde man so ein System einen ,Zombie’ nennen. Ebenso wenig wie man einem schizophrenen Patienten Handlungsfähigkeit aufgrund der Tatsache absprechen würde, dass er kein Handlungsbewusstsein hat, kann man einem künstlichen System aus diesem Grund Handlungsfähigkeit absprechen. In der Philosophie gibt es eine breite Debatte über die Unterscheidbarkeit von Menschen und den so genannten Zombies, die sich dadurch auszeichnen, dass sie keine Qualia (keine Empfindungen, kein Bewusstsein) haben, in ihrem Verhalten jedoch ununterscheidbar von Menschen sind. Diese Debatte hat die Schwierigkeit aufgezeigt, einem System Geist (und damit auch Bewusstsein und Qualia) zuzuschreiben, da

66

uns der Erste-Person-Zugang zu anderen Systemen nicht möglich ist. Begonnen hat diese Auseinandersetzung in neuerer Zeit mit dem Aufsatz von T. Nagel (1974) ‚What is it like to be a bat?’ und wurde unter anderem von Putnam (1982a) ‚Gehirne im Tank’ weitergeführt. Eine Darstellung des gesamten Verlaufs der ‚Qualia- oder Erklärungslücken-Debatte´ würde aber den Rahmen dieser Arbeit sprengen.88 Die Frage nach der Handlungsfähigkeit von künstlichen Systemen könnte in die Frage, ob Zombies handlungsfähig sind, überführt werden; dies wird jedoch in dieser Arbeit nicht gemacht, da der Fokus dieser Arbeit sich auf künstliche Systeme richtet. Betrachtet man die verschiedenen Gedankenexperimente, die Systeme ohne Qualia beschreiben, ist offensichtlich, dass ihr Verhalten aus der Dritten-Person-Perspektive nicht zu unterscheiden sind von Handlungen, die von Menschen vollzogen werden. Solche Ereignisse entsprechen weder dem hier dargestellten Verhaltensbegriff noch dem traditionellen Handlungsbegriff, sie wären einfach nur Ereignisse, welche man metaphorisch durch einen Begriff wie ‚Handeln’ beschreiben kann. Ansonsten sind sie trotz ihres sehr flexiblen Informationsverarbeitungsprozesses der Ereignisklasse ‚komplexes Verhalten’ zuzuordnen. An dieser Stelle schlage ich vor, den Verhaltensbegriff zu erweitern: In dieser Arbeit wird die These vertreten, dass in der Dichotomie der Klassen von Ereignissen, die allgemein als (einfaches/komplexes) Verhalten bezeichnet werden, und denjenigen, die unter den Begriff Handlung fallen, weiter differenziert werden muss. Man kann sich vorstellen, dass es Verhalten von Systemen gibt, deren Informationsverarbeitungsprozess flexibler und komplexer ist als die Prozesse derjenigen Systeme, die komplexes Verhalten zeigen können. Solche Systeme zeichnen sich unter anderem dadurch aus, dass man ihnen komplexere Lernfähigkeit (Selbstveränderungsfähigkeit / Anpassungsfähigkeit) zuschreiben kann, als ihnen allein durch klassische Konditionierung gegeben ist. Dennoch ist Bewusstsein keine notwendige Eigenschaft dieser Systeme, womit sie nach vorherrschenden Handlungstheorien nicht in der Lage sind zu handeln. Diese Ereignisse kann man weder der einen noch der anderen Klasse zuordnen. Deswegen postuliere ich die Einführung einer vierten Klasse 88

Verwiesen sei hier zum einen auf die Bibliographie zur Philosophie des Geistes von Thomas Metzinger und David Chalmers: Consciousness Bibliography 1970–2003. Retrieved August 20, 2004, from http://www.philosophie.uni-mainz.de/metzinger/ publikationen/. Zum anderen bietet das Buch Qualia, von Heckmann & Walter (2001) herausgegeben, einen hervorragenden Überblick.

67

von Ereignissen, die sich sowohl von komplexem Verhalten als auch von komplexen, menschlichen Handlungen mit Bewusstsein kategorial unterscheidet. Sie wird im Folgenden als die Klasse der QuasiHandlungen bezeichnet. Eine vorläufige Definition lautet:

Die Klasse der Quasi-Handlungen zeichnet sich unter anderem dadurch aus, dass die Informationsverarbeitungsprozesse der verursachenden Systeme flexibler und anpassungsfähiger sind als die Prozesse derjenigen, auf denen komplexes Verhalten basiert. Definition 3: Quasi-Handlung

Abbildung 7: Taxonomie Verhalten III Später wird man sehen, dass nicht nur Lernfähigkeit als Bedingung an den Informationsverarbeitungsprozess gestellt werden wird.

68

In einem ersten Schritt könnte man versucht sein, den Unterschied zwischen einfachem Verhalten, komplexem Verhalten und QuasiHandlungen mit der Unterscheidung zwischen kognitiven und nichtkognitiven Informationsverarbeitungsprozessen zu fassen, wobei dafür erst genau geklärt werden muss, was unter ,kognitiv´ verstanden wird. Versteht man die Fähigkeit, klassisch konditionierbar zu sein, als eine kognitive Fähigkeit, kann der Begriff der Kognition nicht die Grenze zwischen komplexem Verhalten und Quasi-Handlungen kennzeichnen. Sowohl die Urheber von komplexem Verhalten als auch die von Quasi-Handlungen haben dann die Systemeigenschaft, kognitiv zu sein. Ein weiterer Unterschied zu traditionellen Handlungstheorien besteht darin, dass in dieser Arbeit von den Verursachern von Quasi-Handlungen nicht gefordert wird, dass sie einen (bewussten) Willen besitzen, wie es nach Ginet (1990, ix) bei philosophischen Handlungstheorien oft der Fall ist. Die Handlungsziele müssen also nicht vom handelnden System generiert werden.89 Ebenso wenig müssen diese Verursacher Bewusstsein von ihren Handlungszielen und Überzeugungen haben, die trotzdem im System repräsentiert sein müssen. An diesem Punkt könnte man dafür plädieren, einen neuen Terminus Technicus einzuführen oder den Verhaltensbegriff noch weiter zu differenzieren. Es gibt aber Gründe, die gegen eine Einführung eines neuen Begriffes sprechen: Zum einen wird sich zeigen, dass die Ereignisklasse der Quasi-Handlungen mehr gemeinsame Eigenschaften mit dem traditionellen Handlungsbegriff als mit dem Verhaltensbegriff vorweisen kann, da analoge kognitive Voraussetzungen gefordert werden. Dies ist ein Argument für die Erweiterung des Handlungsbegriffes. Ebenso stellt die Verwendung des Agentenbegriffes in der KI-Forschung eine weitere Motivation dar, sich des Handlungsbegriffes zu bedienen, um hier klarer zwischen Unterschieden verschiedener künstlichen Systeme differenzieren zu können. Zudem ist es sinnvoll, wenn wissenschaftliche Begriffe mit einer Anbindung an die Alltagssprache einhergehen. Im Ausblick dieser Arbeit wird sich zeigen, dass mögliche ethische oder auch juristische Implikationen sinnvollerweise einen Unterschied zwischen komplexem Verhalten und den so genannten Quasi-Handlungen machen. Hier wird also zwischen vier Klassen von Verhalten differenziert: 89

Einer Kaffeemaschine wird das Verhaltensziel ‚Kaffekochen’ von ihrem Konstrukteur vorgegeben, auch können Menschen auf Aufforderung handeln, analog kann man sich vorstellen, dass einem künstlichen System ein Handlungsziel vorgegeben wird. Auch Menschen ist durch ihre Biologie ein Rahmen der möglichen Handlungsziele (Überleben) gesetzt. Dies wird in Kapitel II.4.2 genauer thematisiert.

69

•einfaches Verhalten •komplexes Verhalten •Quasi-Handlungen •komplexe Handlungen Je nachdem, wie die Möglichkeiten der Informationsaufnahme und Informationsverarbeitungsprozesse der sich verhaltenden Systeme beschaffen sind, kann man diese Systeme analog in Klassen von möglichen Verursachern der oben genannten Klassen von Ereignissen einteilen. Das heißt, man kann differenzieren zwischen Systemen, deren Informationsverarbeitungsprozess sich durch eine rigide Kopplung auszeichnet und die somit nicht in der Lage sind, ihren Informationsverarbeitungsprozess zu verändern, und denjenigen, die zu Selbstveränderungen in der Lage sind. Bei letzteren besteht zudem noch die Möglichkeit, durch das Einführen der Klassen komplexes Verhalten und Quasi-Handlungen zwischen dem Ausmaß der Selbstveränderungsfähigkeit zu unterscheiden (siehe Abb. 8).

Abbildung 8: Systemunterschiede Noch ist die Grenze zwischen komplexem Verhalten und den QuasiHandlungen nicht beschrieben. Zum einen wird das Ausmaß der Selbstveränderungsfähigkeit später durch die Beschreibung verschieden komplexer Lernformen gekennzeichnet werden. Und zum anderen wird auch der Umweltbegriff, d. h. die Menge des möglichen Inputs eines Systems thematisiert werden.

70

II.1.3 Handlung als Unterbegriff von Verhalten Was bis hier über Handlungen ausgesagt wurde, ist Folgendes: Handlungen bilden eine Ereignisklasse, die in die Ereignisklasse Verhalten fällt. Bei einer Handlung gibt es wie bei jedem Verhalten ein sich verhaltendes System (Subjekt), dem man die Handlung zuschreiben kann. Da der Verhaltensbegriff auch auf künstliche Systeme ausgeweitet wurde, ist dies prinzipiell auch für den Handlungsbegriff möglich. Zwischen dem Handelnden und der Handlung kann man eine kausale Beziehung postulieren. In dieser Arbeit soll gezeigt werden, dass sich Handlungen von komplexem Verhalten vor allem durch die besondere Art und Weise der in den Systemen ablaufenden Informationsverarbeitungsprozesse unterscheiden. Es wird davon ausgegangen, dass diese Prozesse bestimmte kognitive Fähigkeiten voraussetzen. Dies hat zur Folge, dass man die Klasse der möglichen Verursacher einer Handlung auf diejenigen Systeme einschränken kann, die eben über diese noch zu beschreibenden kognitiven Fähigkeiten verfügen. Durch reines Beobachten von Ereignissen ist es nicht möglich, zwischen einfachem/komplexem Verhalten und Handlungen zu unterscheiden, da sich handlungsfähige Systeme durch ihren besonderen Informationsverarbeitungsprozess von Systemen, die einfaches oder komplexes Verhalten zeigen, unterscheiden und dieser Prozess gerade bei lebendigen Systemen nicht beobachtbar ist. Für Behavioristen gibt es nur Verhalten, und der Informationsverarbeitungsprozess läuft in der so genannten black box ab. Systeme sind aus dieser Perspektive heraus immer nur reaktiv, die Kategorie der Aktivität ist hier nicht anwendbar. Auch wenn beim operanten Konditionieren Spontanverhalten stillschweigend vorausgesetzt wird, liegt der Fokus auf dem Reaktiven. Aber auch aus einer kognitiven Perspektive heraus ist es nicht einfach, die Informationsverarbeitungsprozesse von lebendigen Wesen eindeutig zu beschreiben. Man kann sie postulieren, jedoch zieht die Überprüfung Schwierigkeiten nach sich. Eine weitere interessante Eigenschaft von menschlichen Handlungen besteht darin, dass sie z. B. durch häufiges Wiederholen zu automatisiertem Verhalten werden können. Durch die Beobachtung automatisierten Verhaltens kann man auf die Handlungsfähigkeit des Systems schließen, vorausgesetzt die Genese dieses Verhaltens ist autonom verlaufen. Schneider & Shiffrin (1977) definieren einen automatischen Prozess folgendermaßen:

71

„An automatic process can be defined within such a system as the activation of a sequence of nodes with following properties: (a) The sequence of nodes (nearly) always becomes active in response to a particular input configuration, where the inputs may be externally or internally generated and include the general situational context. (b) The sequence is activated automatically without the necessity of active control or attention by the subject.” Automatisiertes Verhalten selbst ist meiner Meinung nach keine Handlung mehr, da es sich gerade dadurch auszeichnet, dass es nicht mehr in der direkten Kontrolle des sich verhaltenden Systems liegt. Jedoch kann die Tatsache, dass es in der Regel auch wieder zu einer Handlung werden kann, wenn das handelnde System die robuste, fast rigide Kopplung modifiziert, als Argument dafür zählen, auch automatisiertes Verhalten als Handlung aufzufassen. Man wird feststellen, dass viele Handlungen mit automatisiertem Verhalten durchsetzt sind, dessen Ablaufen nicht in der momentanen Kontrolle des Systems liegt. Auf diesen Punkt werde ich in Kapitel III.6 (Überprüfbarkeit) zurückkommen. Die Schwierigkeit, aus der reinen Beobachtung von Ereignissen auf das Vorliegen von Handlungen zu schließen, ist also in der schlechten Beobachtbarkeit der Informationsverarbeitungsprozesse beim Menschen begründet. Allein durch Verhaltensbeobachtungen lässt sich nicht unterscheiden, ob ein Ereignis ein automatisiertes Verhalten oder eine Handlung ist, die in der Kontrolle des handelnden Systems liegt. Selbst komplexe Verhaltensmuster können vollautomatisch ablaufen, ohne dass sie der Kontrolle des sich verhaltenden Systems unterstehen. An dieser Stelle kann man von einem Vorteil gewisser KI-Systeme sprechen, da bei ihnen in der Regel der Informationsverarbeitungsprozess klar beschrieben werden kann. Hier bilden aber Systeme wohl eine Ausnahme, die mit neuronalen Netzen realisiert sind. Vor der Entwicklung des Begriffes einer Quasi-Handlung wird im Folgenden eine Übersicht über den Stand der Forschung zum Handlungsbegriff gegeben.

72

II.2 Handlungstheorien Unter dem Schlagwort ‚Handlungstheorie’ findet man in der Philosophie verschiedene Perspektiven, die sich mit Handlungen beschäftigen. Handlungstheorien haben Überschneidungen mit Metaphysik, Philosophie des Geistes und Ethik. Man kann hier nach R. Audi vier grundsätzliche Schwerpunkte unterscheiden:90 (1.) Der erste Schwerpunkt zeichnet sich durch die Auseinandersetzung mit Fragen zur Natur von Handlungen aus. Dabei wird nach Unterschieden zwischen Handlungen und anderen Arten des Verhaltens gesucht, die somit die notwendigen und hinreichenden Bedingungen für das Vorliegen einer Handlung bilden. Daneben geht es darum, Handlungen einer ontologischen Kategorie zuzuordnen. Ein anderer Schauplatz beschäftigt sich mit Problemen, die mit der Individuation von Handlungen in Zusammenhang stehen. In dieser Arbeit wird – wie schon erwähnt – davon ausgegangen, dass Handlungen Ereignisse sind. Eine tiefer gehende Beschäftigung mit der ontologischen Einordnung wird bei der Darstellung der Systemeigenschaften von handlungsfähigen Systemen nicht notwendig sein. Selbst wenn man wie K. Bach91 Handlungen nicht für Ereignisse, sondern für die Hervorbringung von Ereignissen hält, macht es Sinn, von notwendigen Systemeigenschaften (Fähigkeiten) handlungsfähiger Systeme zu sprechen. Ebenso wenig ist die Debatte um die Individuation von Handlungen fruchtbar für die Klärung der Fragestellung, welche Bedingungen ein System erfüllen muss, um handlungsfähig zu sein. (2.) Eine zweite Perspektive auf Handlungstheorien hat die Form angemessener Handlungserklärungen zum Thema: Hier kann man zwei verschiedene Theorieschulen ausmachen, die so genannten Antikausalisten (Intentionalisten)und die Kausalisten. Bei der Darstellung der angemessenen Handlungserklärung wird in der Regel auch die Frage, was eine Handlung von bloßem Verhalten unterscheidet, behandelt. Die Debatten zwischen diesen verschiedenen Theorienschulen werden in dieser Arbeit nicht im Detail behandelt, sondern nur kursorisch dargestellt. Für die Entwicklung des Begriffes einer Quasi-Handlung, bei der Bedingungen, über welche Fähigkeiten handelnde Systeme verfügen müssen, aufgestellt werden, ist es nicht notwendig, sich festzulegen, welche Art von Relation bei der Handlungsbeschreibung vorausgesetzt werden sollen. Sie mögen logischer oder kausaler Natur sein, dies hat jedoch nur Konsequenzen für die Art und Weise der Handlungs90 91

Vgl. Peters (2000, S. 15), Audi (1993). Vgl. Bach (1980 in Stoecker, 2002, S. 89ff.).

73

beschreibung und nicht für die gesuchten Bedingungen für Handlungsfähigkeit. Um handlungsfähig zu sein, braucht man bestimmte Eigenschaften. So müssen z. B. sowohl bei v. Wright als auch bei Davidson handlungsfähige Systeme Überzeugungen, Wünsche und Absichten haben, auch wenn diese beiden Autoren unterschiedlicher Auffassungen vertreten, was die Relation zwischen Wünschen/ Überzeugungen und Handlungen angeht. (3.) Einen dritten Diskussionspunkt in den Handlungstheorien bilden die Debatten um Handlungs- und Willensfreiheit. Diese sind jedoch vor allem für komplexe Handlungen von Interesse. Thema dieser Arbeit ist, sich mit den Bedingungen zu beschäftigen, die Systeme erfüllen müssen, um quasi-handlungsfähig zu sein. Dabei soll gerade auf Bedingungen wie das Zuschreiben eines Willens (der Fähigkeit, erste Ziele zu generieren) verzichtet werden.92 Daher werden diese Debatten in dieser Arbeit nicht weiter thematisiert. (4.) Als letzten Schwerpunkt von Handlungstheorien sind hier diejenigen zu nennen, die sich mit Natur und Grundlagen rationaler Handlungen auseinander setzen.93 Diese Arbeit wird sich nicht ausführlich mit der Debatte um die Natur und die Grundlagen rationaler Handlungen auseinander setzen, da es für die Entwicklung einer Handlungstheorie für Quasi-Handlungen nicht fruchtbar ist. Der Fokus dieser Arbeit wird auf dem ersten Schwerpunkt liegen. Da aber in der Philosophie Handlungstheorien, die sich mit der Natur von Handlungen beschäftigen, meist auch etwas über die angemessene Form von Handlungserklärungen (2.) sagen, werde ich im Folgenden auch auf die Unterschiede zwischen kausalistischen und antikausalistischen (intentionalen) Handlungstheorien eingehen. Gleichzeitig wird anhand der ausgewählten Handlungstheorien gezeigt, welche Bedingungen in der Regel für Handlungsfähigkeit implizit gefordert werden. Handlungstheorien versuchen die Frage zu beantworten, was bloßes Verhalten (einfaches/komplexes) von so genannten Handlungen unterscheidet. Nimmt man eine absichtliche Körperbewegung wie das Heben eines Armes als ein Beispiel für eine Handlung, kann man die zu klärende Frage wie Wittgenstein formulieren: 92

Um Missverständnissen vorzubeugen, sei hier erwähnt, dass quasi-handlungsfähige System natürlich in der Lage sein müssen Zwischenziele zu generieren, nach denen sich ihre Quasi-Handlungen ausrichten. Mehr dazu folgt in Kapitel II.4.2 (Zielgenerierungsfähigkeit). 93 Vgl. Audi (1993).

74

„Was ist das, was übrig bleibt, wenn ich von der Tatsache, dass ich meinen Arm hebe, die abziehe, dass sich mein Arm hebt?“ (Wittgenstein, PhU, 1990, S. 467, § 621) Mit R. Stoecker kann man drei handlungstheoretische Grundfragen ausmachen: „1.Was sind Handlungsgründe? 2.Was heißt es, dass eine Handlung aus Gründen geschieht? 3.Was ist es, das da aus Gründen geschieht, d. h. was für eine Sorte von Entitäten sind Handlungen?“ (R. Stoecker, 2002, S. 9) Die Anzahl und Vielfalt von Handlungstheorien in der Philosophie machen es unmöglich, einen Gesamtüberblick zu geben. Verwiesen sei an dieser Stelle auf eine Literaturrecherche von A. Mele zu Handlungstheorien, die allein für den Zeitraum 1980–1991 über 5000 Beiträge geliefert hat.94 Den meisten Handlungstheorien ist jedoch das Untersuchungs-Objekt gemeinsam: Sie beziehen sich fast ausnahmslos auf menschliche Handlungen. Grundlegende Unterschiede kann man vor allem in der zugrunde gelegten Methodologie ausmachen: Der Unterschied zwischen Verstehen und Erklären oder auch die analytische Diskussion über die strukturelle Differenz von Gründen und Ursachen (reasons and causes) spiegelt sich nach Beckermann in den verschiedenen Handlungstheorien wider.95 Die Beantwortung der Frage, ob intentionale Erklärungen als kausale Erklärungen verstanden werden oder nicht, unterteilt Handlungstheorien in verschiedene Lager: Zum einen gibt es antikausalistische, intentionalistische oder mentalistische Theorien und zum anderen kausalistische, naturalistische oder objektivistische Theorien. Kausale Handlungstheorien wollen Handlungen mit Fakten und kausalen Relationen erklären. Handlungserklärungen sind für sie KausalErklärungen. Sie beschreiben das, was bei einer Handlung zu einem Verhalten hinzukommt, in der Art und Weise des Verursachtseins dieser Körperbewegung. Solche Handlungsbeschreibungen erklären Handlungen, indem sie auf Handlungsgründe verweisen. Die Relation zwischen der Handlung und den Handlungsgründen wird in der Regel als eine deduktiv94 95

Vgl. Mele (1992, p. 199). Vgl. Beckermann (1977, S. 7).

75

nomologische Erklärung angesehen. Dies geht heute meist mit einem naturwissenschaftlichen Weltbild und einer materialistischen, funktionalistischen oder auch aspektdualistischen Position, das Leib-SeeleProblem betreffend, einher. Erste kausalistische Handlungserklärungen findet man bei Hobbes (1666), der einen Willensakt als mentale Entität postuliert, die eben diese Verursachung von Handlungen nach sich zieht. Diese Konstruktion wurde von Ryle (1949) und Melden (1961) neben der Kritik an den Schwierigkeiten des Mentalismus mit dem Hinweis auf die offene Frage der Verursachung der Willensakte ihrerseits kritisiert. Denn jeder Willensakt müsste jeweils von einem anderen Willensakt verursacht werden und dies führt offensichtlich in einen infiniten Regress.96 Anstatt nun Willensakte zu postulieren, verweisen spätere kausalistische Handlungserklärungen auf Wünsche und Überzeugungen (vgl. Davidson, 1963), die nicht nur zum Zweck der Handlungserklärung eingeführt werden. Dies sind zwar auch mentale Entitäten, jedoch löst Davidson das Problem der mentalen Verursachung durch den so genannten anomalen Monismus.97 Später wurden dann Willensakte durch Autoren wie Sellars, O'Shaughnessy, McCann, Goldman, Hornsby und Brandt rehabilitiert und als physiologische (frühe) Stadien von Handlungen ausgewiesen. Dies hat den Vorteil, dass man sich nicht mit der Einwirkung von mentalen Zuständen auf materielle Zustände beschäftigen muss. Währenddessen sind Handlungserklärungen in antikausalistischen Theorien keine Kausalerklärungen. Sie analysieren den Begriff einer Handlung mit seinen logischen Relationen und untersuchen in erster Linie die Frage, aus welchen Intentionen heraus ein Mensch gehandelt hat. Ihr Ziel ist es, Handlungen zu verstehen, auch wenn dies mit nichtnaturwissenschaftlichen Erklärungsmodellen vonstatten geht. Handlungserklärungen sind für sie nicht gleichzusetzen mit Kausalerklärungen, sie postulieren einen besonderen Typ von Erklärung. Als ein Beispiel für eine antikausalistische Handlungstheorie ist W. Dray zu nennen.98 Ereignisse in der Natur durch Subsumtion unter empirische 96

Vgl.: „Wenn das der Fall ist, dann genügt es nicht, die Muskelbewegung zu wollen, man muss auch das Wollen der Muskelbewegung wollen usw. ad infinitum.“ (Melden, 1961, S. 128). 97 Eine Erklärung zu dem Begriff ,anomalen Monismus’ wird im Kapitel II.2.3 geliefert.

76

Gesetze zu erklären, ist das Verfahren der Naturwissenschaften; dieses Verfahren hält jedoch Dray in den Geschichtswissenschaften für unangemessen. Sein Einwand gegen kausalistische Handlungstheorien ist als das good-reason-Argument in der Literatur bekannt. Dray betrachtet in seinem Aufsatz ‚Der Sinn von Handlungen’ Handlungserklärungen aus den Geschichtswissenschaften und zeigt, dass es bei solchen Handlungserklärungen darum geht herauszufinden, inwiefern die Handlung angemessen war. Angemessen ist eine Handlung, wenn es rationale Überlegungen (‚good reasons’) gibt, die verständlich machen, dass das, was getan wurde, zu tun war. Solche rationalen Erklärungen stellen für ihn einen eigenständigen Typ von Erklärungen dar, sie verwenden ein Kriterium des Verstehens und eben nicht irgendwelche Gesetzesaussagen. Hempels deduktiv-nomologisches Erklärungsmodell gilt für Dray nur für die Naturwissenschaften. Ziel der Geisteswissenschaft hingegen ist für Dray das Verstehen des Individuellen. Deswegen ist der Einwand Hempels, dass das rationale Erklärungsmodell keine hinreichende Sicherheit für einen deduktiven Schluss bietet kein überzeugendes Argument, denn Dray schlägt ja gerade ein alternatives Erklärungsmodell vor, das nicht nach den Kriterien deduktiv-nomologischer Erklärungsmodelle beurteilt werden kann. So spricht Dray von rationalen Handlungserklärungen, die von kausalen Erklärungen zu unterscheiden sind. Kausalisten hingegen wollen klären, inwiefern der Typus einer Handlungserklärung eine kausale ist. In dieser Arbeit wird der kausalistischen Sichtweise der Vorzug gegeben, dies erklärt sich zum einen durch den eingeführten Ereignisbegriff und zum anderen durch die hier eingenommene, kognitionswissenschaftliche Perspektive und die damit einhergehende Nähe zu naturwissenschaftlichen Methoden. Jedoch ist es auch für Vertreter der logischen Relation möglich, den im Folgenden entwickelten Begriff einer Quasi-Handlung zu verwenden, da notwendige Systemeigenschaften für Handlungsfähigkeit keine Voraussetzungen bezüglich der Relation zwischen dem Handelnden und der Handlung implizieren. Es wird gezeigt werden, dass die bevorzugte kausalistische Sichtweise, die den Fokus auf die Art und Weise der Verursachung legt, in gewisser Hinsicht wichtige Aspekte des Handlungsbegriffes außer Acht lässt, die mit der Handlungskontrolle in Zusammenhang stehen.

98

William Dray (1957a in Beckermann, 1985).

77

In den folgenden Überblicken über konkrete handlungstheoretische Positionen soll hinterfragt werden, welche Systemeigenschaften mit den dargestellten Handlungserklärungen impliziert sind. II.2.1 Georg Henrik von Wright Als ein Beispiel für eine antikausalistische Position wird hier die Handlungstheorie von Georg Henrik von Wright dargestellt. Von Wright bestreitet ebenso wie Melden (1961) und Dray (1957a), dass die Beziehung zwischen Explanans und Explanandum in einer Handlungserklärung als eine kausale betrachtet werden kann. Ausgegangen wird bei der Formulierung einer angemessenen Handlungserklärung von der durch den common sense gestützten Auffassung, dass Menschen Gründe haben, wenn sie handeln: „Ein Verhalten als eine Handlung zu identifizieren, heißt für gewöhnlich auch, einen möglichen Grund (oder mehrere mögliche Gründe) für solch eine Handlung anzudeuten.“ (von Wright 1994, S. 150) Seine Art der Handlungsbeschreibung lehnt sich an den praktischen Syllogismus (PS) an und stellt eine Alternative zu einer kausalistischen Konzeption dar. Hier wird die Handlung als Konklusion von zwei Prämissen beschrieben. Im Unterschied zu Davidson und Hempel nimmt Wright keine kausale Beziehung zwischen Explanans und Explanandum an, er sieht hier nur eine logische Beziehung. Die Existenz einer kausalen Relation kann man nur behaupten, wenn man von zwei Entitäten ausgehen kann, und genau dies sieht von Wright nicht als gegeben an. Ähnlich wie Melden nimmt er hier eine logische Beziehung an, da sich beispielsweise aus der Bedeutung des Wortes ,Absicht’ folgende Relation ergibt: Jemand, der die Absicht hat, etwas zu tun, tut dies auch, wenn er kann. Ebenso gehört es zur Bedeutung des Wortes Handlung, dass man eine Absicht (ein Gerichtetsein auf das Handlungsziel) unterstellen kann. Die erste Prämisse beschreibt einen Wunsch, eine Zielvorstellung99, z. B. den Wunsch, nicht mehr hungrig zu sein. Die zweite Prämisse macht Aussagen über die Überzeugungen der handelnden Person, z. B. dass das Essen eines Brötchens sowohl möglich ist als auch zum gewünschten Ziel (nicht mehr hungrig zu sein) führen wird. Die Konklusion erklärt, dass die Person sich daran macht, die Handlung zu vollführen. 99

In dieser Arbeit wird statt von einer Zielvorstellung meist von der Repräsentation eines Zielzustandes gesprochen.

78

Formal dargestellt beschreibt dies eine logische Beziehung: Die erste Prämisse Z sei die Beschreibung des Zielzustandes (Absicht, Wunsch, Zielvorstellung), die zweite Prämisse Üv die Überzeugung, welches Verhalten zu diesem Zielzustand führt, beide zusammen implizieren die Konklusion Av (Anstoßen des Verhaltens). Z ∩ Üv ⇒ Av Da in einer dynamischen Umwelt Handlungen immer auch ein zeitkritisches Moment haben, erweitert Wright seinen praktischen Syllogismus (PS) folgendermaßen: „(PS) Von jetzt an beabsichtigt A, p zum Zeitpunkt t herbeizuführen. Von jetzt an glaubt A, dass er p zum Zeitpunkt t nur dann herbeiführen kann, wenn er a nicht später als zum Zeitpunkt t’ tut. Folglich macht sich A nicht später als zu dem Zeitpunkt daran, a zu tun, wo er glaubt, dass der Zeitpunkt t’ gekommen ist – es sei denn, er vergisst den Zeitpunkt oder er wird gehindert.“ (Wright, 1974, S. 102) Bei dieser Handlungserklärung wird keine kausale Relation zwischen Absicht und damit einhergehender Überzeugung und der Ausführung der Handlung behauptet, denn das Haben von Absichten und Überzeugungen ist für v. Wright nicht von der Handlung selbst zu unterscheiden. Die logische Relation zwischen diesen Begriffen liegt in ihrer Bedeutung begründet. Handlungsfähige Systeme müssen für v. Wright sowohl in der Lage sein, Absichten und Überzeugungen zu haben, als auch über die Möglichkeiten verfügen, Handlungen anzustoßen. Wenn auch nicht explizit formuliert, impliziert die Forderung, Überzeugungen zu haben, dass das System in der Lage sein muss, Informationen aus seiner Umwelt aufzunehmen. Durch die gewählten Beispiele und das mentalistische Vokabular ‚beabsichtigen’ und ‚glauben’ wird nahe gelegt, dass das handelnde System ein Lebewesen (Mensch) mit Bewusstsein von seinen Absichten und Überzeugungen (Glaubensinhalten) ist. Für von Wright lassen sich Handlungen „als das Herbeiführen oder (‚willentliche’) Bewirken einer Veränderung beschreiben.“100 Von den Akteuren, die handeln, indem sie Veränderungen bewirken, wird gefordert, dass sie dies willentlich tun. Diese Handlungstheorie impliziert also offensichtlich, dass Handelnde einen Willen besitzen sollten.

100

Wright (1979, S. 47).

79

Zusammenfassend kann man v. Wright unterstellen, dass seine Handlungstheorie, die explizit eine Theorie für menschliche Handlungen darstellt, folgende Systemeigenschaften von einem handlungsfähigen System fordert die Fähigkeit. •etwas zu wollen (zu beabsichtigen), •etwas zu glauben und •zur Informationsaufnahme. II.2.2 C. G. Hempel Einen klassischen kausalistischen Standpunkt nimmt C. G. Hempel mit seiner dispositionellen Handlungserklärung ein. Um mit Hempel eine Handlung zu beschreiben, muss man die Begriffe Rationalität und Disposition klären: Eine Handlung ist rational, wenn aufgrund der vorliegenden Informationen, den Überzeugungen und Ansichten des Handelnden gute Erfolgsaussichten für das Ziel der Handlung bestehen. Dabei spielt es für Hempel keine Rolle, ob die Überzeugungen selbst rational sind. Schreibt man jemandem eine Disposition zu, trifft man damit eine gesetzesartige Aussage, die man aber nach Hempel in eine allgemeine Gesetzesaussage umformulieren kann, vorausgesetzt, man verfügt über eine umfassende Theorie, wie z. B. in der Physik.101 Bei Verhaltensdispositionen von Handelnden ist dies nach Hempels Auffassung aber nicht möglich, da die dazu benötigten Gesetze fehlen bzw. noch nicht bekannt sind. Wenn nun eine Person mit Hempels Standpunkt als rational handelnd ausgezeichnet wird, schreibt man ihr damit eine Reihe von Dispositionen zu. Um welche Dispositionen es hier genau gehen soll, ist nicht Thema dieser Arbeit. Wichtig ist nur, dass sich eine kausalistische Handlungstheorie dieser Art auf einen Dispositionsbegriff stützen muss und erst dann kausale Beziehungen behaupten kann. So kann man z. B. aus den beiden Prämissen X befand sich in einer Situation vom Typ A (mit der Disposition m) und X war ein rational Handelnder

101

Dies ist nach Hempel aber nur möglich wenn es eine umfassende Theorie gibt, so kann man die Dispositionseigenschaft ‚zerbrechlich’ folgendermaßen auf ein allgemeines Gesetz beziehen: Die Fensterscheibe besteht aus Glas. →Jeder Glaskörper ist zerbrechlich. Ohne ein solches allgemeines Gesetz kann man Dispositionsaussagen aufteilen in singuläre und allgemeine Aussagen: Die Fensterscheibe ist zerbrechlich. Jede zerbrechliche Scheibe zerbricht, wenn ein schwerer, harter Gegenstand gegen sie schlägt.

80

folgern, dass X y tat, da man von der gesetzesartigen Annahme ausgeht, dass jeder rational Handelnde in einer Situation vom Typ A y ausführt. Da man von einer gesetzesartigen Annahme ausgeht, besteht hier zwischen der Handlung und dem rational Handelnden in einer bestimmten Situation und mit einer bestimmten Disposition eine kausale Relation. „Analogous considerations apply to such terms as ,electrically charged´, ,magnetic´, ,intelligent´, ,electric resistance´, etc., in short to all disposition terms, i. e., terms which express the disposition of one or more objects to react in a determinate way under specified circumstances …” (Hempel 1950, p. 54) Auch hier muss das handelnde System über bestimmte Systemeigenschaften verfügen: Es braucht •Zielvorstellungen, •Überzeugungen, wie dieses Ziel zu erreichen ist, und •die Möglichkeit, sein Verhalten dementsprechend zu steuern. II.2.3 Donald Davidson Davidson ist bekannt als jemand, der eine hybride kausalistischintentionalistische Auffassung vertritt.102 In seiner Definition einer Handlung werden sowohl die Kausalbeziehung als auch die Rationalisierungsbeziehung verwendet. Mit dem Aufsatz „Actions, Reasons, and Causes“ stellt Davidson die These „Rationalisierung ist eine Spielart der kausalen Erklärung“ (Davidson, 1990, S. 19) in den Raum und stellt sich damit auf die Seite Aristoteles'. Dies markiert nach Wilson (1985) einen philosophiegeschichtlichen Wendepunkt analytischer Handlungstheorie. Nach Davidsons Auffassung sind Handlungen eine deutlich bestimmbare Untermenge von Ereignissen. Ausgegangen wird von zwei Thesen: Man kann eine Handlung erklären, indem man die Gründe des Handelnden angibt. Rationale Handlungserklärungen sind kausale Erklärungen. Ad 1) Rationalisieren durch Angabe von Gründen Zur Unterscheidung von Handlungen und anderen Ereignissen gibt Davidson folgende Definition: 102

Vgl. Keil (2002, S.668).

81

„Jemand ist der handelnde Urheber eines Ereignisses dann und nur dann, wenn es eine Beschreibung seines Tuns gibt, durch die ein Satz wahr wird, der besagt, er habe es absichtlich getan.“ (Davidson 1990, S. 77) Etwas absichtlich zu tun heißt, dass dem Handelnden etwas an der Handlung liegen muss; man kann ihm Handlungsgründe unterstellen. Das ist der Punkt in der Handlungstheorie, an dem implizit die Forderung nach Bewusstsein aufgestellt wird. An einer Handlung kann einer Person nur etwas liegen, wenn ihr ihre Absicht auch bewusst ist. Zum einen muss sie überzeugt sein, dass die Handlung gewisse Eigenschaften besitzt103, und zum anderen muss sie eine positive Haltung zu diesen Eigenschaften haben. Dieses eine Handlung auszeichnende Einstellungspaar nennt Davidson einen primären Grund, bestehend aus so genannten ProEinstellungen (pro-attitudes) und Überzeugungen (beliefs).104 Hiermit wird also ,handeln’ mit ,etwas absichtlich tun´ gleichgesetzt, wobei das absichtliche Tun nach Davidson nur die Funktion eines Analysandums hat. Da es immer viele verschiedene mögliche Beschreibungen ein und derselben Handlung gibt, fordert Davidson nur, dass es eine Beschreibung gibt, die das Getane als absichtliches Tun beschreibt: „Jemand ist der Urheber einer Handlung, sofern sich, was er tut, unter einem Aspekt beschreiben lässt, durch den sein Tun zu einem absichtlichen wird.“ (Davidson, 1971, S. 77) Nach Davidson kann man verstehen, „wie ein Grund beliebiger Art eine Handlung rationalisiert“, wenn man „zumindest in den wesentlichen Umrissen erkennen kann, wie ein primärer Grund konstruiert wird“ (Davidson, 1963, S. 20).

103

Diese Überzeugungen können falsch sein, so kann man erklären, warum man auch Beschreibungen von unabsichtlichen Handlungen findet. Man kann sich aus Versehen Zucker über das Essen streuen, da man die Überzeugung hatte, dass Salz in dem Gefäß sei. Ödipus wollte seinen Vater nicht umbringen, aber er hat absichtlich eine Handlung begangen, indem er seinen Vater umbrachte, da er nicht wusste, dass es sein Vater ist. Es gibt immer viele Beschreibungsmöglichkeiten einer Handlung. 104 Vgl. Davidson (1990, S. 20). Zu erwähnen ist, das anstatt von Pro-Einstellungen in der Literatur jedoch in der Regel von Wünschen (desires) die Rede ist.

82

Ad 2) Rationale Handlungserklärungen sind Kausalerklärungen Rationale Handlungserklärungen geben primäre Gründe des Handelnden als Ursache für die Handlung an. Jemand hat etwas getan, weil er einen primären Grund hatte. Solche Handlungserklärungen interpretiert Davidson als singuläre Kausalaussagen, sie werden hier also im Gegensatz zur Definition bei den Anti-Kausalisten als Aussagen über zwei distinkte Ereignisse verstanden. Gegen den Einwand, dass primäre Gründe Zustände und eben keine Ereignisse sind, die Ereignisse verursachen können, wendet Davidson ein, dass aber gerade die Einflussnahme wohl Ereignis sei, die von solchen Zuständen ausgehe. Das Haben von Gründen kann man nach Davidson insofern als mentales Ereignis interpretieren, als es ein Ereignis ist, wenn ein Zustand Besitz von jemandem ergreift. (Vgl. Davidson 1963, S. 32) Damit ist das ,Haben von Gründen’ nicht identisch mit der Handlung selbst und man kann zwischen zwei Ereignissen unterscheiden. Dies ist eine notwendige Voraussetzung, um eine kausale Beziehung behaupten zu können. Auf der einen Seite etabliert Davidson rationale Handlungserklärungen als Kausalaussagen, auf der anderen Seite bestreitet er jedoch, dass man psychophysische Gesetze formulieren kann. Das ,Haben einer Absicht’ ist ein mentales Ereignis, es rationalisiert eine Handlung. Das von Davidson postulierte Anomale von Mentalem besteht nun aber darin, dass es keine mit intentionalistischem Vokabular beschriebenen, deterministischen Gesetze geben kann. Trotzdem geht Davidson davon aus, dass es, wann immer es Kausalität gibt, auch Gesetze geben muss. Aber die Ausformulierung dieser Gesetze ist in diesem Fall ein hoffnungsloses Unternehmen: „Ich halte es für aussichtslos, im Einzelnen angeben zu wollen, in welcher Weise Handlungen durch Einstellungen bewirkt werden müssen, damit die Handlung durch sie rationalisiert wird.“ (Davidson, 1973, S. 121)105 Die Tatsache, dass man die notwendigen Gesetze nicht ausformulieren kann, muss aber nicht bedeuten, dass es diese nicht gibt. Alles, was Davidson leisten muss, ist plausibel zu machen, dass es die dazugehörigen, physikalischen Gesetze gibt. Die Schwierigkeit, das Verhältnis zwischen der Kausalbeziehung und der Rationalisierungsbeziehung zu klären, löst 105

Das englische Orginalzitat lautet: „What I despair of spelling out is the way in which attitudes must cause actions if they are to rationalize the action.“ (Davidson, 1973, p. 79).

83

Davidson, indem er auf unterschiedliche Ebenen verweist: Auf der einen Seite gibt es die Ereignisebene, auf der kausale Relationen zwischen Ereignissen bestehen, und auf der anderen Seite die so genannte Beschreibungsebene. Die Beschreibungsebene ist natürlich auf die Ereignisebene bezogen, jedoch haben die Grenzen der Beschreibbarkeit ihren Grund in den Einschränkungen, die eine bestimmte Art von Vokabular bietet: Mit einem physikalischen Vokabular kann man deterministische Gesetze formulieren, benutzt man jedoch psychisches Vokabular, kann man zwar Kausalverhältnisse kennzeichnen, jedoch ist es einem nicht möglich, relevante Gesetze zu formulieren. Der Versuch, für rationale Handlungserklärungen ein entsprechendes Gesetz zu formulieren, führt zu der Annahme von so vielen Ausnahmefällen (ceteris-paribus-Klauseln), dass es kaum einen Anwendungsfall gibt.106 Strikte Gesetze hingegen erlauben jedoch keine Ausnahmen; daraus folgt: Es gibt keine formulierbaren Gesetze, mit denen man mentale Ereignisse vorhersagen und erklären kann. Dies erklärt sich durch den Anomalismus des Mentalen.107 Man müsste das ,Haben von Gründen’ und die Handlung mit einem physikalischen Vokabular als Ereignisse beschreiben, für die ein Kausalgesetz gilt. Die Trennung zwischen der Beschreibungsebene und Ereignisebene führt dazu, dass man von einer kausalen Relation sprechen kann, wenn man auch keine Gesetze angeben kann. Im weiteren Verlauf der Entwicklung seiner Handlungstheorie führt Davidson den Begriff einer Elementarhandlung ein: Alle als Handlungen beschriebenen Ereignisse kann man letztlich durch Beschreibungen so genannter Elementarhandlungen darstellen. Wichtig ist es, zwischen Konsequenzen von Handlungen und Konsequenzen von anderen Ereignissen zu unterscheiden. Zu einer Handlung gehören auch ihre Konsequenzen. Es gibt immer mehrere Beschreibungsmöglichkeiten einer Handlung. Man kann eine Handlung sowohl durch Nennung ihrer Konsequenzen als auch durch die Zurückführung auf eine Elementarhandlung beschreiben:

106

So kann man die Handlung, sich eine Tasse Kaffee einzuschenken, durch die Angabe eines adäquaten, primären Grundes erklären, jedoch kann man kein allgemeines, generalisierbares Gesetz der Form: „Für alle Agenten: wenn A eine Handlung des Typs >Tasse Kaffee einschenken