Digitale Welt und Gestaltung 9783034609456, 9783764378226

Bedeutende Schriften zur Designtheorie Seine wichtigsten Texte erstmalsauf Deutschverfügbar Einer der international wi

252 86 3MB

German Pages 412 [424] Year 2007

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Digitale Welt und Gestaltung
 9783034609456, 9783764378226

Table of contents :
Vorwort
Einleitung
Cyberspace – ein demokratischer Space?
Telematik und neue urbane Szenarien
Der menschliche Körper in der digitalen Welt
Noch einmal die Frage nach der Technik
Brillen – ernst genommen
Das «Zeitalter des Entwurfs» und Daniel Defoe
Ist die Architektur ein Text?
Anmerkungen zum Ikonizitätsbegriff
Sprechen, schreiben, lesen
«Design», Gestaltung, Entwurf – neue Inhalte
Bibliografie und Biografien

Citation preview

Digitale Welt und Gestaltung

Schriften zur Gestaltung

Tomás Maldonado Digitale Welt und Gestaltung Ausgewählte Schriften herausgegeben und übersetzt von Gui Bonsiepe

Zürcher Hochschule der Künste Birkhäuser Basel · Boston · Berlin

Digitale Welt und Gestaltung

Inhaltsverzeichnis

Vorwort

9– 12

Einleitung

15 – 21

Cyberspace – ein demokratischer Space ?

23–111

Telematik und neue urbane Szenarien Der menschliche Körper in der digitalen Welt Noch einmal die Frage nach der Technik

113–158 161– 206 209 – 238

Brillen – ernst genommen

241– 255

Das «Zeitalter des Entwurfs » und Daniel Defoe

257 – 268

Ist die Architektur ein Text ?

271– 280

Anmerkungen zum Ikonizitätsbegriff

283 – 322

Sprechen, schreiben, lesen

325– 361

« Design », Gestaltung, Entwurf – neue Inhalte

363 – 374

Bibliograe und Biograen

377 – 421

Hinweis zur vorliegenden Publikation Mein Dank gilt vor allem Gui Bonsiepe, der seit Jahren und mit außergewöhnlicher Beharrlichkeit auf der Notwendigkeit bestanden hat, die von mir in Italien veröffentlichten Schriften – insgesamt zehn Bücher von 1970 bis heute – auf Deutsch zugänglich zu machen. Ein zumindest anspruchsvolles Vorhaben, das er – wenn auch nur teilweise – mit dieser Auswahl der wichtigsten Texte aus verschiedenen meiner Bücher in die Tat umgesetzt hat. Das Projekt konnte dank der Initiative der Zürcher Hochschule der Künste, die den angesehenen Birkhäuser Verlag hat gewinnen können, realisiert werden. Natürlich wäre dieses Buch nicht zustande gekommen, wenn Bonsiepe nicht auch die alles andere als leichte Aufgabe übernommen hätte, die ausgewählten Texte zu editieren und zu übersetzen. Auch hierfür – und vor allem hierfür – möchte ich ihm außerordentlich danken.

Tomás Maldonado

7

Digitale Welt und Gestaltung

Vorwort

*

*

Hans -Peter Schwarz, Jacqueline Otten, Ralf Michel Zürcher Hochschule der Künste, Zürich, Februar 2007

9

Vorwort

Die Hochschule der Künste in Zürich nimmt im Herbst 2007 ihren Betrieb als eine der größten deutschsprachigen Einrichtungen ihrer Art auf. Damit wird sie zu einer der wichtigsten kulturbildenden Institutionen der Schweiz im Bereich der Higher Education in the Arts. Dem Studium des Designs kommt in dieser neuen Hochschule eine bedeutende und zentrale Position zu, wird doch das Design im fruchtbaren Miteinander mit anderen Künsten hier nicht wie in anderen Ausbildungsinstitutionen auf einseitige Anwendungsorientierung reduziert. Vielmehr entfaltet es seine Relevanz als kulturell wie ökonomisch wirksame Disziplin. Obwohl sich die Zürcher Akteure durch die Tradition der Kunstgewerbeschulen einer soliden, auf das Machen ausgerichteten Ausbildung bewusst sind, sehen sie gleichwohl die Notwendigkeit, in einer komplexer werdenden Welt auf ebenso komplexer werdende Anforderungen mit einer Revision des Studiums zu antworten, die die Absolventinnen und Absolventen befähigt, sich in einer Welt rasanten Wandels nicht nur zurechtzufinden, sondern diesen Wandel auch tatkräftig und fundiert mitzugestalten – als Entwerferinnen und Entwerfer von Artefakten, die zwischen Menschen vermitteln, die Technologie in Nutzen transformieren und die als Bindeglied zwischen Kultur und Wirtschaft ihren Stellenwert finden. Neben den unerlässlichen praktischen Erfahrungen, die dem Entwerfen zugrunde liegen müssen, darf im Studium des Designs die kritische Auseinandersetzung, das Be- und Hinterfragen von Vorgaben und Begleitumständen ebenso wenig fehlen wie die grundlegende Skepsis gegenüber der individuellen entwerferischen Selbstzufriedenheit und Selbstbezogenheit. Diese unspektakuläre Haltung muss zuweilen intensiv ins Bewusstsein gerückt werden, weil die Ausbildungsgänge im entwerferischen Bereich nicht immer dagegen gefeit sind, schwadronierende Welterklärer statt tatkräftiger Weltgestalter hervorzubringen, und weil der Illusion des genialen Autorendesigners unzählige hoffnungsvolle Biografien zum Opfer gefallen sind. Was dies alles mit dem vorliegenden Buch zu tun hat? Dem Entwurf liegt das Denken zugrunde. In diesem Selbstverständnis war und ist es notwendig, eine selbstbewusste Tradition der Kritik und der Begriffsbildung zu erschaffen und zu pf legen – denn die existiert im Design bislang nur ansatzweise. Von diesem Defizit leitet sich die Motivation der Herausgeber ab, eine Reihe von Schriften aufzulegen, die entweder nicht oder nur unter Schwierigkeiten im deutschsprachigen Raum zugänglich sind, Schriften, die dazu geeignet sind, jene kritische Auseinandersetzung mit dem Gegenstand Design zu fördern und die aus der Perspektive des Entwerfens zu bedeutenden Entwicklungen unserer Zeit Stellung beziehen.

11

Digitale Welt und Gestaltung

Der vorliegende erste Band mit ausgewählten Beiträgen von Tomás Maldonado ist in mehrfacher Hinsicht der richtige Anfang. Seit seiner Übersiedlung nach Italien 1967 ist sein Werk im deutschen Sprachraum kaum mehr zugänglich gewesen, wiewohl es von hoher Aktualität und schneidender Brillanz gekennzeichnet ist. Mit dem kenntnisreichen Designer und Designlehrer Gui Bonsiepe haben die Schriften einen Übersetzer gefunden, der als Schüler von Maldonado dessen Argumentation und Gedankengebäude wie kein anderer durchdringt und um ihre Bedeutung für das Design weiß. Wir danken an dieser Stelle Tomás Maldonado für die kritische Begleitung dieser Ausgabe und Gui Bonsiepe für seinen unermüdlichen, stets an der Qualität und der Relevanz orientierten Einsatz. Dem Grafik -Designer Christian Riis Ruggaber sei gedankt, dessen Entwurf die Reihe «Schriften zur Gestaltung» erkennbar prägt. Zudem sei dem Verlag und der Lektorin Karoline Mueller-Stahl gedankt, dass sie dem Ansinnen, kluge und gute Bücher für Studierende aufzulegen, ein Forum geben.

12

Digitale Welt und Gestaltung

Einleitung

*

*

Gui Bonsiepe, Florianópolis / Ilha de Santa Catarina, La Plata / Buenos Aires, September 2006

15

Einleitung

Die hier vorgelegte Auswahl der Schriften von Tomás Maldonado füllt eine Lücke im deutschsprachigen Diskurs über Themen, die seit je im Zentrum philosophischen, wissenschaftlichen, kulturellen und politischen Interesses stehen. Die angeschnittenen Fragen gehören gleichsam zum Standardsatz der Thematiken, die in der Mehrzahl, wenn nicht alle in philosophischen und wissenschaftlichen Disziplinen ref lektiert worden sind – besonders in den Bereichen der Sprachphilosophie, Anthropologie, Informatik, Medizin, politischen Ökonomie, Semiotik und Technikgeschichte. Ausgehend von einer oftmals minutiösen Analyse dieser Ansätze zu jeweiligen Kernfragen und mit Rückgriff auf weit verzweigte sachbezogene Quellen, entfaltet Maldonado eine spezifische Perspektive, die man als Philosophie des Entwerfens bezeichnen kann. Im Unterschied zu den aufgelisteten Disziplinen zeichnen sich seine Beiträge zur kulturellen Debatte durch einen konkreten Entwurfshintergrund aus, der auf welch vermittelte Weise auch immer in seinen Texten durchscheint. Maldonado vermeidet es, in – wie er sie nennt – paraphilosophischen und paraliterarischen Spekulationen zu schwelgen, die jeglicher empirischer Grundlage und letzthin Materialität entbehren. Maldonado wurde im deutschen Sprachraum vor allem durch seine Veröffentlichungen in der Zeitschrift ulm (der ehemaligen Hochschule für Gestaltung, Ulm) bekannt, als deren hauptverantwortlicher Redakteur er mehrere Jahre wirkte und die er entscheidend prägte. Seit der Übersiedlung von Ulm nach Mailand im Jahre 1967 und seit der Veröffentlichung seines Buches Umwelt und Revolte Anfang der siebziger Jahre wurde es schwieriger, seine Arbeiten im deutschen Sprachraum zu verfolgen. Während seine zahlreichen Bücher und Artikel im italienischen und spanischen Sprachbereich gleichsam institutionellen Status errangen und ihn als einen der führenden Exponenten der kulturellen und politischen Debatte über die Rolle der Technik und über die anthropologische Konstante des Entwerfens für die zeitgenössische Gesellschaft profilierten, konnten sie hierzulande wegen der sprachlichen Barrieren nicht oder nur unzulänglich rezipiert werden. Seine Beiträge stehen gleichsam diesseits und jenseits dessen, was man sich als designtheoretischen Diskurs zu benennen angewöhnt hat. Diesseits, weil sie den Rahmen abstecken, in dem sich differenziert aus der Perspektive des Entwerfens über Gesellschaft, Technologie und Kultur diskutieren lässt; und jenseits, weil sie sich von der sich oftmals in kontingenten Fragen erschöpfenden, medial rauschenden Geschäftigkeit um das Design abheben. Ihm geht es in erster Linie nicht um eine Klärung von Begriffen, die sich allzu leicht mit pedantischer Begriffsputzerei begnügt, sondern um das Aufzeigen von Widersprüchen und offenen Problemen, denen sich die heutige Gesellschaft gegenübersieht.

17

Digitale Welt und Gestaltung

Die Textauswahl zielt darauf ab, anhand eines repräsentativen Querschnitts die Trajektorie von Maldonados Werk und die weit verzweigten Thematiken aufzuzeigen, denen sich der Autor in den letzten drei Jahrzehnten mit akribischer Insistenz zugewandt hat. Er bedient sich dabei verschiedener Textformen – sie reichen von literarischen Essays bis zu wissenschaftlichen Beiträgen, die sich in der Regel auf einen ungewöhnlich reichen Anmerkungsapparat stützen, anhand dessen man einen aufgegriffenen Argumentationsstrang weiterverfolgen kann. Zu f linkem Lesen dürften diese gekelterten Texte – durchaus nicht flashy und cool – schwerlich geeignet sein, wenn man ihren Nuancenreichtum erschließen will, der sich nicht auf – wie so oft üblich – angloamerikanische Materialien beschränkt (und damit verengt), sondern auch Beiträge aus dem deutschen, französischen und selbstredend aus dem italienisch-spanischen Kulturbereich einbezieht. Von allen Texten lässt sich ein wenn auch vermittelter Bezug zu vier zentralen Entwurfsdisziplinen herstellen: Industriedesign, Visuelle Kommunikation, Neue Medien und Architektur. Im Kapitel über Cyberspace werden die oftmals überzogenen Hoffnungen eines technologischen Determinismus entlarvt, der im World Wide Web den Motor zur Förderung einer wie auch immer verstandenen Autonomie und Demokratie sieht. Die Auswirkungen der Telematik auf neue Arbeits- und Lernformen sowie Fragen der sozialen Eingrenzung (Inklusion) und Ausgrenzung (Exklusion) werden in «Telematik und neue urbane Szenarien » untersucht. Im Kapitel « Der menschliche Körper in der digitalen Welt » geht es unter anderem um die Möglichkeiten und Grenzen der Virtualität, wenn sie für medizinische Zwecke eingesetzt wird. Am Beispiel der Farbwahrnehmungen werden die Grenzen künstlicher Wahrnehmung aufgezeigt. Die Philosophie der Technik ist das Thema in den Ref lexionen über Technik. Maldonado referiert zentrale Fragen und untersucht die autokratische Konzeption der Technik auf ihre Haltbarkeit – und ihre Unhaltbarkeit. Dabei werden unter anderem der etymologisch raunende Denkstil Heideggers und dessen Einstellung zur Technik einer kritischen Revision unterzogen und der im deutschen Sprachraum weitgehend unbekannte französische Philosoph der Technik, Gilbert Simondon, gewürdigt. Gegenüber diesen Ref lexionen allgemeinen Charakters kann das Kapitel über Brillen als Paradigma dafür dienen, wie eine detaillierte Geschichte eines technischen Gegenstandes, eines Artefakts, einer Prothese geschrieben werden kann. Diese Betrachtung steht quer zu einem kunstgeschichtlichen Ansatz, der sich vorwiegend

18

Einleitung

darauf beschränkt, in Artefakten primär und ausschließlich formalästhetische Probleme zu sehen, und der somit über die Diskussion von Stilproblemen und überbaulichen Unverbindlichkeiten nicht hinauskommt. Den Fehler, Designgeschichte der akademischen Disziplin der Kunstgeschichte zuzuordnen, erwähnt Maldonado in einem späteren Kapitel. Einen Archetyp des Entwerfers, des project makers, sieht Maldonado in der literarischen Gestalt des Robinson Crusoe von Daniel Defoe und arbeitet dabei die Eigenschaften einer Zentralfigur der Moderne heraus. In dem Text über Architektur werden einige der Präferenztheoreme der Postmodernisten – genauer einige Thesen von Derrida über die Architektur – mit unverhüllt polemischer Intention als letteratura buffa, als brillante Beispiele für Flachsinn charakterisiert. Die Analyse des Ikonizitätsbegriffs als eines Grundbegriffs der visuellen Kommunikation dürfte mit zu den philosophisch schwierigsten Kapiteln dieser Auswahl zählen; alles in allem ist die Revindikation der Visualität als kognitive Domäne das Thema. Einer Anstrengung des Begriffs könnte eine Anstrengung der Bildlichkeit entsprechen, wobei es nicht – das sei betont – um eine konf ligierende Bipolarität zwischen der Zunft der Textritter und der Zunft der Bildknechte geht. Die Informations- und Kommunikationstechnologien haben in den letzten Jahren eine überbordende Fülle von Veröffentlichungen über die so genannten Neuen Medien induziert. Vor allem die traditionellen Geisteswissenschaften, die konstitutiv immer den technischen Entwicklungen hinterherhinken, wurden verunsichert und sahen sich wohl oder übel gezwungen, sich mit den technologischen Innovationen auseinanderzusetzen. Freilich waren sie – und sind sie – oftmals versucht, den empirischen Rückstand oder die Ferne zur Empirie durch schrankenloses Spekulieren zu kompensieren, was bekanntlich nicht weiterführt. Gegen diese Tendenz setzen sich Maldonados Ref lexionen über Sprechen, Schreiben und Lesen ab, in denen die programmatischen Erklärungen, die die Hypertextliteratur als eine vermeintlich neue Schreib- (und Lese-)Form feiern, auf ihre Stichhaltigkeit geprüft werden. Im Anhang wird der Bogen geschlossen, der sich von den Veröffentlichungen aus der Ulmer Zeit bis heute spannt. Die Rede anlässlich der Veranstaltung zum fünfzigjährigen Gründungstag der hfg ulm – durchaus kein nostalgischer oder sich selbst feiernder Rückblick – lässt die Konstanten eines wahrlich kosmopolitischen Entwurfsdenkens deutlich werden, das besonders empfindlich auf zentrale Hegemonieansprüche reagiert. Diese Empfindlichkeit mag sich daraus erklären, dass Maldonado aus einem Land stammt, das wie die anderen Länder Mittel- und Süd-

19

Digitale Welt und Gestaltung

amerikas gemeinhin zur Peripherie gezählt wird, für das also die Erfahrung der Abhängigkeit und des Beherrschtseins gleichsam zum kulturellen – und politischen – Humus gehört. Es wäre ein unsinniges Unterfangen, Maldonados facettenreicher Person mit Etiketten beikommen zu wollen – Maler, Philosoph, Entwerfer, Erzieher, Kritiker, Theoretiker … Das alles trifft zu, aber zielt dennoch zu kurz. In seiner Jugend war er ein rigoroser Vertreter der konkreten Malerei, der mit dem Manifest arte concreto – ivención Ende der vierziger Jahre den in Buenos Aires seinerzeit vorherrschenden Akademismus, einschließlich der abstrakten Malerei, anprangerte. An der hfg Ulm stieß er in den Bereich der Forschung, Entwicklung und Ausbildung in Entwurfsdisziplinen vor. In Italien profilierte er sich zu einem führenden Vertreter in der kulturellen Debatte über Fragen der Gestaltung. Will man ihn charakterisieren, kann man eine Reihe von Eigenschaften und Einstellungen ausmachen, die sich gleichsam als Konstanten über die Jahre halten: eine Vorliebe für pensiero discorrente (gegenläufiges Denken), eine Abneigung gegen monokausale Erklärungen, ein Misstrauen gegenüber Entmaterialisierungstendenzen, eine Kritik an technologisch-politischer Naivität, eine seismografische Empfindlichkeit gegen anti-emanzipatorische, autoritäre, antidemokratische Kräfte, ein Misstrauen gegen Verbalradikalismus, ein unablässiges Hin-und-Herwenden von Argumenten auch und gerade der Gegenspieler, ein Bestehen auf Nachprüf barkeit, eine militante Rationalität, eine Vorliebe für lucidité (und somit eine Abneigung gegen romantische Verschwommenheit und «Tiefsinn » gleich welchen Ursprungs, ob nun deutscher, französischer oder sonst welcher Herkunft), ein Gespür für historische Zusammenhänge, eine Bereitschaft, Fachgrenzen zu überschreiten und gerade in Abhandlungen wissenschaftlichen Charakters Querverbindungen zur Literatur und zur künstlerischen Avantgarde zu erwähnen, all das, ohne auf einen bisweilen kaustischen Humor – auch gegen sich selbst – zu verzichten. All diese Eigenheiten lassen Maldonado zu einer Ausnahmeerscheinung im heutigen Designdiskurs als Teil einer übergreifenden kulturellen Debatte werden. Denn selbst ein wohlwollender Blick dürfte sich schwerlich dem Urteil verschließen können, dass der Designdiskurs weitgehend im biedermännlichen flatland angesiedelt ist, wo es nur wenige Erhebungen, geschweige denn Gipfel gibt, von denen aus sich neue Perspektiven eröffnen. Durch das Anheben der Entwurfsausbildung auf Hochschulstatus und vor allem durch die Einrichtung von Masterstudiengängen wurden zwar beschränkte formell-institutionelle und minimale materielle Voraussetzungen geschaffen, um sich theoretisch mit Gestaltungsfragen auseinanderzusetzen und sachbezogene Forschung zu betreiben. Allerdings war für diese Öffnung zu wissenschaftlichen Disziplinen ohne entwurfsempirischen Hintergrund bisweilen ein hoher Preis zu zahlen, insofern das Design der Gefahr ausgesetzt wurde – und wird–,

20

Einleitung

als Spielwiese für freizügige interpretative Exerzitien einer akademischen Kathedergelehrsamkeit zu dienen, der das Entwerfen völlig fremd ist und die diese Fremdheit oftmals mit einer kaum verhehlten Ranküne gegen das Design, seine gesellschaftlichen, technologischen und kulturellen Grundlagen zu kompensieren sucht. Vor diesem Hintergrund wird die Relevanz der Arbeiten von Maldonado besonders deutlich, insofern sie veranschaulichen, was fundierte und nicht bloß über die Oberf lächen huschende Designforschung und nicht affirmative Designtheorie und Designgeschichte meinen können. Als Ausgangspunkt für die Übersetzung diente zunächst die italienische Originalfassung, aber auch – und nicht in geringerem Umfang – die spanische Übersetzung einiger Kapitel, die bisweilen in Details von der italienischen Version abweicht. In einigen Fällen wurden auch englische Übersetzungen zum Vergleich herangezogen. So weit wie möglich wurden die in den fremdsprachlichen Ausgaben eingefügten deutschen Zitate in der Originalfassung wiedergegeben. Dafür gilt Costanza Pratesi Dank, die eine Reihe oftmals schwer zugänglicher Originalquellen – vor allem in den weiter zurückliegenden Texten – ausfindig gemacht hat. Wenn in der italienischen Ausgabe philosophische Begriffe auf Deutsch wiedergegeben wurden, so wird das hier nicht vermerkt. Die Übersetzung wurde mit dem Autor durchgesehen, um interpretative Fehldeutungen auszuschließen. Wenngleich das Vorhaben, eine Reihe von Texten Maldonados dem deutschen Sprachbereich zu erschließen, schon vor Jahren skizziert wurde, konnte es doch erst jetzt dank der institutionellen Unterstützung der Zürcher Hochschule der Künste realisiert werden, insbesondere durch das Engagement des Direktors HansPeter Schwarz und der Leiterin der Designabteilung, Jacqueline Otten. Es war Ralf Michel von der Hochschule der Künste, der dieses Projekt aufgriff und dem es gelang, den Birkhäuser Verlag für die neue Publikationsreihe der Zürcher Hochschule der Künste zu interessieren. Dafür sei allen Beteiligten gedankt.

21

Digitale Welt und Gestaltung

Cyberspace – ein demokratischer Space ?

*

*

1. Kapitel aus Critica della ragione informatica , Feltrinelli, Mailand 1997, S. 11–191. Vorbemerkung Dieser Text wurde vor zehn Jahren zuerst auf Italienisch veröffentlicht. Er bildete das erste Kapitel meines Buches Critica della ragione informatica (Kritik der digitalen Vernunft) (1997). Wenn man sich die Schnelligkeit vergegenwärtigt, mit der sich die Kontextbezüge im Bereich der erörterten Thematik unablässig wandeln, dann liegt es auf der Hand, dass einige Punkte ihre Aktualität eingebüßt haben – zum Beispiel die Bedeutung, die Personen wie George Gilder, Newt Gingrich und Ross Perot beigemessen wurde, sowie einige kontingente Informationen hinsichtlich der Eigentumsordnung der Netzwerke und der Entwicklung der Gesetzgebung über die Telekommunikation in den USA. Abgesehen von diesen Einschränkungen bin ich aber überzeugt, dass der Text Analyseperspektiven freigelegt hat, die noch heute im Zentrum der Auseinandersetzung stehen. Tomás Maldonado, 2006

23

Cyberspace – ein demokratischer Space ?

01

In einige Sektoren unserer heutigen Gesellschaft wird die Hoffnung gehegt, dass die interaktiven und multimedialen Technologien zu einer radikalen Neuorientierung unseres gegenwärtigen Demokratieverständnisses (und unserer demokratischen Praxis) beitragen können. Man setzt darauf, dass diese Technologien das Potenzial in sich bergen, einer Form der direkten oder partizipativen Demokratie den Weg zu ebnen. 01 Auf diese Weise – so lautet das Argument – könnten die so oft beklagten Schwächen, Widersprüchlichkeiten und Fiktionen der gegenwärtigen parlamentarischen und repräsentativen Demokratie überwunden werden. Von neuem wird also der Technologie eine gleichsam magische Rolle zur Lösung der Grundprobleme unserer Gesellschaft zugewiesen. Das sollte durchaus ernst genommen werden, und zwar nicht allein wegen der theoretischen Folgen, sondern auch wegen der hinter diesem Gedanken verborgenen, konkreten Interessen. Es soll nicht verschwiegen werden, dass dieser grandiose Entwurf unter anderem von Wirtschaftskräften befürwortet wird, denen schwerlich eine rezeptive Haltung gegenüber der Zukunft der demokratischen Institutionen unterstellt werden kann. Ich meine die multinationalen Unternehmen, die – der strengen Logik des Marktes folgend – oftmals dazu neigen, den eigenen Interessen gegenüber den Interessen der Gemeinschaft Vorrang einzuräumen. Es gibt aber auch andere Gruppen, die aus einer anderen und sogar gegensätzlichen Perspektive heraus vom positiven Einf luss der neuen Technologien auf die demokratische Entwicklung überzeugt sind, was aber nicht bedeutet, dass diese Gruppen in jedem Fall als autonom und frei vom expliziten oder impliziten Einf luss der Marktlogik anzusehen wären. (Ich meine damit jene Gruppe, die ein wenig provokatorisch als die capitalist cyberhippies des Silicon Valley bezeichnet worden ist.) Es wäre aber zu simpel und nachgerade irreführend zu glauben, dass alle diese Gruppen nichts anderes als ein Ausdruck solcher Interessen seien.

01

Das Thema ist nicht neu. In den vergangenen fünfzehn Jahren ist es eingehend erörtert worden: Vgl. I. de S. Pool ( 1983 und 1990 ), P. Virilio ( 1984 ), L. Winner ( 1986 ), Th. Roszak ( 1986 ), F. Ch. Arterton ( 1987 ), H. Delahaie ( 1987 ), J. B. Abramson et al. ( 1988 ), J. Ellul ( 1988 ), J. Chesnaux ( 1989 ), J. Rifkin ( 1989 und 1995 ), G. Gilder ( 1992 ), J. Rauch ( 1994 ), A. Kroker und M. A. Weinstein ( 1994 ), M. Surman ( 1994 ), R. Spears und M. Lea ( 1995 ), A. und H. Toffler ( 1995 ), S. L. Tablott ( 1995 ), Ph. Breton ( 1995 ), C. Stoll ( 1995 ), L. Grossman ( 1995 ), S. London ( 1994 und 1995 ), N. P. Negroponte ( 1995 ), H. I. Schiller ( 1995 ), D. Burstein und D. Kline ( 1995 ), J. Guisnel ( 1995 ), D. Kline und D. Burstein ( 1996 ), R. Barbrook und A. Cameron ( 1996 ), J. Habermas ( 1996 ), P. Virilio ( 1996 ). In Italien: G. Cesareo ( 1984 ), G. Sartori ( 1989 ), G. De Michelis ( 1990 ), P. Manacorda ( 1990 ), L. Ardesi ( 1992 ), D. Zolo ( 1992 ), S. Rodotà ( 1992 und 1995 ), D. Campana ( 1994 ), N. Bobbio ( 1995 ), G. De Michelis ( 1995 ), F. Colombo ( 1995 ), A. Abruzzese ( 1995 und 1996 ).

25

Digitale Welt und Gestaltung

02

Unter den Verkündern der heraufziehenden elektronischen Republik befinden sich auch jene Befürworter – vielleicht die aktivsten –, die den Versuch der Regierungen anprangern, eine normative Kontrolle und Zensur der Netze ausüben zu wollen – eine Kontrolle, die sich letztendlich zu einer Bedrohung für die potenziell emanzipatorischen Inhalte der Informationstechnologien verdichten könnte. 02 Aber sie belassen es nicht dabei. Gleichzeitig greifen diese Gruppen die Monopoltendenzen der multinationalen Unternehmen an, in denen sie eine genauso große, wenn nicht größere Gefahr für die Zukunft der Demokratie sehen. Diese Einstellung weist aber in mancher Hinsicht eine peinliche Ähnlichkeit mit jener Haltung auf, die im Namen des freien Markts von den multinationalen Unternehmen eingenommen wird. Auch die Multis wehren sich gegen jegliche Form staatlicher Kontrolle, aber nur mit dem Ziel, zu ihrem eigenen Vorteil eine radikale Liberalisierung der Medien und der Netzwerke voranzutreiben – eine Strategie, die auf die bloße Übertragung der öffentlichen staatlichen Kontrolle in Privathände hinausläuft. Wo es einst Kontrolle gab, vor allem in Form antimonopolistischer Gesetze seitens des Staates, würde jetzt die Kontrolle in die Hände der neuen, dank des Liberalisierungsschubes allmächtigen Monopolagglomerate fallen. Dabei handelt es sich nicht um eine theoretische Möglichkeit oder um ein hypothetisches Szenario für die Zukunft – vielmehr vollzieht sich dieser Prozess bereits hier und jetzt.

03

Dazu hat der kürzlich (1996) vom Senat der USA verabschiedete telecommunications reform act entscheidend beigetragen, der die rechtliche Grundlage für eine nahezu totale Deregulierung im Medienbereich liefert. Die Folgen dieser neuen Regelung liegen offen zutage: Nach einem stürmischen Anwachsen vieler Initiativen, die anfangs an eine stärker konkurrenzorientierte Strukturierung des Marktes denken ließen, ist nun das Gegenteil in Form der Konzentration von Großunternehmen zu einer immer kleineren Zahl von multinationalen Konglomeraten eingetreten. 03

02

In den Vereinigen Staaten sind es Vereinigungen wie die EFF ( Electronic Frontier Foundation ), die CPSR ( Computer Professionals for Social Responsability ) und das CDT ( Center for Democracy and Technology ), die als Bollwerk gegen die Versuche seitens der NSR ( National Security Agency ), des FBI und einiger Senatsmitglieder ( zum Beispiel der Gesetzentwurf des communications decency act der Senatoren Exon und Gordon ) fungieren, eine weit reichende Überwachung und Kontrolle der telematischen Netzwerke zu rechtfertigen. Vgl. J. Guisnel ( 1995 ).

03

Diese Tendenz bestand bereits einige Monate vor dem telecommunications reform act, vielleicht, weil man schon wusste, dass die Deregulierung kommen würde. Ich beziehe mich auf die Zusammenlegung von Disney und ABC, NBC und Microsoft, CNN und Time Warner. Über die Rolle der Multis in alten und neuen Medien vgl. A. W. Branscomb ( 1994 ).

26

Cyberspace – ein demokratischer Space ?

Es scheint mir keine verwegene Voraussage, dass diese Tendenz zu einer regellosen Integration, die dem Wirken der berüchtigten « unsichtbaren Hand » anvertraut wird, früher oder später die kleineren Firmen vom Markt fegen wird. Es wäre nicht das erste Mal, dass dieses geschieht. Um mit der Analyse eines derart komplexen und verwickelten Themas voranzukommen, scheint es mir geboten, zunächst die Argumente wiederzugeben, die die oben erwähnte Hypothese von den emanzipatorischen Inhalten der neuen Informationstechnologien unterstützen. Wenngleich ich mir der Risiken bewusst bin, die in jeder summarischen Auf listung von Argumenten liegen, möchte ich dennoch zumindest die häufigsten und meiner Meinung nach wichtigsten anführen. Gleichzeitig werde ich meine Einstellung zu jedem dieser Argumente darlegen. Unter den Autoren, die in den Informationstechnologien einen Faktor zur Erweiterung und Festigung der demokratischen Grundlagen unserer Gesellschaft sehen, wird oftmals der überragende Einf luss dieser Technologien auf die Kommunikationsmittel untersucht. Genau in diesem Zusammenhang werden die bittersten Kritiken an den traditionellen Massenmedien laut. Diesen Autoren zufolge halten sie, was den Interaktionsreichtum angeht, einem Vergleich mit den Neuen Medien nicht stand. In der Tat lassen die traditionellen Massenmedien wegen ihres modus operandi – vertikal von oben nach unten und nur in diese Richtung – eine wirksame, in beide Richtungen verlaufende Kommunikation nicht zu. Das gilt besonders für das Fernsehen, das nicht zufällig im Mittelpunkt der Kritik steht. Ob wir nun bereit sind, diese Kritiken in toto zu unterschreiben, oder nicht – das Fernsehen ist sicher ein Kommunikationsmittel, das sich überwiegend auf die absolute Passivität des Empfängers stützt. Fast erübrigt sich der Hinweis darauf, dass die vom Publikum empfangene Information stets einseitig von einem Sender ausgestrahlt wird. Zwar hat man in letzter Zeit versucht, einige technische Kniffe einzuführen, die dem Zuschauer in recht begrenztem Umfang erlauben, sich mit punktuellen Telefonanrufen in eine Debatte einzuschalten oder seine Präferenzen über die ihm vorgelegten Fragen mitzuteilen. Eine andere Möglichkeit ist es, die Fernsehkameras im Privatbereich oder öffentlichen Bereich zu platzieren, um das Interview einer Person oder einer Gruppe von Personen direkt aufzunehmen oder um den Ablauf eines Schauspiels oder einer politischen Versammlung direkt zu übertragen. Das sind aber nicht die einzigen Bemühungen, um den Zuschauer zu größerer Aktivität anzuspornen. Nicht zu vergessen sind die jüngsten technischen Entwicklungen des so genannten interaktiven Fernsehens: video on demand, near video on demand, pay per view,

27

Digitale Welt und Gestaltung

teleshopping, telebanking usw. All das reicht freilich nicht aus, um die hartnäckigsten Gegner des Fernsehens zu überzeugen. Ihrer Meinung nach sind die getroffenen Maßnahmen nichts weiter als ein Notbehelf, ein recht grobschlächtiges Verfahren, um eine interaktive Teilnahme vorzutäuschen, die dem Medium aber gänzlich abgeht.

Somit wäre dem Fernsehen in der uns heute bekannten Form eine unbestimmte Zukunft beschieden. Einige gehen noch weiter und kündigen sein in Kürze bevorstehendes Ende an. Das Fernsehen entspräche nicht mehr der von breiten Bevölkerungskreisen erhobenen Forderung, die von den Medien geförderte Verengung zu durchbrechen und den Bildschirm für die Teilnahme der Zuschauer zu öffnen. Bei genauerem Hinsehen wäre das Fernsehen darüber hinaus unabdinglich an ein Kommunikationssystem gebunden, das – zwischen den Zeilen – als undemokratisch, wenn nicht gar als autoritär definiert wird, weil seine Struktur immer asymmetrisch gewesen sei und dies auch weiterhin bleibe: auf der einen Seite der Produzent der Information, auf der anderen Seite der Empfänger.

Teleputer

04

05

Die neuen Technologien müssten dazu beitragen, diesen Teufelskreis zu brechen und eine andere Entwicklung zu ermöglichen. Im Zentrum dieser Entwicklung stünde als treibende Kraft einer fundamentalen demokratischen Erneuerung der Medien ein neues technisches Produkt: der Teleputer (Fernsehen & Computer & Telefon). 04 Ohne die neuen Aspekte der derzeitigen Kontroverse über das Fernsehen unterschätzen zu wollen, sei daran erinnert, dass viele der heute diskutierten Fragen bereits in den fünfziger Jahren im Mittelpunkt der Debatte standen. 05 Die Passivität

04

Ein eingefleischter Gegner des Fernsehens und leidenschaftlicher Förderer des Teleputers ist George Gilder. Er ist eine umstrittene Persönlichkeit – Rassist, Antifeminist und Berater des ultrakonservativen US Senators Newt Gingrich –, doch er kündigt in prophetischen Tönen den unaufhaltbaren Verfall des Fernsehens und die beginnende Ära des Teleputers an. Dieser müsste uns von den « hirnrissigen Shows » befreien, an die uns der « nihilistische Sumpf » des Fernsehens gewöhnt hat. Vgl. P. Bronson ( 1996 ).

05

Wichtig waren damals die Essays von T. W. Adorno ( 1964 ), G. Anders ( 1957 ), H. Rabassière ( 1959 ) und M. Hausknecht ( 1959 ).

28

Cyberspace – ein demokratischer Space ?

des Zuschauers, die gegenwärtig als höchste Form der Entfremdung beim Fernsehkonsum betrachtet wird, wurde schon seinerzeit im Rahmen der Kommunikationssoziologie erörtert.

06

Allerdings hatten die Schlussfolgerungen, zu denen die Wissenschaftler gelangten, oftmals einen allzu allgemeinen und zusammenhanglosen Charakter. Das war – wie einer von ihnen, R. B. Meyersohn (1957), hervorgehoben hatte – auf den unbedachten Gebrauch des Begriffs Passivität zurückzuführen. Meyersohn legte seinen Kollegen nah, zwischen zwei Aspekten des Problems klar zu unterscheiden: a) der Tatsache, dass « Fernsehen zur Passivität führen kann », und b) der Tatsache, dass «Fernsehen von sich aus bereits Indiz einer passiven Haltung sein kann». Nach Meyersohn müsste sich die Untersuchung eher auf die Motive konzentrieren, die das Publikum zur Passivität verleiten, und weniger auf die Motive, deretwegen das Fernsehen ein so ausgezeichneter Lieferant der Passivität ist. Oftmals vergisst man, schreibt Meyersohn, dass «die Passivität eine menschliche Eigenschaft ist und nicht eine Eigenschaft des Fernsehens». 06 Eine ähnliche interpretative Differenzierung kann mutatis mutandis für die gegenwärtige Debatte über die Passivität nützlich sein. Mir scheint, dass es heute wie gestern weniger darum geht, festzustellen, welche technische Einrichtung zur Passivität beziehungsweise zur Aktivität verleitet, als vielmehr darum, herauszufinden, welche Hintergrundmotive die gesellschaftlichen Subjekte in einer spezifischen historischen Situation dazu bringen, der Passivität statt der Aktivität den Vorzug zu geben. Mit dieser Formulierung gewinnt das Thema konkrete Konturen. Die Rolle der technischen Instrumente, wenngleich für unsere Argumentation durchaus wichtig, büßt die ihnen in der Regel zugedachte absolute Vorrangstellung ein. Zumindest ansatzweise wird die Tendenz eines technologischen Determinismus eingeschränkt, pauschal einer einzelnen Technologie die Verantwortung für hoch komplexe gesellschaftliche (und sogar politische) Phänomene im Guten wie im Schlechten zuzuschieben. Ich beziehe mich auf jene Theorien, die von der kategorischen Bipolarität eines völlig passiven Fernsehens und eines völlig aktiven Teleputers ausgehen und die schematisch dem Fernsehen einen undemokratischen und dem Teleputer einen demokratischen Charakter zuschreiben – recht voreilige und aus bestimmter Sicht kontraintuitive theoretische Annahmen, denen ich mich jetzt zuwende.

06

Vgl. die klassische Erörterung von H. Arendt ( 1959 ) über das Dilemma vita activa oder vita contemplativa.

29

Digitale Welt und Gestaltung

Es fällt mir nicht schwer, zuzugeben, dass die Fernseherfahrung aus den bereits erwähnten Gründen durch starke Passivität gekennzeichnet ist. In den USA wird der treffende Ausdruck couch potato verwendet, um das Verhalten eines Fernsehsüchtigen im Zustand nahezu absoluter körperlicher und geistiger Hingabe zu fassen: wie eine Kartoffel im Sessel versunken und pausenlos medialen Schrott schluckend. Hier stellt sich die Frage: Sind wir sicher, dass der Teleputer ein wesentlich anderes Verhalten fördern wird ? Sind wir sicher, dass sich unsere Beziehung mit dem Teleputer nicht letztendlich als eine neue Variante der couch potato entpuppt ? Alles weist darauf hin, dass es durchaus dazu kommen kann. Es besteht die Gefahr, dass man von einem « Sofapassivismus » gegenüber dem Fernseher zu einem ebensolchen « Sofaaktivismus » gegenüber dem Teleputer wechselt. Unser fiebriger Nomadismus beim Netzsurfen wird nicht, wie man uns glauben machen will, unsere kontemplative Trägheit schwächen, unsere Neigung, vor dem Bildschirm auszuharren, sondern im Gegenteil noch verstärken. Dennoch wäre es verfehlt, einige Unterschiede zu verkennen. Zwar ist die körperliche Tätigkeit in beiden Situationen relativ gering, doch in der Praxis manifestiert sie sich in verschiedenen Formen. Während sich beim Fernsehzuschauer die körperliche Betätigung in engem Rahmen bewegt, insofern sie sich nahezu ausschließlich auf den bloßen Gebrauch der Fernbedienung (und gelegentlich des Telefons) beschränkt, wird beim Nutzer des Teleputers der Körper intensiver einbezogen, insofern er fortwährend mit Hilfe der Tastatur oder anderer Inputgeräte interagieren muss. Bei aller gebotenen Vorsicht wäre es angebrachter, von einem weniger passiven Einbezug des Körpers zu sprechen. Auf der anderen Seite kann sich diese Situation an dem allem Anschein nach nicht fernen Tag ändern, an dem die Befehle an den Teleputer mit der Stimme eingegeben werden. Es besteht aber noch ein weiterer, möglicherweise wichtigerer Unterschied, und zwar hinsichtlich der – sagen wir – psychischen Inanspruchnahme. Während der Entscheidungsspielraum des Fernsehzuschauers wegen des vorbestimmten Charakters des Programms begrenzt ist, scheint er beim Nutzer des Teleputers unbegrenzt zu sein. Mit anderen Worten: Während die Navigationsmöglichkeiten im ersten Fall nicht vom Nutzer abhängen, da ihm die Handlungsverläufe von außen auferlegt (oder empfohlen) werden, hängen sie im zweiten Fall von ihm, und zwar ausschließlich von ihm ab. Die Eingriffsmöglichkeiten wären im ersten Fall endlich, im zweiten Fall unendlich. Dies mag zwar im Großen und Ganzen zutreffen, dennoch sind einige Präzisierungen nötig. Nehmen wir zum Beispiel die Kommunikation übers Internet;

30

Cyberspace – ein demokratischer Space ?

07

in diesem Fall kann der Nutzer frei entscheiden, mit welchen Personen er Kontakt aufnehmen oder mit welchen Themen er sich befassen will; und das aus dem einfachen Grund, weil – wie die Anbieter der Netzwerkdienste sagen – everyone and everything is on the net. 07 Man muss sich aber darüber im Klaren sein, was diese allseits hoch gepriesene Möglichkeit des freien Netzzugangs meint. Es handelt sich hier um einen Kernpunkt in der heutigen Diskussion über die Beziehung zwischen Information und Demokratie. Denn die Möglichkeit eines freien Zugangs zu Informationen ist die eine Sache, eine andere ist die Wahrscheinlichkeit, dass die Bürger davon auch Gebrauch machen können. Die Möglichkeit, mit everyone und everything Kontakt aufzunehmen, mag zwar technisch (und gesetzlich) gewährleistet sein, doch das bedeutet nicht, dass derlei auch wirklich geschieht, und zwar aus zwei Gründen: Zum einen birgt eine Welt durchgängigen Netzzugangs unvermeidlich das Problem der subjektiven Einschränkungen in sich, das heißt das Problem der Konditionanten, mit denen die Akteure selbst ihre eigenen Werte, Meinungen und Präferenzen in Einklang zu bringen suchen, ohne die damit auch verkoppelten Vorurteile auszuklammern. Man sucht nicht, ohne eine Vorstellung von dem zu haben, was man finden will und wo man es finden kann. Das impliziert, bestimmte Ziele und Suchpfade auszuwählen und demzufolge von anderen abzusehen.

08

Zum anderen gibt es das Problem der äußeren Einschränkungen unserer Freiheit. Wenn auch die, wie es Isaiah Berlin nennt, « negative Freiheit » 08 gewährleistet ist, also bei der Nutzung des Netzes die « Abwesenheit von Interferenz », so ist doch die Wahrscheinlichkeit sehr gering, von dieser Freiheit auch Gebrauch machen zu können. Die darauf von Berlin gegebene Antwort ist meiner Ansicht nach recht aufschlussreich: Die Freiheit, eine Weltreise zu unternehmen, ist – zumindest in den demokratischen Ländern – allen Bürgern formell zugesichert. Doch bevor man sich auf diese Reise begeben kann, sind einige Vorbedingungen zu erfüllen, was hingegen nur wenigen gelingt, zum Beispiel: die hohen Kosten des Vorhabens zu bestreiten und über die erforderliche Freizeit zu verfügen, um ein solches Vorhaben realisieren zu können. Somit handelt es sich bei der Freiheit, über das Netz everyone und everything zu erreichen, um eine illusorische Freiheit. Weiterhin ist es eine illusorische Annahme, dass diese Freiheit aus sich heraus eine Art privilegierten Zugangs zu einer globalen demokratischen Partizipation bietet.

07

Vgl. W. R. Johnson ( 1991, S. 150 – 175 ).

08

I. Berlin ( 1969, S. 122 ). Vgl G. W. F. Hegel ( 1965, S. 413 ).

31

Digitale Welt und Gestaltung

Dieses Thema wird am besten eigenständig diskutiert, obwohl es im oben behandelten Punkt inbegriffen ist; denn es geht um eine Frage, der vor allem in jüngster Zeit eine immer größere Bedeutung beigemessen wird. Ich meine die mögliche Rolle der telematischen Netze im Kontext der institutionellen (und nicht institutionellen) Praktiken des politischen Lebens. Man hat es mit einer Gesellschaft zu tun, in der die gesellschaftlichen Subjekte politisch unter dem Einsatz telematischer Netze agieren (und interagieren). Dieses Konzept liegt besonders all denen am Herzen, die in der so genannten elektronischen Republik erstmals in der Geschichte die Gelegenheit sehen, eine « wahre Demokratie » zu verwirklichen. Das anvisierte Szenario besteht demnach aus einer Demokratie ohne Delegieren, ohne die Willkür der Vermittler, die, wenngleich demokratisch gewählt, sich in der Regel der Kontrolle der Wähler entziehen.

09

Man würde auf diese Weise die Agora Athens, diesmal in elektronischer Form, erneut errichten. 09 Es würde sich aber um eine Agora handeln, die nicht auf einen geografisch begrenzten Ort wie das Athen des Perikles – den Stadtstaat – beschränkt wäre, sondern um einen Ort ohne räumliche Grenzen, sozusagen um einen ortlosen Ort. In diesem Zusammenhang spricht man, auf den Spuren von McLuhan, vom « globalen Dorf », dem riesigen Territorium, in dem die Bürger zum ersten Mal ohne Rhetorik (oder nahezu ohne Rhetorik) als wahre «Weltbürger » betrachtet werden können. Die sozialen Akteure wären dank der Technik in die Lage versetzt, weltweit interaktiven Zugang zu allen Informations- und Entscheidungsprozessen sowohl auf der Ebene eines Stadtviertels als auch auf nationaler und internationaler Ebene zu haben. Wir haben soeben gesehen, wie brüchig dieses Szenario ist. Wir greifen nun das Thema wieder auf, um die Hauptargumente seiner Fürsprecher aus der Nähe zu betrachten. Im Rahmen dieser Argumente wird gewöhnlich einer neuen Beziehung ein großer Stellenwert beigemessen, die sich durch das Netzwerk zwischen den Personen ergäbe; theoretisch könnten alle mit allen reden. Schlagartig würden die einschränkenden Attribute der Nationalität, der Rasse, des Geschlechts und der Religion ihre Geltung einbüßen. Auf diese

09

Zur griechischen Demokratie vgl. Th. A. Sinclair ( 1951 ), Ch. Meier ( 1983 ), L. Canfora ( 1989 ), N. Matteucci ( 1989 ), D. Stockton ( 1990 ), S. Hornblower ( 1992 ), C. Farrar ( 1992 ), D. Musti ( 1995 ). Zur griechischen Idee der Demokratie in der modernen und gegenwärtigen Ära vgl. R. Dahl ( 1989 ) und J. Dunn ( 1992 ). Zu ihrer Präsenz in der derzeitige Debatte über die « elektronische Demokratie » vgl. L. K. Grossman ( 1995 ).

32

Cyberspace – ein demokratischer Space ?

Weise würden die Bedingungen für das Entstehen einer Kultur geschaffen, die unter den Menschen die Faktoren der Konvergenz statt der Divergenz betont. Somit würden sich viele Vorurteile in nichts auf lösen. Es würde einer globalen, auf Toleranz und Verstehen gegründeten Gesellschaft Leben eingehaucht werden. Weiterhin würde die allen gebotene Möglichkeit, mit allen anderen zu kommunizieren, die Entstehung « virtueller Gemeinschaften » fördern.

Die virtuelle Gemeinschaft 10

11

Um was geht es bei einer virtuellen Gemeinschaft ?1 0 Ist es gerechtfertigt, wie es durchweg geschieht, in ihr einen wichtigen Faktor demokratischer Erneuerung zu sehen ? Wie verträgt sich die Vorstellung einer virtuellen Gemeinschaft, die sich auf Vereinzelung gründet, mit der Vorstellung des globalen Dorfes, die auf Universalisierung abzielt ? Und falls das globale Dorf nichts weiter als eine sozusagen erweiterte virtuelle Gemeinschaft ist, eine Art planetarische virtuelle Gemeinschaft, wie vollzieht sich dann der Sprung von einer Ebene auf eine andere Ebene ? Untersucht man die Entstehungsprozesse netzwerkbasierter virtueller Gemeinschaften, sticht eine Eigenschaft hervor. In der Regel entstehen diese Gemeinschaften durch die Kontaktsuche zwischen Individuen oder Gruppen mit gleichen Ideen, Interessen oder Präferenzen. 11 Das Entstehen der Netzwerke hat zwar eine interaktive egalitäre Austauschbeziehung (peer-to-peer) ermöglicht,

10

In letzter Zeit haben Verfechter des Cyberspace viele Versuche unternommen, den Begriff « virtuelle Gemeinschaft » zu definieren. Der am ausführlichsten dokumentierte und undogmatischste Vorschlag stammt von H. Reingold ( 1993 ).

11

Das bedeutet nicht, dass zum Beispiel die Besitzer von Rassehunden in einer virtuellen Gemeinschaft notwendigerweise die gleichen Ideen, Interessen oder Präferenzen hinsichtlich von Fragen teilen, die nicht direkt mit dem Halten von Rassehunden zu tun haben, sondern die darüber hinausgehen. Man könnte einwenden, dass diese unterschiedlichen Werte nicht ohne Einfluss auf die Art und Weise bleiben, wie jedes Mitglied der Gemeinschaft die eigene Verpflichtung zum Halten von Rassehunden versteht. Wahrscheinlich ist es auch so, wie man sich leicht vorstellen kann, wenn man an die unterschiedliche Einstellung gegenüber Rassehunden denkt, wie sie ein Tiermaler oder ein leidenschaftlicher Liebhaber von Hundewettbewerben hegen kann. Doch diese sicherlich in anderen Bereichen der Reflexion wichtigen Nuancen ändern nicht grundsätzlich die Tatsache, dass die virtuellen Gemeinschaften als Gemeinschaften von Ähnlichen – nicht von Identischen – betrachtet werden müssen.

33

Digitale Welt und Gestaltung

12

13

14

doch gleichzeitig hat es ambivalente Wirkungen gezeitigt. Das peer-to-peer im technischen Sinn, verstanden als eine Maßnahme, die in einer Netzwerkarchitektur die Kommunikation auf gleicher Ebene erlaubt, hat eine nicht technische Bedeutung angenommen, und zwar die einer Beziehung, die zwischen kulturell und gesellschaftlich gleichen Nutzern auf kommt. 12 Anders formuliert: zwischen Gesinnungsgenossen, die einen Kontakt und eventuell ein Gefühl des Heimischseins oder die Zusammenarbeit unter Ähnlichen suchen. Aus diesem Grund bilden sich die virtuellen Gemeinschaften als Treffpunkte (oder Zuf luchtstätten ?), in denen vor allem Wahlverwandtschaften gepf legt werden. 13 Ich hege arge Zweifel daran, dass diese Kommunikationsart eine substanzielle Bereicherung des demokratischen Lebens hergibt. Die virtuellen Gemeinschaften als Gruppierungen, die aus freiem und spontanem Zusammenschluss von Personen mit übereinstimmenden Ansichten entstehen, besitzen nur eine schwache innere Dynamik. Wegen ihres hohen Grades an Homogenität tendieren sie zu ausgeprägter Selbstbezüglichkeit. Nicht von ungefähr verhalten sie sich wie wahre Sekten, in denen das übersteigerte Zugehörigkeitsgefühl dazu führt, dass praktisch jeglicher Meinungsunterschied bei den Mitgliedern ausgeschlossen wird. Dieses Phänomen wurde von A. Tocqueville in seiner schneidenden Analyse des demokratischen Lebens in den USA erkannt. Er schreibt: «Die Amerikaner teilen sich dagegen mit großer Sorgfalt in kleine Gemeinschaften sehr unterschiedlichen Charakters, um getrennt die Freuden des Privatlebens zu genießen. Jeder von ihnen sieht mit großem Gefallen seine Mitbürger als seinesgleichen an … ich glaube, dass sie [die Bürger der neuen Gesellschaften] damit enden werden, kleine Gruppen zu bilden statt zusammenzuleben.» 14

12

13

Zum Thema peer-to-peer vgl. G. Gilder ( 1994 ).

Einige Autoren glauben, in der gegenwärtigen Tendenz zur Gruppierung um ein Thema ein ähnliches Phänomen zu sehen wie das Scharen um ein Totem. Zum Neotribalismus vgl. M. Maffesoli. Es fehlt aber nicht an Deutungsunterschieden in Bezug auf die Entstehungsdynamik solchen Scharens. Z. Bauman ( 1993, S. 242, italienische Ausgabe ) behauptet: «Die postmodernen Stämme verdanken ihre Existenz der Explosion der Gesellschaftlichkeit: Das gemeinsame Handeln leitet sich nicht aus gemeinsam geteilten Interessen her; vielmehr erzeugt es diese.» Ob die gemeinsame Handlung aus vorgängig geteilten Interessen erfolgt – wie ich neige anzunehmen – oder aus Interessen, die während der Entfaltung der Handlung selbst entstehen – wie Bauman behauptet –, ändert nicht substanziell den Charakter des Phänomens.

14

34

A. de Tocqueville ( 1981, Bd. II S. 267 und 268 ).

Cyberspace – ein demokratischer Space ?

15

16

Diese kleinen Gruppen gehören zur Kategorie der Gruppierungen, die ich als schwach definieren würde. Stark dagegen sind meiner Ansicht nach Gruppierungen, die in ihrem Innern vom Ideen- und Erfahrungsaustausch der Andersdenkenden zu profitieren vermögen, also im Unterschied zu den virtuellen Gemeinschaften jene Gruppierungen, die sich, wie S. L. Talbott hervorgehoben hat, an der Verschiedenheit und nicht bloß an der Ähnlichkeit ihrer Mitglieder messen. 15 Diese Beobachtung ist besonders wichtig, weil man nur durch die entschiedene Gegenüberstellung von divergierenden oder sogar offen konf ligierenden Positionen zur Stärkung demokratischen Handelns beisteuern kann. Das aber trifft bei den virtuellen Gemeinschaften nicht zu, die in der Regel eine derartig artikulierte Konfrontation nicht fördern. Das bedeutet wohlverstanden nicht, dass ihre Mitglieder unsensibel gegenüber demokratischen Werten seien. Viele virtuelle Gemeinschaften sind – wie H. Rheingold anhand zahlreicher Beispiele gezeigt hat – als anerkennenswerte Solidaritätsinitiativen mit hilfsbedürftigen Personen entstanden. 16 Das Thema der virtuellen Gemeinschaften beinhaltet darüber hinaus auch andere Aspekte, denen ich mich nun zuwenden möchte. Der wichtigste Punkt betrifft die historischen und soziokulturellen Wurzeln. Mir will scheinen, dass die virtuellen Gemeinschaften nicht aus der Verbreitung des Computers und der Netzwerke hervorgegangen sind – wie die Verehrer eines naiven technologischen Determinismus uns glauben machen möchten –, sondern das Ergebnis eines komplexen geschichtlichen Prozesses sind. Anders formuliert: Sie haben eine Genealogie. Dafür spricht meiner Ansicht nach die Tatsache, dass die virtuellen Gemeinschaften wegen der Werte, auf die sie sich berufen – Werte mit starkem populistischem und libertärem Einschlag –, eine Ähnlichkeit mit anderen Gemeinschaftsformen der Vergangenheit aufweisen. Die in beiden Formen vorwiegende Grundeinstellung zeigt konsistente Analogien, wenn auch die heute benutzten technologischen Werkzeuge erheblich raffinierter als die früherer Zeiten sind. Mir erscheinen die virtuellen Gemeinschaften als eine den heutigen Verhältnissen angepasste Variante jener präindustriellen Gruppen, die in der Vergangenheit eine Stellvertreterrolle gegenüber einem sich formierendem oder noch verborgenem Staat ausgeübt haben. Zu diesen zähle ich die Gemeinschaften, die im 17. und 18. Jahrhundert eine entscheidende Rolle während der Gründungsphase der Vereinigten Staaten, aber auch anderer Staaten gespielt haben.

15

S. L. Talbott ( 1995, S. 75 ).

16

H. Rheingold (1993 ).

35

Digitale Welt und Gestaltung

17

18

19

Die Geschichtsschreibung dieses Landes spricht von der « großen Gemeinschaftstradition der Vereinigten Staaten », in der sich der gesellschaftliche Zusammenhalt überwiegend in der solidarischen Bindung recht kleiner Gruppen manifestierte. In dieser Tradition bildete die Eroberung der « Grenze » – eine äußerst suggestive Vorstellung – ein Leitbild für das Vorgehen der ersten Siedler als Mitglieder verschiedener Gruppen, die sich konkret mit einer feindlichen Umwelt auseinandersetzten, und nicht als Mitglieder einer Kollektivität – eine für sie allzu abstrakte Vorstellung. 17 Wie D. J. Boorstin 18 anhand vieler Beispiele in seinem Buch The Americans belegt hat, spielten die vor der Regierung bestehenden Gemeinschaften in der Geschichte der USA eine ungemein wichtige Rolle. Er schreibt: «Von Anbeginn existierten die Gemeinschaften, bevor sich die Regierungen bildeten, um sich der öffentlichen Bedürfnisse anzunehmen und den Bürgern ihre Pf lichten aufzuerlegen. Diese zeitliche Abfolge, die in den Gemeinschaften den Vorgänger der Regierungen sah, war in Europa unvorstellbar; in den USA dagegen war es die Regel.» Ein weiteres Merkmal dieser Gemeinschaften bestand in ihrem Nomadismus. Es handelte sich um Gruppierungen sozusagen ohne festen Bestand. Boorstin spricht von transient communities. Es ist aufschlussreich, dass dieselbe räumliche und zeitliche Autonomie als eines der herausragenden Merkmale der virtuellen Gemeinschaften betont wird. Diese wie auch andere Koinzidenzen stützen die Annahme, dass die Verkünder und Verbreiter der virtuellen Gemeinschaften nicht zufällig in der überwiegenden Mehrheit aus den USA stammen, einem Land, in dem die Gemeinschaftstradition weiterlebt und allgegenwärtig ist. 19 Damit möchte ich nicht etwa unterstellen, dass die virtuellen Gemeinschaften ein Phänomen darstellen, das nur im Kontext der amerikanischen Gemeinschaftstradition erklärt werden kann. Auf der anderen Seite ginge man an der Sache vorbei, wenn man nicht einen subtilen Einf luss dieser Tradition auf das hier untersuchte Thema berücksichtigen würde. Die Gemeinschaftstradition mit ihrer Zurück-

17

Zum Thema der « Grenze » und ihre Rolle für die Bildung kleiner Gemeinschaften vgl. F. J. Turner (1953 ). In der Einführung zur italienischen Ausgabe führt M. Calamandrei ein Zitat von W. P. Webb an: «Die Grenze ist nicht eine Linie, an der man anhalten muss, sondern ein Bereich mit der Einladung einzutreten.» Die Grenze ist mit anderen Worten ein grenzenloser Raum. Ein Raum allerdings, der durch die Handlungseffizienz kleiner Gemeinschaften und nicht etwa großer Gruppierungen zu erobern ist.

18

36

D. J. Boorstin (1965, S. 65 ).

Cyberspace – ein demokratischer Space ?

weisung des Staates (oder einfach der Regierung) und mit ihrem Vertrauen auf freie und spontane, von Einzelpersonen geschaffene Gruppierungen enthält die von den Förderern der virtuellen Gemeinschaften geteilte Vorstellung, dass die direkte Demokratie die einzige Form echter Demokratie sei.

Direkte oder indirekte Demokratie Es sei noch einmal daran erinnert, dass die Thematik der virtuellen Gemeinschaften nicht von der viel weiter reichenden Frage getrennt werden kann, die sich auf das anspruchsvolle Szenario einer telematischen Alternative zu unserem gegenwärtigen Demokratieverständnis (und zu unserer demokratischen Praxis) bezieht. Dieses Demokratieverständnis wird wohl oder übel in wesentlichen Zügen mit der repräsentativen, also parlamentarischen Vermittlung gleichgesetzt. Der Streit zwischen den Verfechtern der direkten Demokratie und den Vertretern der indirekten Demokratie bildet bekanntlich eine Konstante in der Geschichte des politischen Denkens. Im Grunde geht es um das Verständnis der Volkssouveränität. Während die großen modernen Nationen-Staaten entstanden sind, hat das Modell der direkten Demokratie aus praktisch-verwaltungstechnischen Gründen einen Großteil seiner Glaubwürdigkeit eingebüßt. Dieses Modell hat sich immer – wie bereits erwähnt – am Modell des griechischen Stadtstaates orientiert. Seine Impraktikabilität springt in die Augen, wenn man die Größenordnungen berücksichtigt: In der Antike zählte Attika – eine Region mit 2.500 Quadratkilometern Fläche – etwa 500.000 Einwohner. Durch den Quantensprung, der das Entstehen des Nationalstaats begleitete, hat man es heutzutage mit unvergleichbar anderen Grössenordnungen zu tun; man denke zum Beispiel an die USA mit 9.372.614 Quadratkilometern Ausdehnung und einer Bevölkerung von etwa 250.000.000 Einwohnern.

19

In diesem Zusammenhang möchte ich mit dem Ausdruck « Kommunitarismus » ein geschichtlich-kulturelles Phänomen bezeichnen, in dem die Gemeinschaft unter anderem als die verlässlichste Form sozialen Zusammenschlusses betrachtet wird. Im gleichen Zug möchte ich aber klarstellen, dass der hier verhandelte Kommunitarismus nicht mit dem Kommunitarismus zu verwechseln ist, wie er heute in der Moralphilosophie (A. MacIntyre, M. Sandel, M. Walzer und Ch. Taylor ) und in der Soziologie (R. Mangabeira Unger ) verstanden wird. Damit ist nicht gesagt, dass dieser Kommunitarismus mit seinem ständigen Appell an die « Gemeinschaftswerte » der anderen Form des hier erörterten Kommunitarismus völlig fremd wäre.

37

Digitale Welt und Gestaltung

20

21

Außerdem wissen wir, dass das Modell der direkten Demokratie, zumindest in der unter Perikles umgesetzten Form, stark idealisiert worden ist. Die griechische Demokratie war weniger direkt und sogar weniger demokratisch, als man sich über Jahrhunderte hin vorgestellt hat. Die jüngsten Beiträge einiger Forscher, vor allem des dänischen Wissenschaftlers M. H. Hansen, haben entscheidend zur Korrektur dieses Bildes beigetragen. 20 Es scheint nun immer klarer, dass die berühmte Definition der Demokratie von Perikles aus seiner von Thukydides zitierten Trauerrede nur programmatischen Charakter hatte. Seine Erzählung über die Verfassung Athens findet trotz der bemerkenswerten, zuerst von Aristides und später von Perikles selbst eingeführten Verbesserungen in der Wirklichkeit der Polis keine Entsprechung. Die Verfassung war Perikles zufolge so konzipiert, dass «die Bürgerrechte nicht nur wenigen Personen, sondern der Mehrheit zukommen… [Allen steht] auf der Ebene der Privatinteressen Gleichheit vor dem Gesetz zu, während auf der Ebene der öffentlichen Interessen in der Staatsverwaltung jeder entsprechend seiner Bedeutung in einem bestimmten Bereich vorgezogen wird, nicht auf Grund seiner Klassenherkunft, sondern eher auf Grund dessen, was er wert ist.» 21 Eine kurze Analyse der Verfassung, wie sie von Aristoteles oder – einigen Autoren zufolge – von einem Pseudo-Aristoteles beschrieben worden ist, möge genügen, sich darüber klar zu werden, wie weit die Wirklichkeit der Polis von der von Perikles geforderten Demokratievorstellung entfernt war. Die Verfassung erscheint als eine Megamaschine, in der die direkte Teilnahme der Bürger stark von einer Reihe von Vermittlungs- und Kontrollinstanzen bedingt ist. Die zwei idealen Bezugspunkte von Aristides und Perikles, Isonomie (Gleichheit vor dem Gesetz) und Isegorie (Meinungsfreiheit), erscheinen beschnitten und verfälscht zu sein.

22

38

Wenngleich es stimmt, dass in einigen Punkten die direkte Teilnahme der Bürger garantiert war, muss doch angemerkt werden, dass diese Rechte ausschließlich denen zustanden, die als Bürger anerkannt waren, das heißt der Minderheit der erwachsenen Männer, die nur 15 Prozent der Bewohner Attikas ausmachte. Dagegen war der Rest der Bevölkerung (Sklaven, Frauen, Metöken) von der Teilnahme am öffentlichen Leben ausgeschlossen. 22

20

M. H. Hansen ( 1985, 1987 und 1991 ).

21

Thukydides ( 1985, I, S. 325 ).

Cyberspace – ein demokratischer Space ?

All dies hat aber nicht verhindert, dass die Idealisierung der Demokratie in Athen – als Archetyp der direkten Demokratie verstanden – von den Theoretikern des Cyberspace erneut anempfohlen wurde: Sie waren mit Sorge darauf bedacht, die Netzdemokratie historisch zu legitimieren. Diese Tendenz, das hellenische Demokratiemodell in der Spielart des Cyberspace zu mythologisieren, ist in den USA selbst weit verbreitet, was nicht verwundern dürfte. Schließlich hat Thomas Jefferson, einer der Gründungsväter der amerikanischen Nation, eine Demokratie vorgeschlagen, die sich auf die direkte griechische Demokratie berief.

23

Die Theoretiker des Cyberspace gelangen über Jefferson zu Perikles. Und umgekehrt. Das führt zu einer Art doppelter Idealisierung: auf der einen Seite zur Idealisierung der direkten Demokratie von Perikles, auf der anderen Seite zur Idealisierung der Jefferson’schen Demokratie. Es sei aber hervorgehoben, dass nicht nur die Tragweite des griechischen Modells entscheidend relativiert wurde, sondern auch das Modell von Jefferson, dessen Mehrdeutigkeiten und Widersprüche oftmals aufgezeigt werden. 23 Auch wenn man diese historischen Wertungen beiseitelässt, steht fest, dass Jefferson von den Cyberspaceaktivisten oft als eine Art Held avant la lettre der telematischen Demokratie gefeiert wird. Aus dieser Sicht wird eine « Rückkehr zu Jefferson » proklamiert, was nichts anderes bedeutet, als das vermeintlich populistisch-libertäre Evangelium von Jefferson wieder auf leben zu lassen, seine Vision

22

Wenn man den demokratischen Charakter der griechischen Gesellschaft in Zweifel ziehen will, wird häufig das Argument angeführt, dass es sich alles in allem um eine Gesellschaft handelte, in der die Freiheit und die Teilnahme der Bürger dadurch garantiert waren, dass sie dank der massiven Ausbeutung der Sklaven von der Arbeitsverpflichtung enthoben waren. Das stimmt nur zum Teil. Dieses interpretative Stereotyp hat oft dazu gedient, einen ebenso wichtigen Tatbestand zu verhüllen: dass in der griechischen Gesellschaft nicht nur die Sklaven arbeiteten, wie man glauben machen will, sondern auch Bürger und Handwerker, denen Bürgerrechte konzediert waren. Diese Arbeitsbedingungen unterschieden sich durchgängig nicht wesentlich von denen der Sklaven. Zu diesem Thema vgl. E. Meiksins Wood ( 1988 ) und K. Polyani ( 1977 ).

23

In der gegenwärtigen Diskussion über den Beitrag des Cyberspace zur Verwirklichung einer direkten Demokratie finden sich häufig Kritiken an der Tradition Jeffersons. Vgl. dazu M. Surman ( 1994 ) und R. Barbrook und A. Cameron ( 1996 ). Im Essay der beiden zuletzt genannten Autoren ( britische Forscher der University of Westminster ) ist eine demystifizierende Haltung zur geschichtlichen Figur Jeffersons vorherrschend. Das gilt auch für die Tendenz, aus ihm einen großen Vorläufer des politischen Programms des Cyberspace zu machen.

39

Digitale Welt und Gestaltung

24

25

26

einer direkten und dezentralisierten Demokratie, in der die Vermittlerrolle der Regierung und des Parlaments auf ein Minimum eingeschränkt wäre. 24 In der Epoche Jeffersons kam ein derart anspruchsvoller Entwurf faktisch einer Utopie gleich. Dazu trug unter anderem auch die Armseligkeit der damals verfügbaren Kommunikationstechnologien bei. Doch heute hätte sich – so wird behauptet – die Lage dank der Entwicklung digitaler Telekommunikation radikal geändert. Die neuen Informationstechnologien könnten nun, zumindest theoretisch, die effektive Verwirklichung des alten Traums der direkten Demokratie ermöglichen. Für die Propheten des Cyberspace könnten die Netzwerke die Tradition Jeffersons auf konkreter Basis erneut auf leben lassen – eine Tradition, die verkümmert, aber niemals ganz verschwunden ist; eine Tradition, die dem « amerikanischen Bild der Demokratie » entspricht, die ihrerseits mit der oben erwähnten « großen amerikanischen Gemeinschaftstradition » verkoppelt ist. 25 Im Programm der Electronic Frontier Foundation (EFF) schreiben D. Burstein und D. Kline: «EFF hat einen ‹ jeffersonschen › Ansatz zum Cyberspace betont. Für die Leader der EFF bedeutet das, einen starken Nachdruck auf die Verteidigung der Meinungsfreiheit und des Schutzes der Privatperson gegenüber … den Unternehmen und der Regierung zu legen und allgemein zu verhindern, dass die Regierung zur Polizei der Datenautobahn wird.» 26

24

Jefferson betrachtete in der Tradition von Locke das Prinzip der Zentralität des Volkes und des einzelnen Bürgers als unantastbar. Er widersetzte sich der Position jener, die wie Hamilton und Madison die Macht der Mehrheit beschneiden wollten. Während Jefferson eine populistische, direkte und antistaatliche Demokratie theoretisch ausarbeitete, gaben Hamilton und Madison einer Republik den Vorzug, in der die Rolle der Minderheiten und der repräsentativen Vermittlung gepriesen wurde. Heute weiß man, dass es sich um eine konventionelle Version der zwei Denkströmungen handelte. Zwischen dem Populismus von Jefferson und dem Elitismus von Hamilton und Madison kam es zu gegenseitigen Konzessionen, die den Grundpfeiler der « hybriden » Natur der amerikanischen Demokratie bilden. Vgl. R. Dahl ( 1956 und 1984 ).

25

W. Lippman ( 1921 ).

26

D. Burstein und D. Kline ( 1995, S. 337 ). Einer der Gründer der EFF, M. Kapor, schreibt: «Das Leben im Cyberspace scheint sich genau so zu entwickeln, wie es Thomas Jefferson gewollt hätte: Gegründet auf dem Primat der individuellen Freiheit und der Verpflichtung zu Pluralismus, Diversität und der Gemeinschaft gegenüber.»

40

Cyberspace – ein demokratischer Space ?

Mit solcherart allgemein gehaltenen programmatischen Ansprüchen, die zudem von einem veritablen Demokratieverständnis getragen werden, kann man schwerlich nicht einverstanden sein. Schwierigkeiten entstehen jedoch, wenn man sich auf die Ebene der Details begibt. Wenn wir zugeben, dass die Netzwerke « offen » sind, können wir uns dann in Sicherheit wiegen, immer und überall die « Wächter » neutralisieren zu können ? Wer sind übrigens diese Wächter ? Müssen wir vielleicht die Wächterrolle nur und ausschließlich den Personen anvertrauen, die direkt von den Unternehmen und von der Regierung kommen und die obendrein explizit dazu beitragen, unsere Meinungsfreiheit zu beschneiden und in unsere Privatsphäre einzudringen ? Wäre es nicht realistischer, zuzugeben, dass es neben dieser Art von Wächtern noch eine weitere Art von Wächtern gibt, fein verwoben mit der zuerst erwähnten Kategorie, die in nicht geringerem Ausmaß unsere Freiheit und Privatsphäre bedingt, und zwar implizit und nicht explizit ? Die Agenturen der Sozialisierung und Akkulturation in Form von Familie, Schule, Kirchen, Parteien, Gewerkschaften, Vereinigungen und nicht zuletzt der Massenmedien – erfüllen sie nicht auch eine Rolle von, um bei der Terminologie zu bleiben, Wächtern, also eine Rolle der indirekten Beschattung unseres Verhaltens ? Wird nicht soziale Kontrolle ebenso durch Werte, Präferenzen, Wünsche, Geschmack und Vorurteile gesteuert, die von diesen gesellschaftlichen Agenturen Punkt für Punkt eingeprägt werden ? Diese Fragen führen zu einem Kernthema, und zwar zur Frage der beiden Wächtertypen. Denn wenn wir uneingeschränkt die These akzeptieren, dass die zu bekämpfenden Wächter nur zur ersten Kategorie der leicht auszumachenden Wächter, der sichtbaren Wächter – Unternehmen und Regierung – gehören, dann würde man einfach glauben, dass zur Sicherung unserer Meinungsfreiheit und zum Schutz unserer Privatsphäre nur wenige Maßnahmen oder technische und legislative Verfahren genügen würden, um diesen Typ von Wächtern zu neutralisieren. Damit möchte ich nicht die Bedeutung solcher Maßnahmen mindern, sondern nur einer allzu simplifizierenden Version der untersuchten Phänomene vorbeugen. Eine differenziertere Version müsste zumindest in gleichem Maße die unsichtbaren Wächter oder, wenn man will, die weniger sichtbaren Wächter berücksichtigen. Kurz gefasst: Wächter gegenüber den anderen, als die wir selbst fungieren – als durchweg unbewusste Komplizen eines durchgängigen Systems gegenseitiger Überwachung. Einer Überwachung, die sich entweder in unserer Tendenz zur Selbstzensur oder in unserer Tendenz zur Fremdzensur ausdrückt, wenn die Zensierten sich mit Werten identifizieren, die wir nicht teilen.

41

Digitale Welt und Gestaltung

Das Netz ohne Zentrum

27

An diesem Punkt stoßen wir auf ein Thema, das unter den vielen im Bereich des Cyberspace geführten Debatten wohl den reichsten Stoff zum Nachdenken bietet. Mit recht überzeugenden Vorannahmen behaupten seine Theoretiker, dass die telematischen Netzwerke wegen ihres interaktiven Charakters die Existenz eines Brennpunktes, eines Kontrollzentrums ausschließen, von dem nach herkömmlichem hierarchischen Muster Botschaften an eine passive, träge und blinde Peripherie gesendet werden. Das Argument ist bekannt: Im Netz sei alles Zentrum und alles Peripherie. Es gäbe also keine privilegierte Position, von der aus man eine totale Verwaltung der Kommunikationsf lüsse implementieren könnte. 27 Auf den ersten Blick mag da ein Korn Wahrheit enthalten sein. Doch wenn man diese Teilwahrheit zu einer absoluten, aus jedem Zusammenhang gerissenen Wahrheit auf bläht, dann kann man sich schwerlich einer gewissen Skepsis entziehen. Mit aller gebotenen Vorsicht mag allgemein die Behauptung gerechtfertigt sein, dass es im Netz kein Zentrum gibt, nicht aber die, dass im Netz prinzipiell die Existenz jeglicher Kontrolle über die Nutzer auszuschließen ist. Es besteht der Verdacht, ja die Gewissheit, dass es im Netz einige von den traditionellen erheblich abweichende Formen der Kontrolle gibt.

28

Wenn man vom Verschwinden des Zentrums im Netz spricht, greift man in der Regel auf die Metaphern des Panoptikums und des Großen Bruders zurück. Letzthin wird behauptet, dass die Entstehung des Netzwerks dazu beiträgt, uns endgültig der in diesen Metaphern angesprochenen Zentralmacht zu entwinden.28

27

Vgl. die scharfsinnige Darstellung von B. Latour ( 1991 ) über die Beziehung lokal zu global in den « technischen Netzwerken ».

28

Die Theorie, der zufolge das Entstehen des Netzwerks das Ende der zentralen Kontrollinstanz besiegelt, erinnert stark an die Hypothese von J. Baudrillard über « das Ende des panoptischen Systems ». Bei der Darlegung seiner Vorstellungen über die socialité hiperrealiste ( où le réel se confond avec le modèle ) schreibt Baudrillard: «So gibt es nicht mehr eine Machtinstanz, eine Sendeinstanz – Macht ist etwas, das zirkuliert, dessen Quelle man nicht mehr ausmacht, ein Zyklus, in dem die Positionen des Herrschenden und des Beherrschten in einer Umkehrung ohne Ende ausgetauscht werden, die auch das Ende der Macht in ihrer klassischen Definition ist» ( 1981, S. 52, Fußnote 7 ). T. Eagleton hat sich mit aller Schärfe gegen diese These Baudrillards gewendet: «Der ‹ linke › Zynismus eines Baudrillard macht sich zum beschämenden Komplizen dessen, was das System glauben machen will: dass nun alles ‹ von selbst funktioniert ›, unabhängig von der Art und ≥

42

Cyberspace – ein demokratischer Space ?

29

Mir scheint es im Rahmen meiner Analyse angebracht, einen Augenblick bei diesen so oft gebrauchten (und missbrauchten) Metaphern zu verweilen. Zunächst gehe ich auf das Panoptikum ein. 29 Das Panoptikum ist ein Modell eines Gefängnisbaus, das eben wegen seiner Eigenschaften sicher weit über den Versuch hinausgeht, eine optimale Lösung für die Überwachung der Gefängnisinsassen zu finden. Das Panoptikum ist in der Tat eine Metapher der absoluten Macht, das heißt einer Macht, die von einem Zentralpunkt aus die nahtlose Überwachung von allen und allem ausüben kann. Hier seien die wichtigsten (physischen) Eigenschaften von Benthams Panoptikum kurz illustriert. Auch wenn sie bekannt sind, so hoffe ich doch, dass sie uns dabei helfen können, neue Bewertungskriterien für die Anti-Panoptikums-These der Theoretiker des Cyberspace zu finden. Bentham beschreibt das Panoptikum in folgender Weise: Die Wohnung des Wärters oder Gefängnisaufsehers (inspector lodge) ist im Zentrum des kreisförmigen Gebäudes gelegen; die Zellen der Gefängnisinsassen sind wie ein Ring innerhalb der äußeren Begrenzungsmauer angeordnet und radial auf das Zentrum hin ausgerichtet. Ein sehr wichtiges Detail: Die Fenster des Raumes sind mit Rollladen versehen, so dass die Gefängnisinsassen nicht wissen können, ob der Aufseher in einem bestimmten Augenblick anwesend ist oder nicht. Die über den Gefängnisinsassen ausgeübte Kontrolle ist also gleichzeitig real und virtuell. Sie ist real, insofern er sich unter Aufsicht fühlt und sich dementsprechend verhält, aber sie ist virtuell, insofern der Aufseher vielleicht gerade nicht auf seinem Kontrollposten verharrt, auch wenn der Beaufsichtigte das niemals mit voller Sicherheit wissen kann.

Weise, in der die gesellschaftlichen Fragen von der Erfahrung der Bevölkerungsmehrheit geprägt und definiert werden.» Was die Metapher des Großen Bruders angeht, möchte ich als Beispiel aus einer Herausgebernotiz der Zeitschrift The Economist zitieren: «Die Vervielfältigung der Kommunikationskanäle wird das Gegenstück zu einer orwellschen Welt bilden, in der Sie der Große Bruder beobachtet ... Angesichts der Informationsflut, die sich durch die Drähte, Kabel und Wellen ergießt, wird es dem Großen Bruder unmöglich sein, Sie im Blick zu behalten.»

29

Die Vorstellung des Panoptikums wurde bekanntlich von J. Bentham in einer Reihe von Briefen entwickelt, genau genommen in einundzwanzig Briefen, die er seit 1786 aus Russland an einen Freund in England richtete und die dann zusammen mit zwei später über dasselbe Thema verfassten Ergänzungsbänden in einem Sammel Band 1791 veröffentlicht wurden. Es handelt sich um ein Modell der Gefängnis- ( oder Strafanstalts- )Architektur, das von Bentham in Zusammenarbeit mit seinem Bruder Samuel J. Bentham ( Buchverweis 1971 ) entworfen worden ist.

43

Digitale Welt und Gestaltung

30

31

32 33

Um eine fast banale Analogie zu benutzen, würde ich sagen, dass diese Kontrollvorrichtung des Panoptikums ganz stark dem Schild « Vorsicht, bissiger Hund!» ähnelt, wie es an einigen Gartenzäunen ausgehängt ist. Ob es da einen Hund gibt oder nicht, ändert nichts an der Abschreckungsfunktion des Schildes gegenüber eventuellen Eindringlingen. Im Panoptikum finden wir denselben Trick, eine technische Ressource, mittels derer das Reale und das Virtuelle wechselseitig ausgetauscht werden können. Für Bentham ist das der Kern seines Entwurfs. Alles dreht sich darum, dass man « sehen kann, ohne gesehen zu werden » (seeing without being seen), was eine « anscheinende Allgegenwärtigkeit des Aufsehers » (apparent omnipresence of the inspector) erlaubt, doch ohne dass dies die extreme facility of his real presence verhindert. 30 Zu einer ähnlichen Interpretation des benthamschen Panoptikums hat 1975 vor allem M. Foucault beigetragen. 31 Es sei allerdings daran erinnert, dass es zur gleichen Zeit (und vielleicht früher) einen wichtigen Text des lacanschen Psychoanalytikers J.- A. Miller über dieses Thema gab, der wie Foucault den visuellen Aspekt – im weitesten Sinn des Beobachtbaren – hervorhob: die Beziehung zwischen Aufseher und Beaufsichtigtem. 32 Dies ist der wesentliche Aspekt bei Benham und gleichermaßen wichtig für das hier erörterte Thema. 33 Die Metapher des Großen Bruders weicht nicht sonderlich von der Bedeutung des Begriffs Panoptikum ab. Beide beziehen sich auf eine zentrale Verfügungsgewalt. Großer Bruder ist bekanntlich die Anrede der Romanfigur in dem Buch 1984 von George Orwell (1949). In dem Roman übt der Große Bruder eine allgegenwärtige und grausame Macht in einer Gesellschaft aus, die nach seinem Bild geschaffen ist,

30

M. Božoviˇc ( 1995 ), gestützt auf die Arbeit von C. K. Ogden ( 1932 ), hat kürzlich zeigen können, inwieweit die Beziehung real–virtuell im Panoptikum auf das « Fragment on Ontolology » zurückzuführen ist, ein fesselnder philosophischer Text von Bentham selbst, in dem eine systematische Theorie der fictitious entities entwickelt wird.

31

M. Foucault ( 1975 ).

32

J.-A. Miller ( 1975 ).

33

Siehe M. Jay ( 1993 ). In der Regel wird die Metapher des Panoptikums im Zusammenhang mit einem allgemeinen Diskurs über die Macht verwendet, aber auch wenn es um konkrete Situationen geht, zum Beispiel das Problem der Kontrolle und Aufsicht an Arbeitsplätzen. Vgl. S. Zuboff ( 1988 ), A. F. Westin ( 1992 ), G. T. Marx ( 1992 ), M. Levy ( 1994 ) und D. Lyon ( 1994 ). Zu einem anderen Gesichtspunkt vgl. auch R. Spears und M. Lea ( 1995 ).

44

Cyberspace – ein demokratischer Space ?

34

eine Macht, mittels derer alle Personen durch Techniken, die wir heute « multimedial » nennen würden, einer totalen Kontrolle unterworfen sind. 34 Wie wir bereits erwähnt haben, sind einige der äußerst unbekümmerten Exponenten des Cyberspace davon überzeugt, dass mit dem Auftreten des Netzwerks praktisch keine Art der Überwachung mehr möglich sei. Sie sehen auch mit geradezu entwaffnender Anmaßung das Ende aller Formen der Überwachung voraus. In einem derartigen Szenario kann niemand die anderen unter Sichtkontrolle halten. Wir wissen sehr wohl, dass die Sichtkontrolle immer ein notwendiger Schritt gewesen ist, um über andere verfügen zu können. Da – wie sie sagen – der zentrale Ort der Kontrolle, von dem aus man blickt, bewacht, prüft, untersucht – kurz, unser Alltagsleben (und all das, was dieses umfasst) ausspioniert, würden auch alle Arten der Kontrolle verschwinden, die uns seit Jahrtausenden den Zwängen der sichtbaren oder unsichtbaren Mächte unterworfen haben und über die wir unsererseits keine Kontrolle ausüben konnten.

35

Doch stimmt es wirklich, dass der Cyberspace das geschichtliche Ende des Panoptikums und des Großen Bruders als Idealtypen absoluter Macht besiegelt ? Ist es glaubhaft, dass wir uns tatsächlich dieser kritischen, von Hegel theoretisch erfassten Schwelle nähern, an der «die ungeteilte Substanz der absoluten Freiheit sich auf den Thron der Welt erhebt, ohne dass irgendeine Macht ihr Widerstand zu leisten vermöchte ?» 35 Besteht nicht das Risiko, dessen Hegel sich bewusst war, dass man mit der Inthronisierung einer nicht genauer beschriebenen absoluten Freiheit damit endet, einen neuen Typ von absoluter Macht zu etablieren, einer Macht unter der Maske eben der absoluten Freiheit ?

34

Es sind im Prinzip vier institutionelle Verfahren, deren sich der Große Bruder bedient: Das « Wahrheitsministerium » ( verantwortlich für die Verbreitung von Lügen ), das « Ministerium der Liebe » ( verantwortlich für die Folter Andersdenkender ), das « Friedensministerium » ( verantwortlich für das Anstiften von Kriegen ) und das « Ministerium des Überflusses » ( verantwortlich für die Verschärfung der Lage in Notzeiten ). Überall wird auf riesigen Bildschirmen das Gesicht des Großen Bruders gezeigt, begleitet von dem unvermeidlichen Spruch: « Big Brother is watching you. » Dazu kommt eine zusätzliche Raffinesse, die Orwell vielleicht dem Panoptikum von Bentham entnommen hat: «Natürlich kann man nie genau wissen, in welchem Augenblick er einen anblickt.» Ein anderes Verfahren ist der newspeak mit dem Zweck, jegliches autonome Denken zu verhindern. Über newspeak bei Orwell in der « Wissenschaft der Modernen » vgl. G. Giorello ( 1994, S. 369 –370 ).

35

G. W. F. Hegel ( 1964, S. 450 ).

45

Digitale Welt und Gestaltung

Inwieweit, so mag man sich fragen, kann uns der ausführliche Exkurs über das Panoptikum und den Großen Bruder beim Verständnis dessen helfen, was am Cyberspace wahr und was nicht wahr ist – Cyberspace verstanden als Negation einer Zentralgewalt, als eine Art Gegenaltar gegen das Machtsystem, für welches das Panoptikum und der Große Bruder zwei äußerst treffende Metaphern bilden ?

Das Spinnennetz und das Labyrinth Im Italienischen hat man das Wort Netz als Übersetzung des englischen Wortes web gewählt. Das ist nicht falsch. Doch web bedeutet im Englischen auch und vor allem Spinnennetz. Und genau in diesem Sinn wird es im internationalen Jargon der Informatik verwendet. Das world wide web ist nichts anderes als ein globales Spinnennetz, ein « Netz aller Netze », das sich über den ganzen Erdball erstreckt. Wenn man diese Analogie ernst nehmen will, liegt es auf der Hand, dass in der Tat eine starke Ähnlichkeit zwischen dem Spinnennetz der Informatik und dem Spinnennetz der Spinne, zwischen dem Spinnennetz der Glasfasern und dem Spinnennetz aus Seide besteht.

36

Wir sind uns der Risiken einer solchen Analogie durchaus bewusst, doch in diesem Fall kann sie für unsere Argumentation förderlich sein, vorausgesetzt, wir überdehnen nicht ihre Reichweite. Wenn man zwei Phänomene miteinander vergleicht, denen ein bestimmter Grad von formaler oder struktureller Affinität zugeschrieben wird, kann man es nicht dabei belassen, die ihnen unterliegenden Gemeinsamkeiten herauszuschälen, vielmehr muss man auch jene Eigenschaften einbeziehen, die sie nicht miteinander teilen. Das «Auge für Ähnlichkeiten », von dem Aristoteles sprach, ist gleichzeitig auch ein «Auge für Unähnlichkeiten ». 36 Das Aufdecken von Ähnlichkeiten schließt das Herausstellen von Unähnlichkeiten ein und umgekehrt. Doch worin bestehen die ähnlichen und unähnlichen Züge, wenn man das Netz der Informatik mit dem Spinnennetz vergleicht ? Diese Frage ist entgegen allem Anschein durchaus nicht nebensächlich. Betrachten wir die auf der Hand liegenden Ähnlichkeiten. Wir wissen, dass das Netz und das Spinnennetz eine Eigenschaft teilen: Weder das eine noch das andere sind Schöpfungen ex nihilo. So wie das Spinnennetz von einer Spinne « entworfen », « erstellt » und « kontrolliert » wird,

36

46

Vgl. I. A. Richards ( 1936, S. 86 ).

Cyberspace – ein demokratischer Space ?

so lässt sich schwerlich ein telematisches Netz vorstellen ohne jemanden, der eine der Spinne äquivalente Rolle ausübt, das heißt ohne jemanden, der das Netz « entwirft », « erstellt » und « kontrolliert ». Doch diese Interpretation wird aus den bereits erwähnten Gründen ausgerechnet von jenen Verfechtern des Cyberspace relativiert, die bislang als die ungestümsten Förderer des telematischen, im Sinne eines globalen Spinnennetzes verstandenen Netzwerks fungieren. Zwar behaupten sie nicht – denn das wäre absurd –, dass die telematischen Netze als eine Schöpfung ex nihilo entstanden seien, doch erheben sie einige Einwände. Sie unterstellen zum Beispiel, dass man beim Netz – im Unterschied zum Spinnennetz – nicht von nur einer einzigen Spinne ausgehen kann, die von einer privilegierten zentralen Position aus das Netz in seiner Gesamtheit entwirft, erstellt und kontrolliert. Während sie die Analogie des Spinnennetzes akzeptieren, verwerfen sie die Analogie der Spinne. Die Spinne wäre überf lüssig, insofern die drei oben erwähnten Aufgaben von einer nicht genauer definierten Interaktion aller auf unserem Planeten homogen und weit verteilten Netzbenutzer erledigt werden (oder erledigt werden sollten ?). Die Spinne ist neben dem Panoptikum und dem Großen Bruder die dritte Metapher, die von den Theoretikern des Cyberspace umstandslos verworfen wird. In den Eigenschaften der Zentralität, der Unsichtbarkeit und der Personalisierung der Kontrollmacht stimmen die drei Metaphern überein. Doch bei genauerem Hinsehen erweist sich die Spinne auf logischer Ebene widerstandsfähiger und tragfähiger als die beiden anderen Metaphern. Während es sich beim Gefängnisaufseher und beim Großen Bruder um relativ abstrakte und ferne Personifizierungen handelt, ist dagegen die Spinne – wie es auf der Hand liegt – funktional mit dem Spinnennetz verbunden. Spinne und Spinnennetz sind untrennbar miteinander gekoppelt – mag einem das nun zusagen oder nicht.

37

Die Liste der möglichen Netzmetaphern endet damit nicht. Es ist noch eine weitere Metapher hinzuzufügen, die häufig in der Literatur, vor allem in journalistischen Texten über den Cyberspace benutzt wird. Ich meine die sehr alte Metapher des Labyrinths. 37 Wenn aber die Kommentatoren des Cyberspace vom Labyrinth

37

Die neueste auch von Informatikern geschätzte Metapher bezieht sich auf den Vergleich des Netzes mit dem zentralen Nervensystem. Bedauerlicherweise muss ich aus Platzgründen diese Metapher aus meiner Analyse ausschließen. Ich habe diesen Gegenstand jedoch in meinem Buch Il futuro della modernità (1987, S. 141 ) aufgegriffen. Vgl. H. Miyakawa (1985, S. 47 ) und G. O. Longo (1996, S. 80–89 ).

47

Digitale Welt und Gestaltung

38

39

40

41

reden, denken sie weniger an ein System von Mäandern mit einem Minotaurus in der Mitte als vielmehr an eine besondere, recht heterodoxe Variante des Labyrinths, die Umberto Eco – wohl in Anlehnung an Gilles Deleuze und Félix Guattari – « Rhizom » genannt hat. 38 Eco schlägt neben dem « einwegigen » Labyrinth und dem « manieristischen » Labyrinth – den beiden bekanntesten Formen – einen dritten Typ vor: das « Rhizom ». Er beschreibt es wie folgt: «Drittens kommt das Rhizom oder das unendliche Netz, in dem jeder Punkt sich mit einem anderen Punkt verbinden kann; die Folge der Verbindungen hat theoretisch kein Ende, weil es kein Außen und Innen gibt; mit anderen Worten, das Rhizom kann sich ins Unendliche ausweiten». 39 Auf der anderen Seite sollte der narrative (und dichterische) Beitrag von Jorge Luis Borges zur Vorstellung eines « rhizomatischen » Labyrinths nicht vergessen werden. In seiner Kurzgeschichte Los dos reyes y los laberintos legt Borges einem arabischen König die Beschreibung seines Labyrinths in den Mund, das er dem klassischen Modell eines babylonischen Königs gegenüberstellt: «In meinem Labyrinth», sagt der arabische König, «gibt es keine Treppen zu steigen noch ermüdende Korridore entlangzulaufen noch Mauern, die deinem Schritt den Durchgang verwehren.» 40 Das evozierte Labyrinth ist nichts anderes als die Wüste, das heißt ein subjektiv raum- und zeitloser Ort. Denselben « rhizomatischen » Ansatz findet man in dem Gedicht Labyrinth: «Nie wird es eine Tür geben / Du bist drinnen / Und der Alcazar umfasst das Universum / Und hat weder Vorderseite noch Rückseite / Weder Außenmauer noch geheimes Zentrum». 41

38

G. Deleuze und F. Guattari ( 1980 ). Das « Rhizom » wird von den beiden französischen Philosophen folgendermaßen definiert: «Ein Rhizom ist ein unterirdisches schaftförmiges Gewächs, das sich radikal von Wurzeln und Wurzelhaaren unterscheidet. Die Pflanzenknollen und Tuberkel sind rhizomförmig... jeder Punkt eines Rhizoms kann und muss mit jedem anderen Punkt verbunden werden. Es unterscheidet sich stark vom Baum oder von der Wurzel, die einen Punkt und eine Ordnung festlegen» ( S. 13 ).

39

U. Eco ( 1984 ). Für eine systematische Behandlung des Labyrinths vgl. die wichtigen Arbeiten von P. Santarcangeli ( 1984 ) und H. Kern ( 1981 ). Vgl. Rosenstiehl ( 1979 ).

40

41

J. L. Borges ( 1974, S. 607 ).

J. L. Borges ( 1974, S. 986 ). Unglaublich aktuell ist bei Borges der Vorschlag, dass das Spinnennetz ( ! ) eine Alternative zum Labyrinth sei. Aber auch seine erstaunliche Darstellung des geheimnisvollen Gegenstands, genannt « Aleph »: «Ich schloss die Augen, ich öffnete sie. ≥

48

Cyberspace – ein demokratischer Space ?

Hier taucht eine meiner Meinung nach unumgängliche Frage auf: Sind wir sicher, dass der Beseitigung der emblematischen Figuren des Großen Bruders von Orwell, des Inspektors von Bentham und der Spinne eine Abschaffung jeder Form von Kontrolle entspricht ? Lässt sich die Hypothese aufrechterhalten, dass ein rhizomatisches Labyrinth es ermöglicht, zum – um noch einmal den Passus von Hegel zu zitieren – « Thron der Welt » aufzusteigen, auf dem für immer die absolute Freiheit herrschen müsste ? Wäre das die erhoffte Verwirklichung der idealen Demokratie oder – wie Hegel zu befürchten scheint – der Beginn einer unsicheren Periode, in der ein neuer Autoritarismus Oberhand gewinnen könnte ? Und mehr noch: Wenn die früher einem einzelnen Inspektor oder einem einzigen Großen Bruder (oder einer einzigen Spinne) zugewiesenen Funktionen in Zukunft Millionen und Abermillionen Nutzern eines « rhizomatischen » Netzes anvertraut würden, wer kann dann garantieren, dass diese im Grunde nicht eine Stellvertreterrolle spielen werden, also die Rolle einer subtilen indirekten und deshalb im Vergleich zu früher weniger sichtbaren Repräsentation der traditionellen Machtinstanzen ? Auf diese Fragen reagiert man mit der vorschnellen Antwort, dass die geäußerten Zweifel letztendlich Ausdruck eines völligen Mangels an Vertrauen in die demokratische Rolle der gesellschaftlichen Subjekte seien, in diesem Fall der das Netz nutzenden Bürger. Bewertungen dieser Art können allzu schematisch sein – und sind es auch –, aber sie spielen auf Fragestellungen an, die wegen ihrer Relevanz für die Zukunft der Demokratie nicht auf die leichte Schulter genommen werden dürfen. Sie betreffen nichts weniger als das bereits erwähnte Thema der Beziehung zwischen direkter Demokratie und Demokratie tout court – ein Thema, das offensichtlich mit dem Modus verbunden ist, in dem die Bürger in einer demokratischen Gesellschaft ihre Teilnahme ausüben.

Dann sah ich den Aleph ... An den unteren Stufen der Treppe, rechts, sah ich eine kleine schillernde Kugel, mit nahezu unerträglichem Glanz. Anfangs glaubte ich, sie drehe sich. Dann begriff ich, dass diese Bewegung eine Illusion war, hervorgerufen durch die Schwindel erregenden Schauspiele, die sie umschloss. Der Durchmesser des Aleph war zwei oder drei Zentimeter, doch der kosmische Raum war da, ohne dass seine Größe gemindert wäre.» ( Borges 1982, S. 139 –140.) Ist das nicht eine fantasievolle Beschreibung jenes « kosmischen Raumes », der fünfzig Jahre später den Verehrern des Cyberspace als Gegenstand der Reflexion dient ? Kann der Aleph nicht als Vorwegnahme eines möglichen miniaturisierten Teleputers betrachtet werden ?

49

Digitale Welt und Gestaltung

Direkte Demokratie und Autonomie

42 43

44

45

Als Einstieg in dieses Thema möchte ich die historisch-philosophischen Wurzeln des Begriffs der direkten Demokratie in gestraffter Form darlegen. Wie bereits eingehend erörtert wurde, kann man den Begriff der direkten Demokratie auf das kontroverse Modell der griechischen Demokratie zurückführen, das von Jefferson erneut in nicht weniger kontroverser Formulierung im 18. Jahrhundert propagiert wurde. Doch die dieser Idee eigenen Komponenten müssen unter anderem in der Kritik der parlamentarischen Demokratie von Locke gesucht werden, in der er eine kongeniale Neigung zum Missbrauch und zur Korruption durchblicken lässt, weiterhin in nicht geringerem Maße in der begeisterten Verherrlichung – eben auch durch Locke – der Rolle des Individuums im demokratischen Prozess bis hin zu dem Punkt, dessen Recht auf Revolte (und auf Revolution) gegen die gesetzwidrig handelnden Repräsentanten anzuerkennen. 42 Dasselbe Misstrauen gegenüber der Repräsentanz und dasselbe grenzenlose Vertrauen in die Individuen findet man bei Rousseau. 43 Im Hintergrund dieser Positionen scheint das Thema der Autonomie durch. Wir verdanken es vor allem Kant, der mit seiner expliziten (und leidenschaftlichen) Verteidigung einer vollen Autonomie des Moralurteils (und des politischen Urteils) der Menschen eine entscheidende Wende in der Diskussion dieses Themas herbeigeführt hat. In seiner Antwort auf die Frage «Was ist Auf klärung ?» 44 lädt er Männer und Frauen ein, sich von der Unmündigkeit zu befreien, sich der Vormünder und des erniedrigenden Jochs der Unmündigkeit zu entledigen. In einem anderen Text ref lektiert Kant die berühmte Autonomie des Willens, die er definiert als «die Beschaffenheit des Willens, dadurch derselbe ihm selbst (unabhängig von aller Beschaffenheit der Gegenstände des Wollens), ein Gesetz ist» im Gegensatz zur « Heteronomie des Willens », die Kant wie folgt charakterisiert: «Der Wille gibt sich alsdenn sich nicht selbst, sondern das Objekt durch sein Verhältnis zum Verhältnis zum Willen gibt diesem das Gesetz.» 45 All diese Argumente sind wohlbekannt, doch wie wir sehen werden, schien es aus einem bestimmten Grund wichtig, sie noch einmal in Erinnerung zu rufen.

50

42

J. Locke ( 1801, S. 470 –471 ).

43

J.-J. Rousseau ( 1964, S, 328 –430 ).

44

I. Kant ( 1968, S. 53 ).

45

I. Kant ( 1968b, S. 74 und 75 ).

Cyberspace – ein demokratischer Space ?

Sie bilden den Grundstock unseres heutigen Demokratieverständnisses. Gleichzeitig aber lassen sie eine offenkundige Betonung der autonomen Rolle der gesellschaftlichen Subjekte erkennen – eine Rolle, die aus heutiger Sicht als gegenläufig und als Kontrast zu den Institutionen der repräsentativen Demokratie betrachtet werden kann. In gewisser Hinsicht können sie den Anschein erwecken, die Online-Demokratie vorwegzunehmen, mit dem Ziel, die Vorstellung von der direkten Demokratie zu radikalisieren.

46

An dieser Stelle ergibt sich eine besonders komplexe Frage. Gewiss ist es ein Kardinalpunkt der Demokratie, dass alle Erwachsenen – unabhängig von Geschlecht, Rasse, Einkommensniveau oder Vorbildung – befähigt sein sollen (und das Recht haben), in erster Person und frei an den sie und ihre Gemeinschaft betreffenden Entscheidungsprozessen mitzuwirken. Dies bedeutet, dass alle Bürger ohne Ausnahme als in gleicher Weise befähigt anzusehen sind, diese Prozesse zu bewerten, zu beurteilen und zu verwalten. Dies hat Dahl das « starke Gleichheitsprinzip » genannt. 46 Jedes Mal, wenn versucht wird, dieses Prinzip zu schwächen (oder es über Gebühr zu relativieren), verf lüchtigt sich der Demokratiebegriff (und die Demokratie selbst). In der Praxis wird sie unterminiert, wenn man im Lichte bisweilen negativer Erfahrungen erneut eine « Unmündigkeit » vorschlägt, von der Kant sprach, was nichts anderes als einen Staat bedeutet, in dem die Bürger als unzuverlässige Kinder beurteilt werden, die einen über sie wachenden Vormund brauchen. Also: die « Regierung der Aufseher » platonischer Provenienz.

47

Trotz allem lässt sich nicht leugnen, dass die Demokratie seit je in ihren verborgensten Falten Probleme barg, auf die man bis heute keine befriedigende Antwort gefunden hat – Probleme, die den thematischen Kern der politischen Philosophie vom 17. Jahrhundert an bildeten. Diese Probleme beinhalten die Zentralfrage der Beziehung zwischen Autonomie und Autorität, zwischen Freiheit und Gleichheit, zwischen individueller Freiheit und Staat. 47

46

47

R. A. Dahl ( 1989, S. 31 ). Vgl. auch Dahls Arbeit von 1982 .

Diese Probleme finden sich bereits bei Platon, Aristoteles, Augustinus und Thomas von Aquino; sie wurden wieder aufgenommen von Hobbes, Spinoza, Locke, Hume, Montesquieu, Voltaire, Rousseau, Bentham, Mill, Marx und Sidgwick, dann später von Dewey, Schumpeter, Kelsen, Schmitt und jüngst von Rawls, Arrow, Luhmann, Nozick, Taylor, MacIntyre, Dworkin, Unger, Berlin, Sen, Harsanyi, Williams, Habermas und Bobbio. Es gibt eine reiche Literatur über den Stand der gegenwärtigen Debatte im Bereich der politischen Philosophie. Oft lassen sich die diskutierten Themen nicht leicht von den Problemen der Moralphilosophie trennen.

51

Digitale Welt und Gestaltung

48

Ich erlaube mir, Kritik an den gegenwärtigen Exponenten der politischen Philosophie zu üben. Denn ich vermute, dass sie sich, von wenigen Ausnahmen abgesehen, noch nicht recht klar darüber geworden sind (oder sich nicht klar darüber werden wollten), dass die Online-Demokratie wesentlich neue Elemente in die jahrhundertealte Debatte über die Beziehung zwischen den idealen Grundlagen und dem konkreten Funktionieren der Demokratie einbringt. In erheblich verschärfter Form setzt das Szenario einer digitalen Republik wieder einige alte Widersprüche der Demokratie auf die Tagesordnung. Während man in der Vergangenheit angesichts dieser Widersprüche mehr oder minder plausible Auswege finden konnte – zum Beispiel den schwachen Trost des «Winston-Prinzips » 48 –, ist das neue alternativ sich herausbildende Modell doch derart verfänglich, dass es unverantwortlich wäre, sich nicht mit seinen theoretischen und praktischen Voraussetzungen zu beschäftigen. Ich sage verfänglich, weil es sich wohl zum ersten Mal in der Geschichte um ein Modell handelt, dessen zweifellos ideologische Voraussetzungen sich auf die Beihilfe einer hoch raffinierten technologischen Infrastruktur stützen. Wegen ihrer außerordentlichen Reichweite kann diese Infrastruktur unsere Gesellschaftsordnung zumindest theoretisch (aber nicht nur das) radikal verändern – und all das, ohne dass über die Wünschbarkeit der angezeigten Veränderungen Klarheit herrscht. Meiner Meinung nach bestünde darin (und in nichts anderem) die theoretische Herausforderung, der sich die Spezialisten der politischen Philosophie vorrangig stellen müssten.

49

Wie wir soeben gesehen haben, besteht eine der Grundvoraussetzungen der Demokratie in der Autonomie der Bürger, also in ihrem Recht, als gesellschaftliche Subjekte die Selbstbestimmung frei zu praktizieren. Die Vertreter der politischen Philosophie, zumindest jene mit unverbrüchlich demokratischer Überzeugung, haben seit je die Unantastbarkeit dieses Prinzips postuliert. 49 Es ist ein Prinzip, das man

48

Hinter dem « Winston-Prinzip » verbirgt sich das berühmte, Winston Churchill zugeschriebene Bonmot: «Die Demokratie ist ein miserables System, aber es ist das beste aller bekannten.»

49

Ein aufschlussreiches Beispiel dafür liefert die vehemente Verteidigung der Autonomie von S. Veca – dem scharfsinnigen Interpreten des Rawls’schen Neokontrakturalismus in Italien: «Wer auch immer versucht oder es fertigbringt, mich daran zu hindern, das zu tun, was ich tun will, verletzt die Voraussetzung der Theorie des moralischen Werts der Wahl. Natürlich – ausgenommen die Fälle eines dumpfen oder caligulaartigen Despotismus – werden die Verletzung und Interferenz von der gewohnten Heerschar der Gründe und Rechtfertigungen oder besser Rationalisierungen begleitet: dass wir nicht die besten Interpreten unserer wahren Interessen seien, dass es da jemanden gibt – weiser, klüger oder besser informiert als wir –, der weiß, was wir besser für uns wünschen sollten. Mit anderen Worten, die Gründe und Rechtfertigungen oder besser Rationalisierungen bilden einen Teil ≥

52

Cyberspace – ein demokratischer Space ?

50

ohne Abstriche mit der Formulierung Voltaires gleichsetzen kann: «pouvoir de se déterminer soi-même à faire ce que lui paraît bon». 50 Doch das Thema zeitigt Aspekte, die, sei es auf begriff licher Ebene, sei es auf praktischer Ebene, alles andere als klar sind – zumindest weniger klar, als gemeinhin angenommen wird. In der Mehrzahl der Beiträge zu dieser Thematik wird die Autonomie in Funktion auf die Beziehung untersucht, die zwischen den sorgsam auf ihre eigene Freiheit der Selbstbestimmung bedachten Bürgern und den Gegenmächten besteht, die deren Autonomie einschränken wollen. Kurz: auf der einen Seite die Bürger, auf der anderen Seite die etablierten Mächte.

51

Es bleibt da aber ein Problem, das bei der Erörterung dieses Themas selten angesprochen wird: die Tatsache, dass Bürger und Mächte nicht zwei hermetisch abgeschlossenen Bereichen angehören. Da es allzu offensichtlich ist, mag es sich erübrigen, daran zu erinnern, dass die Bürger Individuen sind, deren Identität als Personen stark von den direkten oder indirekten Einf lüssen der Machtinstanzen geprägt wird. Die Bürger bilden einen Teil eines Machtsystems. Mit andern Worten, der « Seele » der Bürger wird nicht ein Attribut unterschoben, das einer unbef leckten Autonomie oder einem unverfälschten « Zustand der Unschuld » gleichkäme. 51

dieses bekannten und wiederkehrenden paternalistischen Arguments, sei es nun von Kirchen, Parteien, Gurus, theokratischen oder technokratischen Eliten, Militärs oder einfach von angriffslüsternen Söldnerscharen der Werbung und der Fernsehprogramme, ergänzt – um es mit Hegel zu sagen – durch die heilige bürgerliche Morgenlektüre» ( 1990, S. 66 ).

50

51

Voltaire ( 1991, S. 161 ).

G. Sartori ( 1995 ) hat eine sehr treffende Beschreibung des Problems geliefert: «Die Meinungen sind nicht angeboren und entspringen nicht dem Nichts; sie sind das Ergebnis von Bildungsprozessen. Auf welche Weise nun bilden sich die Meinungen oder werden die Meinungen gebildet ?» ( S. 183 ). Und später: «Wer schafft ... die Meinung, die öffentlich wird ?» ( S. 188 ). Ausgehend von einer Reinterpretation des bekannten cascade model von K. W. Deutsch antwortet Sartori: «Alle und keiner». Dies ist eine These, die sich nicht sonderlich von der oben dargelegten These der Befürworter des Cyberspace unterscheidet, denen zufolge im Netz die Macht überall und nirgends ist. Aus dieser Schwierigkeit, konkret festzustellen, wer ( oder was ) für den Prozess der öffentlichen Meinungsbildung verantwortlich ist, folgert Sartori, dass die öffentliche Meinung «sehr wohl als authentisch bezeichnet werden kann: authentisch weil autonom und sicher autonom, insofern sie ausreicht, die Demokratie als Regierung der öffentlichen Meinung zu gründen». Ich muss allerdings gestehen, dass Sartori hier einen Schritt von den Prämissen zu durchaus nicht überzeugenden Konklusionen wagt.

53

Digitale Welt und Gestaltung

Kein Diskurs über die Autonomie der Bürger kann von dieser Wirklichkeit absehen. Wohl oder übel bildet unsere Autonomie einen Teil eines Kontextes, in dem der Löwenanteil auf die Heteronomie entfällt. Wir haben bereits hervorgehoben, welche Bedeutung den Institutionen der Sozialisierung und der Akkulturation zukommt: der Familie, der Schule, den Kirchen, den Parteien, den Vereinigungen und den Massenmedien. Vermittelt von diesen Institutionen, werden – so sagten wir – die Werte, Präferenzen, Wünsche, Geschmacksrichtungen, Glaubensinhalte und Vorurteile geprägt, auf denen unsere persönlichen und öffentlichen Entscheidungen beruhen. Die Verallgemeinerung dieser Annahme führt sicher auf eine falsche Fährte. Es genügt, an die Vereinfachungen von Marcuse aus den sechziger und siebziger Jahren zu denken. Unser Bündel kultureller und gesellschaftlicher Prämissen wird uns zwar von außen (und von oben) auferlegt (oder suggeriert), von den Apparaturen, deren sich die herrschende Ideologie und Kultur bedienen. Aber wir sind nicht – wie ein gewisser radikaler Antimentalismus wollte – eine Art passiver Blackbox, in der kein Unterschied zwischen Input und Output bestünde. Also eine Neuauf lage der alten theologischen (und augustinischen) Kontroverse über das liberum arbitrium – diesmal in verschiedenen Begriffen ? Das ist nicht auszuschließen. Doch seit Kant wissen wir, dass die Bestimmung unseres Verhaltens Freiräume lässt. Zweifelsohne sind wir im Prozess der Metabolisierung der Leitvorstellungen, die offen oder verdeckt in unsere « Seele » eingeschleust werden, in der Lage, eben diese Leitvorstellungen weiterzuverarbeiten und auch noch zu verändern – und zwar nicht selten im Widerspruch zu den eingeimpften Leitvorstellungen zu verändern.

52

Aber diese sozusagen konfessionsfreie Ansicht des liberum arbitrium bietet noch einige strittige Punkte. Die auftauchenden Fragestellungen sind nicht als nebenrangig abzutun: Sie prallen frontal auf die Frage der Autonomie. Wenn ein Teil von uns die Leitvorstellungen der Gesellschaft, in der wir leben, achtet und ein anderer Teil sie missachtet, wie können wir dann den Grad unserer wirklichen Autonomie einstufen ? Anders gefragt: In welchem Sinn und inwieweit sind wir gehorsame, fügsame und unterwürfige Vollstrecker jener Leitvorstellungen, und in welchem Sinn und inwieweit sind wir frei, völlig autonom zu entscheiden ? Also, in welchem Sinn und inwieweit sind wir wirklich autonom ? 52

52

A. K. Sen hat sich bei der Untersuchung des Zentralpunktes der Gleichheit gefragt: «Warum Gleichheit ? Gleichheit worin ?» Dieselbe Frage kann man annähernd umformulieren in: «Warum Autonomie ? Autonomie worin ?» Ebenso wie bei der Gleichheit sind wir autonom hinsichtlich einiger ( weniger ) Dinge und nicht autonom hinsichtlich ( vieler ) anderer Dinge.

54

Cyberspace – ein demokratischer Space ?

53

Hier ist es angebracht, an die von Schumpeter geäußerte Empfehlung zu erinnern, bei unseren Einschätzungen demokratischer Prozesse realistisch zu sein und die ideale Demokratie mit der realen Demokratie nicht zu verwechseln. Einige Wissenschaftler, unter ihnen Dahl 53 , haben – meiner Meinung nach zu Recht – auf die inhärenten Risiken der Position von Schumpeter verwiesen, vor allem auf die Risiken in seiner befremdlichen Theorie des Verhältnisses zwischen Inklusion und Exklusion in der demokratischen Gesellschaft. Doch gibt es bei Schumpeter noch andere Aspekte, über die sich nachzudenken lohnt. Ich glaube, dass er zu den wenigen gehört, die sich mit dem Thema der Autonomie auseinandergesetzt haben, indem er unsere Aufmerksamkeit darauf gelenkt hat, welche Rolle die Instanzen der Sozialisation und Akkulturation als Faktoren der Heteronomie einnehmen. Es sei an dieser Stelle gestattet, ein ausführliches Zitat eines bekannten Abschnitts aus Kapitalismus, Sozialismus und Demokratie einzufügen : «Insbesondere stehen wir immer noch unter der praktischen Notwendigkeit, dem Willen des Individuums eine Unabhängigkeit und eine rationale Qualität beizulegen, die völlig wirklichkeitsfremd sind. Wenn wir argumentieren, dass der Wille des Bürgers per se ein politischer Faktor ist, der Anspruch auf Achtung hat, so muss er erst einmal existieren. Das heißt, dass er etwas mehr sein muss als nur eine unbestimmte Handvoll vager Triebe, die um vorhandene Schlagworte und falsch verstandene Eindrücke lose herumspielen. Jedermann müsste eindeutig wissen, wofür er sich einsetzen will. Dieser bestimmte Wille müsste mit der Fähigkeit ausgerüstet sein, die Tatsachen, die jedermann direkt zugänglich sind, richtig zu beobachten und zu interpretieren und die Informationen über Tatsachen, die nicht direkt zugänglich sind, kritisch zu sichten. ... Und alles dies müsste der ideale Bürger aus sich selbst heraus und unabhängig vom Druck einzelner Gruppen und von irgendwelcher Propaganda leisten; denn Willensäußerungen und Schlussfolgerungen, die der Wählerschaft aufgezwungen werden, können nicht als letzte Gegebenheiten des demokratischen Prozesses gelten. … Ökonomen, die die Tatsache genauer zu beobachten lernen, entdecken nun allmählich, dass sogar im gewöhnlichsten Verlauf des täglichen Lebens ihre Konsumenten nicht ganz nach der Vorstellung leben, die die Lehrbücher meistens vermitteln. Einerseits sind ihre Bedürfnisse durchaus nicht so bestimmt und ihre Handlungen auf Grund dieser Bedürfnisse bei weitem nicht so rational und

53

R. A. Dahl ( 1989, S. 121–123, 128–130 ). Zum politischen Realismus von Schumpeter vgl. D. Zolo ( 1992 ).

55

Digitale Welt und Gestaltung

rasch. Andererseits sind sie dem Einf luss der Reklame und anderer Überredungsmethoden so leicht zugänglich, dass oft die Produzenten ihnen zu diktieren scheinen, anstatt von ihnen dirigiert zu werden. Die Technik der erfolgreichen Reklame ist besonders instruktiv.» 54

54

55

56

57

Dieser Abschnitt aus Schumpeters im Jahre 1942 veröffentlichtem Buch, bei dem es sich wahrscheinlich um eine Weiterverarbeitung von Texten aus den dreißiger (oder noch früheren) Jahren handelt, veranschaulicht die seinerzeitige polemische Einstellung des Autors gegenüber den Vertretern der « klassischen Wirtschaftsdoktrin ». 55 Mit einer veralteten Terminologie (heute würde man unter anderem nicht von Werbung, sondern von Massenmedien sprechen) bezieht Schumpeter eindeutig Stellung gegen die Tendenz, die Bürger als absolut autonom in ihren Präferenzen und Entscheidungen anzusehen. Obgleich die von ihm aufgeworfene Frage meiner Meinung nach weiterhin aktuell ist, hat sich die Art und Weise ihrer Behandlung geändert. Wenn man anfangs vor allem aus wirtschaftswissenschaftlicher Sicht das Thema anging, so erfolgt heute die Behandlung aus ausgesprochen philosophischer Sicht. Im Zentrum der Debatte steht die Vereinbarkeit zwischen Notwendigkeit und Freiheit. In gewisser Hinsicht knüpft das Thema der Autonomie wieder an seine Ursprünge an (Hobbes, Locke und vor allem Hume, Bentham und Mill), aber heute wendet sich die Untersuchung auf der einen Seite seinen logischen, semantischen und erkenntnistheoretischen Aspekten zu 56 , auf der anderen Seite – wie sich an der Diskussion zwischen Neo-Utilitaristen und Neo-Kontraktualisten sehen lässt – einigen seiner zentralen Begriff lichkeiten: Nutzen, Gerechtigkeit, Gleichheit und « gutes Leben ». 57

54

J. A. Schumpeter ( deutsche Ausgabe S. 402–404 und 409 ).

55

Vgl. E. Salin ( 1950 ).

56

Wichtig sind in diesem Zusammenhang die Beiträge von G. E. M. Anscombe, D. Davidson, G. H. von Wright und J. R. Searle. Es handelt sich um Beiträge, die in großen Zügen die Analyse vieler Fragen aufnehmen, die von Moore, Wittgenstein und Austin aufgeworfen worden sind ( zum Beispiel Anscombe und von Wright ). Dann die Fragen von Brentano und Austin ( zum Beispiel Searle ) und weitere Fragen von Quine ( zum Beispiel Davidson ). Besonders interessant für unsere Argumentation sind einige Aspekte der Theorie der Intentionalität von Searle ( 1983 ). Bei seiner Analyse der Beziehung zwischen Kausalität und Intentionalität unterscheidet Searle zwischen network of intentional states und background of capacities and social practices, also zwischen einer intentionalen Welt und einer prä-intentionalen Welt.

56

Cyberspace – ein demokratischer Space ?

58

In beiden Fällen wird das Thema der Autonomie, trotz des unbestreitbaren Raffinements des analytischen Begriffsapparats, nur an der Oberf läche gestreift. Ich benutze das Wort in dem oben skizzierten Sinn: Autonomie, verstanden als « negative Freiheit » 58 der Bürger gegenüber eventuellen, von den herrschenden Mächten aufgebürdeten Auf lagen und Einschränkungen (Redefreiheit, Pressefreiheit, Versammlungsfreiheit usw.), aber auch Autonomie, die größtenteils mit dem Grad der Freiheit gleichgesetzt wird, die wir gegenüber dem von eben diesen Mächten vorgeschriebenen Wertsystem genießen können (oder nicht). Auch wenn die zuletzt erwähnte Form der Autonomie als das Gegenstück zur zuerst erwähnten Form erscheinen kann, als eine Art von « positiver Freiheit », handelt es sich doch nur um eine Variante der « negativen Freiheit ». Wie F. A. Hayek (1960) zu Recht hervorgehoben hat, gehen wir unserer Freiheit nicht allein dann verlustig, wenn wir einer Willenseinschränkung ausgesetzt sind. Der Verlust der Freiheit vollzieht sich auch und nicht im geringeren Maße dann, wenn die Einschränkung keinen Zwangscharakter hat, also wenn sie mit « weichen » Verfahren der Sozialisierung und Akkulturation durchgesetzt wird. Auch besteht, nebenbei gesagt, ein wesentlicher Unterschied (den Hayek nicht hinreichend bemerkt zu haben scheint) zwischen dem Zustand, physisch der Willensfreiheit beraubt zu sein, und der Überredung, auf eine bestimmte Art und nicht auf andere Art zu denken – und folglich denken zu wollen. Das Thema steht in engem Zusammenhang mit der so eindringlich diskutierten « Gewissensfreiheit ». Bekanntlich wurde die Vorstellung der Gewissensfreiheit in der Vergangenheit auf extrem unterschiedliche Weise interpretiert. Sehr oft wird sie als ein Gewissen verstanden, das frei von Interferenzen und äußerlichen Behinderungen ist, wie die Gedankenfreiheit im Sinn der Freiheit, öffentlich die eigenen Glaubensvorstellungen auszudrücken zu können. Nicht zufällig wird zum Beispiel

57

Damit beziehe ich mich nicht ausschließlich auf die Kritiken, die von einigen prominenten Vertretern des heutigen Utilitarismus ( zum Beispiel J. C. Harsanyi, 1976 und 1988 ) gegen die « Theorie der Gerechtigkeit » von John Rawls ( 1971 und 1993 ) vorgebracht worden sind, sondern auf alle Stellungnahmen, zu denen das Werk dieses Wissenschaftlers Anstoß gegeben hat, ohne jene auszuschließen, die sich dagegen verwahren, als Utilitaristen oder Kontraktualisten ( zum Beispiel R. Nozik, 1981 und 1993 ) bezeichnet zu werden.

58

Bekanntlich war es Hegel ( 1965, S. 413 ), der als Erster zwischen « negativer Freiheit » ( Freiheit von ) und « positiver Freiheit » ( Freiheit zu ) unterschied. Diese Unterscheidung wurde mit einigen Änderungen von I. Berlin ( 1969 ) angenommen.

57

Digitale Welt und Gestaltung

59

60

61

die Religionsfreiheit oftmals im Namen der Gewissensfreiheit verteidigt. Aber auf der anderen Seite wird sie auch im Sinn einer persönlichen Unabhängigkeit des Denkens verstanden, als eine Freiheit, eigenständig zu denken, wie die Freiheit, die Leibniz gleichsetzt mit « pouvoir de suivre la raison ». 59 Doch so einfach liegen die Dinge nicht. Dazu hat der vom Marxismus eingeführte Begriff « falsches Bewusstsein » beigetragen. Engels schreibt in seinem berühmten Brief an Mehring: «Die Ideologie ist ein Prozess, der zwar mit Bewusstsein von so genannten Denkern vollzogen wird, aber mit falschem Bewusstsein.» 60 Wenn auch die Marxisten von ihrem Standpunkt aus sehr klare Vorstellungen darüber hatten, was falsches Bewusstsein ist – Entfremdung, Verdinglichung usw. –, so haben sie es doch im Vagen belassen, was denn wahres Bewusstsein sei. Man hat eingehend das ideologische Bewusstsein erklärt, kaum aber das nicht ideologische Bewusstsein. Auch wenn die Frage beiseite gelassen wird, ob es sich um eine tragfähige Unterscheidung handelt oder nicht, wären ihre starken Auswirkungen auf das Thema der Freiheit anzuerkennen. Denn offensichtlich kann man die Gesinnungsfreiheit nicht einzig als Voraussetzung eines vermeintlich wahren Bewusstseins evozieren, sondern auch als ein Recht, das – warum nicht ? – dem falschen Bewusstsein gewährt werden muss. Sie ist also nicht ein ausschließliches Privileg des – um es im Jargon Heideggers zu sagen 61 – eigentlichen Bewusstseins, sondern ein Recht, das auch dem uneigentlichen Bewusstsein zugestanden werden muss. Andernfalls kann es dazu kommen – wie es in der Tat geschehen ist –, dass die Freiheit jener Personen aberkannt (oder unter Kuratel gestellt) wird, die wir als naive Vertreter des falschen Bewusstseins einstufen, und all das im Namen eines wahren Bewusstseins, das natürlich immer unser und nur unser Bewusstsein ist. Im Grunde liegt das Problem in der nicht zu leugnenden Zweideutigkeit des Begriffs des wahren Bewusstseins. Dieses wird als ein Urbewusstsein präsentiert, von dem das falsche Bewusstsein nur eine Art fehlerhafter Ableger wäre, eine illusorische (oder sublimierte) Flucht angesichts der widrigen historischen Bedingungen (des Kapitalismus).

59

G. W. Leibniz ( 1994, S. 80 ).

60

F. Engels ( 1968, S. 97 ).

61

Zu einer schlüssigen Kritik an den Begriffen der Eigentlichkeit und Uneigentlichkeit bei Heidegger vgl. Th. W. Adorno ( 1964 ).

58

Cyberspace – ein demokratischer Space ?

Der dem Phänomen zugeschriebene reversible Charakter steigert seine Komplexität: Das für einen Augenblick in Klammern gesetzte wahre Bewusstsein könnte erneut erlangt werden, wenn geschichtlich günstigere Bedingungen (der Sozialismus) es erlaubten, das falsche Bewusstsein zu überwinden. Letztlich bleibt es wohl oder übel bei derselben Frage, an der wir uns messen müssen: Wenn die Menschen als subjektive Akteure in ihren Wünschen und Glaubensinhalten in größerem und geringerem Maß vorbestimmt sind, ist es dann richtig, sie in ihren Handlungen als frei zu betrachten ? Wenn die Antwort bejaht wird, müssen wir dann notgedrungen unsere Handlungen als absolut frei einstufen ? Oder konkreter: Müssen wir zugeben, dass unsere Handlungsfreiheit vom Einf luss endogener oder exogener Faktoren unabhängig ist, die je nach der Handlungsart die Ausübung unserer Freiheit mehr oder minder effektiv (oder akzeptabel) werden lassen ? Und wenn dies nicht zutrifft – eine meiner Ansicht nach stichhaltige Annahme –, will das heißen, dass unser Handeln immer und auf jeden Fall auf die gleiche Weise und in gleichem Maß frei ist ? Trifft nicht eher die Annahme zu, dass unser Handeln, wenn auch frei, mehr oder weniger frei sein kann und sich in verschiedenen Formen und Modalitäten manifestieren kann ?

Die elektronische Republik

62

Ich glaube, dass man diese Fragen klären kann, wenn man sie nicht wie in der Vergangenheit in allgemeine Termini einkleidet, sondern sie im Kontext der bereits erwähnten Hypothese der digitalen Republik analysiert. Als erster Schritt in diese Richtung scheinen mir die Hauptmerkmale dieser Hypothese eine eingehendere Betrachtung zu verdienen. Unter elektronischer Republik (in den angelsächsischen Ländern auch teledemocracy, wired democracy, video democracy, electronic democracy und push-button-democracy genannt) versteht man ein Szenario, das die Informatisierung der Verfahren und Handlungsmodi vorsieht, mit deren Hilfe die Bürger in einer Demokratie ihre Rechte ausüben. 62

62

Der Ausdruck elektronische Republik genießt heute allgemeine Zustimmung, vor allem seit der Veröffentlichung des bereits erwähnten Buches The Electronic Republic von L. K. Grossmann ( 1995 ). Dem Buch von Grossman ging ein hervorragender Essay von D. Ronfeldt ( 1991 ) voraus, in dem eine cybercracy und ein cybercratic state reflektiert wurden.

59

Digitale Welt und Gestaltung

63

64

Ich beziehe mich auf das weite Feld der Techniken, die es den Bürgern ermöglichen, entweder an den Wahlen ihrer Regierungen und Vertreter auf allen Ebenen teilzunehmen oder an Prozessen, in denen die öffentlichen Entscheidungen geprägt (oder vorgeprägt) werden. Konkret meine ich die Abstimmungsverfahren bei politischen Wahlen auf regionaler Ebene, Landesebene und Gemeindeebene; weiterhin die bei Plebisziten, Referendumsinitiativen sowie bei den alltäglichen Abstimmungen im Parlament eingesetzten Techniken, ohne die verschiedenen Techniken der Meinungsforschung in Realzeit und jene Techniken auszuschließen, die eine direkte Interaktion zwischen den Bürgern und ihren Vertretern erlauben. Die aufgelisteten Techniken erstrecken sich über einen weiten Bereich, den wir der Kürze halber politische Kommunikation nennen. 63 Dieses Thema steht im Zentrum des Programms (oder der Programme) der elektronischen Republik. Es gibt da aber noch ein weiteres Thema, und zwar das Thema der Informatisierung der staatlichen Verwaltung, das nicht unterschätzt werden soll. « Die Regierung neu erfinden » – so lautet der griffige Slogan, den D. Osborne und T. Gaebler formuliert haben, um dieses anspruchsvolle Projekt zu fördern. 64 Man muss sich stets vergegenwärtigen, dass in allen demokratischen industrialisierten Ländern eine tiefe Vertrauenskrise seitens der Bürger gegenüber dem Bereich festzustellen ist, der allgemein « Staat » oder « Regierung » genannt wird. Die Gründe für diesen Vertrauensschwund und den Verlust der Glaubwürdigkeit sind vielfältig, doch einer, vielleicht der wichtigste liegt darin, dass die Bürger immer weniger bereit sind, sich mit der unbekümmerten Ineffizienz, der stumpfsinnigen Zentralisierung, der aufreibenden Formalisierung aller Angelegenheiten, der Starrheit und nicht zuletzt der irrationalen Vergeudung der Ressourcen abzufinden. Einige Autoren haben mit durchaus überzeugenden Argumenten versucht, den derzeitigen Leistungsverfall im öffentlichen Dienst historisch zu erklären. Nach D. Tapscott (1995, S. 161) wurde die vorherrschende Organisationsform der staatlichen Bürokratien von den für die industriellen Unternehmen des 20. Jahrhunderts typischen Strukturen mit einem vertikal und zentralistisch aufgebauten hierarchischen Befehls- und Kontrollsystem beeinf lusst. Doch während seit den zwanziger Jahren die Industrieunternehmen mit einer organisatorischen Erneuerung begannen,

60

63

Zur allgemeinen Diskussion dieses Themas vgl. F. Ch. Arterton ( 1987 ).

64

D. Osborne und T. Gaebler ( 1992 ).

Cyberspace – ein demokratischer Space ?

65

indem sie das « dezentralisierte in viele Abteilungen gegliederte Modell » (A. D. Chandler, 1962) übernahmen, blieben die staatlichen Bürokratien dem verstaubten ursprünglichen Modell verhaftet. 65 Neben den beiden programmatischen Bereichen der elektronischen Republik – auf der einen Seite der Vorschlag, die politische Kommunikation zu informatisieren, auf der anderen Seite der Vorschlag, die staatlichen Verwaltungsstrukturen zu informatisieren – ist da noch ein dritter Bereich, der sich aus der partiellen Überlappung dieser beiden Bereiche ergibt. Denn die beiden erwähnten Eingriffe der Modernisierung sind in vielerlei Hinsicht miteinander verschränkt. Aus der Sicht der elektronischen Republik ist das Motto «Die Regierung neu erfinden » untrennbar mit dem Willen verbunden, «die Politik neu [zu] erfinden ». All das kann auf theoretischer Ebene als ein Versuch angesehen werden, mit Hilfe der Informationstechnologien das allgemeine Funktionieren unserer Gesellschaft zu rationalisieren und auf diese Weise eine, sei es stärkere demokratische Teilnahme der Bürger, sei es höhere Effizienz des öffentlichen Verwaltungssystems zu

65

Das ursprüngliche Modell hat sich bekanntlich unter – verglichen zu heute – stark abweichenden Bedingungen entwickelt, wie David Osborne und Ted Gaebler ( 1992, S. 15 ) gezeigt haben: «Entwickelt in einer Gesellschaft mit langsamen Rhythmus, in der die Veränderungen gemächlich abliefen ..., in einem Zeitalter der Hierarchien, in dem nur die Spitze der Pyramide hinreichende Informationen besaß, um wissensbasierte Entscheidungen zu treffen ..., in einer Gesellschaft, in der die Leute mit den Händen und nicht mit dem Kopf arbeiteten ..., in einer Zeit der Massenmärkte, als der größte Teil der Amerikaner ähnliche Wünsche und Bedürfnisse hatte ..., als wir starke geografische Gemeinschaften in Form von eng verbundenen Stadtvierteln und Städten hatten ... Heute ist das alles weggefegt. Wir leben in einer Zeit ungewöhnlicher Veränderungen ... in einem globalen Markt, der enormen Wettbewerbsdruck auf unsere Wirtschaftsinstitutionen ausübt ... in einer Informationsgesellschaft, in der die Leute beinahe schneller als ihre Leader auf Informationen zugreifen ... In solcher Umgebung verschwinden die öffentlichen und privaten aus der Industrieepoche stammenden bürokratischen Institutionen. Die gegenwärtige Situation verlangt Institutionen, die äußerst flexibel und anpassungsfähig sind ... Institutionen, die auf ihre Nutzer reagieren ... die eher durch Überzeugung und Anreize als durch Befehle geleitet werden ... die in der Lage sind, die Bürger eher zu potenzieren, als ihnen einfach zu dienen.» Doch der hartnäckige Widerstand dagegen, von der neuen Herausforderung Notiz zu nehmen, führt zu einer fortschreitenden Verknöcherung der Entscheidungsstrukturen der Demokratie. Es handelt sich um das Phänomen, das J. Rauch ( 1995 ) als « Demosklerose » definiert hat.

61

Digitale Welt und Gestaltung

66

gewährleisten. Wenn dem so wäre, dann wäre nichts dagegen einzuwenden. 66 Doch ein Punkt überzeugt nicht. Während man hinsichtlich des Programms «Die Regierung neu erfinden » zu einem Einverständnis gelangen kann, gilt das nicht im gleichen Maß für das Programm «Die Politik neu erfinden ». Hierüber gehen die Meinungen, auch unter den Fürsprechern der elektronischen Republik selbst, stark auseinander. Im Wesentlichen gibt es zwei Positionen: Auf der einen Seite befinden sich jene, für die eine Informatisierung der politischen Kommunikation gleichbedeutend ist mit vermehrter direkter Teilnahme der Bürger, immer mit dem Ziel, die repräsentative Demokratie zu stärken (und nicht, sie zu schwächen). Auf der anderen Seite befinden sich jene, die diesbezüglich einer viel radikaleren Vorstellung anhängen. Für sie bedeutet die Informatisierung der politischen Kommunikation nichts anderes, als die Voraussetzungen dafür zu schaffen, dass man in – wie sie meinen – naher Zukunft zu einer wahren Alternative der repräsentativen Demokratie gelangt. Während das erste Programm darauf abzielt, die gegenwärtige Lage zu verbessern, beabsichtigt das zweite Programm, sie umzustülpen.

67

Nehmen wir diesen zweiten Fall, um die elektronische Republik besser zu verstehen. In den USA hat der texanische Milliardär Ross Perot, der kuriose Präsidentschaftskandidat von 1992, während seiner Wahlkampagne eine eigene Vision und ein aufschlussreiches Beispiel einer elektronischen Republik geliefert, das sich als explizite Ablehnung der Regierung, des Parlaments und der Politik (kurz: « der aus Washington! ») herauskristallisierte. Dieses konfuse (und zum Teil auch umgesetzte) Modell von Perot ist unter dem Namen der electronic town hall bekannt geworden. 67

66

Es erübrigt sich hier, an die zweifellos positiven Auswirkungen der Telematik auf die dem Bürger gebotenen öffentlichen Dienstleistungen zu erinnern. Ich halte es für unwahrscheinlich, dass jemand – einschließlich des Verfassers – in der Lage wäre, das Gegenteil zu beweisen, also dass die Informatisierung des öffentlichen Dienstes nicht direkt oder indirekt die Qualität der Dienstleistungen verbessern kann. Es genügt, als Beispiel die Möglichkeit zu erwähnen, « per Tastendruck in Realzeit » persönliche Angelegenheiten bei Behörden ( Geburtsurkunde, Wohnsitz, Familienstand usw. ) und Gesundheitsfragen ( Krankenhausanmeldung, Analysen ambulanter Behandlungen ) zu erledigen, aber auch die Möglichkeit des Zugriffs auf Informationen, die man als einzelner Bürger benötigt, zu haben. Ich beziehe mich zum Beispiel darauf, im Bundesanzeiger nachzusehen ( Gesetze, Wettbewerbe usw. ), weiterhin Dokumente über Fragen auf Regional-, Landes- und Gemeindeebene, über Gesetzesentwürfe und ihrer Behandlung im Parlament und nicht zuletzt über Gerichtsentscheidungen zu konsultieren.

67

Eine dokumentierte Untersuchung des elektronischen Rathauses von Ross Perot ist bei P. F. Hanter ( 1993 ) zu finden. In der amerikanischen Debatte über Perot werden die Ausdrücke electronic town hall und electronic town meeting häufig als Synonyme gebraucht, wobei es sich ≥

62

Cyberspace – ein demokratischer Space ?

68

69

Sicher war Perot nicht der Erste mit seiner Forderung nach einer direkten Demokratie, die unter Nutzung der Massenmedien die gegenwärtigen Spielregeln des liberaldemokratischen Staates unterlaufen will. Vielmehr waren die BestsellerAutoren A. Toff ler und J. Naisbitt schon einige Jahrzehnte früher wesentlich deutlicher. 68 Diese beiden Futurologen gehen weit über Perot hinaus. Sie gehen sogar so weit, die Verfassung der Vereinigen Staaten als Voraussetzung für eine elektronische direkte Demokratie, die sich nach ihrer Meinung auf das absolute Abschwören jeglicher Form von Repräsentanz stützen müsste, drastisch verändern zu wollen. Kurz: eine plebiszitäre Demokratie in Daueraktion. Es mag eigenartig, doch bei näherer Betrachtung auch wieder gar nicht so eigenartig erscheinen, dass der ultrakonservative Newt Gingrich, Sprecher des Repräsentantenhauses und zur Zeit unter Korruptionsverdacht, als « Schüler » von Toff ler gilt, der ganz sicher ein erklärter Gegner jedweder Art von Repräsentativität ist. Gingrich hat bekannt, dass seine politische Auffassung von Beginn an stark von Toff lers Vorstellung einer « antizipatorischen Demokratie » beeinf lusst worden ist. 69 Toff ler neigt heute dazu, eine ziemlich verwässerte Version der direkten Demokratie zu liefern, die sich weit von der Auffassung entfernt, die er selbst in den Büchern Future Shock (1970) und The Third Wave (1980) vertreten hatte – vielleicht um zu vermeiden, dass der extreme Antiparlamentarismus dieser Texte den Abgeordneten Gingrich in Schwierigkeiten stürzen könnte. Vor allem sucht er jetzt zu Ross Perot auf Distanz gehen. «Es handelt sich hier nicht», schreiben A. und H. Toff ler, «um electronic town halls in der rohen Form, wie sie von Ross Perot vorgeschlagen

aber – wie S. Vicari ( 1993 ) bemerkt hat – in Wirklichkeit um zwei verschiedene Dinge handelt. Der erste Begriff hat eine eingeschränkte, der zweite eine weitere Bedeutung.

68

Siehe A. Toffler ( 1971 und 1980 ) und J. Naisbitt und P. Aburdene ( 1982 ). Vergleiche auch S. London ( 1994 ).

69

Im Vorwort zu einem neueren Buch von A. und H. Toffler ( 1995, S. 16 ) schreibt Gingrich: «Ich habe mit den Tofflers Anfang der siebziger Jahre begonnen, über den Begriff der antizipatorischen Demokratie zu arbeiten. Ich war damals ein junger Assistent am West Georgia State College und fasziniert vom Schnittpunkt zwischen Geschichte und Zukunft, [einem Schnittpunkt], der das Wesen der Politik und der Regierung bildet. Nach Toffler ( 1971, S. 478 und 479 ) bedeutet « antizipatorische Demokratie », sich direkt an die Menschen zu wenden ( go to the people ) und zu fragen, in welcher Welt sie in zehn, zwanzig oder dreißig Jahren gern leben würden. Dieses « permanente Plebiszit über die Zukunft » wäre nichts anderes als – immer nach Toffler – eine « massenhafte und globale Ausübung der antizipatorischen Demokratie ».

63

Digitale Welt und Gestaltung

70

wurde. Heute sind viel subtilere und ausgereiftere demokratische Prozesse möglich. Es geht nicht um die Frage direkte Demokratie versus indirekte Demokratie, unsere Repräsentation versus Repräsentation anderer. Viele fantasievolle Konzepte können erfunden werden, um direkte und indirekte Demokratie zu verbinden.» 70 Nichtsdestoweniger ist es gerade die « Rohform » eben wegen ihrer ungeschlachten und geradezu karikaturesken Züge, die uns besser als die von den Toff lers vorgeschlagene Formulierung die politische Rhetorik einer direkten elektronischen Demokratie verstehen lässt, zumindest in der Variante, deren Ausdruck bei Perot, aber auch bei Toff ler, Gilder und sogar Gingrich, wenn auch in verschiedenen Abschattungen und Akzentuierungen, zu finden ist. Der Lieblingsslogan Perots (aber auch Toff lers und vieler anderer) lautet: go to the people. Im besonderen Fall von Perot nimmt der Slogan Konnotationen einer extremen populistischen Virulenz an, eines Aufrufs zur Mobilisierung aller gegen alles und alle, gegen die Politiker, gegen die Bürokraten, gegen das Parlament, gegen die Lobbys und gegen die Steuern.

71

72

Einige Beobachter sind aber nicht davon überzeugt, dass Perot für diese Zwecke ein gutes Beispiel liefert. Es wird der Einwand erhoben, dass sein Beispiel irreführend ist, insofern die von ihm herangezogenen Technologien recht elementaren Charakter haben (beinahe ausschließlich die call in shows im Fernsehen und im Rundfunk), wogegen die wahre theoretische Herausforderung eine electronic town hall betrifft, die das riesige Arsenal der neuen auf den Teleputer gestützten Technologien nutzt. 71 Wir haben bereits Ähnlichkeiten und Unterschiede zwischen dem heutigen auf dem Fernsehen beruhenden Kommunikationssystem und dem neuen gerade entstehenden System des Teleputers herauszustellen versucht. Es gibt da Brüche, aber auch Kontinuitäten, und diese haben – vom Standpunkt der hier erörterten Probleme aus betrachtet – einen alles anderen als nebensächlichen Stellenwert. Nach meiner Ansicht treffen viele der in den vergangenen fünfzig Jahren gegen die alten Medien vorgebrachten Kritiken auch auf die heutigen neuen Medien zu. 72

70

A. und H. Toffler ( 1995, S. 98 ).

71

P. F. Hanter ( 1993 ).

72

Zur Relativierung des von G. Gilder künstlich aufgebauschten Gegensatzes ( vgl. Fußnote 4 ) zwischen Fernseher und Teleputer vgl. D. Burstein und D. Kline ( 1995, S. 194–219 ).

64

Cyberspace – ein demokratischer Space ?

73

Ich möchte einen nach meiner Ansicht sehr aufschlussreichen Essay von G. Sartori (1989) zitieren. 73 In diesem Text entfaltet der italienische Politologe eine glänzende Analyse des Phänomens, das er video power nennt. Er geht vor allem auf die politische (und kulturelle) Macht des Fernsehens ein. Doch ein sehr großer Teil der gegen das Fernsehen vorgebrachten kritischen Einwände kann ohne Schwierigkeiten auf den Teleputer übertragen werden. Zum Beispiel durchlöchert er den Mythos, dass das Fernsehen durch das Niederreißen aller Barrieren das Entstehen des « globalen Dorfes » fördert. Das globale Dorf wäre nicht, wie McLuhan glaubte, ein Dorf, das global wird, sondern eher ein Globus, der zu einem Dorf wird, zusammengesetzt aus einer « Myriade von kleinen Vaterländern ». Kurz, der Globalismus würde den Lokalismus verdecken. Diese auf das Fernsehen zutreffende Beobachtung gilt noch mehr für das Szenario eines vom Teleputer geschaffenen Cyberspace, der mit dem Anspruch globaler Gültigkeit auftritt. Ein weiteres Beispiel: die Tendenz des Fernsehens zur – Sartori zufolge – « Verdichtung ». Verdichtung bedeutet, aus Zeitmangel die Einordnung und Erklärung der gezeigten Fakten auszublenden, wie man es unter anderem an der Verwendung von immer kürzeren Effektsätzen (sound bite) und der Begrenzung (bis hin zum Ausschluss) der talking heads sehen kann. Auf diese Tendenz stoßen wir auch, und in verstärkter Weise, bei allen mit dem Teleputer verbundenen Kommunikationsformen.

Populismus und digitaler Populismus Abgesehen vom rudimentären oder hoch entwickelten, technisch überholten oder fortgeschrittenen Charakter der am häufigsten anzutreffenden Formen der elektronischen Republik, teilen diese sich viele Eigenschaften. Eines dieser Merkmale, vielleicht das wichtigste, besteht darin, dass sie alle auf die eine oder andere Weise einer populistischen Konzeption der Demokratie verhaftet sind. Zwar appellieren die Plädoyers für die Netzdemokratie immer an die Werte des Populismus. Doch ist der Populismus nicht als einheitliche Doktrin zu nehmen. Es gibt mindestens drei große populistische Traditionen: die des amerikanischen

73

Vgl. N. Bobbio ( 1995 ). In seiner Analyse ging Bobbio über das Fernsehen hinaus und befasste sich mit dem Thema der politischen Implikationen des Computers. In diesem Zusammenhang spricht er von der «Computerkratie » und beurteilt die Vorstellung, dem Computer die Ausübung der Wahl der Bürger anzuvertrauen, als « kindisch ».

65

Digitale Welt und Gestaltung

Farmers, des russischen Anarchisten und die des lateinamerikanischen Caudillo. Unter diesen drei Traditionen muss – aus offensichtlichen Gründen – der zuerst genannten Variante ein direkter Einf luss auf das politische Ideal des Cyberspace zuerkannt werden.

74

Historisch gesehen erscheint der Populismus in den Vereinigten Staaten eng mit dem Kommunitarismus verbunden – ein Phänomen, das wir bereits erörtert haben. Diese These vertreten R. Hofstadter (1969) und P. Worsley (1969). Dagegen handelt es sich nach Worsley beim russischen Populismus um eine Bewegung, die aus dem Solidaritätsempfinden einer Elite, und zwar der Intellektuellen, gegenüber den Leiden der Landbevölkerung entspringt. Im Unterschied zum russischen Populismus ist der nordamerikanische Populismus nicht eine Bewegung für die Menschen, sondern eine Bewegung von den Menschen. Während es in der populistischen (und revolutionären) russischen Kultur, von Herzen bis Lenin, immer eine Elite, eine aufgeklärte Avantgarde war, die die Mobilisierung der Massen leitete, wird in der nordamerikanischen Kultur jeglicher Elite eine Führungsrolle abgesprochen; für die kollektive Willensbildung setzt man auf die Spontaneität der einzelnen Individuen (und Gruppen). 74 Selbstverständlich genießt die Ablehnung der Eliten in den USA heute nicht denselben Grad an Glaubwürdigkeit wie zur Zeit der ersten Farmer (und kann sie auch nicht genießen). Schließlich hat sich die Lage radikal verändert. Sicher, eine Demokratie «von unten» (bottom-up) wird weiterhin, vielleicht mit dem gleichen Nachdruck wie früher, als eine der typischen Eigenschaften der nordamerikanischen Gesellschaft postuliert. Diesem idealen Eigenbild kann man aber immer weniger nachkommen. In der Tat verträgt es sich nicht gut mit einem Land, in dem alle möglichen Eliten – industrielle, finanzielle, militärische, technokratische und bürokratische – eine praktisch uneingeschränkte Macht « von oben » (top-down) ausüben, und zwar innerhalb der eigenen Grenzen, aber auch außerhalb dieser Grenzen. Ich frage mich: Welchen Sinn macht es, wenn es denn überhaupt einen Sinn macht, in einem solchen Kontext erneut einen extremen Populismus zu propagieren, diesmal in elektronischer Version, mit der Absicht, eine direkte Demokratie zu gründen, die theoretisch jeden Einf luss einer Elite ausschalten müsste ? Abgesehen von der Machbarkeit dieses ehrgeizigen Projekts, lässt sich nicht leugnen, dass es verkappt eine starke Verurteilung eines Systems zum Ausdruck bringt, in dem einige allmächtige Elitegruppen ihre Präsenz allseits spüren lassen.

74

66

Zum Begriff der Elite vgl. T. B. Bottomore ( 1964 ).

Cyberspace – ein demokratischer Space ?

Diese Feststellung enthebt jedoch nicht von der Verpf lichtung, der wirklichen Tragweite dieser Verurteilung nachzugehen und mit anderen Worten zu fragen, ob der digitale Populismus als eine radikale Alternative zum derzeit bestehenden Elitismus wirklich das ist, was er zu sein beansprucht. In einem ersten Anlauf wäre folgende Frage zu stellen: In welchem Maß kann das Szenario einer Netzdemokratie wirklich neue Elemente in den alten Disput zwischen Populismus und Elitismus einbringen ? Und wenn es sie einbringt, worin bestünden sie ? Es handelt sich um Problemstellungen, die man nicht auf die leichte Schulter nehmen kann, denn gestern wie heute beinhaltet die Kontroverse zwischen Populismus und Elitismus Fragen, die von entscheidender Bedeutung für die Demokratie sind. Einige – vielleicht die wichtigsten – wurden bereits herausgestellt, etwa die Frage der Autonomie und somit der positiven oder negativen Freiheit der Bürger. Zwar kann das Thema des Elitismus nicht mit Hilfe derselben Begriffe analysiert werden, wie sie früher V. Pareto, G. Mosca und R. Michels nutzten, also mit Hilfe des Begriffs der Unvermeidbarkeit politischer und nur politischer Oligarchien; doch erfordert das Auf kommen einer neuen Art von Populismus – eben des digitalen Populismus – eine kritische Wiederaufnahme dieses Themas. Diese Wiederaufnahme muss meiner Ansicht nach mit einer erheblich differenzierteren Version des Elitebegriffs beginnen, weil die Eliten und ihre Handlungen sich nicht mehr auf einen einzelnen Bereich beschränken. Außerdem machen sie ihren Einf luss und ihre prägende Macht auch in Bereichen spürbar, die hartnäckig Eliten ablehnen.

75

Was wäre also unter Elitismus in einer Epoche wie der unsrigen zu verstehen, in der ein neuer Populismus sich nicht auf die einfachen Technologien der vorindustriellen Ära beruft, sondern auf die fortgeschrittensten Technologien der Informatik und Telekommunikation und somit indirekt auf die industriellen und technisch-wissenschaftlichen Eliten, die diese Entwicklung leiten ? 75

75

Doch interessiert hier weniger der sicherlich hohe Grad an Unabhängigkeit des Elitismus in Beziehung zum Populismus; vielmehr geht es darum, herauszufinden – wie ich gerade vorweggenommen habe –, in welchem Maße sich das radikal antielitäre Programm des digitalen Populismus in der Wirklichkeit niederschlägt. Um das festzustellen, könnte man nach herkömmlicher Art die Macht untersuchen, die direkt oder indirekt von multinationalen Unternehmen in den Sektoren Information und Telekommunikation über die Netzbenutzer ausgeübt wird. Es wäre herauszufinden – was alles in allem nicht so schwer ist –, wie und in welchem Umfang die Interessen dieser Unternehmen das Kommunikationsverhalten der Nutzer beeinflussen, wie also die Eigentümer der Medien deren Botschaften bedingen.

67

Digitale Welt und Gestaltung

Aber jenseits (oder diesseits) der Erwägungen, die man über dieses Thema anstellen kann, müssen Elitismus und Populismus in erster Linie als zwei gegensätzliche Arten des Demokratieverständnisses angesehen werden, als zwei grundverschiedene Auffassungen der Rolle, die den Bürgern in der demokratischen Verwaltung der Gesellschaft zugedacht ist. Der Gegensatz besteht zwischen denen, die wie die Populisten den autoritären Übergriff der Eliten fürchten, und jenen, die wie die Anhänger der Eliten ein « Übermaß an Demokratie » fürchten.

76

Der amerikanische Neokonservative J. Bell hat trotz seiner spürbaren Sympathie für einen durchaus nicht lauwarmen Elitismus eine recht sachliche und operable Beschreibung dieser beiden in Frage stehenden Auffassungen geliefert. Er schreibt: «Populismus ist Optimismus hinsichtlich der Fähigkeit der Menschen, Entscheidungen für ihr eigenes Leben zu treffen. Elitismus ist Optimismus hinsichtlich der Fähigkeit, seitens einer oder mehrerer Eliten Entscheidungen zugunsten der Menschen zu treffen. Populismus impliziert Pessimismus hinsichtlich der Fähigkeit der Eliten, Entscheidungen zu treffen, die sich auf die Menschen beziehen. Elitismus impliziert Pessimismus hinsichtlich der Fähigkeit der Menschen, Entscheidungen zu treffen, die sich auf sie selbst beziehen.» 76 Leicht lässt sich sehen, dass für Bell das Problem vorzugsweise subjektiven Charakter hat. Letztlich würde alles auf eine Frage des Optimismus und Pessimismus hinauslaufen. Man kann den Gedanken akzeptieren, dass in vorliegendem Fall die subjektiven Aspekte einen wichtigen Teil des Problems bilden, aber nicht behaupten, dass in unserem den Populismus oder Elitismus befürwortenden oder ablehnenden Wahlverhalten nicht Fragen anderer Tragweite tangiert werden. In der Geschichte des okzidentalen politischen Denkens ist das Thema nicht neu; in jüngster Zeit aber hat es besondere Aktualität gewonnen. Dazu haben einerseits – seit 1968 – die Explosion verschiedener Formen des Populismus und andererseits die Rückkehr eines immer aggressiveren elitären Neokonservativismus beigetragen. Doch so einfach liegen die Dinge nicht. In der heutigen Gesellschaft lassen sich Populismus und Elitismus schwer auseinanderhalten. Es handelt sich nicht um zwei klar voneinander abgesetzte Bereiche. Vielmehr besteht zwischen Populismus und Elitismus ein wenn auch subtiler Bezug wechselseitiger Abhängigkeit. In einer liberaldemokratischen Gesellschaft sind die Eliten gezwungen, zumindest auf rhetorischer Ebene sich die Slogans des Populismus anzueignen. Keine Elite mit realer Macht kann sich heutzutage den Luxus erlauben, offen die eigenen Privilegien

76

68

J. Bell ( 1992, S. 3 ).

Cyberspace – ein demokratischer Space ?

77

78

zu preisen und gleichzeitig Gleichgültigkeit bis hin zur Verachtung denen gegenüber zu zeigen, die solche Privilegien nicht genießen. 77 In gewisser Hinsicht ist der Elitismus gezwungen, den Populismus zu imitieren. Bisweilen kommt der Verdacht auf, dass die Dramatisierung des Gegensatzes Populismus–Elitismus nur dazu dient, die Aufmerksamkeit von den wirklichen Problemen der Demokratie abzulenken. Das Vertrauen in die Urteilsfähigkeit der Bürger – wir haben das Thema bereits behandelt – bildet eine der Grundvoraussetzungen der Demokratie; doch wie die Populisten zu glauben, dass diese Fähigkeit von sich aus immer und überall zu richtigen Entscheidungen zu führen vermag, ist ein schwerer Irrtum. Auf der anderen Seite ist es ebenso ein Irrtum, wie die Elitisten es als selbstverständlich anzusehen, dass einige Eliten – zum Beispiel Experten – überall und immer optimale Entscheidungen garantieren können. 78 Das eigentliche Problem ist (derzeit) weniger der Elitismus als der Populismus. Über den Elitismus wissen wir alles (oder nahezu alles). Über den Populismus sind dagegen einige neue Klarstellungen angebracht. Ich habe zu zeigen versucht, dass das hervorstechende Merkmal jeder Art von Populismus in der inhärenten Tendenz besteht, zu glauben, dass die Bürger in ihren Entscheidungen unfehlbar sind. In der Praxis führt diese Einstellung allgemein zum demagogischen Hochfeiern derer, die man die « Leute » nennt. Doch die Vorstellung von den « Leuten » ist durchaus nicht neutral. Wer die « Leute » apostrophiert, denkt in erster Linie an jene, die generell die eigenen Meinungen bestätigen (oder legitimieren) könnten, und nicht an jene, die diese Meinungen nicht teilen. So gesehen werden die « Leute » vorwiegend mit denen identifiziert, die der gleichen Nation, Lokalität, Rasse, Klasse, Religion oder dem gleichen Geschlecht angehören, ferner auch mit den Anhängern derselben Partei oder Ideologie. Nicht überzogen scheint mir die Behauptung, dass der Populismus mit seinem rhetorischen Appell an die « Leute » auch und letztendlich eine Form von Elitismus darstellt, weil er bestimmte « Leute » einschließt und andere « Leute » ausschließt.

77

Sicher existieren einige Eliten, die sich diesen Luxus erlauben, doch das sind Randerscheinungen. Abgesehen von Integralisten aller Art findet man selten institutionelle Eliten, die bereit sind, öffentlich ihre Abneigung gegen Schwarze, Juden, Latinos, Homosexuelle oder Frauen zu bekennen und – immer öffentlich – ihren Hass auf die unteren Gesellschaftsklassen zu rechtfertigen.

78

Zur Beziehung von Eliten zu Experten vgl. Maldonado ( 1995, S. 33 ff. ).

69

Digitale Welt und Gestaltung

Der digitale Populismus bildet da keine Ausnahme. Doch dass bisweilen der gegenteilige Eindruck auf kommen kann, liegt an der augenfälligen Art, wie er die Menschen anspricht. Der digitale Populismus bekennt sich zum Dienst an allen Menschen, ohne jemanden auszugrenzen. Doch die Wirklichkeit sieht anders aus. Im Rauschen einer angeblich universalen telematischen Kommunikation setzt sich die Vorstellung von « Leuten » auch hier im Sinne von « meine Leute » durch, allerdings mit einem Unterschied: Die anderen Populismen agieren mit großer Streubreite, wobei sie oft auf die Mobilisierung der Massen zurückgreifen. Der traditionelle populistische Demagoge sucht den direkten Kontakt mit seinen potenziellen Jüngern oder Anhängern zum Beispiel durch Versammlungen auf Plätzen. Der digitale Populist dagegen arbeitet wesentlich in seiner häuslichen Eigenwelt, versunken vor seinem Computer und eingeschlossen in einem meist beengten und abgetrennten Raum, niemals in direktem Kontakt, also von Angesicht zu Angesicht mit seinen fernen und unerreichbaren Dialogpartnern. Aus dieser Interaktionsart ergeben sich hoch interessante Probleme für die Diskussion über das vorgetragene Szenario einer elektronischen Demokratie.

Identität und Rollenvielfalt

79

Nicht nur dieser Kontaktmangel macht die telematische Demokratie zu einem problematischen Phänomen. Hinzu kommt ein noch beunruhigenderer Aspekt, der das Kernproblem der individuellen Identität betrifft. Ich denke dabei an den immer häufigeren Gebrauch von Programmen der netzbasierten Interaktion, in denen die Nutzer ihre eigene Identität aufgeben und nach Belieben in andere Identitäten schlüpfen können. 79 Eine achtzehnjährige Schülerin, die sich als alter, pensionierter Boxer ausgibt. Ein Rechtsanwalt aus der Provinz als Dirigent eines Orchesters. Ein verheirateter Mann als verstockter Junggeselle. Ein isländischer Priester als brasilianische Prostituierte. Diese digitalen Verkleidungen können, wie man sieht, Situationen ungewollter (oder gewollter) Komik bewirken. Man sollte sich aber nicht darüber wundern, dass diese Verkleidungen oftmals als eine Art fantasievolles, frivoles und belustigendes (virtuelles) Gesellschaftsspiel verwendet werden. Für viele Hunderttausende von Hobbyspielern, ob jung oder alt, wird das Spiel mit falschen Identitäten als angenehme Unterhaltung erlebt oder besser als eine etwas gewollte Art, einen individuellen Mangel im Umgang mit anderen zu kompensieren.

79

70

Zum Verbergen der eigenen Identität vergleiche J. Starobinski ( 1961 ).

Cyberspace – ein demokratischer Space ?

Dennoch bedingt das Phänomen Folgen, die weit über den gerade erwähnten Bereich hinausgehen. Ich meine die möglichen und realen Folgen im Bereich der politischen Kommunikation. Man denke zum Beispiel an eine Gruppe von Personen, die mit Hilfe des IRC (Internet Relay Chat) in « Realzeit » Meinungen über Themen austauschen, die wichtige kollektive Entscheidungen betreffen; und das, ohne die eigene Identität zu enthüllen oder indem sie eine andere Identität simulieren (oder usurpieren). Im Jargon der Informatik wird die durch den IRC-Kanal ermöglichte Gesprächssituation als chat bezeichnet. In der Umgangssprache wird chat als f lüchtige, oberf lächliche, zusammenhanglose und bisweilen ein wenig geschwätzige interpersonale Dialogform betrachtet. Diese Bedeutung trifft, nicht aus Zufall, auch für den Chat im Internet zu. Man kann zu Recht annehmen, dass die Auswirkungen, besonders bei der Diskussion politischer Fragen, verheerend sein können. Das Chatten kann sich – wie die Erfahrung mit dem Fernsehen zeigt – als Quelle des Überdrusses und geradezu als Motiv für die Abkehr der Bürger von der Politik erweisen. Wenn Chatten zwischen Personen stattfindet, die über Distanz ohne Blickkontakt interagieren und die obendrein ihre eigene Identität verbergen, dann haben wir es mit einer Form der Kommunikation zu tun, die sich weit von dem entfernt, was man rechtmäßig unter einer effektiven Kommunikation verstehen kann. Vor allem, wenn es sich bei dem Thema um nichts weniger als Entscheidungen mit weit reichender Auswirkung auf das demokratische Leben handelt. In diesem Bereich brauchen die Bürger keine Chats, sondern eine öffentliche Diskussion über die jeweils zu treffenden Beschlüsse. Wir stoßen hier auf einen kritischen Punkt unserer Überlegungen. Wenn – wie ich meine – das Chatten keinen glaubhaften Weg für die politische Kommunikation bildet, müssen die Ursachen des Mangels an Glaubwürdigkeit benannt werden. Zu diesem Zweck ist – wenn auch summarisch – eine in der heutigen Soziologie häufig aufgegriffene Thematik zu untersuchen, die sich direkt auf die Art und Weise bezieht, in der die sozialen Akteure an den Kommunikationsprozessen der Gesellschaft teilnehmen. 80

An dieser Stelle muss kurz auf die Rollentheorie verwiesen werden. 80 Sie ist eine Theorie, die – das sei sofort betont – von vielen und zu Recht als wenig ergiebig für die gegenwärtige Interessenslage der soziologischen Forschung betrachtet wird.

80

In der Regel werden G. Simmel ( 1910 ) und G. H. Mead ( 1934 ) als Autoren einer Reihe von Deutungsmustern angesehen, auf deren Grundlage dann die soziologische Rollentheorie entwickelt ≥

71

Digitale Welt und Gestaltung

81

82

83

Sie stand in Blüte, als in der Soziologie uneingeschränkt die funktionalistische Schule herrschte, hat aber ihre ehemalige Vorrangstellung eingebüsst. 81 Nun scheint mir, dass die Soziologen mit wenigen Ausnahmen diese Theorie vorschnell ins Abseits geschoben haben. In der Tat kann man feststellen, dass einst unter den Wissenschaftlern der Rollentheorie gängige Argumente jetzt wieder in den Werken der Spezialisten für Moralphilosophie auftauchen, und zwar mit anderer Akzentsetzung und anderen Nuancen. 82 Es geht dabei um folgende Fragen: Was ist eine Person ? Oder besser: Worin besteht die Identität einer Person ? Welche Verbindung besteht zwischen dem Ich und dem Anderen ? Wenn es nach Lukian und Shakespeare zutrifft 83 , dass unser Leben nichts anderes als eine Bühne ist, auf die wir gerufen werden, um gleichzeitig oder nacheinander viele oftmals konf ligierende Rollen zu spielen, wie erklärt es sich dann, dass unter unseren zahlreichen Masken einige derart in uns verwurzelt

wurde. Wichtige Beiträge wurden unter anderem von R. Linton ( 1936 ) und R. Dahrendorf ( 1958 ) geliefert. Vergleiche vor allem wegen der Kritik an dieser Theorie H. Popitz ( 1968 ), D. Claessens ( 1970 ), U. Gerhardt ( 1971 ), F. Haug ( 1972 ) und nicht zuletzt J. Habermas ( 1984, S. 187 und 1991, S. 13 ), der starke Vorbehalte gegenüber der klassischen Rollentheorie äußerte, weniger wegen der Aspekte, auf die sie verwies, als vielmehr wegen der Aspekte, die sie ausblendete. Für Habermas war das schwerste Versagen, nicht die Frage der « Interaktionskompetenz zwischen den Rollen » angegangen zu haben.

81

Die Kritik am « klassischen Funktionalismus » – wohlverstanden von T. Parsons und seiner Schule – setzt mit C. G. Hempel ( 1959 ) ein, der diese Theorie aus neoempiristischer Sicht als wissenschaftlich unhaltbar bezeichnet. N. Luhmann ( 1970 ) versuchte dann, mit unsicherem Erfolg, über die Kritik Hempels hinauszugehen, indem er eine neue Version des Funktionalismus entwickelte: den « Neofunktionalismus ». Während der klassische Funktionalismus nach Luhmann eine strukturell-funktionale Theorie sei, sei der Neofunktionalismus dagegen eine funktional-strukturelle Theorie der Gesellschaftssysteme. Die zuerst genannte Theorie setzt den Akzent auf die « Struktur », die zweite auf die « Funktion » ( Bd. I, S. 113 – 139 ). Zum Neofunktionalismus von Luhmann vergleiche die Einleitung von D. Zolo zur italienischen Ausgabe von Luhmanns Soziologische Aufklärung ( 1970 ). Eine andere Kritik am « klassischen Funktionalismus » bestand im Vorwurf des « Konservativismus », der aber von vielen nicht geteilt wird, zum Beispiel von R. K. Merton nicht ( 1949 ).

82

83

Ich beziehe mich z. B. auf Philosophen wie B. Williams ( 1973 ) und Ch. Taylor ( 1989 ).

Es handelt sich um die im klassischen Altertum von Lukian ( 1992, Band I, S.442–443 ) intuitiv erfasste Idee, die Shakespeare ( 1982, S. 520–521 ) in einem berühmten Passus einer seiner Komödien in einen Gemeinplatz verwandelte: dass wir alle im Leben berufen sind, nicht nur eine, sondern verschiedene Rollen zu spielen.

72

Cyberspace – ein demokratischer Space ?

84

85

zu sein scheinen, dass wir – wie Lukian sarkastisch bemerkt – bereit sind, «eher den Kopf als die Maske zu verlieren». 84 Oder deutlicher: Wenn wir gleichzeitig Inhaber einer Vielzahl von Rollen sind, warum und wie herrscht während einer bestimmten Zeitspanne dann eine Rolle so vor, dass sie sich in ein charakteristisches Merkmal unserer Identität verwandelt ? In der gegenwärtigen Entwicklungsphase der fortgeschrittenen Industriegesellschaft (eine Phase, die einige « postmodern » nennen, aber die ich lieber als « Hypermodernität » bezeichne 85) zeigen die Personen eine starke Tendenz, während ihres Lebens häufig ihre Identität zu wechseln. Wie erklärt sich dann die Dynamik dieses Phänomens, von welchen Faktoren wird es ausgelöst und wie wirken sie sich auf die Vorstellung der Person und die Bildungsprozesse der Persönlichkeit aus ? Das sind offensichtlich keine neuen Fragen. In allen Epochen haben sich die Denker an Problemen ähnlicher Natur gemessen. Doch mit dem Entstehen des modernen Individualismus drängen sie sich geradezu auf. Zum ersten Mal muss das Ich nicht hinter einer Mauer von Euphemismen verborgen oder vermummt werden. Bei Montaigne wird das moi als die Entdeckung eines neuen Territoriums gelebt, als der Beginn einer neuen zu erkundenden Welt. Doch der umwälzende Einbruch des Ichs in die okzidentale Kultur bringt gleichzeitig eine Neuwertung des Anderen mit sich. Die Beziehung zwischen dem Ich und dem Anderen rückt unvermittelt ins Zentrum eines neuen Horizonts der Ref lexion. Es geht dabei nicht um eine Beziehung zwischen zwei unveränderlichen und einfachen Wirklichkeiten, sondern zwischen zwei veränderbaren und zusammengesetzten Wirklichkeiten – zwischen zwei sich gegenseitig formenden Wirklichkeiten. Es gibt da kein Ich ohne den Anderen und umgekehrt. Mehr noch, mit einer ein wenig forcierten Formulierung kann man sagen, dass in jedem Ich verschiedene Ichs anwesend sind. Um bei der Metapher des Theaters zu bleiben: Jedes Ich wird als eine Szene betrachtet, in der verschiedene Rollen in einem komplexen Rollenspiel interpretiert werden. Genau diese Vorstellung wird von der soziologischen Rollentheorie vertreten: Jede Person ist Träger verschiedener Rollen. Einmal abgesehen von den zahlreichen Vorbehalten, die man gegen die Rollentheorie hegen kann, liefert sie eine treffende Beschreibung dessen, was in den Bildungsprozessen unserer Identität und in den Beziehungen zwischen unserer Identität und der Identität der Anderen vor sich geht.

84

Lukian ( 1992, Bd. II, S. 16–161 ).

85

Das Thema der Modernität ( modern, Modernisierung, postmodern usw. ) ist eingehend in meinem Essay Il futuro della modernità ( 1987 ) behandelt.

73

Digitale Welt und Gestaltung

86

Es mag nützlich sein, an dieser Stelle den wichtigen terminologischen Beitrag von R. K. Merton in Erinnerung zu rufen. Ausgehend von den Arbeiten von L. Linton (1936), doch gleichzeitig viele von dessen Mehrdeutigkeiten hinter sich lassend, klärt Merton die Begriffe « Status », status set, « Rolle » und role-set. Für Merton (wie auch für Linton) ist «Status die von bestimmten Individuen in einem Gesellschaftssystem besetzte Position, während die Rolle den Verhaltensäußerungen in Übereinstimmung mit den Erwartungen entspricht, die seitens der Gesellschaft dieser Position entgegengebracht werden». 86 Doch im Unterschied zu Linton ordnet Merton jedem einzelnen Status einen status set zu. Da andererseits jedes Individuum – immer nach Merton – verschiedene Statuspositionen einnimmt, wird der Schluss gezogen, dass sich jedes Individuum tatsächlich in einer « Rollenvielfalt » zeigt.

87

Aus primär deskriptiver Sicht, die uns interessiert, können wir jetzt erkennen, wie sich die Rollen im Alltagsleben der sozialen Akteure konkret manifestieren. Abgesehen von einigen irrelevanten Deutungsnuancen, sind sich die Wissenschaftler durchgängig einig, die Rollen in drei große Kategorien zu gliedern: die Primärrollen oder Basisrollen (Mutter, Vater, Großvater, Sohn, Bruder, Schwester, Neffe usw.); die kulturellen Rollen (Italiener, Europäer, Katholik, Hebräer, Parteimitglied, Mitglied einer philanthropischen, pazifistischen oder ökologischen Gesellschaft, Fan eines Fußballvereins usw.) und die sozialen Rollen (Arzt, Rechtsanwalt, Professor, Bischof, Schauspielerin, Student, Industrieller, Fernsehstar, Hausfrau, Pornostar, Clochard, Gewerkschaftler, Bürochef, Angestellter, Arbeiter, Bauer usw.). Jedes Individuum übt in jeder dieser drei Kategorien verschiedene Rollen aus. Nicht zufällig handelt es sich um konf ligierende Rollen. 87 Es ergibt sich nun eine weitere Frage: Aus welchem Grund ist eine Reaktualisierung der Rollentheorie für unser Thema so wichtig ? Wenn man die These von Habermas akzeptiert, auf die wir später zurückkommen werden, dass Demokratie ein rationales kommunikatives Handeln zwischen verschiedenen gesellschaftlichen Subjekten voraussetzt, gewinnt die Frage der Rollenvielfalt, die jeder von uns zum Ausdruck bringt, entscheidendes Gewicht.

86

87

R. K. Merton ( 1949 ). Vgl. R. Linton ( 1936 ).

Diese Rollenvielfalt und ihr Konfliktcharakter stammen zum großen Teil von außen. Sie sind das Ergebnis der gegensätzlichen Erwartungen, mit denen andere uns gegenübertreten. So erklärt sich, weshalb sich heute der Diskurs über die « Freiheit des Subjekts » ( A. Touraine, 1997, S. 10 ) so schwer anlässt.

74

Cyberspace – ein demokratischer Space ?

Das wird besonders deutlich, wenn kollektive Entscheidungen über Themen von großem öffentlichem Interesse zu treffen sind. In einem solchen Kontext kann die Möglichkeit einer rationalen Übereinkunft differenziertere Formen annehmen, wenn die Personen sich an einem Verhandlungstisch nicht nur mit einer Rolle, sondern mit allen Rollen präsentieren, die – wenn auch widersprüchlich – an ihrer Identität teilhaben. So entfaltet sich der Disput nicht mehr zwischen zwei oder mehreren Gegenspielern, wobei jeder nur eine einzige Rolle spielt und somit unvermeidlich zu einer Kollision ohne Alternativen prädestiniert ist. Auch sehen wir uns bei Verhandlungen oftmals gezwungen, unser Ziel zu ändern, doch unsere Präferenzen beizubehalten. Das geschieht, nach J. C. Harsanyi (1978) deshalb, weil unsere Einschätzung der opportunity costs, also der Vor- und Nachteile der verschiedenen wahrscheinlichen Endergebnisse, uns zwingen kann, ein zwar vom anfänglich gewählten abweichendes Ziel zu verfolgen, das wir aber immer noch als das wünschenswerteste Ziel ansehen. Es liegt also einerseits ein inkohärentes Verhalten vor, da wir auf ein nach unserem Urteil vorzuziehendes Ziel verzichten; andererseits dagegen ein kohärentes Verhalten, da wir zumindest auf idealer Ebene unserer Überzeugung treu bleiben, dass dieses Ziel das beste ist.

88

Das Thema der Kohärenz unserer Entscheidungen steht im Zentrum der seit je hitzigen Auseinandersetzung über den Neoutilitarismus. Es drängt sich nicht nur wiederholt den Befürwortern der neoutilitaristischen Perspektive auf, sondern auch denen, die radikal dagegen sind oder gegen die Thematik mit starken Vorbehalten nähern. 88 Wenngleich ich nicht beabsichtige, in diese heikle Auseinandersetzung einzugreifen, scheint mir das Thema in direktem Bezug zu der von mir unterstützten These zu stehen. Wenn man davon ausgeht, dass jedes Individuum Träger verschiedener Rollen ist, kann man sich schwer der Vorstellung entziehen, dass es prinzipiell verschiedene Präferenzen ausdrücken kann. Die theoretischen (und praktischen) Folgen dieser Möglichkeit sollten auf keinen Fall unterschätzt werden. Wenn das Abwägen der opportunity costs mir von einer Wahl abrät, die aus dem Sichtwinkel meiner besonderen Rolle die wünschenswerteste ist, kann ich auf eine andere Wahl zurückgreifen, die aus der Sicht meiner Rollenvielfalt gleichermaßen wünschenswert ist. Auf diesem Wege tritt das Problem der Kohärenz (und der Inkohärenz) in

88

Vgl. B. Williams ( 1982 ) und A. Sen ( 1982 ).

75

Digitale Welt und Gestaltung

89

einem auf zwei oder drei Alternativen beschränkten Entscheidungsraum nicht auf, sondern nur in einem weiten Spektrum möglicher Wahlalternativen. 89 Ein solches Entscheidungsszenario setzt voraus, dass die von jedem sozialen Akteur ausgeübten Rollen real sind; es erfordert eine reale Kopräsenz und eine reale Interaktion zwischen den sozialen Akteuren von Angesicht zu Angesicht. Wenn diese Kopräsenz wie im Fall der telematischen Interaktion fehlt oder geschwächt ist, scheint die Demokratie äußerst bedroht. Und diese Drohung wächst noch, wenn, wie wir gesehen haben und jetzt sehen, die Gesprächspartner in einem telematischen Spiel fiktive Rollen annehmen und somit ihr eigene Identität und gleichzeitig die reiche Dynamik der eigenen Rollenvielfalt aufgeben.

Person und Online-Identität

90

Nach dieser ausführlichen Untersuchung des Themas Identität und nach einer teilweisen Reaktualisierung der Rollentheorie sind wir meiner Ansicht nach vorbereitet, einen weiteren Schritt zur Vertiefung der Frage nach der Online-Identität und ihrer Beziehung zur Demokratie zu unternehmen. Zu diesem Zweck möchte ich einige der Ideen diskutieren, die Sherry Turkle in ihrem Buch Life on the Screen. Identity in the Age of the Internet dargelegt hat. 90 Die Autorin beschäftigt sich aus einer Perspektive überwiegend lacanscher Inspiration mit der Frage der Identität und der role-playing-games im Internet. Neben Lacan ist der Einf luss anderer, überwiegend französischer Wissenschaftler spürbar: Lévi-Strauss, Foucault, Derrida, Baudrillard, Deleuze und Guattari, aber auch Piaget, Erikson und natürlich auch der Einf luss von Freud. Das außer Frage stehende Verdienst dieses Buches besteht in dem Versuch, Thematiken zu vertiefen, die in der Regel in der ebenso umfangreichen wie trivialen (und dieselben Gegenstände wiederkäuenden) Literatur über die Welt des Internets und seine Umgebung gänzlich fehlen.

89

Einige Spieltheoretiker unterscheiden zwischen « statischen Spielen » ( mit dem Merkmal einer einzigen Spielphase ) und « dynamischen Spielen » ( in denen die sozialen Akteure ihre Strategie im Verlauf des Spiels korrigieren ) ( M. Chiapponi, 1989, S. 144 ). Wahrscheinlich kann die hier erwähnte Möglichkeit, dass die sozialen Akteure ihre Entscheidungen unter Bezug auf ein weites Spektrum von Optionen treffen können, in die Kategorie der dynamischen Spiele eingeordnet werden.

90

S. Turkle ( 1995 ). Die Autorin ist Dozentin für Soziologie am MIT, vgl. auch ( Turkle 1984 und 1992 ), ferner P. McCorduck ( 1996 ), ihr Portrait im Rahmen der Veröffentlichung von Life on the Screen.

76

Cyberspace – ein demokratischer Space ?

91

Der Zentralgedanke von Turkle, der den gesamten Argumentationsstrang beherrscht, betrifft die zusammengesetzte Natur des Ichs, das heißt die Identität. Wie wir eben gesehen haben, gehört dieses Thema in den Bereich der (traditionellen und aktualisierten) Rollentheorie und der zeitgenössischen Moralphilosophie. 91 Zuallererst gehört es jedoch in den Bereich jener psychoanalytischen Strömungen, die sich auf die eine oder andere Weise von der Vision von Jung – die archetypische Einheit des Ichs – distanzieren. All das ist im Prinzip akzeptabel. Viel weniger annehmbar aber ist für mich der Gebrauch, der davon gemacht wird. Gestützt auf eine umfangreiche Erfahrung in der Beobachtung des Verhaltens (des eigenen und des Verhaltens anderer) beim Gebrauch von IRC, MUD (Multi User Dungeon), BBS (Bulletin Board System), WELL (Whole Earth Electronic Link) und E-Mail, trägt die nordamerikanische Wissenschaftlerin eine alternative Theorie zu utopischen, utilitaristischen und apokalyptischen Positionen vor, die nach einem bekannten und von der Autorin zitierten Artikel der New York Times wieder und wieder in der Literatur über den elektronischen New Way of Life auftauchen. Obgleich die Untersuchung einer derartigen Alternative – in der Praxis: der vierte Weg – sicher einen Versuch wert ist, glaube ich nicht, dass Turkle mit dem Unternehmen Erfolg beschieden ist. Genauer betrachtet ist ihre Einstellung eher ein Mix aus den drei Positionen als eine Alternative – mit einem erschwerenden Umstand: Die jeder einzelnen Position gewidmete Dosis ist höchst ungleichmäßig verteilt. In ihrem Essay wiegt die utopische Haltung vor. Die utilitaristische Komponente erscheint nur gelegentlich, und die apokalyptische Komponente – wenn man darunter das Vorbringen von Zweifeln und Vorbehalten hinsichtlich des New Way of Life versteht – zeitigt eine noch geringere Präsenz, allenfalls als eine Pf lichtübung, um sich – wie ich vermute – dem eventuellen Vorwurf des Konformismus zu entziehen. Natürlich hat der Utopismus, der aus den Texten von Turkle spricht, nichts gemein mit dem groben und ein wenig naiven Utopismus von Nicholas Negroponte, dem Direktor des MIT Media Lab, dem (vielleicht allzu päpstlichen) Propheten einer wunderschönen zukünftigen digitalen Welt. Ohne Zweifel aber gründet sich der Utopismus von Turkle wie auch der von Negroponte auf den in der Cyberkultur weit verbreiteten Glauben, dass die Entwicklung der Informationstechnologien eine tief

91

«Ich bin viele», hat S. Turkle in einem Interview ( 1996 ) erklärt. Sie spielte auf die Tatsache an, dass jeder von uns viele Identitäten ausdrücken kann, insofern jeder mit verschiedenen Rollen ausgestattet ist. Aber sie bezog sich auch und besonders auf die jedem von uns gebotene Möglichkeit, im Cyberspace vielfältige Scheinidentitäten auszudrücken, also die Möglichkeit, jetzt noch viele mehr zu sein, als uns in der Regel erlaubt ist.

77

Digitale Welt und Gestaltung

greifende Veränderung der Lebensbedingungen auf dem Planeten ermöglichen wird und dass sich diese Veränderungen vor allem in der Sphäre der interpersonellen Beziehungen zuerst bemerkbar machen werden. So gesehen, müsste die Telematik zu einer echten und eigenen Emanzipation unserer interpersonellen Beziehungen beitragen, die eines Tages immer reicher, freier und intensiver werden würden. Dennoch bleibt es vorerst bei einem verführerischen Szenario der positiven Utopie, in dem noch einmal die alte Philosophie des Versprechens nachhallt. Man fabuliert erneut über sublime mögliche Welten, die – so wird uns versprochen – nun in handgreif licher Nähe lägen. Dies ist vielleicht eine Rückkehr zu den « Metanarrativen », den großen Erzählungen, die J.-F. Lyotard allzu voreilig als für immer überwunden ins Abseits befördert hatte. Alles deutet darauf hin, und daran ist nichts skandalös. Es lässt sich schwerlich auf die großen, auf die Zukunft projizierten Erzählungen verzichten, was letzten Endes zum Schaden dessen, was die orakelnden Meister des Poststrukturalismus und Postmodernismus denken, gereichen wird. Diese Überzeugung impliziert keineswegs, dass jede große Erzählung fromm und ergeben anzunehmen wäre. Die geschichtliche Erfahrung der letzten (und nicht nur der letzten) Jahrzehnte lässt eine immer größere Nüchternheit gegenüber Prophezeiungen angeraten erscheinen, eine größere Vorsicht gegenüber Voraussagen aller Art, vor allem gegenüber jenen, die eine unmittelbar bevorstehende Ankunft von sublimen möglichen Welten ankündigen. Abgesehen von der utopischen Versuchung, fehlt es im Buch von Turkle nicht an Beiträgen von bemerkenswertem Interesse. Ich möchte nur zwei Beispiele zitieren: ihre klare Analyse der Beziehung von Transparenz zu Opazität in der Entwicklung des Personal Computer und ihre Überlegungen über die philosophischen Voraussetzungen dessen, was sie « emergente künstliche Intelligenz » nennt. Es sei aber vermerkt, dass es ihr im Allgemeinen nicht gelingt, sich aus dem Käfig der lacanschen Begriffstüfteleien zu befreien. Sie ist überzeugt und scheint nicht von Zweifeln geplagt zu sein, dass es so etwas wie einen Königsweg gibt, der direkt von Lacan zum Internet führt – was zugegeben eine ziemlich gewagte Vorstellung ist.

92

Doch möchte ich nicht bestreiten, dass einige der von Freud entlehnten Prämissen Lacans für das Thema der Identität in dem hier diskutierten Zusammenhang von Nutzen sein können. In einem früheren Buch 92 hat sich die Autorin mit

92

S. Turkle ( 1992 ). Im Vorwort dieser zweiten Ausgabe ( die erste stammt aus dem Jahr 1978 ) zieht Turkle eine Bilanz der « psychoanalytischen Politik der neunziger Jahre ». In diesem Text besteht sie auf der Wichtigkeit der « Ich-Kritik » von Lacan und behauptet, das die daraus resultierende Idee des decentered self heute « relevanter denn je » ist.

78

Cyberspace – ein demokratischer Space ?

originellen Interpretationen von Lacans Werk und Werken von Freud beschäftigt. In diesem Text waren einige der nun ausführlicher behandelten Themen bereits in nuce enthalten. Es bleibt aber noch die Frage offen, ob die Ideen Lacans wirklich die These stützen – wie sie behauptet –, dass im Internet die illusorische Allgegenwart der Personen, der verallgemeinerte Identitätswechsel als ein positiver Aspekt in den interpersonellen Beziehungen zu betrachten wäre. Ich hege da tiefe Zweifel.

93

In dem Maße, wie es möglich ist, das durchweg paradoxe und diffuse Denken Lacans nachzuvollziehen, scheint klar zu sein, dass er niemals mit dem Begriff Schein-Identität sympathisierte. Das Ich, das Subjekt, ist bei Lacan sicherlich ein imaginäres Konstrukt; doch im Bezug auf den Anderen, auch dieser ein imaginäres Konstrukt, gewinnen das Ich (und der Andere) Wirklichkeit. Zumindest, wie er präzisiert, eine halbe Wirklichkeit. Lacan behauptet: «Es gibt niemals ein Subjekt ohne Ich.» Dann ist da noch die Frage des Anderen. «Dieser Diskurs des Anderen ist nicht der Diskurs des abstrakten Anderen … meines Äquivalents und auch nicht einfach meines Sklaven, es ist der Diskurs des Kreislaufs, in dem ich integriert bin. Ich bin eines der Kettenglieder». 93 Wenn man bei Turkle und anderen Autoren über die durch das Internet hergestellte interpersonelle Beziehung liest – eine Beziehung zwischen vorwiegend falschen Ichs, zwischen geänderten Identitäten, zwischen kaschierten Personen – , dann kommen einige wichtige, von der offiziellen klinischen Psychiatrie und der Psychopathologie und nicht zuletzt der Psychoanalyse theoretisierte (und praktizierte) Methoden in Erinnerung. Nicht zufällig beschäftigt sich Turkle wiederholt mit den diagnostischen (und eventuell therapeutischen) Auswirkungen dieser Art von Beziehung. Bei ihrer Analyse stützt sie sich auf mehr oder minder vertrauliche Zeugenberichte über die konkreten Erfahrungen vieler in diesem Bereich besonders aktiver Personen (ohne die persönlichen Zeugnisse der Autorin selbst auszuschließen). In der Regel handelt es sich um Personen, die fingieren, eine sexuelle Identität zu besitzen, die nicht ihre eigene ist (oder von der sie vermuten, dass sie es nicht ist) (gender-swapping) . Beispiel: Ein männliches Subjekt nimmt die Identität eines weiblichen Subjekts an und umgekehrt, oder ein heterosexuelles Subjekt nimmt die Identität eines homosexuellen Subjekts an und umgekehrt. Doch manchmal – nicht immer – lässt diese Wahl eines bestimmten Schein-Ichs ein Ich-Ideal durchscheinen, das das Subjekt (ohne den Rückgriff auf die Maskierung des wirklichen Ichs) nie-

93

J. Lacan ( 1978, S. 112 ). Vgl. S. Freud ( 1940 ).

79

Digitale Welt und Gestaltung

mals den Blicken anderer und noch weniger dem eigenen Blick preisgegeben hätte. Hier wie auch in vielen anderen Fällen kann der Analytiker kognitive Details von bemerkenswertem Interesse freilegen. In diesem Zusammenhang scheint der Computermonitor als eine Art Realitätsersatz des Diwans in der klassischen Psychoanalyse zu fungieren, dessen Funktion bekanntlich darin bestand, die allzu direkte und frontale Beziehung zwischen Analytiker und Analysepatient zu vermeiden. Den Beweis dafür liefert die Tatsache, dass im Internet das Interface zwischen den Nutzern im Schreib- und Lese-Modus paradoxerweise ein wahres und eigentliches Angesicht zu Angesicht ausschließt. Dieses Paradox wird noch verschärft, wenn Gesprächspartner sich einander präsentieren, die hinter einer falschen Identität verborgen sind. Aber wenn in der Vergangenheit an der Seite des Diwans, auf dem der Patient ausgestreckt lag, immer der diskret zuhörende Analytiker saß, was ist dann in der Online-Beziehung der Beobachtungsmodus (und wenn man will der Teilnahmemodus) des Analytikers ?

94

Der Analytiker kann nun seine Rolle auf zweierlei Weise erfüllen: Entweder zeigt er sich, wie er ist, oder er verbirgt – wie die anderen – seine wahre Identität und die Art seiner Rolle. Im zweiten Fall ist seine Freiheit zu intervenieren durch die Auf lage eingeschränkt, einer Identität treu bleiben zu müssen, die nicht die seine ist. Im ersten Fall besteht das Problem darin, dass seine explizite Präsenz als Analytiker unter den Beteiligten Beklommenheit, Misstrauen und offene Abneigung hervorrufen kann, es sei denn, eine Gruppe von Personen ist spontan bereit, an einer OnlineGruppentheorie teilzunehmen, was nicht von vornherein auszuschließen ist. Es handelt sich um etwas Ähnliches wie eine Neuauf lage des therapeutischen Theaters (Psychodrama und Soziodrama), das in den dreißiger Jahren von dem rumänischen Psychologen L. L. Moreno entwickelt worden ist. 94 Nach einer Phase großer Popularität in den USA geriet dieses Experiment in Vergesssenheit, unter anderem wegen der allzu komplizierten Struktur der eingesetzten szenografischen Instrumente. Heute würde das Internet ein erheblich ausgereifteres therapeutisches Theater ermöglichen. Es steht mir nicht zu, den diagnostischen (oder therapeutischen) Wert einer Online-Beziehung zwischen Personen mit seelischen Störungen zu beurteilen. Mich interessiert in erster Linie, dass dieselben Internetkanäle – mit denselben Modalitäten der Anonymität – als Diskussionsforum für eine politische Willensbildung gebraucht werden können, wie es bereits geschieht.

94

80

J. L. Moreno ( 1953 ).

Cyberspace – ein demokratischer Space ?

95

Es geht hier um einen äußerst wichtigen Punkt. Ich bin überzeugt davon und bestehe auf dieser These, dass ein echtes politisches Forum nur dann möglich ist, wenn die Teilnehmer als Personen in die Diskussion einbezogen sind, also von Angesicht zu Angesicht debattieren. Ein Forum zwischen Maskierten, Fantasmen und Personen, die nicht das sind, was zu sein sie vorgeben, ist und kann kein politisches Forum sein. 95

Ein Spiel ?

96

97

Man könnte einwenden, dass ich die Frage der fingierten Identitäten im Cyberspace zu ernst nehme. Manche behaupten, dass es sich letzten Endes nur um ein Spiel handelt, zudem um ein harmloses Spiel. R. Caillois 96 hat sich in einem bekannten Essay des englischen Ausdrucks mimicry bedient, um das Spiel der Verkleidungen zu definieren. Schon als kleine Kinder spielen wir oft, ein anderer zu sein: Mutter, Arzt, Krankenhelfer, Soldat oder Pistolenheld, aber auch eine Maschine: ein Flugzeug bei Kapriolen oder ein Rennwagen. Oder ein Tier: ein galoppierendes Pferd oder ein brüllender Löwe. Doch die Kinder wissen, dass es nicht wahr, sondern nur ein Spiel ist. Duvignaud hat in einer scharfsinnigen Untersuchung über die Soziologie des Schauspielers die schon im Paradoxe sur le Comédien von Diderot enthaltene These vertreten, dass der gute Schauspieler entgegen landläufiger Meinung nicht ein Schauspieler ist, der ganz und gar in der gespielten Rolle aufgeht, sondern eher ein Schauspieler, der die Rolle mit einer gewissen Distanz zu interpretieren versteht, ohne sich allzu sehr vereinnahmen zu lassen. «Froid et tranquille», sagt Diderot. 97 Wie dem auch sei, Kinder und Schauspieler sind sich bewusst, dass ihre Maskierung vorübergehend ist. Nach dem Ende des Spiels oder der Vorstellung nehmen sie die Maske ab und schlüpfen wieder – ohne irgendwelche Traumata – in ihre eigene Identität. Jedoch gibt es Verkleidungen, bei denen etwas anderes passiert. Manchmal wird die falsche Identität von den anderen und von der Person selbst so gelebt, als

95

Die Vorteile ( und einige Nachteile ) des direkten politischen Verhandelns – to deal in person – wurden bereits von Francis Bacon in seinem kurzen Text On Negotiation ( 1936 ) kommentiert.

96

R. Caillois ( 1967 ).

97

D. Duvignaud ( 1965 ). Vgl. D. Diderot ( 1959 ).

81

Digitale Welt und Gestaltung

wäre es die wahre Identität. Anders formuliert, die Identifikation ist absolut. Dafür gibt es viele Beispiele: der Zauberer, der in einer totemistischen Kultur gleichsam identisch mit dem Totem wird, sei es nun ein Wildschwein, ein Falke oder ein Uhu. Dann die zahlreichen bekannten Fälle der Psychiatrie: die Schizophrenen, die überzeugt sind, Marilyn Monroe, Lenin oder Jesus zu sein. Ich will nicht sagen, dass im Spiel der falschen Identitäten im Internet die Schizophrenie unterschwellig am Werke ist, aber ebenso würde ich die Möglichkeit nicht ausschließen. Wenn in diesem Fall die Praxis der Identitätsfälschung viele Personen involviert, ist die Annahme berechtigt, dass sie das Entstehen einer Art von selbstreferenzieller Gemeinschaft fördert, die jeglichen Kontakts mit der Wirklichkeit entbehrt. Das Risiko – und diese Hypothese scheint mir nicht willkürlich – besteht darin, dass das Spiel auf hört, ein Spiel zu sein, und in eine beunruhigende Wirklichkeit umschlägt: eine finstere, durchaus nicht spielerische Gemeinschaft von Geistern. Nichts anderes wäre eine Gemeinschaft, deren Mitglieder allesamt – der eine mehr, der andere weniger – davon überzeugt sind, dass ihre Ersatzidentitäten ihre wahren Identitäten sind. Von einer von der Psychiatrie des 19. Jahrhunderts entdeckten follie à deux würde man zu einer follie zu vielen, zu einer massenhaft geteilten follie übergehen. Meine dunkel getönten Anmerkungen können – vielleicht mit Recht – als allzu pessimistisch erscheinen. Doch ich habe es als notwendig erachtet, diese Formulierungen als Kontrast zu der meiner Ansicht nach allzu optimistischen Empfehlung zu nutzen, das verhandelte Phänomen zu leicht zu nehmen, als ob es sich nur um eines der vielen Spiele der genialischen « Garagenboys » handle. Wie ich bereits erwähnt habe, bereitet es mir Sorge, dass die Tendenz, das Phänomen leicht zu nehmen und zu banalisieren, unsere Aufmerksamkeit von dem alles andere als spielerischen Vorschlag derer ablenken kann, die aus diesem vermeintlichen Spiel eine neue Art von politischem Forum machen wollen, ein neues Instrument – und sogar das revolutionärste Instrument der direkten Demokratie. Bei diesem Szenario wäre die öffentliche Diskussion über bedeutende politische, gesellschaftliche und kulturelle Themen unserer Epoche in jene dürren Kreisläufe eingebettet, in denen nur oder vorwiegend gesichtslose Individuen verkehren, die im Schutz der Anonymität sich gegenseitig kurze mehr oder minder verschlüsselte Textschnipsel über die verschiedensten (und komplexen) Themen senden, etwa über die Todesstrafe, Aids, Abtreibung, künstliche Befruchtung, Ehe zwischen Homosexuellen, die Rechte der Schwarzen, Strategien des städtischen Verkehrs, Zerstörung der Umweltressourcen oder Terrorismus.

82

Cyberspace – ein demokratischer Space ?

Sollte bei diesem Vorgehen das Ziel in der Stärkung der Demokratie bestehen, dann ist diese Formel mit Sicherheit völlig verfehlt. Radikale entpersonalisierte soziale Akteure, gezwungen, sich in einem begrenzten Repertoire vorfabrizierter Sätze auszudrücken, sind die Negation eines richtigen Verständnisses von der Ausübung demokratischer Teilnahme. Die öffentliche Diskussion von Themen großer gesellschaftlicher Tragweite muss meiner Ansicht nach unverzichtbar den Charakter einer offenen Gegenüberstellung von Frauen und Männern mit einem Gesicht annehmen, also von Bürgern, die sich mit all den Eigenheiten treffen, die Teil ihrer Individualität sind und die diese charakterisieren.

Demokratisierung und die Fragmentierung des Ichs

98

Jüngst wurden in der angelsächsischen Psychologie und Soziologie Versuche unternommen, einige beunruhigende Aspekte unserer Gesellschaft zu untersuchen. Ich habe dabei besonders die Arbeiten von K. L. Gergen und R. J. Lifton im Auge. Diese Wissenschaftler setzen sich mit dem heutzutage intensiv diskutierten Thema der so genannten « Ich-Fragmentierung » auseinander – ein Thema, in dessen Rahmen sie sich unter Nutzung eines anderen Begriffssystems die oben behandelten Fragen der Rollentheorie stellten. Gergen beschreibt die Ich-Fragmentierung auf folgende Weise: « Diese Fragmentierung der Ich-Auffassungen entspricht einer Vielfalt von inkohärenten und zusammenhanglosen Beziehungen, die uns in eine Myriade von Richtungen schleifen und uns einladen, eine Vielzahl von Rollen zu spielen, bis zu dem Punkt, an dem sich der Begriff des authentischen Ichs auf löst.» 98 Dasselbe Thema ist auch von Lifton diskutiert worden, der von der Entstehung des « proteischen Ichs » spricht, womit er sich auf Proteus, den Meeresgott der griechischen Mythologie und dessen Fähigkeit bezieht, die verschiedensten Gestalten anzunehmen. Lifton aber entfernt sich explizit von Positionen, die von der Hypothese ausgehen, dass das Ich verschwindet: «Ich muss mich von den Beobachtern, postmodern oder nicht, distanzieren, die in der Vielfalt und Wechselhaftigkeit

98

K. J. Gergen ( 1991, S. 7 ). Doch diese « Ich-Fragmentierung » betrifft nicht nur die Rollenvielfalt jeder einzelnen Person, sondern auch die sich daraus ergebende « Diskursvielfalt », insofern jede Rolle mit einem bestimmten Diskurs identifiziert wird. Das heißt, jede Rolle « spricht » auf andere Art. Dieses Phänomen wurde von M. Bachtin in seinen Überlegungen über die « vielstimmige » Natur der Romane und der Personen Dostojewskis ( 1963, S. 44 ff. ) und besonders in seinen « Diskurstypen » ( 1988, S. 245 ff. ) erkannt. Ich danke Patrizia Nanz für den Hinweis auf den Beitrag von Bachtin zu diesem Thema. Vgl. auch P. Nanz ( 1993 ).

83

Digitale Welt und Gestaltung

99

ein Verschwinden des Ichs, einen völligen Mangel an Kohärenz zwischen dessen verschiedenen Facetten sehen. Ich würde das Gegenteil behaupten: Der proteische Charakter setzt die Suche nach Authentizität voraus und verlangt die Fähigkeit, sich Fragen über die Form des Ichs zu stellen.» 99 In gleiche Richtung bewegten sich bereits früher R. D. Laing (1959), P. Berger (1973) und J. Elster (1986) sowie A. Giddens (1990). Ich möchte mich einen Augenblick eingehender mit Giddens beschäftigen, dessen Ansatz für die Analyse sehr wichtig ist. Bei seiner Übersicht über die Folgen der gegenwärtigen « Radikalisierung der Modernität » untersucht er ein Wesensmerkmal unserer Epoche, wie er es beurteilt, das heißt, die Tendenz zur Entwurzelung der gesellschaftlichen Institutionen. In der alltäglichen Lebenswelt der Personen bedeutet dies eine Art von Verlust des traditionellen Ortssinns – die Personen werden, beinahe ohne sich darüber klar zu werden, aus ihrem Kontext herausgeworfen, in dem sich in der vormodernen Welt die sozialen Beziehungen konstituierten. Daraus resultiert eine immer größere subjektive und objektive Distanz zwischen den Personen und Institutionen. Dieses Phänomen zeigt sich in der « raumzeitlichen Distanzierung », die als « Zeitleere » (empting of time) und «Raumleere» (empting of space) erlebt wird. In einem ähnlichen Szenario, das Giddens, ausgehend von G. Simmel, M. Horkheimer, A. Gehlen, N. Luhmann und J. Meyrowitz, entwickelt, nehmen die Verpf lichtungen gegenüber den Institutionen einen « gesichtslosen » (faceless), also unpersönlichen Charakter an – Verpf lichtungen, die sich wesentlich auf das Vertrauen (trust) in die Tauglichkeit der « Expertensysteme » gründen. Giddens bezieht sich auf die abstrakten Systeme, denen in der Modernität die Personen die Aufgabe anvertrauen, sie gegen Risiken zu schützen und letztlich ihre Sicherheit zu garantieren. Nichts anderes ist unser Vertrauen in ein Expertensystem, wenn wir zum Beispiel eine Flugreise unternehmen mit der sicheren (oder fast sicheren) Annahme, auch am Ziel anzukommen. Wenn das ein unbestreitbarer (und unverzichtbarer) Vorteil solchen Vertrauens ist, so liegt nach Giddens der Nachteil in der Entpersonalisierung des Vertrauens. Der Preis, den man für diese « ontologische Sicherheit » entrichtet, besteht in einer immer größeren « psychologischen Verletzbarkeit », weil am Ende das « Vertrauen in abstrakte Systeme nicht dieselbe psychologische Befriedigung verschafft wie das Vertrauen in Personen». Dennoch scheint Giddens überzeugt zu sein, dass

99

84

R. J. Lifton ( 1993, S. 8–9 ).

Cyberspace – ein demokratischer Space ?

100

101

der drohende « Moloch der Modernität » – es ist seine Metapher – seinen rasenden Lauf unterbrechen und seine Richtung plötzlich ändern könnte. Dies könnte dank der eingebauten « Ref lexivität » des Systems eintreten, die es erlaubt, unentwegt seine Prozesse zu überdenken, zu überprüfen und neu zu entwerfen. 100 Kurz gefasst: Das System der Modernität trägt nach Giddens die Antikörper in sich, um seine negativen Nebenwirkungen zu bannen. Die Tendenz zur « Entgliederung » oder « Entbettung » (disembedding) würde mit einer Tendenz zur « Wiedereingliederung » oder « Wiedereinbettung » (reembedding) konterkariert werden, und die unpersönlichen (faceless) Verpf lichtungen würden den persönlichen (facework) Verpf lichtungen weichen. Giddens lässt im Dunkeln, wie diese spontane Selbstregulierung in der Praxis vor sich gehen würde. Ohne Zweifel hat die Globalisierung weltweit virulente lokale Reaktionen hervorgerufen; doch von diesen oder ähnlichen Ereignissen ein Gesetz über das systemische Verhalten der Modernität abzuleiten scheint mir eine allzu überzogene Vorstellung. 101 Wie dem auch sei, die von Giddens ausgeführte Analyse, die in gewisser Hinsicht den Analysen von Gergen und Lifton sehr nahe kommt, trifft sicherlich auf die vor unser aller Augen liegende Wirklichkeit zu. Die Anhänger der direkten OnlineDemokratie lassen sich schnell dazu herbei, darin eine überwältigende Bestätigung ihrer These zu sehen. In einer globalisierten Welt, in der die Werte der Institutionen, des Ortes und der Identität stark bedroht zu sein scheinen, entspräche die Kommunikation über das Netz am besten den Anforderungen einer so gestalteten Welt. Daran ist etwas Wahres, keinesfalls aber stimmt es, dass die Kommunikation über das Netz keine andere als die ihr zugewiesene Funktion zu erfüllen habe: immer mehr dazu beizutragen, die Institutionen zu entbetten, die Ortsbezogenheit zu verlieren und die Identität der Personen zunichte zu machen.

100

Wenn ich mich nicht irre, hat zuerst N. Luhmann ( 1993, S. 93 ) den Gedanken der « Reflexivität » in die Soziologie eingeführt. Er sprich von « reflexiven Mechanismen ». Für Luhmann «werden die Mechanismen reflexiv, wenn sie auf sich selbst angewendet werden». Dagegen wurde der speziellere Begriff der « reflexiven Modernisierung » im Sinn einer dauernden Gegenüberstellung ( Selbstregulierung ) der Ergebnisse der Modernität und ihrer Gründungsprinzipien von U. Beck ( 1986 ) eingeführt. Neuere Entwicklungen und Präzisierungen finden sich bei U. Beck, A. Giddens und S. Lash ( 1993 ) und bei U. Beck ( 1993 ). Trotz der Bemühungen dieser und anderer Wissenschaftler blieb der Begriff allzu unbestimmt und in gewisser Hinsicht – zumindest für den Autor – schwer zu fassen.

101

Zu kritischen Einwänden gegen die hier referierten Ideen von Giddens vergleiche A. Touraine ( 1992 ).

85

Digitale Welt und Gestaltung

Persönliche Formbarkeit und systemische Turbulenz Es mag angebracht sein, an diesem Punkt das Thema der Identität (oder besser: der Nichtidentität) noch einmal aufzugreifen, insofern es in den Überlegungen der Theoretiker des Cyberspace eine zentrale Rolle spielt. Zu Recht wurde herausgestellt – wie es Gergen, Lifton und Giddens getan haben –, dass die moderne Gesellschaft in ihren jüngsten Entwicklungen sich als ein mächtiger Erzeuger von Veränderungen herauskristallisiert, die durchaus die heutige Rollenordnung destabilisieren könnten. Heute schält sich immer klarer heraus, dass vor allem in den als kulturell und sozial verstandenen Kategorien einige einst als unüberwindbar eingestufte Rollen nun von anderen Rollen ersetzt werden, die vor einem Jahrzehnt unbekannt waren. Dieser Tatbestand wirkt sich direkt auf die Identitätsdynamik der Personen aus. Er kann deshalb nicht abstrakt behandelt werden, vielmehr muss er in den alles anderen als abstrakten Zusammenhang der systemischen Turbulenz in der gegenwärtigen Phase des Kapitalismus gestellt werden. Die Auswirkungen dieser Turbulenz machen sich nicht nur auf der Ebene des Makrosystems spürbar, sondern auch und vor allem auf der Ebene des Individuums. Diese Turbulenz stellt die Orientierungs- und Bezugsparameter der Personen auf den Kopf, erschüttert ihre existenzielle Sicherheit und stellt letztlich das (seit je recht illusorische) Recht in Frage, sich eine eigene Biografie in der Lebenswelt aufzubauen. Worin liegen die zahlreichen und vielseitigen Ursachen für einen derartigen turbulenten Zustand ? Mir scheinen in diesem Zusammenhang insbesondere zwei Ursachen herauszuragen: einerseits die strategische Wahl einer aufgezwungenen Globalisierung, in welcher der Kapitalismus im Kontext einer überhitzten Konkurrenz den anspruchsvollen Plan verfolgt, relativ unbekümmert von den sozialen Kosten die Herrschaft über den Planeten zu instituieren; andererseits die zunehmend größeren Schwierigkeiten, die aus dem destabilisierenden Einf luss der neuen Technologien, eine Art von laborsaving, auf dem nationalen und internationalen Arbeitsmarkt erwachsen. Auf dramatische Weise haben diese beiden Faktoren offen gelegt, was man nicht erst seit gestern wusste: In der modernen Welt wird die Identität der Personen immer stärker den f luktuierenden Bedingungen und Einschränkungen des Arbeitsmarktes unterworfen. Denn in unserer Gesellschaft schält sich der Markt wohl oder übel als ein wahrer Identitätenmarkt heraus. Darin hat sich Marx nicht geirrt. Seine Idee, dass hinter der Merkantilisierung der Sachen immer eine Merkantili102 103 sierung der Menschen steckt 102 , also die Idee der Verdinglichung 103 , scheint nun endgültig bestätigt worden zu sein.

86

Cyberspace – ein demokratischer Space ?

104

So gesehen müsste der zusammengesetzte und aufgefächerte, genauer der « Stückwerk » - Charakter unserer Identitäten nicht als eine Schwäche, sondern als eine Ressource betrachtet werden, die es uns (um das Schlimmste zu verhüten) ermöglicht, es mit den impliziten Drohungen einer Situation aufzunehmen, die «jede Nation dazu zwingt, die Rolle der Personen im Gesellschaftsprozess zu überdenken». 104 Um diesen Gedankengang weiterzuentwickeln, muss man sich folgende Frage vorlegen: Was bedeutet es, «die Rolle der Personen im Gesellschaftsprozess zu überdenken» ? Die Antwort kann sehr einfach, nahezu banal lauten: Angesichts des alarmierenden Beschäftigungsschwunds, der jetzt fast alle Schichten der Arbeitnehmer trifft, verlangt man von den Personen, sich für die Mobilität bereit zu machen, also die weniger gefragten Identitäten bereitwillig über Bord zu werfen und andere mit höherer Nachfrage anzunehmen. Konkret: einen Arbeitsplatz für einen anderen Arbeitsplatz zu tauschen. Auch wenn man die Frage außer Acht lässt, ob die Nachfrage nach bestimmten Identitäten zuungunsten anderer wirklich existiert und ob es sich nicht um ein Palliativ mit vorübergehender Wirkung handelt, bleibt das Problem der Dynamik der persönlichen Identitäten, die in diesem Plan als selbstverständlich vorausgesetzt wird. Die Auffassung, dass die Personen im Verlauf ihres Lebens die Identität wechseln können, scheint mir nicht zwangsläufig im Gegensatz zu der dynamischen Auffassung der Identität zu stehen, die – wie wir bereits gesehen haben – einen der radikal innovativen Beiträge der zeitgenössischen Psychologie und Soziologie bildet. Bei genauerem Hinsehen entpuppt sich das traditionelle statische Bild der Identität als glatt irreführend, insofern es die Identität der Personen – zumindest der als frei von seelischen Störungen angesehenen Personen – idealisierte und diese Identität als homogen, fest und in der Zeit unveränderbar darstellte, als etwas, was immer mit seinem mutmaßlichen Anfangsplan deckungsgleich verhaftet bleiben müsste. Dieses gelinde gesagt idyllische Bild schloss prinzipiell die Möglichkeit aus, dass Identität das Ergebnis von Leiden und Konf liktsituationen sein könnte. Genau in diesem Sinn haben die Moraltheoretiker seit je, nicht ohne eine Dosis von Naivität, den Archetyp der gesunden Person, der glücklich erfüllten Identität beschrieben.

102

K. Marx ( 1962, S. 46 ff. ).

103

G. Lukács ( 1970, S. 170 ff. ).

104

J. Rifkin ( 1995 ). Vgl. J. Brecher und T. Costello ( 1994 ).

87

Digitale Welt und Gestaltung

Für sie war gesund nur, «wer in Harmonie mit sich selbst und mit den anderen leben kann». Solche Personen gibt es nicht, und wenn es sie gäbe, wären sie – wie wir wissen – alles andere als gesund. Damit sei nicht gesagt, dass die fortwährende Suche nach Harmonie, nach Überwindung unserer eingeborenen Konf liktgeladenheit mit uns selbst und mit anderen nicht ein wesentlicher Bestandteil der Bildungsprozesse unserer persönlichen Identität ist. Auf der anderen Seite aber betrifft die Frage der Identitätsdynamik, der strukturellen Formbarkeit und Vielseitigkeit der Identität nicht ausschließlich das akute Problem, Arbeitskräfte neu verteilen zu müssen. Sie nimmt auch einen zentralen Platz in der heutigen Diskussion über die Beziehung zwischen Demokratie und den neuen Technologien ein. Wenn ich, wie weiter oben geschehen, behaupte, dass die Bürger an der öffentlichen Diskussion mitwirken müssen mit allem, was Teil ihrer Individualität ist und diese Individualität kennzeichnet, dann beziehe ich mich auf die Gesamtheit der in jeder Person anwesenden Rollen, die aus ihr eine gärende Mischung von Subidentitäten machen. Ich bin überzeugt, dass der zusammengesetzte Charakter unserer Identität, die unterschiedlichen (und konf ligierenden) Rollen, die an ihr teilhaben, in der demokratischen Dialektik unverzichtbar ist. Wir haben gesehen, dass viele Exegeten der elektronischen Demokratie anders denken: Sie hängen – manchmal mit einer Faszination, wie sie Jüngern zu eigen ist – den heute in Mode stehenden Theorien an, die eine Unbeständigkeit des Wirklichen, die Immaterialität der Welt und die Virtualität der gesellschaftlichen Subjekte feiern. Dann aber, in ihrer konkreten Praxis als Surfer im Internet, stellt sich schnell heraus, dass sie letztendlich eine durchaus antiquierte Vorstellung über die Art und Weise zum Ausdruck bringen, wie in einer demokratischen Gesellschaft die Kommunikation zwischen den Bürgern ablaufen sollte. Ihrem Ideal des demokratischen gesellschaftlichen Akteurs entspricht das Bild einer sozusagen aus « einem Guss » gefertigten Person, Träger einer einzigen Etikette, fügsamer Interpret einer stereotypisierten Identität. Nichts läge weiter von einer dynamischen Auffassung der Identität entfernt. Da nun ein solcher gesellschaftlicher Akteur nicht existiert, wird er eben künstlich geschaffen. So kommen jene spektralen Pseudofiguren auf die Welt, die falschen Identitäten, mit denen wir uns bereits eingehend beschäftigt haben. Doch das ist noch nicht alles. Außerdem liefert man eine Apologie der Kommunikationsform dieser unbeschreibbaren Identitäten – die Unterhaltung « mit Hilfe der Tastatur » –, die unerahnte Möglichkeiten für die Demokratie eröffnen sollen.

88

Cyberspace – ein demokratischer Space ?

Daran ist nichts glaubwürdig, weil die Interaktion zwischen falschen Identitäten, zwischen Scheinidentitäten, einem Kommunikationsmodell entspricht, das sich mitnichten mit den Interessen der direkten oder indirekten Demokratie verträgt. Keinerlei Glaubwürdigkeit genießt ein Modell, das derart grotesk das Wesen des gesellschaftlichen Akteurs verfälscht, indem es aus ihm ein Subjekt macht, über das man nichts Verbindliches wissen kann und das darauf verzichtet, etwas Verbindliches über die anderen zu wissen. Mit anderen Worten: total selbstreferenzielle Subjekte. Man kann nicht umhin, auf einige wenn auch fragliche Koinzidenzen zwischen dieser Wirklichkeit und den von J. Rawls im Zusammenhang seiner Theorie des hypostasierten « Urzustands » vorgetragenen Überlegungen hinzuweisen. Ich meine den berüchtigten « Schleier der Unwissenheit » (veil of ignorance). Das Aufdecken dieser eventuellen Analogie birgt einige Risiken. Vor dem größten Risiko hat Rawls selbst wiederholt gewarnt: den « Schleier der Unwissenheit » allzu wörtlich zu nehmen, also « eine rein hypothetische Situation », ein « Darstellungsmittel » für wirklich zu halten. Wie dem auch sei, es mag angebracht sein, kurz auf die Bedeutung des « Schleiers der Unwissenheit » einzugehen. Nach Rawls «werden die Grundsätze der Gerechtigkeit hinter einem Schleier der Unwissenheit festgelegt», was in der Praxis meint, «dass niemand seine Stellung in der Gesellschaft kennt, seine Klasse oder seinen Status, ebenso wenig sein Los bei der Verteilung der natürlichen Gaben wie Intelligenz oder Körperkraft. Ich nehme sogar an, dass die Beteiligten ihre Vorstellung vom Guten und ihre besonderen psychologischen Neigungen nicht kennen» (1972, dt. Ausgabe S. 12 ff.). Also handelt es sich darum, all das zu « beseitigen » (nullify), was in jedem von uns eine «ursprüngliche Situation der Gleichheit » beeinträchtigen könnte. Ich neige zu der Annahme, dass dieses Werk der Beseitigung und Annullierung der eigenen Identität sich nicht erheblich von der Beseitigung und Annullierung unterscheidet, die man im Cyberspace findet, wenn die Akteure die eigene Identität verbergen und sie verschwinden lassen. In beiden Situationen weiß niemand etwas über sich selbst oder die anderen (oder sollte niemand etwas über sich oder die anderen wissen). Ich schließe nicht aus, dass diese Gleichstellung der beiden Formen der Beseitigung eine gewisse Ratlosigkeit hervorrufen kann. Es wäre sicher falsch, die wesentlichen Unterschiede in beiden Situationen zu übersehen. Ich verweise auf den offensichtlichen Unterschied: Während der « Schleier der Unwissenheit » auf die noble Suche nach der « Gerechtigkeit als Fairness » ausgerichtet ist, kann man nichts dergleichen beim Spiel des Identitätenwechsels im Cyberspace feststellen. Andererseits ist zuzugeben, dass es sich bei einigen dieser Unterschiede eher um Scheinunterschiede als um Realunterschiede handelt. Man behauptet zum Beispiel Folgendes:

89

Digitale Welt und Gestaltung

Während im Cyberspace die Beseitigung oder Annullierung der eigenen Identität durch die Annahme einer anderen geheimen Identität erfolgt, passiert nichts dergleichen in der von Rawls konzipierten Beseitigung. Das möchte ich jedoch bezweifeln. Ich frage mich: Wenn im « Schleier der Unwissenheit » die Auf hebung aller «Zufälligkeiten » (specific contingencies) ihr Ende findet, worin besteht dann das Wesen der Restidentität ? Sind wir sicher, dass das sich daraus ergebende transzendentale Subjekt nicht in mancher Hinsicht eine gleichfalls geheime Identität hat ? Im Cyberspace meint die Simulation einer anderen Identität nicht die Aufgabe der eigenen. Mit anderen Worten: Man weiß weiterhin, wer man wirklich ist.

105

106

Somit wurden Befürchtungen laut, dass dieser Vorteil dazu genutzt werden kann, um die anderen in Verfolgung eigener Interessen zu manipulieren. 105 Theoretisch ist das möglich, doch nur dann, wenn alle anderen sich mit der eigenen Identität vorstellen. Aber in der Regel geschieht das nicht, weil gewöhnlich auch die anderen die eigene Identität verbergen und doch wissen, wer sie wirklich sind. Dasselbe Dilemma taucht auf Grund expliziter programmatischer Entscheidung beim « Schleier der Unwissenheit » auf. Rawls ist sich dessen durchaus bewusst. Er schreibt (1993): «Wenn wir simulieren … im Urzustand zu sein, dann ist unser Denken nicht an eine spezielle metaphysische Doktrin des Ichs gebunden, so wie die Darstellung einer Rolle in einem Drama, zum Beispiel Macbeth oder Lady Macbeth, uns nicht zwingt zu glauben, wirklich ein König oder eine Königin zu sein, die verzweifelt um die politische Macht ringen. Und etwas Ähnliches gilt für die Interpretation einer Rolle im Allgemeinen.» 106 Der spanische Mystiker und Dichter Juan de la Cruz empfahl den Ordensschwestern in der Klausur: «Liebe es, weder von Dir noch von den anderen erkannt zu werden.» 107 Doch auch wenn das völlige Entsagen der Selbstkenntnis und der Kenntnis des anderen der rechte Weg sein kann, um Ordensschwestern in der

105

106

Ich danke Marco Santambroglio dafür, mich darauf aufmerksam gemacht zu haben.

Dieser Hinweis von Rawls auf den Schauspieler, auf seine Interpretation einer Rolle, ist höchst aufschlussreich in Bezug auf den wahren Charakter seines « Urzustands » und des wirklichen Funktionierens des « Schleiers der Unwissenheit ». Über die vorübergehende Beziehung zwischen Schauspieler und seiner Rolle siehe meine diesbezüglichen Überlegungen in diesem Buch . Zu verschiedenen und entgegengesetzten Standpunkten zum « Urzustand » bei Rawls vgl. B. Barr ( 1973 ), R. Dworkin ( 1975 ), B. Barber ( 1975 ), J. C. Harsanyi ( 1977 ), M. J. Sandel ( 1982 ), T. M. Scanlon ( 1982 ), J. Habermas ( 1983, 1991 und 1992 ), und S. Veca ( 1982, 1985 und 1996 ).

90

Cyberspace – ein demokratischer Space ?

Klausur zur Erfahrung des mystischen Lebens zu geleiten, ist das unter keinen Umständen der angemessene Weg, wenn es darum geht, Bürger zur aktiven Teilnahme am öffentlichen Leben zu motivieren.

108

109

110

Aber warum ist es in einer Demokratie wichtig, sich und die anderen zu kennen ? Warum wird die Demokratie da in Mitleidenschaft gezogen, wo dies nicht geschieht ? Eine Antwort kann in einigen Interpretationsmustern der Theorie des kommunikativen Handelns von J. Habermas gefunden werden. 108 In seiner komplexen Theorie, die von einer kritischen Sichtung der Werke von Peirce, Weber, Bühler, Schütz, Wittgenstein, Austin und Searle ausgeht, unterscheidet Habermas zwischen strategischem Handeln, das auf Einf luss oder Erfolg gerichtet ist, und kommunikativem verständnisorientiertem Handeln. Für Habermas ist diese zuletzt genannte Handlungsweise ein Grundstein für das demokratische Leben. Er behauptet, dass eine Demokratie, die Demokratie bleiben will, nicht nur ein besonderes öffentliches kommunikatives Handeln gewährleisten, sondern auch fördern muss, ein Handeln, das die rationale Überlegung vor allem dann privilegiert, wenn mehrere Akteure gerufen werden, um über Fragen zu entscheiden, über die von vornherein keine Einigung besteht. Auf der anderen Seite aber geht der Konsens des kommunikativen Handelns von Habermas weit über Kontingenzen hinaus. Er skizziert ein hypothetisches Szenario, in dem es den Sprechern «dank der Gemeinsamkeit vernünftig motivierter Überzeugungen» gelingt, «[sich] gleichzeitig der Einheit der objektiven Welt und der Intersubjektivität ihres Lebenszusammenhangs [zu] vergewissern». 109 Dieses Szenario beruft sich auf eine ideale Situation, weil die Sprecher bereits jene kommunikative Kompetenz besitzen, die wesentlich für eine demokratische Diskursethik ist. 110

107

Juan de la Cruz ( 1990, S. 84 ).

108

J. Habermas ( 1981 ). Vgl. das Kapitel « Habermas und die Aporien des Projekts der Moderne » in meinem Essay Il futuro della modernità ( 1987 ).

109

J. Habermas ( 1981, S. 28 ).

110

Was die Idee der « kommunikativen Kompetenz » angeht, vergleiche J. Habermas ( 1971, S. 101; 1976, S. 175; 1984, S. 187 ). Das Thema hat große Bedeutung in seiner Universalpragmatik ( 1976 ). Nach Habermas bemisst sich die kommunikative Kompetenz eines Subjekts-Agenten an seiner Fähigkeit, die Geltungsbasis der Rede zu achten. Das bedeutet in der Praxis, zumindest vier Voraussetzungen zu erfüllen: Verständigung, Wahrheit, Wahrhaftigkeit und Richtigkeit.

91

Digitale Welt und Gestaltung

111

112

113

114

115

Bei seiner Argumentation stützt sich Habermas vor allem auf zwei kategoriale Begriffe: Lebenswelt – ein Begriff, der Husserl und Schütz 111 verbindet – und Sprechakte (speech acts) – ein direkt aus der Linguistik Austins und indirekt aus der Sprachphilosophie des späten Wittgenstein stammender Begriff. 112 Diese beiden Bezugspunkte der Theorie des kommunikativen Handelns von Habermas sind für unser Thema sehr wichtig. Zunächst wird der Begriff « Lebenswelt » geklärt. Wie die zahlreichen (und oftmals widersprüchlichen) von Husserl gelieferten Versionen dieses Begriffs zeigen, handelt es sich um einen der am schwierigsten zu fassenden und gleichzeitig um einen der anregendsten Begriffe der phänomenologischen Tradition. Es ist vor allem das Verdienst von A. Schütz, das Thema der Lebenswelt in den Bereich der soziologischen Ref lexion eingeführt zu haben. Er hat versucht, die « natürliche Ontologie der Lebenswelt » von Husserl mit seiner « soziale(n) Ontologie der Lebenswelt » zu verbinden. 113 Seinen Gedanken stark vereinfachend, kann man sagen, dass für Schütz die Lebenswelt jener Bereich der Wirklichkeit ist, in dem die Menschen zusammen und nicht vereinzelt ihr alltägliches Dasein verbringen. 114 In diesem Sinn geht der Begriff « soziale Lebenswelt » in den Begriff « soziale Alltagswelt » ein – eine Welt, die, wie Schütz schreibt, «nicht nur die von mir erfahrene ‹Natur›, sondern auch die Sozial- bzw. Kulturwelt, in der ich mich befinde, einschließt». 115 In der Lebenswelt ist also die Gesellschaft gegenwärtig, aber eine Gesellschaft besonderer Art. Nicht die abstrakte Gesellschaft der Institutionen und Normen, vielmehr die sehr konkrete Gesellschaft, die aus unserem Alltagsleben auftaucht. Kurz gefasst: eine Gesellschaft, die an unserem Erfahrungshorizont als etwas Unmittelbarem und Selbstverständlichem spontan teilhat.

111

Über den Begriff « Lebenswelt » bei Husserl vgl. R. Welter ( 1986 ). Über denselben Begriff bei Habermas vgl. U. Matthiesen ( 1985 ).

112

Vgl. J. L. Austin ( 1962 ) und L. Wittgenstein ( 1953 und 1970 ). Insbesondere über die Sprechakte vergleiche M. Sbisà ( 1978 und 1989 ).

113

R. Welter (1986, S. 19 ). Vgl. F. Fellmann ( 1983, S. 41 ) und I. Srubar ( 1988 ).

114

A. Schütz und Th. Luckmann ( 1979, S. 25 ). Vgl. A. Schütz ( 1971 ).

115

Der Begriff « Lebenswelt » von Schütz scheint in gewisser Hinsicht dem Begriff vie quotidienne des Marxisten H. Lefebvre sehr nahe zu stehen. Vgl. H. Lefebvre ( 1947 ).

92

Cyberspace – ein demokratischer Space ?

116

117

Einige Fachleute sind – mit überzeugenden Argumenten – versucht, in der « Lebenswelt » nur eine neue, philosophisch ausgereiftere Formulierung des heutzutage allzu verschlissenen Begriffs der « bürgerlichen Gesellschaft » zu sehen. Wie dem auch sei, der Begriff hat sich dank Schütz und Habermas als starke Anregung für das soziologische (und philosophische) Denken über das kommunikative Handeln erwiesen – und insbesondere auch für das Thema, das wir hier behandeln. Bei Schütz ist zum Beispiel folgender Passus zu lesen: «Nur in der alltäglichen Lebenswelt kann sich eine gemeinsame kommunikative Umwelt konstituieren.» 116 Und bei Habermas finden wir folgendes Zitat: «Schließlich ist kommunikatives Handeln auf situative Kontexte angewiesen, die ihrerseits Ausschnitte aus der Lebenswelt der Interaktionsteilnehmer darstellen.» 117 Wie man sieht, wird sowohl bei Schütz wie auch bei Habermas unzweifelhaft deutlich, dass ein optimales kommunikatives Handeln die Existenz einer Umgebung voraussetzt, in der die Handelnden mit (oder in Funktion) ihrer alltäglichen Lebenswelt interagieren können. Das bedeutet nach meiner Ansicht: a) dass die Handelnden in körperlicher Mitgegenwart (Kopräsenz) und gegenseitiger Sichtbarkeit agieren können; b) dass die Handelnden ohne Befürchtungen oder Ängste öffentlich die persönlichen Motive ihrer Urteile oder Entscheidungen erläutern können; c) dass die Bedingungen gegeben sind, die allen teilnehmenden Handelnden die gleichen Chancen gewährleisten – zum Beispiel Redezeit –, um ihre eigenen Meinungen auszudrücken und die eigenen Gedanken zu verteidigen.

118

Gewiss ist das ein Idealmodell des demokratischen kommunikativen Handelns. In der Praxis kann nicht allen Erfordernissen gleichzeitig und im gleichen Ausmaß entsprochen werden. 118 Doch eines dürfte unzweifelhaft feststehen: Ein

116

A. Schütz und Th. Luckmann ( 1979, S. 25 ).

117

J. Habermas ( 1981, Bd. I, S. 376 ).

118

Diese Erfordernisse berücksichtigen nicht in gebührender Weise, dass mit dem Entstehen der Presse, des Rundfunks, des Fernsehens usw. die traditionelle « Interaktion unter Anwesenden » immer mehr der « Interaktion unter Abwesenden » gewichen ist. Das Problem ist im Rahmen einer autopoetischen Theorie des Systems der Medien von N. Luhmann ( 1996, S. 11 ) untersucht worden. Nach Luhmann dienen die gelegentlichen Versuche der abwesenden Akteure, zu interagieren, als ob sie anwesend wären ( z. B. Telefonanrufe der Hörer oder Fernsehzuschauer während der Sendungen ), nur «zur Reproduktion des Systems der Massenmedien und nicht dem Kontakt des Systems mit seiner Umwelt» ( S. 34 ). Zu meiner Kritik an der Idee Luhmanns von der Beziehung System–Umwelt vergleiche den Essay Il futuro della modernità ( 1987, S. 161 und 162 ).

93

Digitale Welt und Gestaltung

derartiges Modell, selbst in einer weniger hoch zielenden Version, ist ein Gegenpol des Modells der interpersonellen Online-Kommunikation, in dem die körperliche Präsenz und die gegenseitige Sichtbarkeit negiert werden, in dem die eigene Identität verborgen wird und in dem sich eine gleichgewichtige Ausdrucksmöglichkeit schwerlich finden lässt. Dem Anschein nach könnte die interpersonelle Online-Kommunikation wegen ihres tatsächlich (oder vermeintlich) direkten und von den Institutionen unabhängigen Charakters als der erste Versuch gewertet werden – und viele behaupten das –, die mit Habermas’ Worten « Kolonialisierung» der Lebenswelt seitens eines Teils des Gesellschaftssystems zu konterkarieren. Kurz: Zum ersten Mal hätte die Lebenswelt ein ihr passendes Kommunikationsverfahren gefunden. Allerdings trügt der Schein. Aus den angeführten Gründen sind wir bei der interpersonellen Online-Kommunikation wahrlich am Nullpunkt der Lebenswelt angekommen.

Der Sprachgebrauch im Internet

119

Was den Sprachgebrauch der Kommunikation im Netz angeht, können einige weitere Einschätzungen von Nutzen sein. Zu diesem Zweck scheint es mir angebracht, den zweiten der Grundbegriffe wieder aufzunehmen, auf den Habermas in seinem Diskurs über das kommunikative Handeln zurückgreift, und zwar die Sprechakte von Austin (1962). Bekanntlich hat Austin in seinem bedeutenden Beitrag zur Untersuchung der performativen Äußerungen (performative utterances), also der Aussagen, in denen « etwas sagen » so viel wie « etwas machen » bedeutet, folgende berühmte Unterscheidung vorgeschlagen: Zu differenzieren sei erstens zwischen der Handlung des Etwas-Sagens (lokutorischer Akt), zweitens der Handlung, etwas beim Sprechen zu tun (illokutorischer Akt) und drittens der Handlung, etwas durch das Sagen zu tun (perlokutorischer Akt). Austin liefert für die drei Sprechakte folgende Beispiele: «Er hat gesagt, dass …» (erster Fall); «er hat behauptet, dass …» (zweiter Fall); «er hat mich überzeugt, dass …» (dritter Fall). Um sein Forschungsfeld einzuschränken, hat Austin klargestellt, dass sich sein Interesse ausschließlich auf den « ernsten » und nicht auf den « unernsten » Sprachgebrauch richtet. Indem er eine ungewöhnliche Metapher aus dem Bereich der Botanik heranzieht, bezeichnet er den unernsten Sprachgebrauch als ätiologischen Sprachgebrauch. 119 Konkret bezieht

119

Die Ätiologierung ist ein Komplex von atypischen Veränderungen bei Pflanzen, die ohne Licht gewachsen sind und deshalb unter anderem kein Chlorophyll synthetisieren.

94

Cyberspace – ein demokratischer Space ?

er sich auf die performativen Aussagen, die «besonders hohl oder leer sind, wie … sie von einem Schauspieler auf der Bühne gemacht werden oder in ein Gedicht eingeschoben sind oder in einem Selbstgespräch geäußert werden». Diese Gegenüberstellung von « ernstem » und « unernstem » Sprachgebrauch hat unter den Wissenschaftlern etliche Verwirrung gestiftet. Ich zitiere als Beispiel die von dem Sprachphilosophen P. F. Strawson vorgebrachten Zweifel hinsichtlich der provokatorischen These von Austin, der zufolge die illokutorischen Akte im Kontext eines « unernsten », « ätiologischen » Sprachgebrauchs nicht vorkommen. Ich möchte an dieser Stelle nicht auf dieses ausgesprochen fachspezifische Thema eingehen. Die Vorbehalte der Spezialisten gegenüber der These Austins in Klammern setzend, möchte ich aber die Bedeutung dieser These hervorheben, die sie bei der Analyse der Online-Konversation gewinnen kann. Austin, 1960 verstorben, hat natürlich nicht die gegenwärtigen Entwicklungen der Informatik und der Telekommunikation kennen können. Doch glaube ich, dass die Online-Kommunikation als das beste Beispiel für jenen besonderen Sprachgebrauch angesehen werden kann, von dem sich Austin mit kaum verhüllter Abneigung distanzierte. Sie illustriert ihn sogar passender als die von Austin angeführten Beispiele auf der Bühne, in einem Gedicht oder in einem Selbstgespräch. Der von den schon untersuchten Modalitäten des bei IRC, MUD, BBS und E-Mail gemachte Sprachgebrauch ist eine – um mit Austin zu sprechen – « parasitäre » Anwendung der Sprache, ein Sprachmissbrauch. Dafür gibt es zahlreiche Gründe. Vor allem handelt es sich um eine Kommunikation zwischen « Schreibern » und nicht zwischen « Sprechern » – oder genauer zwischen « Sprechern », die nicht miteinander sprechen, sondern die sich mit Hilfe der Computertastatur gegenseitig kurze Textnachrichten schicken.

120

121

Doch wie man weiß – Ferdinand de Saussure docet –, ist die Schrift nur eine Darstellungsart der Sprache, nicht die Sprache selbst. 120 Dieses Fundamentalprinzip der modernen Sprachwissenschaft wird nicht von allen Sprachwissenschaftlern ohne Vorbehalte akzeptiert. 121 Andere lehnen dieses Prinzip sogar vollkommen ab. Unter ihnen muss an J. Derrida erinnert werden, der in seiner faszinierenden (aber

120

121

F. de Saussure ( 1955, S. 45 ).

Einige Wissenschaftler geben zwar zu, dass die Schrift nicht eine Sprache ist, doch bestreiten sie, dass sie nur ein Darstellungsmodus, ein grafisches Notationssystem sei. Das ist zum Beispiel die Meinung von G. R. Cardona ( 1987 ). Er ordnet der Schrift einen relativ autonomen Status zu.≥

95

Digitale Welt und Gestaltung

oft unergründlichen) « Kunstprosa » die totale Autonomie der Schrift preist und polemisch den, wie er es nennt, « Phono-Logozentrismus » der Sprachwissenschaft angreift. Derartige Diskurse liegen trotz ihres (eventuellen) paraliterarischen und paraphilosphischen Charmes außerhalb des hier erörterten Themenbereichs, der sich vor allem auf die semantisch-pragmatischen Aspekte der interpersonellen Kommunikation richtet. Aus dieser Sicht werden Schrift und Sprache analytisch klar unterschieden, es sei denn, man wolle aus ihnen einen Gegensatz konstruieren mit der Absicht, zum Beispiel die größere oder geringere kommunikative Relevanz einer Kommunikationsform im Vergleich zur anderen zu statuieren. Diese Frage ist in diesem Zusammenhang sehr wichtig. Persönlich bin ich davon überzeugt, dass der schriftliche Dialog fast immer semantisch weniger wirkungsvoll als der gesprochene Dialog ist.

122

123

Damit will ich nicht durchgängig den Wert des geschriebenen Dialogs als Mittel der Kommunikation, des Ausdrucks und des Wissens in Frage stellen – das wäre unsinnig. Praktisch würde es darauf hinauslaufen, unter anderem die Bedeutung zu verkennen, die über viele Jahrhunderte der dialogische Text in den Bereichen Literatur, Philosophie und Wissenschaft sowie im Briefverkehr zwischen den Personen gehabt hat. 122 Mein Anliegen ist ein anderes: Ich möchte meinen Zweifel an der Wirksamkeit bekunden, die die besondere Form des dialogischen Textes aufweist, deren sich die Kommunikation im Netz bedient – eine verdichtete, knappe und nüchterne, extrem stereotypisierte Schrift, die wegen ihrer semantischen Dürftigkeit genau die jeder Kommunikationsform eigenen Schwächen noch verschärft und die sich zwischen Schreibenden und nicht zwischen Sprechenden entfaltet. 123

Er kritisiert – nach meiner Ansicht zu Recht – die Neigung der Sprachwissenschaftler, die Schrift mit alphabetischer Schrift gleichzusetzen. Weniger überzeugend scheint mir seine implizite These, dass alle grafischen Systeme als Schrift zu betrachten sind. Ohne Zweifel gibt es Zeichen und grafische Zeichensysteme « en dehors de la écriture », wie M. Cohen schreibt ( 1953 ). Zum Thema der grafischen Systeme als kommunikative Artefakte vgl. G. Anceschi ( 1981 ).

122

Zum Dialog, besonders den « sokratischen Dialog », vergleiche den glänzend geschriebenen Beitrag von M. Bachtin ( 1968, S. 143–146 ).

123

Es soll nicht verschwiegen werden, dass uns diese neuen Wirklichkeiten vom Standpunkt der Sprachwissenschaft aus relativ unvorbereitet treffen. T. De Mauro hat Recht, wenn er auf die dringende Notwendigkeit einer « telematischen Cyberlinguistik » hinweist ( 1996, S. 113 ). Unter den zahlreichen Aufgaben, die auf diesen neuen Zweig der Linguistik warten, figuriert an erster Stelle die Untersuchung der Erzählstruktur der Hypertexte. M. C. Taylor und E. Saarinen ( 1994 ) haben beobachtet,≥

96

Cyberspace – ein demokratischer Space ?

Worin bestehen diese Schwächen ? Die größte haben wir weiter oben bereits apostrophiert: die nach Austin « unernste » Art und Weise, die Sprache zu benutzen (in diesem Fall: darzustellen), die Art und Weise, in der die performativen Äußerungen unter anomalen Umständen mit dem Ergebnis ausgesprochen werden, dass in Ermangelung des Rückhalts verlässlicher Konventionen die illokutorischen Akte nicht über die illokutorische Kraft verfügen, die es ihnen gestattet hätte, zu einem Abschluss zu gelangen.

124

125

Die illokutorische Dürftigkeit bildet aber nicht die einzige Schwachstelle des Schreibens im Netz. Sie wird noch verstärkt durch eine expressiv-appellative Armseligkeit124 , die nicht, wie man zunächst vermuten könnte, aus einem Mangel resultiert. Vielmehr und paradoxerweise stammt sie von einem Übermaß an Elementen mit expressiv-appellativer Funktion. Dieses Phänomen erklärt sich aus dem besonderen Charakter der zur Erfüllung dieser Funktion eingesetzten Elemente. Bekanntlich stehen im Schauspieltext neben dem Sprechtext der Personen in Klammern gesetzte kurze Sätze, die als Leseschlüssel fungieren, um den Sinn und die Kraft (und indirekt die Bedeutung) des Gesagten zu unterstreichen. (Hier werden die Ausdrücke Sinn, Kraft und Bedeutung näherungsweise im Einklang mit der Terminologie von Frege benutzt. 125) Sätze dieser Art dienen als Ersatz jener expressiven-appellativen Elemente (Tonfall der Stimme, Mimik und Gestik), die im Text fehlen. Dafür einige Beispiele: « mit deutlicher Ironie », « mit freundlich tadelndem Ton », « mit falscher Höf lichkeit », « mit der Faust auf den Tisch schlagen », « mit Arroganz die Szene verlassen » usw.

dass einige der Texte von Derrida – besonders Glas – starke Analogien zu Hypertexten aufweisen. Auch wenn man dasselbe – und vielleicht mit mehr Recht – von den Texten von James Joyce und Arno Schmidt behaupten kann, so begünstigt die Digitaltechnik die Herstellung von « dekonstruierten » Texten im Sinne von Derrida. Taylor und Saarinen schreiben: «The ideal of a conherent text with a clear structure of beginning, middle and end reflects print technology. The electronic text is not coherent and has no obvious narrative structure. In telewriting, there is only middle, between, inter.» Zu einer Kritik am Dekonstruktivismus von Derrida vgl. T. Maldonado ( 1990 ).

124

Der österreichische Sprachwissenschaftler Karl Bühler ( 1934, S. 28 und 29 ), der auf Grund seiner Theorie des Sprechakts und der Sprechhandlung als Vorläufer von Austin betrachtet wird, hat bekanntlich das Universum der sprachlichen Funktionen in drei Bereiche geteilt: Ausdruck, Appell und Darstellung.

125

G. Frege ( 1982, 1892–1895 und 1969 ).

97

Digitale Welt und Gestaltung

In der Online-Konversation gibt es auch Sätze mit entsprechendem Tenor (und entsprechender Funktion), aber mit einem Unterschied: Sie belegen nicht wie im ersten Fall eine Randposition, gleichsam eine zurückhaltende Servicespalte, sondern werden nun demonstrativ ins Innere des Textes eingefügt. Es sind vorgefertigte Sätze, semantisch eingefrorene Gemeinplätze, die jedwede logische Artikulation der Nachrichten vereiteln. Ausdruck einer bedauerlichen Tendenz zur Verf lachung und Banalisierung. Ein anderes Beispiel ist die bei den jungen Hackern weit verbreitete Mode, sich eines grafischen Symbolsystems zu bedienen, das im Cyberjargon als smileys bekannt ist. Für sich genommen hat diese Tatsache wenig Bedeutung; einige sehen darin nur einen spielerischen Einschub. Nichtsdestoweniger scheint mir diese Mode in gewisser Hinsicht doch sehr bezeichnend.

126

Das in Frage stehende System nutzt das unter den Historikern der Schrift bekannte Verfahren, verschiedenen Systemen angehörende Zeichen miteinander zu kombinieren, um ein neues Zeichen zu schaffen. Im spezifischen Fall werden Interpunktionszeichen (Punkt, Doppelpunkt, Komma, Semikolon, Ausrufungszeichen, Fragezeichen usw.) und Zeichen des Alphabets (Buchstaben) verwendet. So entsteht ein grafisches ideogrammatisches Zeichensystem, das in der Regel die Symbole eines piktogrammatischen Charakters hat. In der überwiegenden Mehrzahl stellen diese Symbole emoticons dar. 126 Der Zweck dieser Symbole besteht nicht nur in einer expressiv-appellativen Verstärkung, sondern auch – und hier liegt ein weiterer wichtiger Unterschied – darin, die Elemente des Diskurses zu verdichten und sie so weit wie möglich zu beschränken. Und das im Namen einer obsessiven, zum Teil technisch bedingten Sorge, die Nachrichten sozusagen bis auf die Knochen zu reduzieren. Der in der Informatik vorherrschende Leitsatz ist bekannt: komprimieren, komprimieren und komprimieren. Der Gebrauch (und Missbrauch) der Abkürzungen in den Texten, sei es mit Hilfe der vorformulierten Sätze, sei es mit Hilfe der grafischen Symbole, passt sich dieser Logik ein. Doch der dafür zu zahlende Preis ist sehr hoch.

126

Sie können als smileys erkannt werden, indem man die lineare Sequenz von links nach rechts liest, als wäre sie von oben nach unten angeordnet: ( : -I ) ( lacht höhnisch ), ( : -II ) ( wütend ), ( : D ) ( lacht ), ( : O ) ( schreit ), ( : -/ ) ( skeptisch ), ( : -C ) ( völlig skeptisch ), ( : -S ) ( hat gerade etwas Inkohärentes gesagt ) usw. Vgl. C. Petrucco ( 1995, S. 345–351 ). Vgl. auch Emoticon ( 1996 ) und Glossary of Internet Terms ( 1996 ), ferner The Whole Smiley Face Catalog ( 1996 ) und Smiley Dictionary ( 1996 ).

98

Cyberspace – ein demokratischer Space ?

127

Der große dänische Sprachwissenschaftler L. Hjelmslev hat das Problem der Abkürzung untersucht und schreibt: Die Abkürzung bildet «einen konstanten und wesentlichen Teil in der Ökonomie des Sprachgebrauchs (man denke an Ausrufe wie: «Wie schön!», «Geschafft!» usw.). Wenn sich die Untersuchung darauf beschränken würde, Beziehungen auf dieser Grundlage zu registrieren, dann würde man sehr wahrscheinlich … mit dem einfachen Aufzeichnen bloßer Kombinationen enden.» 127 Einige verteidigen diesen kombinatorischen Charakter der Online-Konversation; es fehlt auch nicht an jenen, die es nicht dabei bewenden lassen und die so weit gehen, die ars combinatoria von Leibniz zu bemühen. Andere dagegen preisen die Vorteile, die diese Kommunikation für die Bündigkeit der Nachrichten bieten kann, nämlich eine drastische Elimination all dessen, was an einem Text überf lüssig ist. Hier wird Descartes zitiert. Aber die in diesen Termini formulierte Problemlage ist weit von der Wirklichkeit entfernt. Das Ergebnis dieses stenografischen Reduktionismus manifestiert sich nicht in der Straffung der Gedankengänge, nicht einmal in einem klaren und nüchternen Darstellungsstil, sondern nur in der Verarmung der Inhalte. Die Sprecher werden mit einem Schwall von Akronymen, Smileys, Abkürzungen und Neologismen eingedeckt. Sonderbarerweise dient dieses als neues Kommunikationsmittel gepriesene Symbolsystem überwiegend dem Austausch von Nachrichten, deren Trivialität und Leere schwerlich zu überbieten sind.

128

Das sollte nicht verwundern. Wenn die Jargonbildung bestimmte Grenzen überschreitet, fördert sie nicht eine freie und bereichernde Kommunikation, sondern verhindert sie. 128 Dafür sind zwei Gründe verantwortlich: Erstens fungiert der Jargon als Merkmal der Gruppen-, Bruderschaft- oder Sektenzugehörigkeit, als ein « Freipass » der Initiation und bewirkt somit, die Distanz zwischen den Jargonjongleuren, den Dazugehörigen und Zugelassenen einerseits und den Ausgegrenzten und Nicht - Zugelassenen andererseits zu vergrößern. Zweitens stellt sich der Jargon als

127

128

L. Hjelmslev ( 1961 ).

Hiermit möchte ich keinesfalls die Vielzahl der heute verwendeten Fachterminologien der Wissenschaften und Technologien in Frage stellen. Allgemein kann man sagen, dass sich ein solcher Sprachgebrauch auf Grund der Notwendigkeit rechtfertigt, unter den Spezialisten Missverständnisse zu vermeiden, die sich beim Gebrauch von Wörtern aus der Umgangssprache einstellen könnten.

99

Digitale Welt und Gestaltung

129

ein Faktor der Selbstgefälligkeit und Selbstbegrenzung dar. 129 Gewöhnlich gelingt es seinen Liebhabern nicht, sich der in jeden Jargon eingebetteten nominalistischen Faszination zu entziehen, also der Versuchung, zu glauben, dass es reicht, die Dinge anders zu benennen, um die Dinge zu erkennen. Auf der anderen Seite sind sie sich nicht bewusst, dass sich hinter diesem Feuerwerk neuer Termini oftmals alte, längst vom wissenschaftlichen oder philosophischen Denken verworfene, weil anachronistische Begriffe verbergen. Diese Missverständnisse üben einen negativen Einf luss auf die Untersuchungen über die Online-Konversation aus; und mehr noch auf die Art und Weise, wie sie praktiziert wird.

Andere Modalitäten der Online-Kommunikation

130

Im Verlauf meiner bisher vorgetragenen Überlegungen habe ich eine besondere Form der Kommunikation im Netz – vielleicht mit übertriebenem Nachdruck – diskutiert, und zwar jene Form, bei der die Personen ihre eigene Identität aufgeben und in eine fiktive Identität schlüpfen. Ich hoffe, gezeigt zu haben, dass diese Gesprächsform keinesfalls den Anforderungen eines öffentlichen kommunikativen Handelns entspricht. Doch wäre es einseitig und irreführend, die Frage der Beziehung von Telematik zur Demokratie nur auf die Modalität der Online- Konversation zu reduzieren. 130

129

Die Tendenz zum Hermetismus der Eingeweihten lässt sich in allen Manifestationen der gegenkulturellen Cyberfolklore beobachten. Häufig drückt sich dieser Hermetismus nicht so sehr in der für den Nicht-Eingeweihten ( wirklichen ) Schwierigkeit aus, die benutzten Codes zu entziffern, sondern in dem Willen, jede andere Form des Zugangs außerhalb dieser Codes zu entmutigen. Dazu genügt es, einen Blick auf die Zeitschriften und Broschüren zu werfen, die in diesem Bereich veröffentlicht werden. Als Erstes fällt der absolute Vorrang des grafischen Layouts über die Lesbarkeit des Textes auf. Alles wird den Capriccios einer verabsolutierten autonomen Grafik geopfert. Sehr oft ist man gezwungen, einen Text zu « lesen », der nahezu unlesbar ist. Zum Beispiel: rot gedruckter Text auf grünem Hintergrund oder hellblauer Text auf silbernem Hintergrund oder Texte, die gewagten grafischen Behandlungen unterworfen sind. So weiß der Leser – der Möglichkeit eines dieses Namens würdigen Lesens beraubt –, dass er ein ungebetener Gast ist und gibt die Lektüre auf.

130

Durchaus annehmbar ist die Beobachtung von M. Calvo et al. ( 1996, S. 9 ): «Von diesem Standpunkt aus kann es sich als abwegig erweisen, die Aufmerksamkeit nur auf einige Formen der sozialen Interaktion – eben den chat – zu richten und sie als ‹typisch› für die interpersonale Kommunikation im Internet zu betrachten. Nur wenn man das weite Feld der Gesamtheit der informativen und kommunikativen Funktionalitäten des Netzwerks betrachtet, versteht man in vollem Umfang deren gesellschaftliche Reichweite.» Doch wäre es ein Irrtum, das Phänomen des Chattens zu unterbewerten.

100

Cyberspace – ein demokratischer Space ?

Außer der Modalität Schreiben–Lesen, bei der Schreiber und Leser unter Wahrung ihrer Anonymität miteinander kommunizieren, gibt es eine andere Modalität der Konversation, in der die Personen sich mit Hilfe von Video und Audio in erster Person, also in voller Präsenz ihrer jeweiligen Identität, unterhalten. Ich meine die verschiedenen Arten der Videokommunikation: Videotelefon, Personal Computer mit Videocom-Funktionalität und rollabout (Multimedia Videokonferenz Software). Unter Nutzung dieser Geräte können sich die auf verschiedene Lokalitäten verteilten Teilnehmer sehen und hören und eine interaktive Beziehung in Realzeit aufnehmen, die sich im Unterschied zum Chatten eher einer echten Konversation von Angesicht zu Angesicht nähert. Wohl hat das Fernsehen ähnliche Kommunikationsformen mit rudimentärer Interaktivität geliefert, doch die eingesetzten Verfahren waren zu umständlich und die Ergebnisse in der Regel entmutigend. Es fehlte den Verfahren die Natürlichkeit, wie sie eben für den Dialog zwischen Personen im Alltagsleben typisch ist. Sicher, die Videokommunikation scheint mir ein Schritt in diese Richtung zu sein. Doch bleiben da noch Probleme. Das zeigt sich deutlich, wenn virtuelle Treffen organisiert werden, die viele Personen an verschiedenen Orten einbeziehen, also die so genannten Telekonferenzen. In diesem Fall bildet die Präsenz eines Leiters, der im Gesprächsverlauf über den « Auftritt » und « Abgang » der Sprecher entscheidet, der also den jeweiligen Wechsel in der Reihenfolge der Redebeiträge bestimmt, ein störendes (und oftmals beeinträchtigendes) Moment, das die Spontanität und Kreativität eines freien kommunikativen Handelns vereitelt.

131

Viele Fachleute, Sprachwissenschaftler, Soziolinguisten und Sprachphilosophen haben dem « konversationellen Sprechen » große Aufmerksamkeit gewidmet. 131 Doch stand im Zentrum ihres Interesses immer, mit wenigen Ausnahmen, der Dialog zwischen Personen von Angesicht zu Angesicht, die in physischer Nähe in einem realen Raum interagieren. Der folgende Abschnitt von G. M. Green (1989) bietet ein erhellendes Beispiel für die Art der Probleme, die auf diesem Forschungsfeld angegangen werden: «Vielleicht besteht der größte Unterschied zwischen der interaktiven Konversation und anderen Diskursproduktionen in der Choreografie des Rollenwechsels zwischen Empfänger und Sprecher und umgekehrt. Was stellt ein Empfänger A an, wenn er sich zum Sprechen erhebt und die Rolle des Sprechers annimmt ? Greift er am Ende eines Satzes ein, wobei er so lange wartet, bis der Vorgänger P seinen Satz beendet hat ? Wenn P seinen Satz noch nicht beendet hat, wie weiß man

131

Vgl. H. Garfinkel ( 1972 ), E. Goffman ( 1972 und 1981 ), E. Schegloff und H. Sacks ( 1973 ), H. Sacks et al. ( 1974 ), H. P. Grice ( 1975 ). Vgl. F. Orletti ( 1994 ), L. Passerini, E. Capussoti und P. Braunstein ( 1996 ).

101

Digitale Welt und Gestaltung

dann, wer nun sprechen kann ? Ist es eine Frage des Status und des Unterschieds oder einfach eine Frage der Beharrlichkeit und Gewalt ? Wenn es mehr als einen Empfänger gibt, wie stellen es A, B, C an zu wissen, wer mit dem Sprechen dran ist ? Da wir uns gewöhnlich nicht bewusst sind, diese Probleme im Verlauf eines Gesprächs (sei es eine ganz einfache Unterhaltung oder eine offizielle Diskussion) lösen zu müssen, stellt sich das Problem: Wie geht das vor sich ? Weshalb scheint das Gespräch so f lüssig zu laufen ?» Diese Fragen haben bereits – meiner Ansicht nach überzeugende – Antworten im Bereich der pragmatischen Sprachwissenschaft gefunden. Die Antworten berücksichtigen ausschließlich das normale interaktive Gespräch zwischen wirklichen Personen, die sich in einem realen Raum unterhalten. Die Telekonferenz dagegen zwingt uns, Probleme zu meistern, die sich gleichzeitig mit diesem Gesprächstyp decken und von ihm absetzen. Wir haben es nun mit einem Gespräch von Angesicht zu Angesicht zu tun, das sich nicht in einem realen, sondern in einem virtuellen Raum, nicht in unmittelbarer Nähe, sondern über eine Distanz entwickelt. Soviel ich weiß, sind bislang keine Versuche bekannt, dieses neue Phänomen einer rigorosen Analyse zu unterziehen. Es handelt sich um einen Forschungsbereich, der gänzlich neue Problemstellungen angehen muss, der aber nicht auf den bei der Erforschung der herkömmlichen Konversationen angesammelten Wissensfundus verzichten kann. Derzeit bleibt uns nichts anderes übrig, als darauf zu warten, dass die Erforscher dieses Themas uns in Kürze zu Hilfe kommen, um die Rolle der dialogischen Sprache im neuen Kontext zu erklären. Diese künftigen Beiträge werden für die Sichtung und Klärung der Möglichkeit entscheidend sein, die Videokommunikation nicht nur im Bereich des Managements, der Lehre und des Teamentwurfs, sondern auch im Bereich der politischen Entscheidungsfindung zu nutzen. Neben den dialogischen Nutzungsformen des Netzwerks gibt es andere, die nicht zu dieser Kategorie gehören. Unter diesen findet sich die mit Abstand wichtigste Nutzungsform, die mit der technisch-wissenschaftlichen Kommunikation und der Übertragung (und Sammlung) von Daten militärischen, industriellen, finanziellen und verwaltungstechnischen sowie politischen Interesses verbunden ist. Vielen Nutzungsformen des Netzes können wir – und meiner Ansicht nach müssen wir auch – mit Zweifeln und Unschlüssigkeit begegnen, nicht aber der Tatsache, dass mit dem Netz ein hervorragendes Informationsmittel geboten ist und es somit im Zentrum des Diskurses über das kognitive Potenzial steht. Forscher und Erzieher haben als Erste die Bedeutung des Netzes erkannt und daraus Nutzen gezogen. Trotz der Redewendung « Wissen ist Macht » gewinnen die neuen telematischen Mittel des Wissenszugangs unvermeidlich eine entscheidende Bedeutung im Rahmen der derzeitigen Debatte über die Zukunft der demokratischen Macht.

102

Cyberspace – ein demokratischer Space ?

An diesem Punkt sind weitere Klarstellungen angebracht. Sie beziehen sich zum Beispiel auf die Gültigkeit der Annahme, dass mehr Information gleichbedeutend mit mehr Wissen und mehr Wissen seinerseits gleichbedeutend mit mehr Macht ist. Anscheinend ist das eine rein rhetorische Frage, weil eine bejahende Antwort auf jeden Fall vorauszusehen ist. Doch so einfach liegen die Dinge nicht. Weil es offensichtlich ist, kann man nicht bezweifeln, dass Macht Wissen erfordert (und voraussetzt). Trotzdem hat die hypostasierte Transitivitätskette (mehr Information = mehr Wissen; mehr Wissen = mehr Macht) ein schwaches Glied, denn ich bin nicht davon überzeugt, dass die erste Gleichung – im Unterschied zur zweiten – schlüssig ist. Das Wachstum des Wissens kann nicht nur in Begriffen anwachsender Informationen erklärt werden. Mehr noch: Wie wir später sehen werden, stellt sich die Zunahme des Gesamtvolumens der zirkulierenden Information manchmal als negativer Faktor für die Wissensvertiefung heraus. Was an Breite gewonnen wird, geht an Dichte verloren. Das ist noch nicht alles. Häufig fungiert die Information heutzutage als Vehikel der Desinformation, das heißt ungefährer, entstellter oder falscher Information. Eine derartige Information hat offensichtlich nichts mit Wissen zu tun; es sei denn, die Kenntnis der Desinformation würde als ein hilfreiches Kontrastmittel angesehen, um die Information herauszufinden, die nicht Desinformation ist. Im letzten Fall haben wir das Wort « Kenntnis » in neutraler Form benutzt, also angenommen, dass in der Praxis sowohl die Information als auch die Desinformation, das Wahre und das Falsche, das Gute und das Schlechte, legitimerweise Gegenstand der Erkenntnis sein können. Dies zwingt uns, die terminologischen (und nicht nur die terminologischen) Aspekte näher zu betrachten, die in den Begriffen Kenntnis und Wissen implizit enthalten sind, und weiterhin die Beziehung zwischen diesen beiden Begriffen und dem Begriff der Information (und Desinformation) zu analysieren.

132

Vor allem stellt sich spontan die Frage: Sind die Begriffe Kenntnis und Wissen austauschbar ? Konkreter formuliert: Kann – unter der Vorannahme ihrer Beziehung zur Information – das Wort « Wissen » durch das Wort « Kenntnis » (und umgekehrt) ersetzt werden, ohne den Sinn zu verfälschen ? Im Prinzip würde ich das bejahen. Doch muss zugegeben werden, dass die Beziehung Information – Kenntnis viel direkter, unvermittelter als die Beziehung Information–Wissen ist. 132 Deshalb

132

Der Grund liegt in der Tatsache, dass in den neulateinischen Sprachen die Vorstellung des Wissens ( man denke an savoir im Französischen und an saber im Spanischen ) gewöhnlich als viel reichhaltiger und artikulierter angesehen wird als der Begriff Kenntnis ( connaissance und ≥

103

Digitale Welt und Gestaltung

darf man ohne Forcierung von der Kenntnis der Desinformation sprechen, wogegen es zumindest eigenartig klingen würde, zum Beispiel zu behaupten, dass die Häufung von Desinformation zur Bereicherung des Wissens beitragen könnte.

133

Auch wenn ich mir der semantischen Nuancen der beiden sich voneinander abhebenden Begriffe bewusst bin, möchte ich sie aus Gründen expositiver Vorteile ohne Unterschied nutzen, als ob es sich um zwei Synonyme (oder Quasisynonyme) handelte. Das – so will mir scheinen – vereinfacht die Dinge und gestattet es, ohne nominalistische Stolpersteine vorwärtszukommen. Doch zuvor empfiehlt sich eine weitere terminologische Spezifikation: Ich meine die Notwendigkeit, zwischen individuellem Wissen und sozialem Wissen zu unterscheiden. Es handelt sich um eine unumgängliche methodenspezifische Auf lage, wenn man den Diskurs über das Wissen auf eine konkrete Ebene stellen will. Jegliche Erörterung dieses Themas muss die Existenz zwei verschiedener struktureller Ebenen des Wissens anerkennen, wenn man nicht in Allgemeinheiten stecken bleiben will. Die Unterscheidung zwischen individuellem und sozialem Wissen ist entscheidend für das Thema, mit dem wir uns jetzt befassen werden. 133

Individuelles Wissen und gesellschaftliches Wissen Wenn wir ermitteln wollen, welches die demokratische Wertigkeit eines operativen, also nicht konversationellen Gebrauchs des Netzwerks ist, muss man bei der Analyse unbedingt individuelles Wissen und gesellschaftliches Wissen auseinanderhalten. Auch wenn beide Wissensformen sich wechselseitig beeinf lussen, wird doch jeder eine relative Autonomie konzediert, und zwar aus dem einfachen Grund, weil auf der einen Seite die individuellen Wissensinhalte stehen, also das Wissen, über das jeder von uns als Einzelperson verfügt, und auf der anderen Seite die gesellschaftlichen Wissensinhalte, die eine Gesellschaft (oder Kultur) als Ganzes entwickelt, anhäuft und institutionalisiert. Es gibt auf der einen Seite das Mikrowissen (die Kleinformen des Wissens), dessen sich die Menschen in ihrem Alltagsleben

conocimiento ). Im Englischen dagegen bedeutet knowledge gleichzeitig Wissen und Kenntnis. Vgl. für die Beziehung von knowledge und information F. Machlup ( 1962, S. 7–8 ). Zu diesem Thema vgl. auch G. Martinotti ( 1992 ). Der Autor untersucht die Idee der Information in Bezug auf drei Wissenstypen: organisiert oder gebildet, diffus oder populär, organisatorisch oder technisch.

133

104

Vgl. B. A. Huberman ( 1996 ).

Cyberspace – ein demokratischer Space ?

bedienen, und auf der anderen Seite das Makrowissen (die Großformen des Wissens), das sich als ein riesiges, abstraktes und anonymes Wissenssystem herausbildet. Aus historischer Sicht kann man sagen, dass die Entfernung zwischen individuellem Wissen und gesellschaftlichem Wissen im Laufe der Zeit immer größer geworden ist. Bevor sich differenziertere Formen der Arbeitsteilung durchsetzten, war die Distanz zwischen den Wissensinhalten klein. Mehr noch, das individuelle Wissen wurde zum großen Teil mit dem gesellschaftlichen Wissen gleichgesetzt. Anders gesagt, das kollektive Wissen unterschied sich nicht wesentlich vom individuellen Wissen. Im Wissensfundus der so genannten primitiven Kulturen ist ein umfangreiches individuelles Wissen über die Möglichkeiten und Risiken der Umwelt eingebettet, in der sie leben. Umgekehrt ist das gesellschaftliche Wissen, das gewöhnlich dem Schamanen anvertraut wird, nicht wesentlich reicher als das individuelle Wissen. Die Dinge ändern sich radikal, wenn wir die Gesellschaften untersuchen, in denen die Arbeitsteilung immer differenziertere Formen annimmt. In solchen Gesellschaften kehrt sich die Beziehung zwischen den beiden Wissensformen um: Das gesellschaftliche Wissen entwickelt sich in bemerkenswertem Umfang, wogegen das individuelle Wissen dahin tendiert, zu verarmen und Einf luss zu verlieren. Mit dem Entstehen der Industriegesellschaft hat dieses Phänomen noch dramatischere Formen angenommen. Bei der Beschreibung dieser Situation stellt Th. Sowell (1980, S. 3) fest: «Auf individueller Ebene ist unser Wissen geradezu pathetisch beschränkt, aber auf gesellschaftlicher Ebene nutzen wir eine Reihe von komplexen Wissensinhalten, die einen Rechner verwirren würden.» Da es Teil unserer täglichen Erfahrung ist, mag es sich erübrigen, daran zu erinnern, dass wir auf individueller Ebene Maschinen benutzen, ohne etwas über ihren Auf bau und ihr inneres Funktionieren zu wissen (oder nur sehr wenig). Uns interessieren nur ihre Dienstleistungen, während der Rest nicht unser Problem ist. Aber wenn es nicht unser Problem ist, wessen Problem ist es dann ? Es ist das Problem eines nicht genauer definierten Anderen. Jedes Mal, wenn sich in den Vereinigten Staaten jemand einer Sache gegenübersieht, die er nicht versteht und die er auch gar nicht verstehen will, sagt er achselzuckend: «Let George do it.» George ist wohlverstanden nicht eine bestimmte Person, sondern eine emblematische Figur jenes hypothetischen Anderen, also jenes Spezialisten, der weiß, was wir nicht wissen, und dem wir die unangenehme Aufgabe zuschieben, für uns das zu tun, was wir uns weigern zu tun oder was wir nicht fähig sind zu tun (F. Machlup 1962, S. 3). Das Problem besteht darin, dass wir alle in der Industriegesellschaft (und jetzt noch mehr in der

105

Digitale Welt und Gestaltung

134

Neo-Industriegesellschaft) Ignoranten sind, aber, wie der Humorist Will Rogers hervorhob 134 , Ignoranten bezüglich verschiedener Dinge. Deshalb könnte jeder von uns, zumindest theoretisch, ein George für einen anderen sein. In der Praxis geschieht das aber nicht, und zwar aus zwei Gründen: Erstens sind die für ein Thema als mögliche Experten in Betracht gezogenen Personen, also potenzielle Georges, die man zu Hilfe rufen kann, in der Minderheit; zweitens stellt man unter den Personen, denen man ohne Einschränkung die Bezeichnung Experte zukommen lassen kann, also einzelnen Individuen mit Spezialwissen, eine starke Tendenz zur multidisziplinären Integration fest – vor allem im Bereich der Spitzentechnologien. Auf diese Weise entfernen sich die Experten-Individuen, nun zu riesigen Expertenkollektiven zusammengefasst, immer weiter von den NichtExperten. Kurz: George steht uns immer weniger nah und wird immer weniger zugänglich. Dieser Tatbestand sollte nicht unterschätzt werden; denn wenn sich diese Tendenz bestätigt, dann wären wir mit einem Prozess fortschreitender Isolierung sowohl des individuellen als auch des gesellschaftlichen Wissens konfrontiert – das individuelle Wissen ist mit der Unmittelbarkeit des operativ-performativen Verhaltens beschäftigt, das gesellschaftliche Wissen mit dem Ausbau und der Entwicklung technisch-wissenschaftlicher Kenntnisse. Doch worin besteht das Wesen des individuellen Wissens, worin unterscheidet es sich vom gesellschaftlichen Wissen ? Ist es richtig, dieses Wissen vorwiegend in Funktion der Kenntnisse zu bestimmen, die es beiseiteschiebt, und in Funktion der Weigerung, über die minimalen, für die Ausübung einer bestimmten Handlung erforderlichen Kenntnisse hinauszugehen ? In unserem alltäglichen Umgang mit den Gegenständen fehlt ein spezifisches Interesse an dem ihnen zugrunde liegendem technischem Wissen. Dennoch wäre es nicht gerecht, das individuelle Wissen als eine Art Halbwissen, als ein armes Wissen (sapere povero) zu definieren. Im Fall des Autofahrens ist zumindest ein Wissen gegenwärtig, eben das des Autofahrens, ein – wie mir scheint – alles andere als armes Wissen. Wenn auch verschieden, so ist es doch immer ein Wissen. Wenn man sagt, dass jemand Auto fahren kann oder nicht, dass jemand sehr gut oder sehr schlecht fährt, bezieht man sich auf eine quantitative Hierarchisierung des Wissens. Doch die Anerkennung des

134

106

Zitiert von Th. Sowell ( 1980, S. 3 ).

Cyberspace – ein demokratischer Space ?

operativ-performativen Wissens als eines Wissens, wenn auch besonderer Art, sagt uns nicht viel über den Unterschied zwischen diesem Wissen und dem technischen Wissen, zwischen dem Wissen, ein Auto zu fahren und dem Wissen, es zu konstruieren und zum Funktionieren zu bringen, also dem zwischen Fahrer und Ingenieur.

135

136

Hier kommt uns eine den Philosophen seit je sehr teure Unterscheidung gelegen, und zwar die Unterscheidung zwischen knowing what und knowing why. Der Wissenschaftstheoretiker W. C. Salmon erklärt den Unterschied: «Eine Sache ist es zu wissen, dass jeder Planet periodisch seine Bewegungsrichtung hinsichtlich der Fixsterne ändert, eine andere Sache ist es, das Warum dieses Phänomens zu wissen. Das erste Wissen ist eine Kenntnis mit deskriptivem Charakter, das zweite Wissen hat explikativen Charakter.» 135 Es gibt aber noch ein drittes Wissen, und zwar das soeben angeführte Wissen, ein Auto fahren zu können: das knowing how – ein weder deskriptives (Tatsachenwissen) noch explikatives Wissen (Verständniswissen). Dieses Wissen aber als nur operativ-performatives Wissen (Handlungswissen) zu etikettieren, wäre zu einfach. Auf der anderen Seite hat unser « Wissen dass » niemals einen bloß deskriptiven Charakter. Wenngleich dieses Wissen nicht über die Beschreibung hinausgeht, so ermöglicht doch diese kognitive Enthaltsamkeit, unserem operativ-performativem Handeln, unserem täglichen Gebrauch der Dinge ohne die dem Verständniswissen eigenen Störungen nachzugehen. Der Zweck des Verständniswissens zielt zwar primär auf Kenntnis, doch in erheblichem Maße beeinf lusst er die technischen Gegenstände und ihre Gebrauchsweise. Seit einem Jahrhundert wächst die Bresche zwischen diesen beiden Wissensformen in alarmierendem Rhythmus. Man hat versucht, sie durch allgemeinverständliche Darstellungen, durch Popularisierung zu verringern. 136 Das Ziel bestand darin, die Entstehung eines – um es mit den Worten der siebziger Jahre zu sagen – « wissenschaftlichen Massenbewusstseins » zu fördern. Es sind einige Ergebnisse erzielt worden, doch sie haben nicht wesentlich die Termini des Problems verändern können. Die unauf haltsame Ausdehnung des gesellschaftlichen Wissens bedingt – wie sich immer klarer sehen lässt – eine fortschreitende Reduktion des individuellen Wissens.

135

136

W. C. Salmon ( 1990, italienische Übersetzung, S. 13 ).

Der Gedanke der « allgemein verständlichen Darstellung » ( Popularisierung ) ist zu Recht von G. Toraldo aus Frankreich ( 1979, S. 331 ) kritisiert worden. Er meint, dass es passender wäre, von « wissenschaftlicher Verbreitung » ( wissenschaftliche Diffusion ) zu sprechen.

107

Digitale Welt und Gestaltung

Über die Informationsschwemme

137

Man kann nicht verkennen, dass die Vorstellung der global information infrastructure, wie sie vom Vizepräsidenten der USA , A. Gore (1994), avisiert wurde, implizit ein Szenario enthält, in dessen Rahmen alle überall Zugangsrecht zum « freien Informationsf luss » hätten. 137 Angenommen, das würde stimmen, stünden wir zum ersten Mal seit der Industriellen Revolution vor der Möglichkeit, individuelles Wissen und gesellschaftliches Wissen wieder annähern zu können. Mit anderen Worten, wenn jeder Person die Möglichkeit geboten würde, sich über das Netz beliebige Information, einschließlich der Fachinformation anzueignen, dann ist klar, dass das ungleichgewichtige Verhältnis zwischen den beiden Wissensformen zumindest theoretisch ganz erheblich korrigiert werden könnte. Abgesehen vom bereits erwähnten grundlegenden Unterschied zwischen der Möglichkeit und der Wahrscheinlichkeit, unsere Freiheit nutzen zu können, scheint es offensichtlich, dass das hier skizzierte Szenario sich auf höchst theoretische Voraussetzungen stützt. Vor allem wenn man die Definition des gesellschaftlichen Wissens als eines Wissensbereichs des Warums akzeptiert, wäre es eine wenig realistische Vorstellung, dass sich alle Personen ohne Unterlass nach dem Warum der Dinge fragen. Das nämlich würde voraussetzen, dass unsere Rezeptions- und Absorptionsfähigkeit von Wissen unendlich ist. Das aber ist offensichtlich nicht der Fall.

138

Seit langem haben die Forscher der Wahrnehmungsphänomene empirisch belegt, dass unsere Aufmerksamkeit und unsere Wissbegier stark selektiv ausgerichtet sind. 138 Aufmerksamkeit und Wissbegier steigern sich oder klingen ab, je nach der Neuigkeit, der Intensität und der Frequenz des Reizes. In diesen Zusammenhang gehört das Thema der Redundanz, die von einer bestimmten kritischen Schwelle ab perzeptive Langeweile erzeugt. Das schlägt sich vor allem in Apathie, in Ablehnung und im Extremfall in Widerwillen nieder, wenn die Nachrichten zu oft wiederholt werden. Das Gleiche geschieht auch im Fall allzu vieler oder wenig differenzierter Nachrichten. In solchen Situationen werden die Nachrichten – in der

137

Siehe H. I. Schiller ( 1995 ). Schiller setzt sich kritisch mit der global information infrastructure von Gore auseinander, besonders mit dem berüchtigten « freien Informationsfluss », der ihm zufolge nichts weiter wäre als ein eingleisiger Fluss mit dem Ziel, «auf Weltebene den Einfluss der Kulturproduktion der Vereinigten Staaten » ( S. 19 ) zu verbreiten und zu festigen.

138

108

Vgl. D. E. Berlyne ( 1960 ) und L. E. Krueger ( 1973 ).

Cyberspace – ein demokratischer Space ?

139

Terminologie der Gestalttheorie – nicht mehr als Figuren vor einem Grund wahrgenommen. Alles wird Hintergrund, Hintergrundgeräusch. 139 Wie man sich leicht vorstellen kann, taucht dieses Phänomen auch – und ich würde sagen: vor allem – in der Welt des Internets auf. Selten wird darüber gesprochen. Man zieht es vor, über all das zu schweigen, was auf die eine oder andere Weise ein bestimmtes Bild des Internets stören könnte, und zwar das Bild einer fröhlichen, mit Nachrichten überbordenden Welt, deren unersättliche Nutznießer wir sein sollten. Dabei wird ein Aspekt ausgeblendet, der uns gerade als Nutzer direkt betrifft: unsere vermeintliche Unersättlichkeit gegenüber den Nachrichten, deren Nutzer wir sein sollten. Doch ein Sachverhalt ist als endgültig erwiesen zu betrachten: Aus den oben erwähnten Gründen verkraften die Menschen schlecht den Einf luss eines Überangebots an Information. Wir sind zu zerstreut und f latterhaft und vor allem zu ungeduldig mit Nachrichten, die nicht irgendwie mit der Sphäre unserer Alltagsinteressen, Wünsche und Hoffnungen verbunden erscheinen. Dieser angeborenen Schwäche bewusst (die aus anderer Sicht unsere Stärke bildet), haben wir uns mit einer intellektuellen Prothese, dem Computer ausgerüstet. Der Computer war von Anfang an dazu bestimmt, die Funktionen des Empfangs, der Verarbeitung und der Speicherung der Information zu entpersonalisieren. Auf diese Weise können diese Funktionen erfüllt werden, ohne den subjektiven Einschränkungen, ohne den unserer perzeptiven Unruhe eigenen Störungen ausgesetzt zu sein.

140

Jetzt kehrt der Netzzugang zur Information in gewissem Maße das Problem um, weil das Netz die Möglichkeiten öffnet, diese erwähnten drei Funktionen zu repersonalisieren. Unversehens befinden wir uns wieder am Ausgangspunkt. Zumindest theoretisch sind wir nun in der Lage, auf alle Informationsquellen zuzugreifen, die wir benötigen. Mehr noch: Wir können von einer Lawine von Informationen überrollt werden, die wir gar nicht haben müssen – ohne zu berücksichtigen, dass die Informationen, die wir brauchen, oftmals mit jenen unlösbar verkoppelt sind, die wir nicht benötigen. In all diesen Fällen wiederholt sich der Zustand subjektiver Unsicherheit angesichts der Information, jetzt aber noch zugespitzter; besonders dann, wenn die uns erreichende Information quantitativ (und qualitativ) unsere menschliche Aufnahme-, Verarbeitungs- und Speicherkapazität erheblich übersteigt. 140

139

Zu einer eingehenden Behandlung dieses Phänomens unter Bezug auf G. Simmel und W. Benjamin möchte ich auf meinen Essay Il futuro della modernità ( 1987, S. 106 ) verweisen.

140

Kürzlich hat H. M. Enzensberger ( 1996 ) mit einem ein wenig übertriebenen Optimismus ≥

109

Digitale Welt und Gestaltung

Aus dieser Sicht hat die Thematik einen direkten Bezug zur Frage der Online-Demokratie. Denn da, wo wie im Fall dieses Szenarios die Hypothese von der vollen Umsetzung der Demokratie mit Hilfe eines freien telematischen Zugangs zur Information formuliert wird, muss man über die Art und Weise nachdenken, wie denn der Bürger konkret die Information sammelt (und erlebt). Wenn man dieser Frage ausweicht, endet man unvermeidlich bei einer unbestimmten (und unerreichbaren) abstrakten Vision vom Bürger. Nach dieser Vorstellung wäre der ideale Bürger dann der total informierte Bürger, also der Bürger mit der Kenntnis aller das öffentliche Leben betreffenden Probleme.

141

Einen derartigen Bürger gibt es nicht; auch glaube ich nicht, dass seine Existenz wünschenswert wäre. Dieser Idealbürger ist nicht der demokratische Idealbürger. Er kommt eher dem nahe, was als « totaler Bürger » bezeichnet worden ist. 141 Praktisch wäre er ein Bürger (aber ist es noch richtig, ihn Bürger zu nennen ?), dessen individuelles Bewusstsein durch die Tatsache getrübt und gelähmt worden ist, dass er ganz im öffentlichen Leben aufgeht. Den Apologeten des Cyberspace zufolge würde ein freier Zugang aller Bürger zu allen Informationen automatisch das Herauf kommen neuer Formen der direkten Demokratie begünstigen. Das mag theoretisch stimmen. In der Praxis aber halte ich es für wahrscheinlicher, dass ein uneingeschränkter Zugang zur Information in Wirklichkeit nicht zu einer weiter fortgeschrittenen Form der Demokratie führt, sondern nur zu einer raffinierteren Form der sozialen Kontrolle und der kulturellen Einebnung.

142

Nicht zu vergessen wäre, dass sich heute eine radikale Veränderung in der Art und Weise anbahnt, den Zwangsplan der Macht zu verwirklichen. In der Vergangenheit, auch in jüngster Vergangenheit, machte sich dieser Plan die Informationsarmut zu Nutze, heute dagegen wird der Informationsüberf luss begünstigt. 142

festgestellt, dass sich unsere Vorstellung von Luxus heute radikal verändert. An die Stelle der traditionellen Formen des Luxus, die sich hauptsächlich auf die Ostentation des Reichtums und der Macht gründet, träten nun neue Luxusformen, die im Unterschied zu früher die Werte der Innerlichkeit, Mäßigung und Einfachheit ausdrücken. Eine dieser Luxusformen bestünde nach Meinung Enzensbergers in der Möglichkeit, frei über die Aufmerksamkeit verfügen zu können. Das ist eine durchaus haltbare These. In der Welt, in der wir leben, ist es ohne Zweifel ein Luxus – vielleicht der größte vorstellbare Luxus–, entscheiden zu können, welche Dinge unsere Aufmerksamkeit verdienen und welche nicht, also was wir – mit den Worten Enzensbergers – sehen, hören, fühlen oder wissen möchten. Offen bleibt allerdings die Frage, wie man diesen Luxus demokratisieren kann, wie man allen und nicht nur einigen Privilegierten das sicherstellen kann, was man die Freiheit der Aufmerksamkeit nennt.

110

Cyberspace – ein demokratischer Space ?

Schlussfolgerung Wegen dieses Urteils und wegen vieler anderer vorhergehender Urteile setzte ich mich dem Vorwurf aus – und dessen bin ich mir bewusst –, einer allzu pessimistischen Vision von der Rolle der neuen Technologien in der demokratischen Gesellschaft anzuhängen. Dieser Vorwurf ist teilweise berechtigt. Mein Skeptizismus (kein Pessimismus, das sei klar) betrifft ausschließlich die dunstigen Szenarien, die das Entstehen einer Gesellschaft ankündigen, in der es dank des Beitrags – und nichts als des Beitrags – der neuen Technologien möglich werde, den alten Traum einer echten partizipativen und, mehr noch, einer planetarischen Demokratie zu verwirklichen. Meiner Ansicht nach besitzt dieses Szenario keine Glaubwürdigkeit. Es gibt gute Gründe – und ich glaube, sie geliefert zu haben –, die diese Einschätzung erhärten. Doch warum werden entgegen aller Evidenz solche Szenarien weiterhin vorgeschlagen ? Vielleicht gibt es dafür eine Erklärung. In einer Welt, in der alle Idealvisionen über unsere Zukunft zerstäubt worden sind, sucht der Kapitalismus heute fiebrig die leer gelassenen Räume zu besetzen. Und dies geschieht, indem er – wie vorauszusehen war – auf eine « große Erzählung » zurückgreift. In ihr wird unter anderem die unmittelbare Ankunft der « digitalen Republik » verkündet, einer Republik, die, insofern hoch informatisiert, sich – so wird versichert – als die demokratischste aller Republiken entpuppen wird. Zur Verbreitung dieses Szenarios haben die großen multinationalen Medienkonzerne eine hoch effiziente Maschinerie des politisch-kulturellen und kommerziellen Konsensus in Gang gesetzt. Deshalb darf es nicht verwundern, dass eine beträchtliche Zahl von Personen, besonders in den industrialisierten Ländern, heute dazu neigt, ein ideologisches Trugbild mit der Wirklichkeit zu verwechseln. Dagegen richtet sich mein Skeptizismus, der aber in keiner Weise meiner Überzeugung Abbruch tut, dass die neuen Technologien in spezifischen Bereichen zur Besserung unserer Lebenswelt beitragen und fruchtbare Kanäle demokratischer Teilnahme öffnen können.

141

G. Sartori und R. Dahrendorf ( 1977 ).

142

Zum Begriff des Informationsüberflusses vgl. A. A. Moles ( 1991 ).

111

Digitale Welt und Gestaltung

Telematik und neue urbane Szenarien *

*

2. Kapitel aus Critica della ragione informatica, Feltrinelli, Mailand 1997, S. 93 –135.

113

Telematik und neue urbane Szenarien

Zur Frage des Cyberspace, der sich als idealer demokratischer Raum anempfiehlt, gesellt sich die nicht weniger kontroverse Frage eines Cyberspace, der als idealer Stadtraum präsentiert wird, das heißt als ein neues Stadtmodell, das mit Hilfe einer kapillaren Digitalisierung seiner Infrastruktur alle Missstände beseitigen kann, unter denen heute die traditionelle Stadt leidet.

01

Hinter diesem Modell steht die weit verbreitete Annahme, dass die Informationstechnologien einer Verlagerung der Arbeitsplätze aus der Stadt in andere Zonen Vorschub leisten und auf diese Weise den Stadtverkehr entlasten und dessen schädliche Auswirkungen auf die Umwelt mindern könnten. 01 Man kann ein solches Szenario nicht von vornherein als abwegig abtun. Doch in diesem wie auch im Fall der direkten Online-Demokratie ist höchste Vorsicht angeraten, denn Städte – es erübrigt sich nahezu, daran zu erinnern – sind komplexe Organismen, die sich in der Regel nur widerstrebend neuen Modellen öffnen, die von außen (oder von oben) auferlegt werden und die darauf abzielen, die herrschende Ordnung umzumodeln. Denn bei der Modellierung von Städten ergibt sich die Schwierigkeit, dass sie eher zur Erhaltung des status quo als zum Neuen tendieren, vor allem dann, wenn der zu erwartende Wandel sich aus einem Plan herleitet, der ausschließlich auf die Rationalisierung (und Optimierung) aller Aspekte des Stadtlebens gerichtet ist.

02

Es mag genügen, an die enttäuschenden Erfahrungen mit einigen Modellen der Regionalplanung der sechziger und siebziger Jahre zu erinnern, die sich von der Kybernetik, der Systemtheorie, der Linearprogrammierung oder von der Operationsanalyse inspirieren ließen. Ich wende mich nicht gegen alle Modelle dieses Typs, sondern nur gegen jene, die (damals wie heute) mit Hilfe einer hoch entwickelten Formalisierung eine totale Kontrolle der städtischen Prozesse versprechen. 02

01

Vergleiche hierzu die Untersuchung von J. S. Niles ( 1994 ) der Global Telematics im Auftrag des USDOE ( United States Department of Energy ) und des LBL ( Lawrence Berkeley Laboratory ). Ich betrachte diese Arbeit als eine hervorragende Zusammenfassung des heute in den USA vorherrschenden Diskurses über dieses Thema.

02

Zu Modellen dieser Art vergleiche B. Harris ( 1967 ) und A. G. Wilson ( 1968 ). Die aufschlussreichsten Beispiele jener Jahre finden sich in den Modellierungstechniken der Verkehrsplanung. Das DPM ( Design Process Model ) von M. L. Manheim gehört zu den Paradestücken dieser Art von Modellbildung. Vergleiche M. L. Manheim ( 1970 ) und auch die Kritik von A. Fleischer ( 1970 ).

115

Digitale Welt und Gestaltung

03

Ein ähnliches Schicksal kann auch dem informationstechnischen Modell widerfahren. Es besteht nämlich die Gefahr, dass der gegen jeden Zweifel gefeite, allumfassende und alldurchdringende Charakter der Informationstechnologien, auf dem dieses Modell beruht, seine Befürworter zu einer totalisierenden Version ermutigt. Und diese Gefahr liegt nicht in einer fernen Zukunft, denn die utopischen Exerzitien über die informationstechnische Stadt stehen bereits auf der Tagesordnung. Dagegen allein wäre nichts einzuwenden. Denn schon in der Vergangenheit haben von Philosophen, Schriftstellern und Architekten konzipierte Stadtvisionen, auch besonders verstiegene oder kühne, andere mögliche urbane Welten aufscheinen lassen. 03 Und das ist keine geringe Leistung. Im Fall der informationstechnischen Stadt stellen sich aber die Dinge anders dar. Denn zum ersten Mal in der Geschichte wird eine ideale Stadt skizziert, die sich nicht auf eine imaginäre Technologie beruft, sondern auf eine real vorhandene, gleichsam mit den Händen zu fassende. Dies führt zu der nach meiner Ansicht unbegründeten Überzeugung, dass diese Idealstadt auch real vorhanden und mit den Händen zu fassen sei. So erklärt sich übrigens die Tendenz, sich blind für eine solche Möglichkeit zu begeistern und sich dabei jeglicher kritischen Haltung oder auch nur einfachen Überprüfung der Fakten zu enthalten.

04

05

Dagegen ziehen es einige Fachleute vor, sich mit den konkreten Aspekten der Beziehung zwischen Informatik und Stadt zu beschäftigen und dabei sowohl die Möglichkeiten als auch die Grenzen dieser Beziehung aufzuzeigen. Diese Einstellung praktiziert zum Beispiel Ithiel de Sola Pool, einer der prominentesten Forscher der gesellschaftlichen, wirtschaftlichen und rechtlichen Aspekte der neuen Technologien der Telekommunikation. In einem posthum veröffentlichten Buch geht er auf den potenziell positiven Einf luss ein, den diese Technologien im Rahmen einer Stadtund Umweltsanierung ausüben würden (oder ausüben könnten). 04 Ithiel de Sola Pool hatte bereits früher dieses Thema behandelt, besonders in der in den sechziger und siebziger Jahren entfachten hitzigen Kontroverse über den Einf luss des Telefons (und des Autos) auf die Struktur der Großstadtsysteme. 05

03

Im Zusammenhang mit Stadtplanung und Architektur sei zur Veranschaulichung auf die fantasiereichen Entwürfe der britischen « Archigramisten » verwiesen: die computer city ( 1964 ) von D. Crompton, die plug-in city ( 1964 ) von P. Cook, die walking city ( 1964 ) von R. Heron und die underwater city ( 1964 ) von W. Chalk. Vergleiche P. Cook ( 1967, 1970 und 1973 ).

04

05

I. de S. Pool ( 1990 ).

Vergleiche J. Gottman ( 1961, 1977 ), R. L. Meier ( 1962 ), A. R. Pred ( 1966, 1973, 1978 ), I. de S. Pool ( 1978, 1983 ), A. J. Moyer ( 1977 ).

116

Telematik und neue urbane Szenarien

06

Im Kapitel « The Ecological Impact of Telecommunications » sucht Pool die beiden gegensätzlichen Positionen dieser Debatte zu rekapitulieren, und zwar im Licht der jüngsten Entwicklungen und Erfahrungen. Auf der einen Seite standen die Vertreter der These, die dem Telefon (und dem Auto) eine entscheidende Rolle für die rasante Zunahme der Vorstädte und die Ausdehnung der Städte zuschrieben; auf der anderen Seite dagegen jene, die auf der Anerkennung der Tatsache bestanden, dass das Telefon auch die Verdichtung des Verkehrs in den Stadtzentren gefördert hat. 06 Pool formuliert die Hypothese, dass die Verbreitung der Digitaltechniken entgegen üblichen Annahmen nicht zur Lösung jenes interpretativen Dilemmas beitragen würde. Ihm zufolge würden sich die ambivalenten Auswirkungen des Telefons auf die Stadt – gleichzeitig Ursache für urbane Ballung und Entf lechtung – erneut im Kontext der neuen Technologien zeigen, doch in noch radikalerer Form.

Das Verschwinden der Stadt und der Stadtzentren ? Um diese Schwierigkeiten zu überwinden, distanzierte sich Pool von extremen Positionen, unter anderem von der Hypothese, dass die Informatik unausweichlich zu einer zunehmenden Entstädterung und zu einer massenhaften Rückkehr der Stadteinwohner aufs Land führen würde. Er schreibt: « Es gibt keinen Grund für die Annahme, dass die Städte und ihre großen Zentren (downtowns) zu verschwinden bestimmt sind.» Wenn er auch einräumt, dass die Telekommunikation das Entstehen vieler über ein ausgedehntes Territorium verstreuter « Gemeinschaften ohne direkten Kontakt » fördern kann, so bezweifelt er doch, dass diese sich als vorherrschendes Modell durchsetzen können. Er schreibt: «Es ist eine reine Fantasievorstellung, dass die Telekommunikation die Menschen dazu verleiten kann, in physischer Isolation zu leben. Diese Annahme ist in der Tat unrealistisch, weil ein Großteil des menschlichen Handelns nicht nur im Austausch von Informationen besteht, sondern auch den Umgang mit physischen Gegenständen einbegreift » (S. 233).

06

Hier darf nicht der der indirekte ( wenn auch nicht allzu starke ) Einfluss des Telefons auf das Aufkommen des Wolkenkratzers vergessen werden. John I. Carter, leitender Ingenieur von AT&T, hatte nach Pool ( 1990, S. 16 ), 1908 als Erster die Aufmerksamkeit auf den kausalen Zusammenhang zwischen Telefon und Wolkenkratzer gerichtet. Wenngleich es zunächst überzogen klingen mag, wenn Carter sagt, dass «Bell und seine Nachfolger die Väter des Wolkenkratzers sind », so wird doch die Möglichkeit, die Büros einer Firma vertikal anzuordnen und auf viele Stockwerke zu verteilen, erst mit der Erfindung des Telefons zu einer Realität, insofern es die Kommunikation zwischen verschiedenen Stockwerken erlaubt, ohne dass sich die Personen dazu nach oben oder nach unten fortbewegen müssten. Vergleiche dazu J. Gottmann ( 1966 ), P. Cowan ( 1969 ).

117

Digitale Welt und Gestaltung

Diese Einschätzung eines Wissenschaftlers, dem man nicht Skeptizismus gegenüber den neuen Technologien unterstellen kann, macht deutlich, dass mit der Anerkennung dieser Technologien durchaus nicht ein Freibrief für alle möglichen utopischen Spekulationen technischen (oder besser technokratischen) Zuschnitts über die Zukunft unserer Städte impliziert ist; es mag sich um faszinierende Spekulationen handeln, doch sicher liegen sie weit von den Problemen entfernt, mit denen sich heute die für die Stadtverwaltung zuständigen Instanzen abgeben müssen. Und nicht nur das, sie sind auch – und das wiegt schwerer – weit entfernt von den Alltagssorgen der Einwohner. Die Annahme täuscht, dass sämtliche Probleme der Großstadt allein mit Hilfe der Spitzentechnologien, insbesondere der Informations- und Telekommunikationstechnologien gelöst werden könnten. Derartige Szenarien gehören zur Kategorie märchenhafter Schilderungen, in denen mit entwaffnender Naivität (oder wider besseres Wissen ?) die Städte der Zukunft als dunstig-verschwommene telematische Paradiese dargestellt werden, als Orte, die durch die universale Digitalisierung in mehr oder minder idyllische Verteilungszentren für Telearbeit verwandelt werden. Angesichts dieser Szenarien täte man besser daran, sich unvoreingenommen zu fragen, welche Lösungen konkreter Stadtprobleme die Telematik effektiv beisteuern kann. Dabei darf eine Tatsache nicht übersehen werden: Das Potenzial der Telematik, einige Probleme der Stadt zu lösen (oder günstige Voraussetzungen für eine Lösung zu schaffen), ist heutzutage eng verwoben mit vielen theoretischen und praktischen bislang unbeantworteten Fragen über die wirtschaftlichen, gesellschaftlichen und kulturellen Auswirkungen auf Systemebene, falls es zu einer breit angelegten Anwendung käme. Diese Fragen betreffen vor allem die Infrastruktur telematischer Netzwerke. Bekanntlich hat die Tendenz, telematische Netzwerke als Infrastruktur zu betrachten, besonders in den USA Fuß gefasst, als man vom information superhighway zu sprechen begann – eine bereits infrastrukturelle Metapher. Es war dann nur noch ein kurzer Schritt, auch die telematischen Netzwerke als information infrastructures zu betrachten. Wenn man den telematischen Netzwerken den Charakter einer Infrastruktur zuschreibt, geht man von der Annahme aus, dass sie sich wie vollwertige Infrastrukturen verhalten. Das aber ist nicht der Fall. Später werden wir sehen, dass sich telematische Netzwerke dagegen sperren, als vollwertige Infrastrukturen angesehen zu werden. Wie dem auch sei, die telematischen Netzwerke teilen sicherlich einige wichtige Kennzeichen mit den Infrastrukturen. Ein Beispiel: In allen Infrastrukturen, gleich welcher Art, wirken sich die einmal getroffenen technischen Fehlentscheidungen ungemein stark auf ihre Zukunft aus. Anders formuliert, das Überdenken und

118

Telematik und neue urbane Szenarien

die Versuche, im Nachhinein ihre schädlichen Nebenwirkungen zu begrenzen oder zu beseitigen, werden durch die allen Infrastrukturen innewohnende Trägheit vereitelt; das gilt auch für die leichten Infrastrukturen der telematischen Netzwerke. Nicht verwundern sollte es, dass die sozialen und wirtschaftlichen Kosten, die man in diesem Bereich für strategische Fehleinschätzungen zahlt, ungemein hoch sind. Dazu zählen nicht nur überdimensionierte Infrastrukturen, also Strukturen, die in einem bestimmten Kontext ihre effektive Nutzungsmöglichkeit übersteigen, sondern auch unterdimensionierte Infrastrukturen, die Dienstleistungen unterhalb des eigenen Potenzials und auch unterhalb des Nutzungsbedarfs anbieten. Die Gefahr einer Unterdimensionierung bedroht die Einrichtung der städtischen digitalen Netzwerke. Oftmals ist man sich des enormen Potenzials dieser Infrastrukturen nicht bewusst. Man nimmt den weiten Rahmen ihrer Anwendungsmöglichkeiten nicht wahr, weil sich die Aufmerksamkeit in erster Linie auf die für die öffentliche Meinung sichtbarsten und nutzbaren Aspekte – Teleshopping und Telebanking – richtet und somit die weniger sichtbaren, aber deshalb nicht weniger wichtigen Aspekte ausgeblendet werden. Ich meine die Tendenz, dem eventuellen Beitrag der Nachrichtennetzwerke zur Modernisierung der traditionellen Infrastrukturen nicht gebührend Aufmerksamkeit zu schenken.

Die Stadt als kommunikative Konfiguration

07 08

Unter allen Definitionen des Stadtbegriffs, die seit alters her bis in die jüngste Zeit formuliert worden sind, sticht eine – vielleicht die treffendste – besonders hervor, der zufolge die Stadt als privilegiertes Kommunikationszentrum verstanden wird. 07 A. Mattelart hat, auf den Spuren von Norbert Elias, den Gedanken der communicative figuration entwickelt. 08 Mattelart zufolge drückt sich jede historische

07

Der Stadthistoriker D. J. Olsen ( 1983 ) zählt dreizehn emblematische Figuren auf, die ihm zufolge sehr gut die gängigsten Funktionen der Stadt verkörpern: « The City as Fortress, The City as Palace, The City as Salon, The City as Factory, The City as Office, The City as Machine, The City as Temple, The City as Monument, The City as Toy, The City as Barracks, The City as School, The City as Revolutionary Cell, The City as Expression of Abstract Idea ». Vieles spricht dafür, dass alle diese Figuren letztlich verschiedene Interpretationen des kommunikativen Lebens der Stadt widerspiegeln.

08

A. Mattelart ( 1994 ). Vom selben Autor vergleiche auch ( 1991 ). Der Gedanke der Figuration nimmt eine zentrale Stelle im Werk von N. Elias ( 1969 und 1986 ) ein.

119

Digitale Welt und Gestaltung

Epoche und jede Gesellschaft in einer je eigenen kommunikativen Konfiguration aus, das heißt in der besonderen Weise, in der die Infrastrukturen die Beziehungen wechselseitiger Abhängigkeit zwischen den Menschen beeinf lussen. Bei den heutigen Großstädten erscheint die kommunikative Konfiguration zum großen Teil durch die spezifische Ausprägung der während der ersten Phase der Industriellen Revolution geschaffenen Infrastrukturen bedingt, die vorwiegend der Notwendigkeit gehorchten, die Austauschprozesse und den Verkehr zu rationalisieren.

09

In den letzten Jahrzehnten des 19. Jahrhunderts kamen neue Infrastrukturen auf, die den bereits bestehenden aufgepfropft wurden, indem sie sich die bestehenden Anlagen mit leichten Anpassungen zu eigen machten. Edison zum Beispiel entwickelte 1882 das erste experimentelle Netzwerk für elektrische Beleuchtung – Pearl Street in New York –, wobei er das bereits existierende Netzwerk der Gasbeleuchtung berücksichtigte. 09 Dabei handelt es sich nicht um einen Einzelfall. In der Geschichte der städtischen Infrastrukturen ist – wie I. Gökalp anhand zahlreicher Beispiele gezeigt hat – Kontinuität die Norm und Diskontinuität die Ausnahme (Gökalp, 1992). Jede neue Infrastruktur bediente sich, zumindest teilweise, einer bereits bestehenden Infrastruktur, selten ersetzte sie diese in toto. An dieser Stelle muss deshalb gefragt werden: Gilt das Kontinuitätsprinzip auch für die besondere Klasse der Infrastrukturen in Form telematischer digitaler Netzwerke ? Dies ist eine weit reichende Frage. Es geht darum, herauszufinden, ob – um beim Beispiel von Edison zu bleiben – die telematischen digitalen Netzwerke sich zu den Telefonnetzwerken so verhalten wie die elektrischen Netzwerke zu den Gasnetzwerken. Darauf gibt es nur eine ungenaue Antwort. Das elektrische Netzwerk nutzte zwar die logistischen und wirtschaftlichen Vorteile des Gasnetzes, hatte aber in Wirklichkeit recht wenig mit ihm gemein. Anders liegt der Fall bei der Beziehung zwischen digitalem telematischen Netz und dem traditionellen Telefonnetz. Mit der Installation des ISDN nutzt das digitale telematische Netz – in seiner Anfangsphase mit enger Bandbreite – dieselben Übertragungsverfahren und Schaltsysteme wie das Telefonnetz. Doch gleichzeitig unterscheidet es sich stark von diesem bestehenden Netz durch den digitalen Charakter, also durch die Ersetzung des Analogsystems als Grundlage des Telefonnetzes. Denn das wichtigste Merkmal der ISDN-Technologie ist bekanntlich die totale Digitalisierung sowohl der Schaltzentralen als auch der Übertragungssysteme des Telefonnetzes.

09

120

Vgl. R. V. Jenkins et al. ( 1989 ) und Th. P. Hughes ( 1979 ).

Telematik und neue urbane Szenarien

Doch – und darauf kommt es an – diese Digitalisierung unterläuft nicht den ursprünglichen Zweck des Telefonnetzes; sie höhlt ihn auch nicht aus. Im Gegenteil, sie bekräftigt diesen Zweck, insofern sie dem Kommunikationsservice größere Vielfalt, Qualität und Effizienz verleiht. Zum ersten Mal erlaubt das Telefonnetz eine integrierte Behandlung von Sprache (Stimme), Daten, Text und Bild. Wir haben es mit einer radikalen Innovation zu tun, die weit über den rein technischen und funktionalen Aspekt hinausgeht. Man darf vermuten, dass diese Innovation früher oder später Einf luss darauf nehmen wird, wie sich unsere Beziehungen der Interdependenz, oder sogar der bereits erwähnten kommunikativen Konfiguration erklären. In der Regel halte ich eine Zurückhaltung mit Prognosen für angebracht; doch muss man zugeben, dass da etwas Neues herauf kommt. Diese Feststellung hält sich allerdings in bestimmten Grenzen, denn trotz der gewagten und vor allem übereilten Spekulationen über dieses Thema beschränkt sich das Neue zur Zeit nur auf die industriell entwickelten Länder und nicht einmal auf alle von ihnen. Andererseits stimmt es nicht, wie viele meinen, dass die hier untersuchte Neuigkeit immer Gegenstand unkritischer Begeisterung sein muss. Wohl gibt es in der Informatik Lichtzonen, aber auch Schattenseiten. Immer wieder von neuem die Lichtseiten zu beleuchten ist redundant und führt auf lange Sicht zu nichts. Ich möchte die Notwendigkeit betonen, auch die Schattenzonen zu betrachten. Es macht keinen Sinn, die Probleme zu verbergen, zu vertuschen oder einfach beiseitezuschieben. Diese Feststellung gilt besonders für alle, die heute aus welchen Motiven auch immer damit beschäftigt sind, auf nationaler und internationaler Ebene die telematischen Systeme zu verbreiten. Ein nur marketinggetriebener Ansatz führt nicht weit, denn auf diesem Wege könnte die Furie des Versprechens immer fantastischerer und immer weniger glaubhafter Paradiese mit dem Verlust jeglichen Kontakts mit den wirklichen Problemen enden, zu deren Lösung die Informatik beitragen kann. Das ist eine unbedachte Vorgehensweise, ganz besonders dann, wenn man die administrativen, technischen, rechtlichen, wirtschaftlichen und gesellschaftlichen Aspekte einer eventuellen Telematisierung der Großstädte erörtern will.

121

Digitale Welt und Gestaltung

Materielle und immaterielle Infrastrukturen Welche Beziehung besteht zwischen der neuen Infrastruktur der Informatik und der traditionellen Infrastruktur ? Ist es gerechtfertigt, als Hypothese auf eine funktionale Integration beider zu setzen ? Konkreter gefragt: Ist es denkbar – und plausibel –, dass die neue Infrastruktur als wichtiger Faktor für die Erneuerung des gesamten Systems fungiert, als Faktor, um die Verwaltung aller anderen Infrastrukturen wirksamer zu gestalten ? Der Beantwortung dieser Fragen steht ein gewichtiges Hindernis im Weg: Es fehlt ein verlässlicher theoretischer Bezugsrahmen. Auch wenn wir in Städten leben, die mit Anlagen und Installationen aller Art gesättigt sind, verfügen wir doch paradoxerweise noch nicht über eine systematische Theorie der Infrastrukturen. Der erste Versuch in dieser Richtung wurde meines Wissens von den Wirtschaftswissenschaftlern J. Jochimsen und E. K. Gustafsson unternommen, die 1966 eine Taxonomie der Infrastrukturen vorlegten, die sie in drei Gruppen gliederten: materielle, institutionelle und persönliche Infrastrukturen (R. Jochimsen und E. K. Gustafsson, 1966). Bei der urbanen Technologie – génie urbain für die Franzosen – handelte es sich vorwiegend um materielle Infrastrukturen, also Straßen-, Straßenbahn- und Eisenbahnnetze, weiterhin Abwassernetze sowie Verteilungsnetze für Wasser, Gas und Strom und Telefonnetze. In der letzten Zeit ist dieser Katalog der Netzwerke durch andere wichtige Infrastrukturen ergänzt worden: Reinigungsanlagen, Verbrennungsanlagen, Wärmekraftwerke und Parkhäuser. Die Spezialisten auf diesem Gebiet, die Planer und Entwickler von Infrastrukturen, unterscheiden heute zwischen Infrastrukturen, die auf der Oberf läche erstellt werden (obererdige Anlagen) und solchen, die unter der Erde installiert werden (untererdige Tief bauanlagen), mit anderen Worten zwischen Infrastrukturen, die den Boden bedecken, und Infrastrukturen, die im Untergrund angelegt werden. Da die zuletzt erwähnten, von seltenen Ausnahmen abgesehen, nicht wahrgenommen werden können, wurde ihnen auch nicht die ihnen zustehende Bedeutung beigemessen; ihre wichtige Rolle für die komplexe Ausstattung unserer Städte wurde verdeckt. Deshalb wurde auch verkannt, dass in den Städten eine wechselseitige Abhängigkeit zwischen Boden und Untergrund besteht und dass jegliche Kontrolle der Stadtentwicklung notwendigerweise von der Kenntnis des Infrastruktursystems im Untergrund ausgehen muss. Ich glaube, dass wir an diesem Punkt einige Antworten auf die oben formulierten Fragen ausmachen können. Offensichtlich sind die materiellen Infrastruk-

122

Telematik und neue urbane Szenarien

turen als Teile des unverzichtbaren physischen Gerüsts der Stadt anzusehen. Kein Szenario der globalen Entmaterialisierung, so anziehend es auch sein mag, kann der Vorstellung Plausibilität verleihen, dass sich diese Infrastrukturen (und das mit ihnen verbundene gegenständliche Gerüst) in naher oder ferner Zukunft in Immaterialität ganz oder nahezu ganz auf lösen werden. Man darf nicht die offensichtliche Tatsache übersehen, dass die Großstädte eine physische Geschichte haben, die sich großenteils mit der Geschichte der infrastrukturellen Eingriffe deckt. Es handelt sich um Eingriffe, die tiefe Spuren in der Siedlungsform der Großstädte, aber auch in ihrer funktionalen Organisation hinterlassen haben. Diese Spuren haben mit den Worten von N. Rosenberg aus den Städten path dependent Organismen werden lassen, in denen die Trajektorien der Vergangenheit die Gegenwart und Zukunft stark bedingen (N. Rosenberg, 1994). Sicherlich kann man an neu gegründete Städte – nach dem Muster von Brasilia – denken, also an Städte ohne infrastrukturelle Vorläufer, doch beim gegenwärtigen Wissensstand lassen sich Städte gänzlich ohne materielle Infrastrukturen schwer vorstellen. In anderem Zusammenhang habe ich mich wiederholt mit dem Thema der Entmaterialisierung beschäftigt. Auch wenn man in weiten Bereichen der Produktion und Dienstleistungen Prozesse der Entmaterialisierung feststellen kann, habe ich immer die vielerorts vertretene These zurückgewiesen, dass sich da ein Prozess globaler Entmaterialisierung der Welt abspielt. Wenn auch unsere Gesellschaft mit allen gebotenen Vorbehalten als eine Informationsgesellschaft betrachtet werden kann, so ist andererseits einzuräumen, dass es sich auch um eine Gesellschaft handelt, in der materielle Ressourcen in unglaublicher Weise vergeudet werden. Somit wäre es unangemessen zu behaupten, dass wir in einer Epoche allgemeiner Entmaterialisierung leben. Unglücklicherweise spielt sich vor unseren Augen eine verheerende Zunahme materieller Gegenständlichkeit ab, und dabei sind die Abfallmengen, die man immer weniger in den Griff bekommt, noch nicht mitgezählt. Ich denke hier an die Tendenz der kapitalistischen Gesellschaft, in immer kürzeren Zeiträumen die physische Integrität von Produkten verfallen zu lassen, sowie an die Tendenz, ohne Unterlass Produkte herzustellen, die man, jenseits einer metaphorischen Bezeichnung, als Ruinen charakterisieren kann; wohlverstanden Ruinen ganz besonderer Art, aber eben doch Ruinen. Sie unterscheiden sich von der gegenständlichen Präsenz der Strukturen, die wir aus hundert- oder tausendjähriger Vergangenheit in Form von Denkmälern, Kunstwerken und Gebrauchsgegenständen geerbt haben, sofern sie – in der Regel nur teilweise – Verschleiß, Kriege,

123

Digitale Welt und Gestaltung

Plünderungen und Naturkatastrophen überlebt haben. Diese gegenständlichen Strukturen bleiben uns trotz der lobenswerten Arbeit der Archäologen und der Historiker, sie uns näher zu bringen, doch oftmals fremd, rätselhaft und recht weit entfernt von unserer heutigen Alltagspraxis. Nichts dergleichen spürt man bei den heute erzeugten Ruinen. Sie sind uns wohlbekannt. Wir wissen praktisch alles über Ort und Datum ihrer Herstellung, über den Verlauf ihrer f lüchtigen Existenz und auch über den Augenblick, in dem entschieden wurde, sie abzureißen oder zu beseitigen, also den in der Regel verfrühten Augenblick ihrer Umwandlung in Ruinen. Während in den verschwundenen Kulturen Männer und Frauen mit einigen wenigen ererbten Ruinen lebten, sind wir in unserer Kultur von einer beklemmenden, quälenden Gegenwart unserer eigenen Ruinen umgeben. Es reicht, einen Blick auf die Abfallberge zu werfen, die unsere Städte umzingeln. Die Lage verschlimmert sich insofern, als sich diese Ruinenberge nicht in Form statischer, berechneter und begrenzter Wirklichkeit bilden, sondern als eine Wirklichkeit, die sich ohne Kontrolle und mit exponentiellen Wachstumsraten ausdehnt. Dieses Phänomen erklärt sich unter anderem aus unserer in der Geschichte sicher einmaligen Fähigkeit, in Realzeit und durch pausenloses Wegwerfen riesige Haufen von Abfällen, Schrott und Trümmern zu erzeugen. Denn die heutigen Ruinen müssen im Unterschied zu früheren Ruinen nicht Jahrhunderte (oder Jahrtausende) warten, um zu Ruinen zu werden, sondern nur einige Jahre, Monate oder Tage – oder auch nur Stunden. Dies erklärt sich aus der rastlosen Entwicklungsdynamik der Produktivkräfte und den Obsoleszenzforderungen des Marktes. Wir alle sind Augenzeugen – und oftmals Komplizen – dieses irren Prozesses, der Tag für Tag Myriaden von Produkten in Ruinen verwandelt. Unsere Alltagspraxis, besonders in den Großstädten, scheint ungemein stark von dieser konstitutiven Irrationalität geprägt zu sein, die uns dazu zwingt, mit zwei gegenläufigen Situationen zu leben: auf der einen Seite mit der Kurzlebigkeit der Gegenstände, auf der anderen Seite mit der Langlebigkeit der Ruinen; auf der einen Seite mit der tendenziell sich verf lüchtigenden Materialität der Gegenstände, auf der anderen Seite mit der tendenziell sich verdichtenden Materialität der Ruinen. Angesichts dieser in den Großstädten vorherrschenden Sachlage – und ich nehme an, dass niemand sich diesem Urteil entziehen kann – ist nun zu fragen: Können die informationstechnischen Infrastrukturen dazu beitragen, die irrationale Schwere etlicher materieller Infrastrukturen zu verringern ? Mir scheint es sich hier um eine plausible Möglichkeit zu handeln. Dafür sprechen jedenfalls viele technische

124

Telematik und neue urbane Szenarien

Indizien. Doch auch wenn diese Möglichkeit plausibel erscheint, heißt das nicht, der Ideologie der globalen Entmaterialisierung Tribut zu zollen. Wir verfolgen einen ganz anderen Ansatz. Es handelt sich einfach darum, vorurteilsfrei zu prüfen, welches denn konkret die Bereiche sein könnten, in denen die neuen Technologien das oben skizzierte Ziel erreichen können.

Ein « technologisches Großsystem » Da die Funktion der meisten materiellen Infrastrukturen letztendlich in der Verwaltung von Flusssystemen besteht – man denke zum Beispiel an die Netzwerke der Kanalisation, der Straßen oder der Wasserversorgung –, neige ich zu der Annahme, dass die informationstechnischen Infrastrukturen in diesem Kontext zukünftig eine wichtige Rolle spielen werden. Das dürfte leicht nachzuvollziehen sein. Die Flusssysteme, und zwar alle Flusssysteme, befördern nämlich auch Information über ihren eigenen Zustand, zum Beispiel über das Volumen, die Geschwindigkeit und eventuelle Engpässe der benutzten Kanäle. Die materiellen Infrastrukturen und informationstechnischen Infrastrukturen weisen darüber hinaus ein weiteres gemeinsames Merkmal auf: Jede Vorrichtung, jede Anlage oder Installation ist ein langer Kanal, in dem die Flussinhalte gleichzeitig befördert und in eine bestimmte Richtung gelenkt werden. Im Fall der materiellen Infrastrukturen handelt es sich zum Beispiel um das Fließen von Flüssigkeiten und Gas, aber auch um Autos; im Fall der informationstechnischen Infrastrukturen um Signalf lüsse. Im ersten Fall hat man es mit Flusskanälen, im zweiten Fall mit Übertragungskanälen zu tun.

10

Diese funktionale Übereinstimmung lässt erkennen, dass sich die beiden Infrastrukturen näherstehen, als man gemeinhin annimmt. Es lässt sich nicht ausschließen, dass sie sich in Zukunft noch stärker annähern werden.10 Ich bin überzeugt, dass der Tag kommen wird, an dem die informationstechnischen Infrastrukturen eine entscheidende Rolle in der funktionalen Requalifikation der materiellen Infrastrukturen spielen werden, und zwar sowohl der obererdigen als auch der untererdigen Infrastrukturen. Und das nicht nur im Bereich des Monitoring und der Überwachung der Flussprozesse, wie es schon in einigen Bereichen geschieht, sondern auch im Bereich der hoch entwickelten operationellen Verwaltung dieser Prozesse.

10

Zur Diskussion dieses Themas verweise ich auf L. M. Branscomb und J. Keller ( 1996 ).

125

Digitale Welt und Gestaltung

In der Verwaltung der Verkehrsf lüsse zum Beispiel hat man in jüngster Zeit bereits erhebliche Fortschritte erzielt, etwa durch die Konvergenz zwischen Telekommunikation und Verkehr, die beide als Bestandteile eines einzigen Netzwerks (teletrans network) betrachtet werden. Nicht zu vergessen ist die Rolle der Telerobotik in Extrem- und Gefahrensituationen sowie unter beengten Raumverhältnissen, wie sie häufig bei unterirdischen, aber auch bei obererdigen Infrastrukturen auftreten. Um auf dem oben erwähnten Weg voranzukommen, muss ein für alle Mal das heute noch weit verbreitete Vorurteil beseitigt werden, dass die telematischen Netzwerke ausschließlich mit dem urbanen Kommunikationsbereich zu tun hätten. Denn dieses Vorurteil behindert auf praktischer Ebene eine integrierte Vision der Infrastrukturen, in der die telematischen Netzwerke (leichte Infrastrukturen) nicht als Alternative, sondern als Rationalisierungsfaktor der traditionellen materiellen Netzwerke (schwere Infrastrukturen) angesehen werden. Viele gegen diese Vision gerichtete Widerstände sind in erster Linie auf den Begriff der Infrastruktur selbst zurückzuführen. Dieser ist ein terminologisches Überbleibsel einer im Niedergang befindlichen technischen Welt und somit kaum dazu geeignet, die heraufziehenden Problematiken theoretisch und praktisch zu bewältigen. Dies vor allem, wenn es darum geht, sich an telematischen Netzwerken zu messen, die wegen des Umfangs und der Reichweite ihrer Auswirkungen auf die Stadt neue, von den herkömmlichen Deutungsschemata abweichende analytische Methoden erfordern. Aus diesem Grunde scheint es mir angebracht, vom Begriff Infrastruktur Abstand zu nehmen. Zwar sollten die terminologischen Optionen nicht überschätzt werden, doch im vorliegenden Fall kann die Auswahl eines passenderen Fachbegriffs durchaus im Sinn der Sache sein, insofern er neue Horizonte für die Ref lexion des Themas eröffnet. Ich schlage den Begriff « großes technologisches System » (large technological system) vor, der von einigen Vertretern der Technikgeschichte entwickelt worden ist, in erster Linie von Thomas P. Hughes (1983 und 1987), der durch seine Untersuchungen über den Ursprung und die Entwicklung des integrierten elektrischen Systems bekannt geworden ist. Der Begriff des « großen technologischen Systems » ist weniger an das starre Schema der infrastrukturellen Taxonomie von Jochimsen und Gustafsson gebunden und macht den Raum für eine integrierte Vision frei, also für eine systemische Vision der Netzwerke urbaner Dienstleistungen. Auf der Entwurfsebene erlaubt er eine fruchtbare Interaktion zwischen den verschiedenen Systemen. Diese werden dann nicht mehr isoliert für sich betrachtet. Jedes System ist prinzipiell offen, kann auf

126

Telematik und neue urbane Szenarien

technischer und organisatorischer Ebene mit den anderen Systemen je nach Notwendigkeit zusammenarbeiten und tatsächliche funktionale Konvergenzen zwischen den verschiedenen Systemen fördern. Doch zu diesen Konvergenzen kommt es nicht immer nach dem gleichen Schema. Die jeweiligen Kontextauf lagen – gesellschaftlicher, wirtschaftlicher, kultureller, geschichtlicher und ökologischer Art – üben einen starken Einf luss auf die getroffenen Entscheidungen und somit auch auf die Eigenschaften dieser Konvergenzen aus. In jedem urbanen Kontext können die funktionalen Konvergenzen zwischen den Systemen unterschiedliche Formen annehmen, also den Ursprung verschiedener « technologischer Stile » (technological styles) bilden, wie sie Hughes selbst genannt hat. Dieser Aspekt ist für das hier erörterte Thema sehr wichtig. Die neuen integrierten Systeme werden sich nie in allen Städten nach gleichem Schema entwickeln und somit auch nicht denselben technologischen Stil ausdrücken können. Das leuchtet ein. Aber den Förderern dieser Systeme, die unter dem Zwang der legitimen praktischen Auf lagen von Normung und Standardisierung stehen, leuchtet nicht so ohne Weiteres ein, dass sie dem Traum universell gültiger Lösungen nachstreben, die in sehr unterschiedlichen städtischen Kontexten Gültigkeit besitzen; also Lösungen, die ohne Unterschied zum Beispiel auf Tokio, São Paulo, San Francisco, Mumbai (Bombay), Lyon und Rom angewendet werden können. Dieser Ansatz entspricht einer Kultur der Rationalisierung, die wir der Kürze halber als präelektronische Kultur charakterisieren können. Diese schätzt eher die Werte der Unveränderlichkeit und Stabilität und nicht so sehr die der neuen Kultur der Rationalisierung eigene Flexibilität und Anpassungsfähigkeit, die durch die Mikroelektronik gefördert worden sind.

Telematik und Arbeit

11

Ich möchte mich nun einem Thema zuwenden, das seit einiger Zeit ins Zentrum einer stürmischen Debatte gerückt ist und über das eine reiche Literatur vorliegt. Ich meine die Telearbeit.11

11

Auch im Italienischen existiert reiches Quellenmaterial. Vergleiche unter anderem G. Cepollaro ( 1986 ), Centro europeo informazione, informatica e lavoro und O. Grop ( 1989 ), G. Scarpitti und D. Zingarelli ( 1989 ), M. L. Biuanco ( 1990 ), C. Carboni ( 1990 ), S. Campodall’Orto und C. Roveda ( 1991 ), G. Bracchi und S. Campodall’Orto ( 1994 ), F. Butera ( 1995 ).

127

Digitale Welt und Gestaltung

12

13

Auch wenn jüngst das erwartete Ausmaß dieses Phänomens von mehr als einem Beobachter herabgestuft worden ist12, schreibt man der Telearbeit weiterhin die Fähigkeit zu, potenziell den gesellschaftlichen Umbruch voranzutreiben. Nach einer von den Medien popularisierten Bewertung würde die Telearbeit in verschiedenen Bereichen äußerst positive Auswirkungen zeitigen. Was die Städte angeht, haben wir schon ausdrücklich hervorgehoben, dass sie vor allem in Großstädten dazu beitragen kann, die physische Präsenz der Personen zu mindern, Verkehrsstaus zu verringern und somit die Umweltlage zu verbessern. Auf der Ebene einer allgemeinen Analyse ist die Hypothese von der Telearbeit als eines Instruments für das Anheben der Umweltqualität in einigen Fällen teilweise bestätigt worden. Den Beweis haben einige Experimente in verschiedenen Teilen der Welt erbracht, die sehr nützliche Hinweise geliefert haben, auch wenn man noch keine definitiven Schlüsse ziehen darf.13 Die Lage wird allerdings komplizierter, wenn man sich auf die Ebene der Details begibt und die innere Stimmigkeit der vorgeschlagenen Szenarien zu bewerten sucht, und mehr noch, wenn man den diesen Szenarien zugrunde liegenden Fundus der Vorannahmen aus der Nähe und mit größerer Strenge analysiert. Die größte Schwierigkeit liegt im Begriff der Telearbeit selbst. In der Regel setzen die Medien sie mit der Arbeit gleich, die ein Angestellter an einem Computer

12

Vgl. T. Forester ( 1991 ), P.-O. Rousseau ( 1994-95 ), H. Hamlin ( 1995 ) und G. Cesareo ( 1996 ).

13

Die bekanntesten Erfahrungen dürften in Kalifornien gemacht worden sein. Das County of Los Angeles Telecomputing Program stellt eines der frühesten organischen Experimente der Telearbeit dar. Interessant daran ist der Versuch, auf eine Reihe von regionalen Problemen und Umweltfragen mit Hilfe der Reorganisation der Angestelltenarbeit eine Antwort zu finden. Man nahm an, dass die häusliche Telearbeit – abgesehen von der Einschränkung der steigenden Nachfrage nach Büroräumen – auch die Fragen der durch Privatverkehr hervorgerufenen Verkehrsstaus, der Luftverschmutzung und steigender Energiekosten lösen könnte. Das Pilotexperiment ( 1988–1990 ) umfasste etwa zweihundert Personen, deren Zahl in kurzer Zeit auf 3.500 Angestellte anstieg, auch dank einer intensiven Öffentlichkeitsarbeit, die gleichzeitig von den Verwaltungsorganen und Privatinstitutionen gestartet wurde, die sich mit der konkreten Organisation der Programme für Telearbeit befassten. Vergleiche County of Los Angeles Telecomputing Program ( 1996 ). Diese und andere Ergebnisse ähnlicher Bestrebungen haben einige nationale und übernationale Institutionen ermutigt, eine Reihe von programmatischen Orientierungen zu unterbreiten. Zur Beschäftigungspolitik in den USA vergleiche J. S. Niles ( 1994 ) und zu den europäischen Bestrebungen den so genannten Bangemann-Bericht und das Weißbuch der Europäischen Kommission sowie den Bericht European Telework Development ( 1996 ).

128

Telematik und neue urbane Szenarien

zu Hause erledigt – in einem, wie man annimmt, außerhalb der Stadt auf dem Land gelegenen Haus. Dies ist freilich eine recht einseitige Version von Telearbeit, weil sie sich auf eine einfache Telekommunikation beschränkt, die von zu Hause aus mit Hilfe der entsprechenden Instrumente verrichtet wird. Dieser Begriff der Telearbeit kam vor einigen Jahrzehnten auf, und zwar im Umfeld der Debatte über die Mobilitäts- und Verkehrsprobleme in städtischen Ballungszentren. Von Anfang an wurden Zweifel an der diesen Phänomenen zugeschriebenen Bedeutung laut. Bereits Jack M. Nilles ( J. M. Nilles et al., 1976), einer der ersten Forscher auf diesem Gebiet, hatte herausgefunden, dass die Telearbeit vielfältige Erscheinungsformen annehmen kann. Ihm zufolge handelt es sich also nicht um ein einfaches, sondern um ein hoch komplexes Problem. Aus dieser Sicht durfte die telematische Heimarbeit nur als eine der möglichen Varianten betrachtet werden – und nicht einmal als die Variante, die am leichtesten zu verwirklichen oder die – nach Meinung einiger Wissenschaftler – als die wünschenswerteste zu betrachten ist.

14

15

Wie dem auch sei, es ist aufschlussreich zu sehen, um welche Arbeiten es sich in der Praxis handelt, die mit Hilfe von telematischen Netzwerken schon seit einigen Jahren von zu Hause aus erledigt werden.14 In einer von J. Huber zitierten Aufstellung ( J. Huber, 1987) fällt unter knapp hundertvierzig Arten möglicher Heimtelearbeit die überwiegende Mehrheit in die Kategorie der Beratungstätigkeiten.15 Von diesen gehört nur ein kleiner Teil zu den Dienstleistungen im engeren Sinn, also zu jenen formalisierten und kontinuierlichen Dienstleistungen, die ein Beschäftigter im eigenen Haus im Auftrag einer Firma gleich welcher Branche ausführt. Zum Beispiel: Datensammlung und Datenauswertung, Buchführung, Rechnungswesen, Korrespondenz – alles Bürotätigkeiten, das heißt Routinetätigkeiten, die keine hohe Qualifikation erfordern. Hinsichtlich dieser Art der Arbeitsorganisation und ihrer gesellschaftlichen, wirtschaftlichen und kulturellen Auswirkungen bleiben jedoch noch viele Fragen offen. Nach meiner Ansicht steckt in der Idee der Telearbeit ein Paradox, wenn man

14

Diese Klarstellung spiegelt sich auch auf terminologischer Ebene wider. Wenn man bislang unterschiedslos von telework und teleworking sprach, so zieht man heute die Begriffe distance working oder remote working oder noch genauer home-based telework und telecomputing vor, wenn man häusliche Telearbeit meint.

15

Einige Beispiele: Beratungen in recht eingeschränkten Bereichen wie Pflege von Haustieren, Schönheitspflege, Körperhygiene, Diäten, Gartenarbeiten, Dekoration, Astrologie, Physiotherapie und Reiten.

129

Digitale Welt und Gestaltung

sie im Zusammenhang mit der Geschichte des modernen Kapitalismus betrachtet. Die kapitalistische Gesellschaft, die zum ersten Mal die Menschen in ein eisernes Produktionssystem eingebunden hatte, indem sie sie dazu zwang, die Heimarbeit für die Fabrikarbeit aufzugeben, vom domestic system zum factory system überzugehen, scheint nun darauf ausgerichtet, dieses Modell der Aneignung von Arbeitskraft, zu dessen Abschaffung sie vor der Industriellen Revolution beigetragen hatte, auf neuer Basis wieder in Szene zu setzen – und das, ohne die Faktibilität (und Wünschbarkeit) eines solchen Modells im Rahmen einer demokratischen Gesellschaft zu klären und ohne darüber hinaus die Auswirkungen auf das komplexe Beschäftigungssystem und die Art der Beziehung zu ref lektieren, die sich zwischen Telearbeitern und Arbeitgebern einstellt. Einige Wissenschaftler und nicht wenige Gewerkschaftler fragen nach dem allgemeinen Rahmen, in dem die Regeln einer neuen Beziehung zwischen Arbeitnehmern und Arbeitgebern festgelegt werden könnten. Die wichtigsten Fragen betreffen die Qualität und Quantität der geleisteten Arbeit, welche Rechte zu wahren und welche zu fordern wären. Wie man sieht, geht es um schwerwiegende Probleme. Fragen der Entlohnung, der Ausbildung, der Karrieremöglichkeiten, der Ferien, der Krankheitsregelung, der Unfälle, des Mutterschutzes, der Achtung der Privatsphäre gehören zu den traditionellen Kernproblemen der unselbständigen Arbeit. Wenn die räumliche Nähe zwischen Arbeitgeber und Arbeitnehmer jedoch abnimmt, ändern sich auch notwendigerweise die Vorzeichen vieler der erwähnten Fragen. Neben den umstrittenen Fragen kommt auch die Befürchtung auf, dass die Telearbeit bestimmte Formen der Ausbeutung wieder beleben könnte, insbesondere die Ausbeutung von Frauen und Kindern, wie sie wohlgemerkt für die Periode vor dem Auf kommen der Fabrikarbeit typisch war. Damit wird ganz offensichtlich auf implizite, in diesen nicht oder kaum formalisierten Arbeitsweisen steckende Gefahren hingewiesen, die sich auch bei Schwarzarbeit und zum Teil in der informellen Wirtschaft finden. Diese umstrittenen Fragen sind zwar nicht neu, aber angesichts der möglichen Verbreitung der Telearbeit scheinen sie an Relevanz zu gewinnen, wobei sie auf Grund ihres spezifischen Charakters zahlreiche Widersprüche auf rechtlicher Ebene auf brechen lassen. An erster Stelle scheint der Unterschied zwischen Lohnarbeit und freiberuf licher Tätigkeit, wie er von Beginn der Industriellen Revolution an etabliert wurde, erneut zur Diskussion zu stehen (P. Ichino, 1989). Denn wenn sich die raumzeitliche Verknüpfung der Arbeitsleistung des einzelnen Arbeiters lockert und die Flexibilität der Arbeitszeit und Arbeitsweise zunimmt, dann lässt sich am Ende der Status des lohnabhängigen Arbeiters nicht mehr klar erkennen.

130

Telematik und neue urbane Szenarien

16

17

Nicht weniger wichtig erscheint die dem Arbeitgeber gebotene Möglichkeit, eine effektive Kontrollfunktion auszuüben, deren Modalitäten sich bekanntlich stark voneinander unterscheiden. Es sei zum Beispiel an den grundlegenden Unterschied zwischen einer auf direkter Überprüfung der Arbeitstätigkeit beruhenden Kontrolle (wie im Fall der traditionellen Arbeit in untergeordneter Position) und einer auf Überprüfung der Arbeitsergebnisse beruhenden Kontrolle erinnert.16 Auf der anderen Seite erlaubt die Netzwerktechnik, in Realzeit Kontrolle auszuüben und Arbeitsanweisungen zu geben. Diese Tatsache scheint im Widerspruch zu der Vorstellung zu stehen, dass – wie behauptet wird – die Telearbeit – insbesondere die zu Hause erledigte Arbeit – eine freie Entwicklung des Privatlebens fördern könne. Kontrollen in Realzeit wären noch raffinierter und möglicherweise beunruhigender als die in traditionellen Arbeitsverhältnissen ausgeübten Kontrollpraktiken. Bei der Telearbeit (besonders in Form der interaktiven Telearbeit) erscheint die Kontrollinstanz nicht als ein eventueller Modus der Arbeitstätigkeit, sondern wird selbst zum Gegenstand solcher Aktivität.17 Ein weiterer, Risiken und Zweideutigkeiten in sich bergender Faktor betrifft die Aufteilung der Arbeitszeit. Nach breit gestreuter Meinung könnte dies leicht zur Verbreitung jener Arbeitsform führen, die euphemistisch als informelle Arbeit bezeichnet wird. Der Rückgriff auf dezentralisierte Arbeitsformen, insbesondere auf die Heimarbeit, begünstigt ein fortwährendes Pendeln zwischen formalem und informalem Sektor. Zum Teil mag dafür die Lage auf dem Arbeitsmarkt verantwortlich sein, aber man darf auch nicht die Rolle der neuen Technologien in diesem Prozess außer Acht lassen. Auch in der Vergangenheit hat die Doppelarbeit einen bedeutenden Anteil der Heimarbeit ausgemacht, aber die neuen Technologien haben diese Möglichkeiten enorm gesteigert (L. Frey, 1990). Als Eckpfeiler der Arbeit im informalen Sektor wird die Heimarbeit darüber hinaus mit der Vorstellung einer prekären, irregulären und nicht spezialisierten Niedriglohnarbeit verknüpft. Wer zu Hause arbeitet, wird als Gelegenheitsarbeiter betrachtet, der nicht in das legale oder institutionelle wirtschaftlich-produktive

16

Es kann Formen direkter Kontrolle geben, wie die Arbeit unter Aufsicht, oder indirekter Kontrolle in Form von technischer Kontrolle. Um indirekte Formen der Kontrolle kann es sich auch bei der Lehrlingsausbildung oder allgemein beim Anlernen handeln, wobei nicht nur die Kompetenz, zu bestimmten Ergebnissen zu gelangen, bewertet und geschult wird, sondern auch Werte wie Firmentreue und Disziplin gegenüber der Firma vermittelt werden ( S. Allen und C. Wolkowitz, 1987, S. 109–134 ).

17

Zum Thema der Kontrolle vergleiche L. Caeta ( 1993 ).

131

Digitale Welt und Gestaltung

Gewebe eingebunden ist, mit dem Beständigkeit verbunden wird (S. Allen und C. Wolkowitz, 1987). Diese fest verankerte Vorstellung trägt dazu bei, dass Heimarbeit von vielen noch immer negativ eingeschätzt wird (W. Korte et al., 1988).

18

Zwar sind in jüngster Vergangenheit Änderungen eingetreten. Doch die gesellschaftliche Einschätzung der Heimarbeit bleibt ausschlaggebend für ihre geringe Verbreitung. Die Fachleute stimmen jetzt darin überein, dass es nicht (oder nicht nur) technologische Beschränkungen sind, die der Verbreitung von Telearbeit entgegenwirken.18 Nicht weniger wichtig sind auch Faktoren anderer Art: zunächst das Fehlen von Normen für die Kompatibilität der verschiedenen Geräte, dann die Notwendigkeit einer weit verzweigten Schulung, das Fehlen von erforderlichem technischem Know-how für die Kaufentscheidungen hinsichtlich dieser Technologien, die technisch-rechtlichen Barrieren für den Schutz der Privatsphäre und für die Regelung der Konkurrenz zwischen Unternehmen.

Vor- und Nachteile Ich werde das Für und Wider der Informatisierung von Heimarbeit auf listen. Aus den untersuchten Texten und den analysierten Fällen lassen sich Chancen und je unterschiedliche Auf lagen für das Unternehmen, den einzelnen Werktätigen und die Gesellschaft identifizieren. Die Analyse der Fallstudien fördert einige Gründe zutage, deretwegen Unternehmen sich entscheiden, auf Heimarbeit zurückzugreifen. Zu ihnen gehören: die größere Flexibilität in der Nutzung der verfügbaren Arbeitskapazität, um sich auf eine strukturell schwankende Nachfrage einzustellen; größere Effizienz und Arbeitsproduktivität, insofern die Leerzeiten kürzer und Möglichkeiten geboten sind, den Arbeiter nur für die effektiv produzierte Arbeit zu entlohnen; eine Reduktion der Verwaltungskosten und Nebenleistungen; geringere Raumkosten. Gleichzeitig bestehen für Unternehmen auch viele Nachteile. Zum Beispiel: der Widerstand der Gewerkschaften; die Schwierigkeiten, die Qualität der Beschäftigten zu bewerten; die Gefahr geringerer Firmentreue seitens der Beschäftigten; schließlich das hohe Kostenniveau der Investitionen in Hardware, Software und Ausbildung.

18

Dies trifft vor allem im Bereich der Informatik zu, wo man heute Workstations zu erschwinglichen Preisen erstehen kann. Umgekehrt existieren größere Hindernisse im Bereich der Telekommunikation, die in erster Linie mit der Effizienz und Kapillarität der Netzwerke zu tun haben.

132

Telematik und neue urbane Szenarien

19

Für die Beschäftigten werden die Vorteile vor allem in der größeren Flexibilität und Autonomie gesehen, in der Einsparung der Fahrtkosten sowie in der Möglichkeit, dass auch benachteiligte Personen Zugang zum Arbeitsmarkt gewinnen, zum Beispiel Körperbehinderte oder Mütter mit Kleinkindern.19 Die Nachteile lassen sich dagegen auf verschiedene Ursachen zurückführen. Viele sind an die Isolation des Heimarbeiters gebunden, der den größten Teil der Zeit in seinem Zimmer eingeschlossen ist und keine Kontaktmöglichkeit außerhalb des engen Familienkreises hat. Man darf annehmen, dass der Beschäftigte akute Syndrome der Entsozialisierung entwickelt, wie es auch viele Fachleute behaupten. Andere Faktoren betreffen das Risiko, den direkten und häufigen Kontakt mit den Unternehmensstrukturen zu verlieren. Im neuen Kontext ist der Beschäftigte, wie bereits erwähnt, viel stärker kontrollierbar, aber gleichzeitig viel weniger sichtbar als früher, und somit ist es viel schwieriger, die Qualität seiner Aktivitäten und seiner Person im Kontext seiner beruf lichen Karriere zu bewerten.

20

Auch die Unsicherheiten der Entlohnung sollten nicht unterschätzt werden. Eine dieser Unsicherheiten, die nach meiner Ansicht die Gewerkschaften zu Recht beschäftigt, betrifft die Möglichkeit, dass sich die Akkordarbeit in diesem Bereich ausbreiten und zu einer generellen Senkung der Löhne beitragen kann, ferner dass es zu direkten Auswirkungen auf die Beschäftigungsgarantien kommen kann. Ein Problem, das in erster Linie die Frauen angeht, besteht in dem Risiko, dass die Heimarbeit einfach auf die Hausarbeit aufgepfropft wird, statt diese zu verringern.20 Aus diesem langen Exkurs über die Heimarbeit sind nicht nur negative Schlussfolgerungen zu ziehen. Auch dafür ein Beispiel: Neben der Erledigung von Routineaufgaben gibt es andere und durchaus qualifizierte Tätigkeiten, bei denen

19

Alle diese Vorteile sind zu überprüfen; zum Beispiel ist die Flexibilität eher Schein als Wirklichkeit, weil bei der interaktiven Arbeit die Interaktivität die Zeit und Arbeitsweise diktiert und diese somit der autonomen Entscheidung des Beschäftigten entzogen werden. Was die Verbindung von Berufstätigkeit mit Kinderbetreuung angeht, so ist sie in einem Großteil der Fälle gescheitert. Vgl. Th. B. Cross und M. Raizman ( 1986, S. 75–77 ).

20

Einige Untersuchungen haben ergeben, dass die neue Heimarbeit zu einem Teil eine Rückkehr zur Anstellung weiblicher Arbeitskräfte ohne Regelung der lohnabhängigen Arbeit impliziert. Hinzu kommt noch die starke Zunahme der auf die Doppelarbeit zurückführbaren Phänomene. Zur Rolle der Heimarbeit im Haushalt vergleiche L. Haddon und R. Silverstone ( 1995 ).

133

Digitale Welt und Gestaltung

die Heimarbeit große Bedeutung zeitigt. Ich meine die Dienstleistungen für Tageszeitungen, Fernsehen, die Werbung und die Verlagsarbeit seitens einer stetig wachsenden Zahl von Journalisten, Grafikdesignern, Fotografen und Übersetzern, weiterhin die Aktivitäten, die an die Ausführung von Entwurfs- oder Programmieraufgaben in Form von netzbasiertem CAD gebunden sind, wie sie Ingenieure, Architekten, Städteplaner, Designer, Stilisten und Marktforscher praktizieren.

21

Alles scheint dafür zu sprechen, dass die Telearbeit weder – wie es oft in den Medien geschieht – ausschließlich mit Heimarbeit noch diese ausschließlich mit Routinearbeit und unqualifizierter Arbeit gleichgesetzt wird. Deswegen ist in den letzten Jahren an die Stelle einer sehr vereinfachenden und beschränkten Definition der Telearbeit eine andere getreten, die der Komplexität des untersuchten Phänomens Rechnung trägt. Zu diesem Zweck haben die Fachleute auf neue und raffiniertere analytische Verfahren zurückgegriffen.21

Die Kategorien der Telearbeit Nach diesen neuen Analyseansätzen hat man es bei der Telearbeit mit verschiedenen Kategorien von Aufgaben und Organisationsweisen zu tun. Ohne ins Detail der zahlreichen durch die telematischen Technologien ermöglichten Tätigkeitsformen zu gehen, scheint es angebracht, sie vorerst in zwei große Kategorien zu teilen, wobei ein für den hier entfalteten Diskurs brauchbarer Parameter der Klassifikation benutzt wird. Auf der einen Seite kann man die Aktivitäten zusammenfassen, die der Dispersion der Arbeitskräfte Vorschub leisten, auf der anderen Seite jene, die auf anderer Grundlage ihre erneute Konzentration fördern. Beispiele für die erste Kategorie stellen die bereits erwähnten Formen der Teleheimarbeit dar, die Arbeitsgruppen sprengt und auf individuelle Orte verteilt. Die zweite Kategorie dagegen umfasst ganze Personengruppen, die ihre Aufgaben kollektiv an bestimmten Orten erledigen. Ihre Zusammensetzung wird aber nicht mehr von der Zugehörigkeit zu einem Unternehmen und dessen Organisationseinheit bestimmt, sondern durch Kriterien wie die Lokalisierung in städtischen oder außer-

21

Siehe insbesondere eine Zusammenfassung der Definitionen von Telearbeit bei Tavinstock ( 1986 ), M. Gray, N. Hodson und G. Gordon ( 1993 ), J. Niles ( 1994 ), Management Technology Associates ( 1995 ), P. Borgna, P. Ceri, A. Failla ( 1996 ).

134

Telematik und neue urbane Szenarien

städtischen Gravitationszentren der Lohnabhängigen oder die Möglichkeit, technische Einrichtungen und gemeinsame Servicestrukturen zu bündeln. Zu diesen Aggregationsformen gehören die vernetzten gemeinsam genutzten Einrichtungen (shared facilities) und die Zweigniederlassungen (branch offices), die oftmals mehreren Firmen gehörenden Bürosysteme, die von einer größeren Zahl von Beschäftigten benutzt werden und die fern des Hauptsitzes der Firma liegen, mit dem über das Netz Informationen ausgetauscht werden. Die Aggregationsfunktion der Technologie, die einen Faktor bei der Reorganisation des Unternehmens darstellt, spielt in anderen Kontexten eine ganz andere Rolle. Dies trifft auf die telecottages zu, die so heißen, weil sie in dünn besiedelten und nur schwach mit den Produktions- und Servicegebieten verbundenen Landzonen liegen.

22

Neben den beiden erwähnten Kategorien, die als eine f lexiblere Variante traditioneller Arbeitsorganisation angesehen werden können, gibt es noch eine dritte sehr interessante Kategorie: die mobile Arbeit (mobile work oder nomadic work). Es handelt sich dabei um die Möglichkeit, sich mit Hilfe eines Notebooks von ganz verschiedenen Orten aus mit der Zentrale, den Kunden oder den Beratern zu verbinden.22 Das Anwachsen dieser stark durch individuelle Autonomie bestimmten Art von Telearbeit ist sicher durch die Verbreitung der Mobiltelefone begünstigt und verstärkt worden. In einem erweiterten Kontext erscheint diese Typologie der Telearbeiter für unser Thema sehr aufschlussreich, sei es für die Auswirkung auf die Stadt, sei es für die Diskussion des Begriffs Telearbeit, weil sie eine eindeutige (und akzeptable) Definition dieses Begriffs noch willkürlicher erscheinen lässt. Die Komplexität der verschiedenen Formen von Telearbeit, deren Hauptmerkmale wir skizziert haben, lässt erkennen, dass es nicht ausreicht, sie einzig unter dem Aspekt des physischen, sei es des privaten oder kollektiven Raumes, zu

22

Vgl. F. Kinsman ( 1987 ), M. Gray, N. Hodson und G. Gordon ( 1993 ). Zu dieser Kategorie gehören zum Beispiel die Projekte einer Mobileinheit, deren « Grenzfall » ein vernetzter, mit Arbeitsplätzen, Schreibtischen, Telefonen und Konferenzraum ausgestatteter Eisenbahnwagen darstellt, wie er in Schweden versuchsweise eingesetzt worden ist. Er wurde in den Hin- und Rückreisen von der Stadt zum Firmensitz benutzt. F. Kinsman ( 1987, S. 145 ).

135

Digitale Welt und Gestaltung

23

24

kennzeichnen. Eher eignen sich die Kriterien der Entfernung (Ortsveränderung und Ersetzen oder Einschränken des physischen Transfers von und zu einem Arbeitsplatz) und der Gebrauchsweisen der Technologie dazu, die Telearbeit zunächst einmal ansatzweise zu umreißen.23 Zunächst scheint eine Definition unangemessen, die sich nur auf die geografische Streuung und den Gebrauch der Technologien beschränkt. Wenn man das Phänomen der Telearbeit in seinem vollen Umfang begreifen will, muss man von der Tatsache ausgehen, dass sie nicht nur eine Arbeitsform, sondern eine strukturelle Bedingung darstellt, in der die Produktionsfaktoren eine von der Konvention abweichende Ausprägung annehmen.24 Doch was wäre aus dieser Sicht unter Telearbeit zu verstehen ? Wenn es um mehr als räumliche, technologische und strukturelle Parameter geht, wie kann man dann im Rahmen dieser drei Leitlinien ihr operatives Profil umreißen ? Mehr noch: Inwieweit bedingen die ersten beiden Parameter den dritten, inwieweit werden also die Inhalte und Aufgaben von der zu Arbeitszwecken dienenden Nutzung des Raumes (und der Zeit) und von der eingesetzten Technologie beeinf lusst ? (S. Bonfiglioli, 1990.) Wir haben den Telearbeiter unter ausschließlichem Bezug auf die benutzten technischen Apparaturen bereits skizzieren können: eine Person, die mit Hilfe eines an ein Netzwerk angeschlossenen Bildschirms einen interaktiven Dialog mit einem Zentralrechner und anderen Computern herstellen kann. Doch diese Beschreibung ist entgegen allem Anschein nicht nur eine technische Beschreibung. Erwähnt wird das Netz, an das der Bildschirm angeschlossen ist; das Netz aber ist, wenn auch ein technisches Faktum, ebenso ein räumliches Faktum.

23

Aus Sicht der verwendeten Technologien und Kommunikationsweisen bleiben zahlreiche offene Probleme. Was die Online-Kommunikation angeht, muss zwischen kontinuierlicher und diskontinuierlicher Kommunikation unterschieden werden. Im ersten Fall ist der Terminal mit dem Firmensitz oder anderen Nebenstellen während der gesamten Arbeitszeit verbunden; im zweiten Fall haben die Mitteilungen unregelmäßigen Charakter, ausgerichtet vor allem auf die Anfrage nach Informationen oder auf die Datenübertragung. Was die Offline-Kommunikation angeht, erfolgt die Übermittlung von Informationen nicht in einem Netz, sondern mit Hilfe von traditionellen Datenträgern ( Bänder, Disketten, Briefe ). Diese Arbeitsformen können logischerweise nicht in die Aufgaben der Telearbeit einbezogen werden.

24

136

Vergleiche dazu die Untersuchung Telecom ( 1994 ).

Telematik und neue urbane Szenarien

Auf der anderen Seite bleibt ein wesentlicher Aspekt ausgeblendet: Die technisch-räumliche Strukturierung des Netzes übt nämlich immer einen entscheidenden Einf luss auf die Arbeitsinhalte selbst und auf das Verhalten des Beschäftigten aus. Es sollte nicht verwundern, dass diese strukturellen Implikationen eine wichtige Rolle für das Verständnis der Hintergründe spielen, die in der kapitalistischen Gesellschaft das Auf kommen der Telearbeit gefördert haben und die darüber hinaus auch eine wichtige Rolle für die Beurteilung ihres Ist-Zustands und ihrer zukünftigen Entwicklungen spielen. Warum müssen an einem bestimmten Punkt die organisatorischen Aufgaben geradezu zwangsläufig telearbeitsfähig gemacht werden ? In welchem Bereich hat diese Notwendigkeit zuerst einen programmatischen Stellenwert angenommen ? Sicher im Tertiärsektor. Tatsächlich ist es die Perspektive der Telearbeit, auf die sich ein anspruchsvolles Rationalisierungs- und Produktivitätsprogramm stützt. Die Telearbeit ist für den Tertiärsektor das, was die Automatisierung für die verarbeitende Industrie gewesen ist. Obwohl es allgemein bekannt ist, möchte ich daran erinnern, dass die ersten Erfahrungen mit der Telearbeit aus den siebziger Jahren sich genau auf die Rationalisierung der Informations- und Kommunikationsprozesse in der Büroarbeit beziehen. Ausgehend von der Prüfung der wichtigsten Pilotprojekte und den Erfahrungen mit der Telearbeit kann man heute die Arbeitsinhalte bestimmen, die mehr als andere als geeignet für die Telearbeit betrachtet werden. Sie reichen von der Zusammenstellung und Ausarbeitung technischer Dokumentationen bis zur Textherstellung und Textverwaltung, von der Buchführung und Bilanzanalyse bis zur Bearbeitung von Versicherungspolicen. Solche Aufgaben kennzeichnen sowohl Aktivitäten mit niedrigem professionellem Anforderungsprofil (in der Regel Sekretariatsarbeiten mit überwiegend weiblichen Arbeitskräften) als auch solche mit hohen professionellen Ansprüchen (überwiegend von männlichen Arbeitskräften ausgeführt). Freilich lassen sich die Entwicklungslinien der Telearbeit bislang nicht leicht voraussehen. Einer der Gründe dafür liegt in der Schwierigkeit, mit hinreichender Genauigkeit den Verbreitungsgrad der sich ständig verändernden Telearbeit zu ermitteln. Weil kein Konsens darüber besteht, welche Tätigkeiten alle erforderlichen Eigenschaften aufweisen – und somit in die statistischen Erhebungen einf ließen müssen –, die für eine Definition der telearbeitsfähigen Charakteristika benötigt werden, haben die gesammelten Daten allenfalls aleatorischen Wert.

137

Digitale Welt und Gestaltung

Wenn man bei der Analyse die Beziehung zwischen Voraussagen und Erwartungen, die seit Beginn der sechziger und siebziger Jahre die Informationstechnologien geweckt haben, mit effektiv erreichten Ergebnissen vergleicht, ergibt sich die Notwendigkeit weiterer Überlegungen. Wie Tom Forester aufgezeigt hat (2 1991), wurden die den Informationstechnologien zugeschriebenen Möglichkeiten weit überschätzt, in schnelllebigen Zeiten radikale Veränderungen des Lebensstils und der Nutzung von Zeit und Raum herbeizuführen.

25

Forester unterzieht die visionaries of the electronic cottage einer eingehenden Prüfung und geht auf drei spezifische Punkte ein, die als gemeinsame Grundlage für die deterministischen Voraussagen aller Theoretiker der Telematik dienten. Nach ihren Voraussagen hätte man im Laufe weniger Jahrzehnte einer Zunahme der Arbeitstätigkeiten im Hause beigewohnt, ebenso einer Zunahme der auf der telematischen Technologie beruhenden Serviceleistungen und somit einer radikalen Umformung der Lebensstile. Forester stellt einen konzisen quantitativen Vergleich zwischen den Voraussagen und der gegenwärtigen Situation an.25 Er erörtert die Gründe, die nach seiner Meinung für eine derart krasse Fehleinschätzung verantwortlich waren und nimmt an, dass insbesondere die Humanfaktoren unterschätzt wurden: Ein großer Teil des Problems hat mit den konkreten Lebensbedingungen der Personen und ihrer psychologischen Struktur zu tun. Die Telearbeit setzt eine passende Arbeitsumgebung voraus, die erforderlichen Kompetenzen, um eine neue Form der Arbeit zu beginnen, und die Fähigkeit, die eigene Tagesarbeit selbständig und effizient zu organisieren. Alle diese Voraussetzungen wirken sich stark negativ aus, wenn man die Probleme der Familienbeziehungen, die Isolation von den Kollegen und die Unsicherheit bezüglich des eigenen Status hinzufügt. Aber Forester beschränkt seine Analyse nicht auf die Telearbeit. Einen ähnlichen Vergleich stellt er mit anderen Facetten des Alltagslebens an, bei denen eine massive Verbreitung der Informationstechnologien zu verzeichnen ist. Das Ergebnis lautet ähnlich: Auch in diesem Fall, etwa bei der Nutzung von ins Haus gelieferten Serviceleistungen, hat der deterministische Ansatz versagt, ebenso wie die Experimente mit dem « intelligenten Haus » nicht zu den erwarteten Ergebnissen geführt

25

Wenngleich sie Ende der achtziger Jahre erhoben wurden, liefern die von Forester aufgelisteten Daten ( S. 213 ) Stoff zum Nachdenken. Zu jener Zeit wurde die Zahl der zu Hause tätigen Telearbeiter in den USA auf 100.000 geschätzt. Im Gegensatz dazu lagen seinerzeit die Schätzungen der Förderer von Telearbeit bei mehreren Millionen.

138

Telematik und neue urbane Szenarien

26

haben. Dem Gefühl der individuellen Befriedigung oder der Unzufriedenheit mit den Informationssystemen, die den in ihren Hausbunkern eingeschlossenen Personen angeboten werden, ist nicht der gebührende Stellenwert beigemessen worden.26 Dennoch feiern optimistische Interpretationen weiter fröhliche Urständ: Die Telematik könne zu einer radikalen Alternative für individuelle und städtische Lebensstile führen, die nun als nicht mehr akzeptabel angesehen würden.

Telearbeit und Großstadtbevölkerung Oftmals kann man unter jenen, die an die Machbarkeit dieser Alternative glauben, ein – abgesehen vom Verständnis der Individuen – unzureichendes Verständnis des generellen Phänomens der Stadt feststellen. Die Stadt wird als eine monofunktionale Wirklichkeit betrachtet – ein Ort, an dem man nur wohnt und arbeitet –, eine Wirklichkeit ohne Binnengliederungen, deren Beziehung mit der Außenwelt sich immer voraussehen lässt. Schon Max Weber hatte seinerzeit zumindest drei verschiedenen Stadttypen unterschieden, die in derselben Stadt nebeneinander existieren: die Konsumentenstadt, die Produzentenstadt und die Handelsstadt (M. Weber, 1980). Diese Dreiteilung stellt den ersten Versuch eines aus Segmenten zusammengesetzten Stadtkonzepts dar, das dem erheblich komplexeren Charakter der zeitgenössischen urbanen Systeme nicht mehr gerecht wird (Pietro Rossi, 1987). Bekanntlich sind in den letzten Jahrzehnten viele Vorschläge mit dem Ziel unterbreitet worden, eine der neuen Wirklichkeit angemessenere Version zu liefern. Aus diesen möchte ich einen Vorschlag des Soziologen G. Martinotti herausgreifen, der wegen seiner interpretativen Differenzierungen meiner Ansicht nach für das hier erörterte Thema von Nutzen ist und der vier Typen der Stadtbevölkerung unterscheidet: die « Bewohner », die « Pendler », die « city user » und die « metropolitan businessmen » (G. Martinotti, 1993 und 1996).

26

In einem solchen Kontext fehlt vor allem ein Grundelement menschlicher Befriedigung: die Möglichkeit, die Umwelt mit dem einzigen Ziel auszukundschaften, der eigenen Wissbegierde zu folgen. Für eine analoge Argumentation vergleiche auch I. Salomon ( 1985, S. 229 ff. ).

139

Digitale Welt und Gestaltung

Das Hauptverdienst dieses Vorschlags besteht darin, die städtischen Subjekte nicht durch abstrakte Kategorien zu kennzeichnen, sondern in Bezug auf das, was sie effektiv in der Stadt tun, kurz: wie sie die Stadt nutzen. Dies ist ein für die Analyse der Telearbeit vielversprechender Ansatz, denn tatsächlich können, besonders was die eventuellen Auswirkungen auf die Dezentralisierung angeht, die verschiedenen Gebrauchsweisen der Stadt durch die vier erwähnten Typen der Stadtbevölkerung nicht ausgeklammert werden. Zum vollen Verständnis dieser Tatsache muss zwischen der Teleheimarbeit und der Fülle anderer Erscheinungsformen unterschieden werden, die auf keinerlei Weise an den Wohnsitz des Beschäftigten gebunden sind. Ein Beispiel: der Angestellte, der von seinem Büro in der Firmenzentrale aus über das Netz Informationen mit einem anderen Angestellten in einer anderen Niederlassung derselben (oder einer anderen) Firma austauscht, so dass die Frage des Orts der Firmensitze nebensächlich wird oder sich ganz erübrigt. Ein anderes Beispiel: Der Vertreter einer Firma, der sich auf einer Geschäftsreise im Ausland befindet, ist gezwungen, häufig interaktiven Kontakt mit der Zentrale aufzunehmen, um Informationen und Anweisungen in Realzeit zu erhalten. Das erste Beispiel gehört zur Kategorie der fixen Telearbeit zwischen Firmensitzen, das zweite zur Kategorie der mobilen Telearbeit. Zurückkehrend zu den vier Typen der Stadtbevölkerung, kann man vereinfachend Folgendes festhalten: Während die heimgebundene Telearbeit höchstens die « Bewohner » und « Pendler » betrifft, gelten die beiden anderen erwähnten Beispiele der außer Haus geleisteten Telearbeit für die « city user » und « metropolitan businessmen » – eine Tatsache, die Licht auf die Frage der Konzentration oder Dekonzentration der Stadt werfen kann. So wie man der heimgebundenen Telearbeit einen zentrifugalen Effekt zuschreiben kann, insofern sie Bewohner und Pendler von der Stadt entfernt, kann man der außer Haus geleisteten Telearbeit einen zentripetalen Effekt beimessen, insofern sie aus verschiedenen Motiven city user und businessmen in die Stadtbereiche anzieht.

27

Dieser Aspekt ist von S. Sassen mit beispielhafter Klarheit analysiert worden, die in zwei Untersuchungen (S. Sassen, 1991 und 1994) auf die new logic of agglomeration hingewiesen hat.27 Danach haben die neuen Informationstechnologien

27

140

Vgl. auch ( 1988, 1994b und 1994c ).

Telematik und neue urbane Szenarien

sowohl eine Dispersion als auch eine geografische Integration vieler Aktivitäten gefördert. Doch der Löwenanteil ist auf die Integration entfallen und entfällt weiterhin auf sie, weil, wie Sassen erklärt, die besonderen « Zugangsbedingungen zu diesen Techniken zu einer Konzentration der fortgeschrittensten Benutzer und der fortgeschrittensten Kommunikationszentren geführt hat ». Der Begriff der Agglomeration ist auch anhand einer Fülle von Daten von M. Castells in seinem wichtigen Buch über die Beziehung zwischen Informationstechnologien und städtisch-regionalen Prozessen entfaltet worden (M. Castells, 1989). In gleiche Richtung weisen auch die fundamentalen Beiträge von A. R. Pred (1973), der auf Grundlage einer eingehenden Analyse der Beziehung zwischen dem Wachstum der Städte und dem Informationsaustausch in den Vereinigten Staaten zwischen 1790 und 1840 starke Zweifel an der These vorgebracht hat, dass die Innovationen im Kommunikationsbereich ernstlich das « Stabilitätsmodell der Großstädte » in Mitleidenschaft ziehen könnten. Wie wir gesehen haben, als wir die Position von I. de S. Pool erörtert haben, bestehen unter den zahlreichen Forschern der Stadtphänomene tief greifende Unterschiede darin, wie sie möglichen Auswirkungen der neuen Kommunikationstechnologien auf die strukturelle und funktionale Ordnung unserer Städte bewerten. Die Resultate dieser Kontroverse sind derzeit schwer abzuschätzen. Eins allerdings scheint klar zu sein: Das Thema muss unter Berücksichtigung der Tatsache angegangen werden, dass das System Stadt wesentlich ein Aggregat von hochgradig turbulenten und miteinander konf ligierenden Subsystemen bildet. Deshalb muss man auf Methoden zurückgreifen, die dieser Komplexität gerecht werden – strenge, aber gleichzeitig f lexible und anpassbare Methoden, mit deren Hilfe auf der Grundlage einer genauen empirischen Datenerhebung die besondere Dynamik jedes Subsystems erfasst werden kann. Das bedeutet keinen Verzicht auf eine integrale Vision, sondern die Notwendigkeit, die zwischen den Subsystemen ablaufenden Beziehungen aufmerksam zu verfolgen; und dies unter Berücksichtigung der Verschiedenheit in Form und Substanz der Städte. Nur so lässt sich mit relativer Sicherheit der technologische Stil ausmachen, der jeder Stadt entspricht (oder entsprechen sollte).

141

Digitale Welt und Gestaltung

Beschäftigung und räumliche Mobilität Wir haben gesehen, dass die Telearbeit – vor allem wenn man sie theoretisch als eine Maßnahme zur Minderung der räumlichen Mobilität von Personen und Dingen im städtischen Raum begreift – nicht ohne Berücksichtigung des Arbeitsmarkts analysiert werden kann. Um die Telearbeit siedeln sich sehr unterschiedliche Konnotationen an, je nachdem ob die Diskussion im Kontext der Vollbeschäftigung, der Unterbeschäftigung oder der Arbeitslosigkeit geführt wird. Verweilen wir bei dem letzten Fall, also einem Arbeitsmarkt, in dem die Arbeitslosigkeit vorherrscht (oder der dazu tendiert). Jemand hat daran erinnert, dass es erst einmal Arbeit geben muss, bevor Telearbeit möglich wird. Diese nicht ganz klare Anmerkung ist eindeutig provokatorisch gemeint, hat aber zumindest das Verdienst, ein wichtiges methodologisches Detail hervorzukehren: In einer Situation extremer Arbeitsnot genügt es nicht, die Telearbeit nur oder primär aus der Sicht ihrer positiven Auswirkungen (die noch zu beweisen sind) auf die ökologische Nachhaltigkeit unserer Städte zu betrachten.

28

29

In einem solchen Kontext wäre der sozialen Nachhaltigkeit der Telearbeit Vorrang einzuräumen, also ihren positiven (oder negativen) Auswirkungen auf den Arbeitsmarkt.28 Das bedeutet nichts anderes, als auch und vorrangig folgende Frage zu stellen: Kann die Telearbeit unter Abstrich ihres vermeintlich positiven Einf lusses auf die Umwelt (und die Unternehmensproduktivität) als ein Multiplikator der Beschäftigung oder der Arbeitslosigkeit, der Qualifikation oder Disqualifikation der Arbeit betrachtet werden ? Weil solch eine Fragestellung nicht als prioritär angesehen wurde, wird die Telearbeit heute häufig als ein überwiegend technischer Vorschlag mit dem Ziel einer räumlichen Umverteilung der Arbeit angesehen, ohne dass auf das Problem eines eventuellen Mangels von Telearbeit eingegangen wird. Anders formuliert: Man stellt es als selbstverständlich dar, dass wir heute in einer Situation der « Vollbeschäftigung aller » leben.29 Eine derartige Annahme steht jedoch quer zu allem, was sich

28

Das Thema der ökologischen Nachhaltigkeit lässt sich nicht von der Frage der sozialen Nachhaltigkeit abkoppeln. Nicht alles, was sich ökologisch als nachhaltig erweist, ist deshalb auch sozial nachhaltig. Doch auch das Gegenteil ist wahr. Zu der Möglichkeit eines « dritten Sektors », in den beiden Arten der Nachhaltigkeit einmünden, vergleiche T. Maldonado ( 1996b ) und E. Manzini ( 1995 ).

29

Eine Vollbeschäftigung ist ebenso unwahrscheinlich wie die Vollkonkurrenz, wie sie die neoklassischen Wirtschaftswissenschaftler thematisieren.

14 2

Telematik und neue urbane Szenarien

vor unseren Augen abspielt. Mehr noch, indem man die Telearbeit in einen idealisierten Rahmen rückt, wird sie in ein Subjekt der Technofiktion zum ausschließlichen Gebrauch durch die Medien umgemodelt. Denn wenn man dem gegenwärtigen Problem der Massenarbeitslosigkeit den Rücken kehrt, beweist das allgemein einen bescheidenen Grad von Realismus. Diese Haltung schockiert aber geradezu, wenn es bei dem behandelten Thema um nicht weniger als die Telearbeit geht. Ich verkenne nicht die gegenläufigen Versuche, auch seitens internationaler Prestigeinstitutionen, eine funktionale Kopplung zwischen Telearbeit und Arbeitslosigkeit festzustellen. Ein Beispiel dafür liefert das Weißbuch (Delors) der Europäischen Gemeinschaft ( Juni 1993), dem das Verdienst gebührt, eine recht objektive Beschreibung des Problems angeboten zu haben. Weniger überzeugend und in gewisser Hinsicht glattweg irreführend scheinen mir die « Empfehlungen des Europarats » (Dezember 1993), die von den Staatsoberhäuptern im Treffen auf Korfu ( Juni 1994) angenommen wurden. In diesen unter dem Titel Bangemann-Bericht bekannten Empfehlungen wird die Telearbeit ohne Umschweife als ein Instrument zur Schaffung neuer Arbeitsplätze präsentiert. Ich teile die Kritiken, die von vielen Seiten gegen dieses ungewöhnliche Dokument vorgebracht wurden, das einen durch keinerlei glaubwürdige Daten gestützten Optimismus ausstrahlt. Es wurde sogar der Verdacht geäußert, dass es in großen Teilen das Ergebnis von Lobbyaktivitäten multinationaler Konzerne ist, die an dieser Darstellung ein Interesse haben. Ich möchte die Glaubwürdigkeit eines solchen Verdachts hier nicht bewerten, aber ich glaube, dass sich im Hintergrund dieser Haltung ein Wahrnehmungsdefizit des realen Ausmaßes der Arbeitslosigkeit verbirgt. Man glaubt, dass sie in erster Linie konjunkturell und nur zum Teil strukturell bedingt ist, doch wird dabei die durch neue Technologien verursachte Arbeitslosigkeit unterbewertet. Man will nicht anerkennen, dass die Arbeitslosigkeit in erster Linie der Verbreitung neuer Technologien mit niedriger Arbeitsintensität (laborsaving) zuzuschreiben ist. Der Mangel an Arbeitsplätzen ist schon seit langem nicht mehr sektoriell beschränkt, vielmehr erstreckt es sich nun auf das System in seiner Gesamtheit, und zwar nicht nur in der dritten Welt, sondern auch in der industrialisierten und hyperindustrialisierten Welt. Viele Wirtschaftswissenschaftler fragen sich schon seit langem, wie sich die neuen Technologien auf die Beschäftigung auswirken und welche Korrekturmaßnahmen eventuell anzuwenden seien. Das Thema ist sehr komplex; die Wissenschaftler sind sich noch nicht einig geworden. Es gibt viele ungelöste Probleme. Die berüchtigte Ausgleichstheorie wartet noch auf Daten, die ihr Glaubwürdigkeit verleihen können, Daten, die beweisen, dass sie etwas mehr als eine fromme Konjektur, etwas mehr als ein Ausdruck des wishful thinking ist.

143

Digitale Welt und Gestaltung

30

Diese Theorie geht kurz formuliert von der Annahme aus, dass die aus der Industrieproduktion katapultierten Arbeiter sofort oder nach kurzer Wartezeit vom Tertiärsektor aufgenommen werden könnten. 30 Kein ernst zu nehmender Wirtschaftswissenschaftler sieht sich heute in der Lage, diese These zu verteidigen. Die Annahme hat sich als allzu optimistisch herausgestellt: Die Umschichtung der Arbeitskraft von einem Sektor auf einen anderen Wirtschaftszweig stößt auf erhebliche Schwierigkeiten. Der Arbeitswirtschaftler L. Frey (1994) hat zu Recht behauptet, dass viele der Schwierigkeiten vom Fehlen einer Kultur der Mobilität herrühren. Aber die Kultur der Mobilität ist nicht ein abstraktes Programm. Oft wird verkannt – oder vorgeblich verkannt –, dass die Subjekte der Mobilität in erster Linie Personen sind und nicht bloße soziodemografische Kategorien, die durch ein programmatisches Diktat von einer statistischen Gruppe zu einer anderen verschoben werden können. Denn ein derartiges Programm, wenn es denn realistisch sein will, muss das Verhalten berücksichtigen, das Frauen und Männer mit ihren Wertvorstellungen, Wünschen und Präferenzen angesichts der Anforderungen des Arbeitsmarktes – eben der Mobilität – annehmen.

31

Man kann von einer Kultur der Mobilität dann und nur dann sprechen, wenn in einer Gesellschaft eine große Zahl von sozialen Akteuren existiert, die bereit sind, die drei Mobilitätstypen zu akzeptieren (und zu praktizieren), von denen Frey spricht: die professionelle, die soziale und die territoriale Mobilität. 31 In jüngster Zeit sieht man sich einer neuen Entwicklung gegenüber, die die Lage zusätzlich erschwert: Auch Beschäftigte des tertiären Sektors beginnen, ihre Arbeitsplätze zu verlieren. Oftmals handelt es sich um Arbeiter, die erst vor kurzem die Welt der Produktion verlassen und sie mit der Welt der Dienstleistungen vertauscht haben. Für diese Arbeiter ist eine erneute Verschiebung zurück aus offensichtlichen Gründen praktisch auszuschließen. Es wächst also die Bedrohung einer andauernden und weit verbreiteten Arbeitslosigkeit, zu deren Bekämpfung wir zurzeit über keine verlässlichen Gegenmaßnahmen verfügen.

30

Zum Thema der Ausgleichstheorie vergleiche den kritischen Beitrag von F. Momigliano und D. Siniscalco ( 1982 ) und von F. Momigliano ( 1985 ). Zur Diskussion über die Hypothesen der Telematisierung der Gesellschaft und über die Telearbeit, besonders was die sozialen Risiken und Beschäftigungsrisiken angeht, vergleiche auch T. Maldonado ( 1987, S. 139–148 ).

31

Eine eingehende Bearbeitung der Thematik der « räumlichen Mobilität » ( « territoriale Mobilität » nach Frey ) liefert P. Franz ( 1984 ).

14 4

Telematik und neue urbane Szenarien

Noch bedrohlicher gestaltet sich die heutige Lage durch den fast allseits feststellbaren Versuch, den Sozialstaat im Namen der Erfordernisse des freien Marktes und der Sanierung der öffentlichen Finanzen abzubauen. Auf der einen Seite wächst die Zahl der Ausgegrenzten, der Arbeitslosen und der Unterbeschäftigen; auf der anderen Seite und zur gleichen Zeit wird vorgeschlagen, die Sozialleistungen für die Ausgeschlossenen und mittellosen Bürger zu senken und in einigen extremen Fällen auf null herunterzuschrauben. Man sprengt somit in einem besonders empfindlichen Moment das System der für den Sozialstaat keynesianischer Prägung typischen Stoßdämpfer und Gegengewichte.

Metropole zwischen Exklusion (Ausgrenzung) und Inklusion (Abgrenzung) In der bisherigen Analyse haben wir aus Gründen der Darstellung von einigen bedeutenden Entwicklungen abstrahiert, die sich in den Metropolen, besonders in den USA und in der dritten Welt abspielen. Diese Entwicklungen lassen alles andere als beruhigende Tendenzen für die Zukunft der Stadt erkennen. Angesichts der sich in den großen Stadtzentren verschärfenden sozialen Widersprüche und als Reaktion auf die sich daraus ergebenden negativen Auswirkungen – Kriminalität, Rowdytum, Vandalismus usw. – öffnet sich der Weg für eine neue Gebäudetypologie.

32

Ich meine jene Klasse von Gebäuden, die in erster Linie konzipiert sind, um – auf formaler, funktionaler, aber auch symbolischer Ebene – klar die Grenzen zwischen Eingeschlossenen und Ausgeschlossenen, zwischen Privilegierten und Unterprivilegierten zu markieren. 32 Diese Gebäude sind dazu bestimmt, den Binnenraum vor den Gefahren und Turbulenzen einer als barbarisch, streitsüchtig und vulgär angesehenen Außenwelt zu schützen. Sie sind aus der maniatischen Sorge um Sicherheit entstanden, wahre « Hochsicherheitsanlagen ». Gebäude, die sich als Orte der Selbstabgrenzung gestalten, in denen Bewohner oder Besucher, die davon überzeugt sind, in einem Belagerungszustand zu leben, sich wie in einer Festung verschanzen. Diese Gebäudetypologie hat, wie man erahnt, Vorläufer in der Geschichte der gebauten Umwelt. Sie reiht sich ein in die weit zurückreichende Tradition der Gebäude zur Verteidigung (oder Abschreckung) gegen einer feindlichen Umwelt.

32

Zum Thema der Exklusion, verstanden als Segregation ( und Internierung ), ist hier an die bedeutenden Beiträge von M. Foucault ( 1972 ) zu erinnern. Zur Kritik an dem Ansatz von Foucault vergleiche C. Ginzburg ( 1976, S. XVI ).

145

Digitale Welt und Gestaltung

Trotz der Ähnlichkeit mit ihren Vorläufern weisen aber die neuen Zitadellen ganz spezifische Eigenschaften auf. Sie verknüpfen zum Beispiel die Kontroll- und Sicherheitsauf lagen mit denjenigen für Entspannung und Unterhaltung. Die daraus resultierenden architektonischen Formen bringen vor allem in den USA sehr gut die ambivalente Natur dieser Bauten zum Ausdruck: von außen eine monumentale Festung, innen ein üppiges Disneyland. 33

Der, wie er genannt wurde, « zersetzende Dualismus » 33 zwischen außen und innen schlägt sich auch und vor allem in der Art nieder, die externen Fassaden von den internen zu unterscheiden. Während die zur Straße gerichteten Fassaden in der Regel wenig bedeutsam sind, liegen die wahren Fassaden um einen spektakulären Zentralraum des Gebäudes herum. In diesem Raum, einer Art von Hof (oder Piazza), finden wir die Fassaden, hinter denen sich die verschiedenen Funktionen (Wohnzone, Verwaltungszone, Empfangszone und Geschäftszone) entwickeln. Das alles wird eingefasst von Fahrstühlen und durchsichtigen Treppen, Springbrunnen mit Wasser- und Lichtspielen, Hängegärten mit Tropenpf lanzen und vor allem vergoldeten Zwischendecken und Spiegelwänden. Doch der wichtigste Aspekt betrifft die Sicherheit. Sie wird mit Effizienz und Promptheit von einer militarisierten Mannschaft von Guardian Angels und von einem Arsenal von elektronischen Überwachungsgeräten garantiert, die den Bewegungen und dem Verhalten der Bewohner, Besucher oder Kunden bis in die kleinsten Details folgen können. Dies ist also das Paradies, in dem die Eingeschlossenen aus freien Stücken gleichsam zu Abgeschlossenen werden. Genau betrachtet, ist nichts paradoxer als die Dialektik der Beziehung Inklusion, Exklusion und Reklusion (Abgeschiedenheit). Der für die eigene Eingrenzung – und die Abgrenzung der anderen – zu zahlende Preis ist oftmals die eigene Abgeschiedenheit. Sicher handelt es sich in diesem Fall um eine luxuriöse Abgeschiedenheit, aber eben immer noch um eine Abgeschiedenheit. Freilich hat es die Tendenz der Privilegierten zur Inklusion und Reklusion, also zur Isolierung in überbeschützten Enklaven schon immer gegeben. Es reicht, einen Blick auf Orte wie country clubs und elitäre eingezäunte Wohnviertel zu werfen. (Es ist bezeichnend, dass ähnliche Orte allgemein exklusiv genannt werden, und nicht, wie es passender wäre, inklusive Orte.) Wenn all das stimmt, muss zugegeben werden – wie wir es hinsichtlich der weit zurückliegenden historischen Vorläufer dieser Typologie soeben getan haben –, dass die Gebäude, mit denen wir uns beschäftigen, eine Reihe bemerkenswerter

33

146

R. Sennett ( 1990, italienische Übersetzung, S. 30 ).

Telematik und neue urbane Szenarien

34

35

Neuigkeiten im Vergleich zu den so genannten exklusiven Orten aufweisen. Sie verkörpern eine aggressivere Reaktion auf eine gesellschaftlich gleichfalls immer aggressiver werdende Situation. In den Großstädten wachsen die persönlichen und kollektiven Risiken der Eingegrenzten, wie auch andererseits die Zahl der rebellierenden Ausgegrenzten zunimmt. Man muss zur Kenntnis nehmen, dass die Städte, einst « Konzentrate der Sicherheit» – wie sie J. Le Goff (1985, S. 10) definierte –, jetzt zu explosiven « Konzentraten der Unsicherheit » werden. Es ist genau diese größere Gefährlichkeit (und Unvorhersehbarkeit) des Stadtlebens, die als Ursache für eine Verbreitung der enclaves anzusehen ist und – sagen wir es ruhig – für ihre virulente Radikalisierung. 34 Heute wissen wir mit relativer Sicherheit, dass es jene in Enklaven lebenden Personen sind, die sich bedroht fühlen; dagegen haben wir nur vage Ideen davon, wer denn die Personen sind, von denen die Drohungen ausgehen. Unser Wissen über diese Personen ist zu allgemein und vor allem vom Alarmismus der Bedrohten beeinf lusst. Doch wenn die Sachen so stehen, wie es den Anschein hat, dann muss man sich fragen: Wer sind denn diese Ausgeschlossenen (Ausgestoßenen), die in so hohem Grad Angst und Schrecken einf lößen, dass sie sogar die Statthalter der Macht und des Reichtums dazu bringen, sich in Schutz zu begeben, indem sie Schutzmauern errichten und Gräben ausheben ? Aus wem setzt sich denn diese neue Version der multitudo inermis turbae mittelalterlichen Gedenkens zusammen ?35 Tag für Tag und mit sadistischer Beharrlichkeit liefert uns Hollywood die schreckenerregenden Bilder eines vermeintlich « kommenden neuen Mittelalters », in dem bewaffnete Banden von Motorradfahrern in Lederkleidung Ausf lüge in die Reservate der Privilegierten unternehmen: Zusammenstösse zwischen Hell’s Angels und Guardian Angels. Man wird mit Recht einwenden, dass solche Bilder nur zu dem Teil der verschwommenen Folklore der Gewalt gehören, der uns nichts oder nur sehr wenig über die Welt der Ausgeschlossenen mitteilt. Im Übrigen entbehrt die Kategorie der Ausgeschlossenen selbst, die ich bisher vielleicht allzu unbekümmert verwendet habe, nicht einer gewissen Zweideutigkeit. Die Kategorie kann – nach bestimmter Meinung – auch auf Abwege führen. Die Wissenschaftler, die das Phänomen der Marginalisierung in der Geschichte untersuchten (P. Camporesi, 1972, G.-H. Allard, 1975, A. McCall, 1979, O. Capitani, 1983, V. Paglia, 1994, R. Castel, 1996, und Y. Grafmeyer, 1996), haben uns – mit unterschied-

34

J. M. Borthagaray ( 1993 ).

35

So nannte der Erzbischof von Burgos im Jahre 1038 die Masse der Ausgestoßenen, von denen die Stadt umgeben war. Zitiert nach O. Capitani ( 1983, S. 10 ).

147

Digitale Welt und Gestaltung

lichen Nuancen – eine eingehendere Analyse geliefert. Allard zum Beispiel unterscheidet im Mittelalter drei Kategorien: die Entwerteten (devalués) : Alte, Arme, Kinder, Frauen usw.; die Ausgeschlossenen (exclus) : Diebe, Prostituierte, Vagabunden, Verrückte, Fremde; die Marginalisierten (marginals), eine Zwischenkategorie. Diese Kategorien lassen sich gewiss nicht einfach schematisch auf unsere Zeit übertragen. Wahrscheinlich eignet sich die Kategorie der Marginalisierten, wegen der ihr von Allard zugeschriebenen Mobilität und Flexibilität am besten zur Beschreibung einer gesellschaftlichen Kategorie, die sich heutzutage in einem dauernden Prozess der Auf lösung und Neuzusammensetzung befindet. Die Entwerteten und Ausgeschlossenen haben eines gemein: Beide sind an den Rand geschoben, also letztendlich Randgruppen. Und gerade dies ist entscheidend und geht über jene wenn auch gerechtfertigten Unterscheidungen hinaus, die man bei den verschiedenen Arten der Randexistenz treffen kann. An diesem Punkt stellt sich die Frage nach dem Warum: Warum wohl wird heute eine beträchtliche Anzahl von Männern und Frauen ausgegrenzt ? Warum wohl tritt dieses Phänomen, das bis vor kurzem besonders in den Ländern der dritten (und vierten) Welt zu finden war, jetzt mit unglaublicher Virulenz auch in den industrialisierten Ländern auf ? Dafür gibt es zahlreiche Ursachen, die ich alle weder auf listen möchte – noch auf listen kann. Aber unter ihnen findet sich eine, der aus offensichtlichen Gründen eine entscheidende Rolle zugeschrieben werden muss: der steile Niedergang des Beschäftigungsniveaus. Weiter oben habe ich diese dramatische Situation bereits eingehend erörtert. Jetzt werde ich nur die direkte Verbindung zwischen dieser Entwicklung und der allgemeinen Verschlechterung des demokratischen Zusammenlebens zwischen Individuen und Gruppen von Individuen beleuchten. Es erübrigt sich, an eine vor aller Augen liegende Tatsache zu erinnern: dass die Drift zur Marginalisierung derer, denen der Zugang zum Arbeitsmarkt verweigert wird (oder die vom Arbeitsmarkt ausgestoßen sind), früher oder später unvermeidlich ist. Die Marginalisierung ist kein Zustand, mit dem man sich passiv und noch weniger einer, mit dem man sich friedlich abfindet. Sie ist die Quelle von Groll und Neid, und der Wille zur Revanche ist immer präsent. Es sollte also nicht verwundern, dass die Marginalisierung Gewalt erzeugt und somit eine der Ursachen der allgemeinen Unsicherheit darstellt, die die gesamte Struktur der Großstädte ändert. Für Le Goff entspringt die urbane Unsicherheit direkt der anderen Unsicherheit in Form der Arbeitslosigkeit. Er schreibt: « Die Unsicherheit, die bis zu einem gewissen Grad allerorts zu finden war, finden wir nun in den Städten.

148

Telematik und neue urbane Szenarien

Unsicherheit: die brutalste und zweifelsohne erschütternste Unsicherheit betrifft die Arbeit; es ist das Phänomen der Arbeitslosigkeit » (1985, S. 10). Ich möchte mich nun wieder dem Thema der Telearbeit zuwenden. Weithin wird angenommen, dass zu den zahlreichen Vorteilen auch die Möglichkeit zählt, die Unsicherheit in den Städten zu mindern (und sogar ein für alle Mal zu überwinden). Die Logik dieser Argumentationsweise ist allerdings nicht besonders schlüssig. So lässt sich nicht nachvollziehen, warum die Verschiebung der Arbeit aus den Großstädten dazu beitragen könnte, die explosive Situation zu entschärfen, die sich in erster Linie aus dem Fehlen von Arbeit ergibt. Es sei denn, man schlägt in Wirklichkeit nicht nur eine Entfernung von der Stadt der Arbeit, sondern auch von der Stadt der Nicht-Arbeit vor, vielleicht in der Hoffnung, dass ein Großteil der Arbeitslosen in Zukunft neue Beschäftigungsnischen in Form der Telearbeit besetzen könnte. Mit dem derzeitigen Kenntnisstand lässt sich diese Hoffnung nicht auf ihre Haltbarkeit überprüfen, denn sie beruht auf allzu zahlreichen Hilfsannahmen, die nicht alle empirisch abgesichert sind. Wir versuchen, ein weniger anspruchsvolles Szenario zu analysieren, den Vorschlag nämlich, dass ein großer Teil der heute existierenden Arbeit vereinfacht gesagt zu Telearbeit – sei es Heimarbeit oder gleich welch anderer Art – überwiegend außerhalb der Großstädte mutieren kann. Wir haben bereits das Für und Wider dieses Szenarios verglichen. Es fehlt aber noch die Erörterung eines anderen, nicht weniger wichtigen Szenarios, das den Erfolg der Telearbeit auf breiter Ebene voraussetzt. Wir haben die eventuellen positiven Auswirkungen auf die Umwelt und den Energiekonsum bewertet, doch es bleibt eine Frage, die wir auf lange Sicht nicht umgehen können: Wenn man eine vollständige oder auch nur partielle Telematisierung der Arbeit mit der damit verbundenen Verlagerung eines beachtlichen Teils der Stadtbewohner erreicht, was wird dann letztendlich aus der Stadt ? Wer wären ihre Bewohner, und welche Tätigkeiten würden sich für sie entwickeln ? Wenn man pessimistisch sein will – und ich neige nicht zu dieser Einstellung –, kann man sich eine Situation vorstellen, die stark den beängstigenden und bereits erwähnten Szenarien der von Hollywood produzierten slasher films ähnelt: gewaltige von den Privilegierten und Firmenzentralen belegte Festungen, umzingelt von einer marginalisierten aggressiven, streitsüchtigen und grölenden Masse. Ich hoffe, dass dies nicht der Preis ist, der für die Vorteile für Umwelt und Energiekonsum zu entrichten ist, Vorteile, die einige Visionäre der Telearbeit nicht einmal als Möglichkeit zu ref lektieren bereit sind. Glücklicherweise gibt es eine Reihe von bereits erwähnten Wissenschaftlern, die eine andere Stellung einnehmen. Sensibel gegenüber sozialen Problemen der Großstädte, können sie sich wissenschaftlich streng und vorurteilsfrei mit den eventuellen negativen Nebenwirkungen der Telearbeit auseinandersetzen.

149

Digitale Welt und Gestaltung

Fernunterricht als Telearbeit Ich möchte mich nun einer besonderen Form der Telearbeit zuwenden, und zwar des Fernunterrichts und des Fernstudiums. Ich behaupte, dass dieses Thema wegen seines besonderen Charakters in einem weiten Bezugsrahmen behandelt werden muss, wobei diese neuen Unterrichtstechniken aus der Sicht ihrer eventuellen positiven oder negativen Auswirkungen auf andere wichtige Fragen der Ausbildung und Erziehung überprüft werden müssen. Die wohl zumindest für das hier erörterte Thema wichtigste Frage betrifft die Zukunft der Ausbildungsstätten im städtischen Raum. Sieht man von den Vorteilen einmal ab, die prinzipiell dem Einsatz telematischer Mittel in der Ausbildung zugestanden werden, bleibt bislang die Frage nach den möglichen Auswirkungen auf die Verkehrsentlastung in den Städten ohne Antwort. Wir haben bereits gesehen, dass dieses Thema immer wieder in Erscheinung tritt, wenn über welche Form der Fernarbeit auch immer diskutiert wird. Bezüglich des Fernunterrichts stellt sich folgende Frage: Wie und in welchem Maße können diese Verfahren dazu beitragen, die traditionelle Ordnung des Ortes zu verändern – eben die der Schule und der Universität, die bislang die schwierige Aufgabe übernommen haben, Wissen zu erzeugen und zu verteilen ? Konkreter formuliert: Kann der verallgemeinerte Einsatz des Fernunterrichts effektiv mitwirken, die operative Zentralität besagter Orte zunichtezumachen oder zumindest zu relativieren ? Wenn wir uns – auf theoretischer Ebene – vorstellen, dass eines Tages Schule und Universität viele ihrer derzeitigen Funktionen aus der Ferne, ohne physische Präsenz von Dozenten, Studenten und Forschern erfüllen können, dann ist es sehr wahrscheinlich, dass die Orte, an denen diese Institutionen lokalisiert waren, ihre ursprüngliche Bedeutung verändern werden. Auch wenn man mit Voraussagen über die Schule vorsichtig sein muss, so gibt es doch Anhaltspunkte für die Änderungen, die im Gefolge des Fernunterrichts im Hochschulbereich eintreten könnten. Es ist durchaus plausibel, dass die Hochschulen, wie es bereits in vielen Ländern geschieht, keine isolierte Stätten mehr sein werden und sich stattdessen zu Knotenpunkten der Interaktion, zu Teilen eines Netzwerks auf regionaler, nationaler und internationaler Ebene entwickeln werden. Auf diese Weise würde sich der Weg für ein kontinuierliches und verteiltes Hochschulsystem öffnen, das an die Stelle des gegenwärtigen Systems träte – eines Systems, das in wenige Megastrukturen gegliedert ist, die vorzugsweise in den Großstädten beherbergt werden. Die italienische Universität bietet dafür das beste Beispiel. Es ist keine gewagte Annahme, dass die Informatisierung der Universität

150

Telematik und neue urbane Szenarien

36

37

dazu beitragen könnte, ihren strukturellen Anlagen einen weniger schwerfälligen und f lexibleren Charakter zu verleihen als heute. 36 Das bisher beschriebene Szenario scheint mir in der Theorie sehr wahrscheinlich zu sein. Es büßt diese Wahrscheinlichkeit aber ein, wenn es – wie es oft geschieht – radikalisiert wird. Einige Autoren stellen sich zum Beispiel eine Zukunft vor, in der die Universitäten (und auch die Schulen) keine wirklichen, sondern virtuelle Universitäten sein würden. 37 Meiner Ansicht nach wird es dazu nicht kommen. Wahrscheinlich werden die Schulen und Universitäten weiterhin wie bisher als physische Einheiten bestehen, und nur einige, wenn auch wichtige Sektoren werden sozusagen virtualisiert werden können. Doch warum werden Fernstudium und Fernunterricht als außergewöhnliche Neuigkeiten betrachtet, an denen wir uns messen müssen ? Sind die an sie geknüpften Erwartungen und Befürchtungen gerechtfertigt ? Ich bin nicht davon überzeugt.

38

39

An anderer Stelle habe ich bereits die Entwicklung analysiert 38 , die von den rudimentären teaching machines und den Methoden des programmierten Unterrichts der fünfziger und sechziger Jahre ausgegangen ist und bis zum heutigen Einsatz von Computer, Online-Kommunikation und elektronischer Textverarbeitung reicht, die eine immer wichtigere Rolle für die Ausbildung auf allen Ebenen spielen. Diese neue Tendenz wird jetzt mit dem Ausdruck Teledidaktik oder Fernunterricht bezeichnet. 39

36

Die Auswirkungen der Informatisierung machen sich in den Schulen weniger bemerkbar. Im Unterschied zu den Hochschulzentren handelt es sich bei ihnen in der Regel um kleine Einheiten, die überwiegend von den Kindern eines Stadtviertels besucht werden. Sie erstrecken sich auf ein relativ kleines Einzugsgebiet in den Städten. Es ist unwahrscheinlich, dass der Rückgriff auf telematische Verfahren derart ausgeprägt sein könnte, dass er die Anzahl der Schüler in den Schulen auf konsistente Weise verkleinert und folglich – wie man annimmt – auch die Zahl der für die traditionelle Erziehung erforderlichen Einrichtungen reduziert. Zahlreiche Probleme könnten überdies – trotz der voraussehbaren Begeisterung der Kirche – durch eine massenhafte Rückkehr der Kinder ins Haus entstehen, vor allem für Familien, in denen die Eltern arbeiten.

37

Vergleiche S. Doheny-Farina ( 1996, S. 104–117 ).

38

T. Maldonado ( 1992, S. 73–75 ).

39

Um einen aktualisierten Überblick über den Einsatz elektronischer Instrumente in der Ausbildung zu erhalten, vergleiche R. P. Peek und G. B. Newby ( 1996 ).

151

Digitale Welt und Gestaltung

Obwohl diese Begriffe eine klare Vorstellung von der räumlichen Übertragung von Wissen (und Erfahrungen) für Ausbildungszwecke hervorrufen, lassen sie doch die Tatsache im Dunklen, dass diese Übertragung hauptsächlich mit Hilfe der neuen Informations- und Kommunikationstechnologien erfolgt. Auf der anderen Seite reicht es nicht aus, sich dessen nur bewusst zu sein. Wenn man auf einer allgemeinen Ebene verweilt, wenn man nicht explizit wird, kann der Eindruck geweckt werden, dass die Telematik mit nur einer der durch die neuen Technologien ermöglichten Operationsweisen gleichgesetzt wird. Das trifft nicht zu, denn wie wir sehen werden, kann sie sich auf verschiedene Weisen manifestieren.

40

Ein anderer häufig begangener Fehler besteht darin, den Fernunterricht ausschließlich in technischen Begriffen zu definieren, als sei er nichts anderes als eine neue Technik zur Erleichterung der Lehre. Das ist der klassischer Fehler einer Sichtweise, die sich nur auf das technische Moment in der Ausbildung fixiert und einen weiten Bereich von Fragen hinsichtlich der Ausbildungszwecke und Lehrinhalte ausblendet.40 Erschwerend kommt hinzu: Auf diese Weise kann nicht einmal das wirkliche Potenzial der neuen technischen Verfahren erfasst werden. Es ist so, als ob im 17. Jahrhundert der große Lehrer Comenius, statt über die Grundlagen der pädagogischen Tätigkeit nachzudenken, geglaubt hätte, dass die Verbreitung des Buches – eine seinerzeit revolutionäre technische Gegebenheit, so wie es heute die Multimedia sind – an und für sich die Fragen nach den Formen und Inhalten der Erziehung erübrigen würde. Wahrscheinlich hätte die Verbreitung des Buches, zumindest als pädagogisches Instrument, darunter gelitten. Wenn man vermeiden möchte, dass der telematischen Ausbildung widerfährt, was den Büchern erspart blieb, muss man sie zukünftig als einen Punkt der Konvergenz vieler Wissensbereiche verstehen, besonders jener, die auf die eine oder andere Weise dazu beitragen können, die Telematik abhängig von ihren sozialen und kulturellen Werten zu redefinieren. Das ist ein anspruchsvolles Programm. Es bedeutet, den Fernunterricht aus der theoretischen (und praktischen) Isolierung zu befreien, in die ihn das marketinggetriebene Tohuwabohu der großen Informatikund Kommunikationsmultis getrieben hat, die aus offensichtlichen Gründen daran interessiert sind, nur die technisch innovativen Seiten ihrer Produkte zu propagieren, und die gleichgültig sind gegenüber den wünschenswerten (oder weniger wünschenswerten) Auswirkungen auf den Erziehungs- und Bildungsprozess und auf die Gesellschaft im Ganzen.

40

152

Vgl. L. Galliani ( 1995 ).

Telematik und neue urbane Szenarien

Probleme der Fern-Interaktivität Um diese mit Vorurteilen gesättigte Situation zu umgehen, mag es angebracht sein, einen wenn auch nur summarischen Überblick über einige der bekanntesten (und konkretesten) Leistungsangebote zu geben, die dem Erzieher von der Teledidaktik bereitgestellt werden. Eines der wenn auch zurzeit nicht weit verbreiteten Angebote besteht in der Live-Interaktion zwischen Dozenten und Studierenden, die sich an zwei verschiedenen Orten derselben Institution oder in relativer Nähe befinden (zum Beispiel in demselben Land) oder weit voneinander entfernt sind (zum Beispiel in verschiedenen Ländern oder Kontinenten). Diese Funktionsweise der Teledidaktik ist nichts anderes als eine Art von Videokonferenz. Was sie von der Life-Übertragung von Vorlesungen oder Vorträgen mit Hilfe von Telekameras unterscheidet, ist die Interaktivität, dank derer die Studierenden, wenn sie wollen, mit Fragen und Beobachtungen eingreifen können, auf die der Dozent dann seinerseits antworten kann.

41

Dieser Unterricht findet momentan seine Grenzen im wirtschaftlichen Aufwand, den der Studierende betreiben müsste, wenn er zu Hause davon Gebrauch machen will. Die Anschaffung der für diesen Zweck erforderlichen Geräte übersteigt gewöhnlich bei weitem die wirtschaftlich zumutbaren Möglichkeiten eines Durchschnittsstudenten. 41 Zwar ist nicht auszuschließen, dass die Kosten für diese Geräte in Zukunft fühlbar gesenkt werden, doch beim gegenwärtigen Stand der Dinge bleibt einem Studenten, der in eine Videokonferenz eingreifen möchte, keine andere Wahl, als auf ein ad hoc ausgestattetes Gerät in einem spezialisierten öffentlichen Zentrum zurückzugreifen.

42

Nun muss man zur Vermeidung von Irrtümern klarstellen, dass es zwei verschiedene Arten von Interaktivität gibt. Die einer didaktischen Videokonferenz eigene Interaktivität zeichnet sich durch die Telepräsenz des Senders und Empfängers aus. 42 Einen anderen Interaktionstyp findet man bei multimedialen Produkten vor allem in Form von CDs. 43 Bei Ersterer besteht eine Interaktivität zwischen Personen in

43

41

Allein ein kit zur Installation der Videokonferenz auf einem PC kostet heute ( 1997 ) 2.500–3.000 Dollar. Wie die Kosten und die Vorbereitung den gegenwärtigen Gebrauch der Videokonferenz einschränken, vergleiche I. de S. Pool ( 1990, S. 87 ).

42

Zum Begriff der Telepräsenz vgl. R. Held und N. Durlach ( 1991 ).

43

Zu Zwecken argumentativer Vereinfachung werde ich bisweilen den Ausdruck CD verwenden, ohne genau anzugeben, ob ich mich nur auf die CD als multimediales Produkt mit einer didaktischen Funktion oder einfach auf den materiellen Datenträger beziehe.

153

Digitale Welt und Gestaltung

44

beide Richtungen, bei Letzteren nur zwischen einem Nutzer und einem Informatikdokument. 44 Bei einer multimedialen CD interagiert der Studierende im Unterschied zur Videokonferenz nicht mit einem Dozenten in einem virtuellen Raum, sondern in einem realen Raum mit einem Programm. Und hinter dem Programm steht keine einzelne Person, sondern ein Arsenal von Spezialisten.

45

46

Das ist nicht das einzige wesentliche Kennzeichen der CD. Ein anderer nicht weniger wichtiger Unterschied liegt in der besonderen Architektur des Programms. Bekanntlich wird in dem Programm eine endliche Zahl von Navigationswegen festgelegt (oder vorgefertigt), die der Nutzer nach Belieben wählen kann. Neuerdings wurde aber dieser Aspekt von vielen Forschern wegen des begrenzten Freiheitsraums, der dem Nutzer geboten wird, kritisiert. 45 Ähnliche Einwände sind bereits gegenüber den ersten, oben erwähnten Versuchen des programmierten Unterrichts erhoben worden. 46 Diese Versuche gingen direkt von den Ideen von B. F. Skinner (1958 und 1971) aus, einem der Hauptvertreter des radikalen Behaviorismus. Für den amerikanischen Psychologen ist das menschliche Verhalten, trotz der starrköpfigen Illusion der « Freiheit und Würde », ganz und gar entwerf bar (oder besser programmierbar). Aus dieser Sicht müsste die Rolle des Erziehers – oder jeder Person, die seinen Posten einnimmt – darin bestehen, die technischen Tricks vorzubereiten, dank derer unsere Entscheidungen und Präferenzen ohne Möglichkeit des Entrinnens konditioniert werden können.

44

Neben diesen beiden Formen der Interaktivität gibt es noch eine dritte, die im Grunde eine Variante der ersten ist: eine Interaktivität, die mit Ausnahme der visuellen Interaktion dieselben Leistungen wie die Gruppenvideokonferenz bietet, eine Videokonferenz ohne Video, eine Begegnung von Angesicht zu Angesicht, ohne sich zu sehen. Im angelsächsischen Computerjargon ist diese Variante unter dem Namen computer conferencing bekannt und stellt heute in den USA eines der in Schulen und Universitäten am weitesten verbreiteten telematischen Verfahren dar. Vgl. I. de S. Pool ( op. cit. ) und T. Fanning und B. Raphael ( 1986 ). Zu allgemeinen Aspekten der Interaktivität vergleiche G. Bonsiepe ( 1995 ).

45

46

Vgl. J. Meadows ( 1994 ).

Genauer betrachtet ist die CD das letzte und am weitesten fortgeschrittene Glied in der Entwicklung des programmierten Unterrichts vor fünfzig Jahren – eine Entwicklung, zu deren Übergangsphase die verschiedenen Techniken des computer assisted learning gehörten ( und noch gehören ).

154

Telematik und neue urbane Szenarien

Damit will ich nicht etwa suggerieren, dass die von heutigen multimedialen CDs ermöglichte didaktische Interaktion als eine Neuauf lage des alten radikalen Behaviorismus in neuer Aufmachung betrachtet werden sollte. Wenn es stimmt, dass in der CD mit aller Stärke und recht eindeutig der Plan durchscheint, den Lernprozess vorzubestimmen, so stimmt es auch, dass derselbe Plan auch Momente der Elastizität vorsieht, die in gewissem Umfang die Momente der Rigidität mildern. Ich glaube, dass es gerechtfertigt ist, den begrenzten Freiheitsgrad des Nutzers, den die CD bereithält, zur Diskussion zu stellen, ohne jedoch zu vergessen, dass sich in der Praxis die Lage erheblich nuancierter darstellt. Eine eingehendere Analyse des Umgangs mit der CD lässt erkennen, dass es zwei Arten von Nutzern gibt: die passiven Nutzer, die sich mit einer kleinen Zahl der ihnen angebotenen Navigationsoptionen zufrieden geben, und Nutzer, die sich nicht damit zufrieden geben und die es vorziehen, die CD als Ausgangspunkt für Beweisführungen und Vertiefung der in der CD behandelten Themen zu nehmen, also über sie hinauszugehen.

47

Die Einstellung dieser Nutzer lässt daran denken, dass alles in allem die CD auf ihre Weise wie ein « offenes Werk » benutzt werden kann. Der Nutzer kann von ihr « offenen » Gebrauch machen (oder nicht), doch ohne Zweifel hat er « die Möglichkeit, die Informationen der CD mit anderen Informationen von externen Datenbanken zu integrieren und auf diese Weise persönliche Archive anzulegen, die auf eigenständig erarbeitete Weisen durchforstet werden können ». 47 Eine solche Integrationsmöglichkeit, wenn auch abgeleiteter und ergänzender Art, impliziert eine effektive Erhöhung der Benutzerfreiheit. Nichtsdestoweniger meine ich, dass die CD als didaktisches Instrument einen stark zweideutigen Charakter aufweist. Insofern sie auf der einen Seite dem Nutzer eine aktive Rolle zuteilt, reiht sie sich in die Tradition des pädagogischen Aktivismus von Dewey, Montessori, Kerschensteiner und Decolry ein – eine Tradition, die bekanntlich einen Schultyp forderte, der nicht auf den Lehrenden als « Speicher und Quelle des Wissens » hin orientiert ist, sondern eine auf den Schüler ausgerichtete Schule, die aktiv und vor allem tätig direkt in den Ausbildungsprozess einbezogen ist. Dass sich die didaktische CD in dieser Tradition bewegt, wird an den Diskursen ihrer Vertreter deutlich, die nicht zufällig als Hauptargument die außergewöhnliche Aktivität (und Hyperaktivität) anführen, die das Produkt dem Schüler

47

P. Aroldi u. a. ( 1993, S. 238 ).

155

Digitale Welt und Gestaltung

48

ermöglicht. Es fehlt nicht an Vertretern, die der CD eben aus diesem Grunde sogar die Rolle einer Wasserscheide zwischen zwei Epochen in der Geschichte der Lerntechniken zuschreiben – eine unter den Wissenschaftlern, die dieses Thema untersuchen, recht verbreitete Überzeugung. Der Brite S. Harries (1995) zum Beispiel behauptet, dass der Gebrauch multimedialer Produkte in der Ausbildung, mit Hilfe von CD oder online, einen Bruch in der Philosophie der Erziehung besiegelt. Nach seiner Ansicht träte an die Stelle des learning as imparted knowledge (Lernen als erteiltes Wissen) das situated learning (kontextuelles Lernen) – ein Motto, das die erwähnten Gründungsväter des pädagogischen Aktivismus ohne Schwierigkeiten unterzeichnet haben könnten. 48

Elektronisches Buch und gedrucktes Buch Auf der anderen Seite besteht das bereits diskutierte Problem der eingeschränkten Freiheit und der meiner Ansicht nach etwas überzogene Verdacht eines Einverständnisses mit dem Skinner’schen Behaviorismus. Wenn man von der Möglichkeit absieht, die CD als « offenes Werk » zu benutzen, muss man zugeben, dass sie dem Nutzer einen sehr beschränkten Freiraum für aktive Teilnahme bietet. Das erklärt sich aus der Tatsache, dass sie, auch wenn sie nicht die Grundlagen des extremen Behaviorismus teilt, so doch einer rigiden programmiertechnischen Einstellung zum Lernprozess treu bleibt. Auch hier, wie im vorhergehenden Fall, betonen ihre Förderer die Freiheit des Nutzers, aber in der Praxis wird er bei seiner Optionswahl allzu sehr geführt und gegängelt. Ein berühmtes Wort von Henry Ford umschreibend, kann man festhalten, dass der Nutzer einer CD eine absolute Navigationsfreiheit genießt, solange seine Entscheidungen eben die vom Programm vorgegebenen Entscheidungen sind. Somit haben wir es beim learning as imparted knowledge mit einer Neuauf lage des programmierten Unterrichts zu tun, auch wenn es nicht mehr der Lehrer ist, der das Wissen mitteilt, sondern der Autor (oder die Autoren), die für die Erstellung des Programms verantwortlich zeichnen. Ich möchte aber klarstellen, dass meine Ratlosigkeit angesichts des Charakters der CD nicht als Skepsis gegenüber dem Gebrauch dieses Instruments als didaktisches Werkzeug zu verstehen ist. Selbst wenn es heute eine Fülle, gelinde gesagt, mittelmäßiger Beispiele von CDs gibt, so dass eine skeptische Einstellung

48

156

Vgl. D. Laurillard ( 1993 ).

Telematik und neue urbane Szenarien

49

gerechtfertig wäre, kann man nicht verkennen, dass es vor allem im Bereich der wissenschaftlichen und technischen Ausbildung (und ihrer Verbreitung) auch Produkte gibt, die wegen ihrer Qualität optimistisch stimmen. 49 Doch die Tatsache, dass die überzeugendsten Ergebnisse in stark strukturierten Wissensgebieten erzielt worden sind – Anatomie, Biologie, Astronomie, Physik, Mathematik usw. – lässt vermuten, dass der Charakter dessen, was man lehren (oder verbreiten) will, nicht ganz ohne Einf luss auf die Endqualität des Produktes ist. Das kann bedeuten, dass es im didaktischen Bereich bestimmte Themen gibt, die sich mehr als andere für eine Hypertextstruktur eignen. Zwar mag das eine recht gewagte Hypothese sein; doch kann sie meiner Ansicht nach zum Nachdenken darüber anregen, warum man in der Regel die besten Ergebnisse erzielt, wenn es sich um wissenschaftliche und technische Themen handelt. Die Frage ist beinah gleich lautend bereits vor einem halben Jahrhundert gestellt worden, als die ersten teaching machines auf kamen. Damals wie auch jetzt schienen die Ursachen in den Eigenschaften dieser Wissensbereiche gesucht werden zu müssen, insofern sie eben über einen strukturierten Kern verfügen, also ein relativ breites Feld, in dem die stabilen Elemente häufiger als die instabilen Elemente vorkommen. Ich stelle nicht in Abrede, dass diese Behauptung einige Fragen als gelöst betrachtet, die für einige Vertreter der Wissenschaftstheorie alles anders als gelöst sind. Ich beabsichtige nicht, mich auf diese Kontroverse einzulassen. Für einen pragmatischen Ansatz, den die Vertreter der digitalisierten Didaktik im Allgemeinen annehmen, ist es wichtig, zwischen Wissensgebieten mit einem strukturierten Kern und anderen ohne diesen Kern zu unterscheiden. Algebra oder deskriptive Anatomie mit Hilfe einer multimedialen CD zu unterrichten ist nicht dasselbe, wie das Denken Hegels oder die Rolle von Richard Wagner in der Geschichte der Musik zu vermitteln. Im ersten Fall gibt es nur wenige Aspekte, die Gegenstand einer persönlichen Interpretation sein können, wogegen im zweiten Fall diese Aspekte vorwiegen. Im ersten Fall ist die Wissensvermittlung routinisierbar, im zweiten dagegen nicht. Hier lässt sich klar erkennen, dass die erwähnte Theorie von den Wissensinhalten, die sich besser für eine CD eignen, nicht gänzlich einer Grundlage entbehrt, wie man vielleicht hätte vermuten können. Alles spricht für die Vermutung, dass sich diese Technik in der Regel nicht sonderlich dazu eignet, Wissen zu vermitteln, in dem Werte und Meinungen eine ausschlaggebende Rolle spielen. Wenn dem so ist, was

49

Vergleiche M. Piattelli-Plamarini ( 1996 ).

157

Digitale Welt und Gestaltung

wäre dann in einer Informationsgesellschaft das geeignetste Verfahren, um diesen wichtigen Wissenstyp didaktisch aufzubereiten, also jenes Wissen, dessen Relevanz genau darin besteht, problematisch und problematisierend zu sein ? Wahrscheinlich wird das Buch für diesen Zweck weiterhin das beste Hilfsmittel sein. Ich halte die heute weit verbreitete Meinung für verfehlt, dass das Buch in toto von der CD ersetzt werden oder, anders formuliert, von der CD vereinnahmt werden wird. So einfach ist die Sache glücklicherweise nicht. Im Bereich der modernen Kommunikationstechniken « beseitigt ein neues Verfahren niemals seinen Vorgänger. Es zieht einfach eine Neuverteilung der Funktionen nach sich » (H.-J. Martin, 1996, S. 267. Hervorhebung von T. M). So wie das Auf kommen des Films nicht das Ende der Fotografie und die Verbreitung des Fernsehens nicht das Ende des Radios signalisierte, so wird es meiner Ansicht nach auch mit der CD gegenüber dem Buch geschehen. Ändern wird sich die « Funktionsverteilung ». Wahrscheinlich wird in einigen Bereichen das Buch der CD weichen müssen, in anderen Bereichen dagegen wird seine Rolle verstärkt werden und sein Anwendungsbereich wachsen. Momentan steht nur ein Bereich der heutigen Buchproduktion ernstlich unter dem Konkurrenzdruck der CD: die Nachschlagewerke (Enzyklopädien, Wörterbücher, statistische und demografische Jahrbücher, Archive aller Art usw.). Bei dieser Gruppe von Werken ist die CD ohne Zweifel überlegen (I. de S. Pool, 1990). Im Fernunterricht (Teledidaktik) wird die CD – wie wir gezeigt haben – einen beträchtlichen Einf luss auf einige spezifische Disziplinen ausüben. Auf der anderen Seite reichen die teledidaktischen Mittel – vor allem die CD – nicht aus. Sie setzen zu ihrer Wirksamkeit einen ergänzenden Beitrag der Vertiefung und Personalisierung voraus. Gerade hier erweist sich das Buch als unersetzlich. Kein teledidaktisches Vorhaben, so anspruchsvoll es auch sein mag, kann darauf verzichten, auch auf das Buch zurückzugreifen. Aber nicht nur das. Die Tatsache, dass der Student dies als eine Notwendigkeit begreift, liefert – entgegen dem, was man annehmen könnte – ein Indiz für die Qualität des geleisteten Fernunterrichts.

158

Digitale Welt und Gestaltung

Der menschliche Körper in der digitalen Welt *

*

3. Kapitel aus Critica della ragione informatica, Feltrinelli, Mailand 1997, S. 136–177.

161

Der menschliche Körper in der digitalen Welt

In jüngster Zeit genießt der (menschliche) Körper unter den Adepten des Cyberspace kein sonderlich hohes Ansehen. Wohlgesonnene betrachten ihn mit gutherzigem und resigniertem Misstrauen. Andere dagegen verhehlen nicht eine arrogante und feindselige Verachtung. Nach ihrer Ansicht ist unser Körper antiquiert, überholt, letztlich obsolet. Nachdem er über Jahrtausende unverändert geblieben ist, sei nun die Stunde gekommen, ihn zu überarbeiten und durch einen anderen Körper zu ersetzen, der besser für die neuen, anstehenden Herausforderungen gerüstet sei, wie sie sich aus einer immer stärker von den neuen Technologien geprägten Umwelt ergeben. Ein australischer Künstler, der für seine ausgefallenen bionischen Performances bekannt ist, schreibt: « Es ist an der Zeit, sich zu fragen, ob ein mit zweiäugigem Sehvermögen und einem Gehirn von 1.400 Kubikzentimeter Volumen ausgestatteter Zweifüßler eine passende Lebensform darstellt. » Seine Antwort fällt negativ aus, und er fährt fort: « Es macht nicht länger Sinn, den Körper als einen Ort der Psyche oder des Sozialen zu betrachten, vielmehr muss er als eine Struktur angesehen werden, die es zu kontrollieren und zu verändern gilt. Der Körper nicht als Subjekt, sondern als Objekt, nicht als Wunschobjekt sondern als Redesign-Objekt. » Und weiter: « Es bietet keinen Vorteil mehr, einfach nur Mensch zu bleiben oder sich als Spezies zu entwickeln; die Evolution endet, wenn sich die Technologie im Körper einnistet. » (Stelarc, 1994, S. 63, 64 und 65). Natürlich bedient sich diese Denk- und Ausdrucksweise des herkömmlichen und bekenntnishaft-voluntaristischen Stils, der für Manifeste der künstlerischen Avantgarde charakteristisch ist. Mit apodiktischem Ton werden unmittelbar bevorstehende epochale Veränderungen verkündet, ohne mit plausiblen Termini zu klären, wie das denn vor sich gehen soll. Ich möchte nicht ausschließen, dass man diesen verwegenen Fantasien mit einer verständnisvollen Haltung begegnen kann, was sogar kulturell gerechtfertigt wäre, denn schließlich handelt es sich um poetische Provokationen, denen das Verdienst zuerkannt werden muss, an den Festen einer sich allzu sicher wähnenden Welt zu rütteln. Theoretisch könnte ich diese Einstellung teilen, doch ist sie nicht frei von Kontraindikationen, hauptsächlich aus dem Grunde, weil ähnliche Theorien in den Medien starke Resonanz und somit weit verbreitete Glaubwürdigkeit finden. Ermutigt durch das Prestige von Marvin Minsky « denken [ heute viele ], dass der Körper zu entsorgen wäre, dass die wet ware, die feuchte Materie im Innern des Schädels, ersetzt werden müsste » (D. de Kerckhove, 1994, S. 58).

163

Digitale Welt und Gestaltung

Philosophisch und politisch steht allerdings zu viel auf dem Spiel, als dass man diese Behauptungen hinnehmen könnte. Wie wir weiter unten sehen werden, ist die zunehmende Verkünstlichung des Körpers heutzutage ein Faktum – und mehr noch: In Zukunft werden neue, immer raffiniertere Prothesen den gegenwärtigen Leistungsstandard des Artifiziellen anheben. Es geht somit weniger darum, die natürliche Unantastbarkeit des Körpers um jeden Preis zu verteidigen, also zu glauben, dass es zwischen Technik und Körper nicht Momente funktionaler Konvergenz geben könne, wie sie es übrigens seit je gegeben hat. Mehr und mehr verwischen sich heute die Grenzen zwischen natürlichem Leben und künstlichem Leben. Die von G. Canguilhelm vor dreißig Jahren vertretene These über die Kontinuität zwischen Leben und Technik, zwischen Organismus und Maschine, scheint heute endgültig bestätigt zu werden (G. Canguilhelm, 1965). Die Gegenüberstellung von Androiden und Nicht-Androiden ist nicht länger tragfähig, da heute intensive und zahlreiche Wechselwirkungen zu verzeichnen sind. Die Phänomene der Quasi-Kreuzung und Symbiose stehen auf der Tagesordnung (K. M. Ford, C. Glymour und P. J. Hayes, 1995).

01

02

164

Andererseits ist der Körper immer von soziokulturellen Techniken bedingt (und sogar bestimmt und geformt) worden. Es mag genügen, die « Körpertechniken » (M. Mauss, 1968) und die gesellschaftlichen Zwangstechniken (oder Zwangspraktiken) anzuführen, die auf einen zum Objekt gewordenen Körper, auf einen « Körper Gegenstand » (M. Foucault, 1975) angewendet werden. Die Körpertechniken erklären uns, wie die Menschen in allen Gesellschaften sich ihres eigenen Körpers zu bedienen wissen; die Zwangstechniken zeigen uns, wie die Menschen in allen Gesellschaften sich der Körper anderer für ihre eigenen Zwecke bedienen. 01 Abgesehen von den komischen und grotesken Aspekten des Geredes über die Notwendigkeit, den menschlichen Körper (einschließlich des Gehirns) auf den Müllhaufen der ausgestorbenen Spezies zu werfen, besteht der Verdacht (und meinerseits mehr als der Verdacht), dass sich hinter diesen Reden die alte Abneigung des Christentums gegen den Körper verbirgt, diesmal in Form einer Neuauf lage, die im Gewand einer neomechanistischen Science-Fiction-Ideologie daherkommt. Denn das Vorurteil gegen den Körper – den « abscheulichen Körper » – ist einer der unheilvollsten Beiträge des Christentums zu unserer Kultur ( J. Le Goff, 1985), ein Erbe, das die Beziehungen zu uns selbst und zu den anderen zutiefst geprägt hat. 02

01

Vgl. B. Huisman und F. Ribes ( 1992, S. 142 ).

02

Zur Verteidigung der Rolle des Körpers im Christentum vgl. G. Leclercq ( 1996 ).

Der menschliche Körper in der digitalen Welt

Schon Nietzsche (1960, S. 300–301) hatte das erahnt. Daher stammt sein Hass auf die « Verächter des Körpers ». Im Übrigen hat uns die Geschichte eine Lehre hinterlassen, die man nicht vergessen kann (und sollte): dass die Verachtung des Körpers (vor allem des Körpers des anderen) allzu oft die Vorstufe zur gnadenlosen Vernichtung der Körper von Frauen und Männern gewesen ist. Das bezeugt in erdrückendem Maße die Erfahrung der Inquisition, aber auch die der Konzentrationslager ( J. M. Chaumont, 1992). Es wäre also Vorsicht angeraten mit der Theorie eines überholten und unbrauchbaren menschlichen Körpers, der wegzuwerfen sei, aber auch mit der Vorstellung eines Körpers, der auf Grundlage eines Idealmodells redesigned werden sollte. Auch dieser biologische Essentialismus weckt durchaus nicht angenehme Erinnerungen. Wenn auch die Theorien dieser modernen « Körperverächter » moralisch und politisch abscheuliche Folgen bergen können, so ist damit nicht gesagt, dass die Beziehung zwischen Körper und Technologie nicht eine zentrale Rolle in der hypermodernen Gesellschaft spielt. Das betrifft vor allem die Art und Weise, wie unser Körper den Übergang von der Natürlichkeit bis zur extremen Künstlichkeit erlebt. Da gibt es viele kognitive Leerstellen. Wie gestalten sich aus dieser Sicht die Austauschbeziehungen zwischen unserem Körper und der Umwelt und den Körpern der anderen? Werden aus diesem Austausch neue Formen der Sensorialität, der Sensualität und der Sensibilität erwachsen oder bestenfalls neue Varianten (oder neue Rituale) der bereits bekannten Formen? Falls wirklich neue Formen entstünden, müssten wir dann den Frauen noch einmal die vermeintlich nur ihnen angeborene Rolle zuschreiben, in diesem Bereich kreativ zu handeln? Oder wäre die Gewohnheit, die Frauen immer und allerorts mit der Welt der Sensorialität, Sensualität und Sensibilität zu identifizieren, nichts weiter als ein von Männern erfundenes Interpretationsschema, um die Frauen auszugrenzen – ein Stereotyp, das zum Verschwinden verurteilt ist? Und wenn die Frauen sich entscheiden würden, die Verkünstlichung des Körpers als Herausforderung anzunehmen, würde das bedeuten, die Option für die Natur zu streichen – « wir Frauen, ausersehen und verantwortlich für das Geschick der Mutter Natur » ? Dies ist eine Option, die heute von einigen Strömungen des Feminismus befürwortet wird und die als Folgeerscheinung eine stetig wachsende Ausgrenzung der Frauen von der Teilnahme (und Kontrolle) an der technisch-wissenschaftlichen Entwicklung mit sich gebracht hat. Donna J. Haraway (1991), eine bedeutende Vertreterin des kalifornischen Feminismus, ist davon überzeugt. Und nicht nur das. Sie nimmt, wie mir scheint, ohne Sträuben alle Folgen dieser Option auf sich. Vor allem anderen akzeptiert sie

165

Digitale Welt und Gestaltung

die Rolle eines Cyborg, eine weder unschuldige noch sublime Rolle, die ihrer Ansicht nach unvermeidlich ist. Sie schreibt: « Am Ende des 20. Jahrhunderts, in dieser unserer mythischen Zeit, werden wir alle Chimären sein, erfundene und aus Maschine und Organismus hergestellte Kreuzungen: Bald werden wir alle Cyborgs sein. Der Cyborg ist unsere Ontologie, er gibt uns unsere Politik. »

Körperbewusstsein

03

Allgemein wird angenommen, dass die Menschen im Unterschied zu anderen Lebewesen sich bewusst sind, einen Körper zu haben. 03 Es handelt sich um eine Annahme, die wegen ihrer augenscheinlichen Richtigkeit seit je zu unserem Allgemeinverständnis gehört. Das geht so weit, dass jeder Versuch, die Unhaltbarkeit dieser Überzeugung zu beweisen, in der Regel nicht auf Wohlwollen stößt. Mehr noch, man betrachtet einen derartigen Versuch als abwegig – und zwar mit Recht. Denn abwegig wäre die Behauptung, dass wir uns – gegen alle Evidenz – unseres Körpers nicht bewusst seien. Und abwegig ist vor allem auch, wenn man zur Stützung dieser These das überraschende Argument ins Feld führt, dass der Körper nur ein illusionäres Geschöpf unserer Vorstellung sei und es sich somit erübrige, nach dem Bewusstsein von etwas zu fragen, was überhaupt nicht existiert. Ich halte dieses Theorem für eine aus spekulativem Eifer herrührende Ausgeburt eines subjektiven Spätidealismus und philosophisch für irrig, ja für glattweg falsch. Mir scheint, dass es ohne weitere Umstände zurückgewiesen werden muss, selbst wenn man damit das Risiko eingeht, eines starrköpfigen Materialismus, eines naiven Realismus oder etwas noch Schlimmeren bezichtigt zu werden. Das tut nichts zur Sache. Nach dieser Klarstellung will es mir allerdings angebracht scheinen, einige interpretative Nuancen der eingangs erwähnten Überzeugung hinzuzufügen, dass wir im Unterschied zu anderen Lebewesen ein Körperbewusstsein haben. Abgesehen von der bekannten Schwierigkeit zu beweisen, ob die anderen Lebewesen eines bewussten Verhaltens fähig sind oder nicht, bleibt die Frage, wie sich bei den Menschen das Körperbewusstsein herausbildet.

03

166

J. Starobinski ( 1981 ) und F. Dolto ( 1984 ).

Der menschliche Körper in der digitalen Welt

Verweilen wir einen Augenblick bei dem Bewusstsein, einen Körper zu haben. Diese Verwendung des Wortes haben lässt Zweifel auf kommen. Mir scheint, dass dieser Gebrauch sich letzthin von der Eigentümlichkeit unseres Körperbewusstseins entfernt und in die Irre führt. Einen Körper zu haben – diese Vorstellung suggeriert, dass wir im Besitz eines Körpers sind als etwas, dessen wir von einem bestimmten Punkt an Herr werden. Etwas, das wir vorher nicht hatten und das wir unversehens erworben haben oder das uns konzediert worden ist. Genau betrachtet liegt es der Vorstellung des Besitzens fern, sich seines Körpers bewusst zu sein. In unserem alltäglichen Empfinden denken wir niemals, im Besitz eines Körpers zu sein, sondern einfach, ein Körper zu sein. Schmerzen und Wonnen unseres Körpers sind unsere Schmerzen und Wonnen. Wohl wurde in der orientalischen wie auch in der okzidentalen Tradition der Mystik die Möglichkeit theoretisiert (und praktiziert), sich dem eigenen Körper zu entfremden und sich von ihm zu befreien: also eine Art von Weigerung, ein Körper im oben erwähnten Sinn zu sein. Eher ging man in dieser Tradition davon aus, im Besitz eines Körpers und somit frei zu sein, sich von einem solchen Besitz freizumachen, also frei zu sein, sich des Körpers zu entledigen. Ohne über den Gehalt dieser möglichen transzendentalen Körpererlebnisse diskutieren zu wollen, optiere ich für einen anderen Zugang zum Thema. Für mich ist der Körper in erster Linie als unabdingliche Alltagswirklichkeit zu verstehen, als ein Tag für Tag gelebter Körper, und zwar ein von allen Menschen in erster Person gelebter Körper, der Sensorialität, der Sensibilität und Sensualität ist, kurz, als der Körper, der wir sind. Bevor der menschliche Körper als Gegenstand für spitzfindige metaphysische Denkübungen, anregende Wertungen psychoanalytischer Art oder gewagte, der Science-Fiction zugehörige Konjekturen über seine Zukunft dient, ist er zuerst einmal und vorrangig ein Erkenntnisgegenstand. Die Eigentümlichkeit unseres Körperbewusstseins scheint eng mit der Erkenntnis verbunden zu sein, die wir jeweils über unsere Körperwirklichkeit haben. Aber nicht nur das: Über den Erkenntnisgegenstand hinaus ist der Körper immer auch ein technisches Subjekt gewesen, ein grundlegender Bezugspunkt für unsere technische Betriebsamkeit. Es erübrigt sich wohl, daran zu erinnern, dass unser Körper eine Geschichte hat. Die Geschichte des Menschen ist neben vielem anderen die Geschichte einer stetigen Verkünstlichung des Körpers, die Geschichte eines langen Weges zu einer immer größeren instrumentellen Bereicherung in unserem Umgang mit der Wirklichkeit.

167

Digitale Welt und Gestaltung

Letztendlich bedeutet das nichts anderes als die Erzeugung neuer Artefakte mit dem Zweck, die Leistungsdefizite unseres Körpers zu decken. So entsteht um ihn herum ein vielgestaltiger Gürtel aus Prothesen: Bewegungs-, Wahrnehmungs- und Kognitionsprothesen. Der Körper wird zu einem Prothesenkörper. Doch der Prothesenkörper als technisches oder besser technifiziertes Subjekt ist nicht nur für das Handeln wichtig; er stellt sich nicht nur der Notwendigkeit, größere Leistungsfähigkeit im Umgang mit der Umwelt zu erreichen. Der Prothesenkörper ist heutzutage auch ein außergewöhnliches Erkenntnisinstrument der vielschichtigen Wirklichkeit geworden, ohne seine Wirklichkeit selbst auszuschließen.

Artefakte und Prothesenkörper In der weiteren Analyse muss auf einen im Diskurs der Archäologen häufig verwendeten Begriff zurückgegriffen werden. Ich meine den Begriff « Artefakt ». Allgemein gesprochen ist das künstlich Gemachte das Ergebnis der techne, des mit Kunst – im Sinne von Können und künstlich–Gemachten. Das Artefakt ist konkretes Produkt der techne. Die materielle Kultur einer Gesellschaft ist die Gesamtheit aller von einer Gesellschaft erzeugten Artefakte. Nach allgemeiner Übereinkunft sind Artefakte nichts anderes als Prothesen. Unter Prothesen versteht man gewöhnlich künstliche Strukturen, die eine bestimmte Funktion des Organismus teilweise oder völlig übernehmen, ergänzen oder verstärken. Am bekanntesten sind zum Beispiel Zahnprothesen und orthopädische Prothesen. Aber nun weitet sich die Bedeutung des Begriffs ganz erheblich aus, so dass eine Taxonomie der Prothesen entwickelt werden muss. Zunächst gibt es da die Bewegungsprothesen mit dem Zweck, unsere Muskelleistung, Geschicklichkeit oder Bewegungsleistung zu erhöhen. Zu dieser Kategorie gehören all die Werkzeuge und Vorrichtungen, die seit je dabei geholfen haben, Rohmaterial leichter und genauer bearbeiten zu können. Dazu zählen Hammer, Messer, Kneifzange, Schraubendreher, Spitzzange, Schere, Meißel, Säge, aber auch alle Werkzeugmaschinen der modernen Industrieproduktion. Weiterhin gehören die Transport- und Fortbewegungsmittel in diese Kategorie. Auf den ersten Blick mag es befremdlich erscheinen, Fahrräder, Motorräder, Autos, Traktoren, Züge und Flugzeuge zu den Prothesen zu rechnen. Doch bei genauerem Hinsehen kann man leicht erkennen, dass diese Zuordnung richtig ist, denn

168

Der menschliche Körper in der digitalen Welt

sie erleichtern unsere Bewegungsfähigkeit, erweitern unseren Handlungsraum oder ermöglichen einen Zugang zu Räumen, die andernfalls unerreichbar geblieben wären. Sie sind Prothesen, weil sie als Hilfsmittel, als Ersatz fungieren. Eine andere wichtige Kategorie bilden die Wahrnehmungsprothesen. Dazu gehören Vorrichtungen, um Seh- oder Gehörschwächen zu korrigieren, aber nicht nur sie. Es zählen auch die Apparate und Instrumente dazu, mit deren Hilfe die Wahrnehmung von Realitätsebenen ermöglicht wird, die dem menschlichen Auge in der Regel nicht direkt zugänglich sind (Mikroskop, Teleskop, Geräte der medizinischen Computerradiologie usw.). Und schließlich die Techniken zur Fixierung, Aufnahme und Dokumentation von Bilddaten (Fotografie, Film, Fernsehen usw.). Die dritte Kategorie der Prothesen sind die Intelligenzprothesen. Trotz seiner außerordentlichen geistigen Fähigkeiten oder vielleicht gerade ihretwegen tendiert der Mensch immer stärker dazu, diese Fähigkeiten auszuweiten, wobei er sich spezieller Vorrichtungen bedient, den überbordenden Datenf luss zu speichern und zu verarbeiten. Das wichtigste Beispiel für diesen Prothesentyp stellt bekanntlich der Computer mit seinen rudimentären Vorläufern in Form des Abakus und des Rechenschiebers dar. Weitere Intelligenzprothesen sind die Sprache und die Schrift. In jüngster Zeit ist eine vierte Kategorie hinzugekommen, und zwar die Kategorie der synkretischen Prothesen. Sie koppeln die drei primären Prothesenklassen zu einem einzigen, übergreifenden funktionalen Aggregat. Die wohl wichtigsten Beispiele sind die Industrieroboter, vor allem die der letzten Generation, die so genannten intelligenten Roboter. Bekanntlich handelt es sich bei intelligenten Industrierobotern um hoch automatisierte mechanische Systeme, also Mechanismen, die ohne menschliches Zutun (oder unter minimaler operativer Mitwirkung des Menschen) komplexe Bewegungsabfolgen und Arbeitsschritte in der Materialbearbeitung sowie Manipulationen von Vorrichtungen, Geräten und Komponenten verrichten können. Sie sind programmierte mechanische Systeme, die dank der Fortschritte der Informatik und der Mikroelektronik in der Lage sind, Berechnung, Handlungssequenzen und Wahrnehmung in der Abwicklung der Herstellungsprozesse interaktiv zu kombinieren. So kann man wohl behaupten, dass die Roboter Strukturen sind, die «denken», « handeln » und « wahrnehmen ». Hier darf aber auf die Anführungsstriche nicht verzichtet werden. Denn die Roboter der letzten Generation sind wegen ihrer totalen Stellvertreterfunktion als Hybridprothesen anzusehen. Dennoch könnte man einwenden, dass eine derartige Prothese streng genommen keine Prothese mehr ist. Eine Prothese ist eine Prothese dann und nur dann, wenn ein Subjekt existiert, für das sie

169

Digitale Welt und Gestaltung

eine Integrations- oder Ersatzfunktion erfüllt. Gesetzt den hypothetischen Fall, dass ein Roboter die Ebene absoluter Selbstbezüglichkeit und Selbstgenügsamkeit erlangte, würde man ihn schwerlich im strengen Sinn als Prothese einstufen können. Diese totale Autonomie eines Roboters – Autonomie verstanden als die Fähigkeit, sich selbst zu entwerfen, zu programmieren und zu reproduzieren – ist in der Tat eine spekulative Möglichkeit. Bis heute aber wird selbst der komplizierteste Roboter von Menschen entworfen, programmiert und reproduziert. Er ist somit Menschenwerk. In der Praxis ist er unser Doppelgänger, dem wir die Aufgabe anvertrauen, an unserer statt bestimmte Funktionen zu erfüllen, die wir aus welchem Grund auch immer nicht selbst übernehmen möchten. So gesehen wäre auch der Roboter als Prothese zu betrachten.

Natürlich und künstlich Mit scheint es nun ratsam, die Kernpunkte dieser Erörterung zu klären. Meist wird das Künstliche als das Ergebnis menschlichen Tuns begriffen, wogegen die Natur als eine durch sich selbst geschaffene Wirklichkeit verstanden wird. Die Natur wird also in eine autonome Wirklichkeit gefasst, die sich jenseits und diesseits des menschlichen Eingriffs befindet.

04

Bekanntlich ist die Gegenüberstellung von Naturprodukt und Kunstprodukt nichts Neues. 04 Schon in der Antike stößt man auf die heftige Kontroverse zwischen den Vertretern der Natur und ihren Widersachern, den Vertretern der Künstlichkeit. Die einen verteidigen die These, dass die Natur alles von sich aus und für sich mache; die anderen hängen der These an, dass alles, eingeschlossen die Natur, künstlich geschaffen sei. Plinius der Ältere darf mit seiner historia naturalis als der radikalste Exponent des Naturalismus betrachtet werden. Er überdehnt den Gedanken der Natur gleichsam ins Heilige: Die Natur ist dem Künstlichen fremd (und muss ihm auch fremd bleiben). Das Künstliche wird dämonisiert; es wird als ein Verhängnis für die Natur angesehen. Auf gleicher Linie bewegt sich Diogenes von Sinope,

04

Eine reich mit Quellenmaterial versehene Übersicht über dieses Thema der okzidentalen Philosophie ist vor allem den französischen Forschern J. Ehrhard ( 1963 ), S. Moscovici ( 1968 ), R. Lenoble ( 1969 ) und C. Rosset ( 1973 ) zu verdanken. Vgl. G. Böhne ( 1989 ).

170

Der menschliche Körper in der digitalen Welt

der große Vorläufer des modernen ökologischen Fundamentalismus. Ihm zufolge darf die Naturordnung niemals angetastet werden. Nicht einmal die Notwendigkeit, menschliche Bedürfnisse zu befriedigen, rechtfertigt den Einsatz des Künstlichen, weil dieses dazu beiträgt, die Natur und somit auch den Menschen zu verfälschen. Der Dichter Lukrez dagegen vertritt einen nicht weniger radikalen Artifizialismus. Auf den Spuren von Epikur verkündet er seine Maxime: « Nichts ist Natur. Alles ist künstlich. » Doch dieser Satz fasst nur einen, wenngleich wichtigen Aspekt des Artifizialismus zusammen: Er betont die der (natürlichen) Wirklichkeit inhärente Tendenz, sich selbst in Künstliches zu verwandeln, sich selbst zu organisieren und im Verlauf der Zeit die natürlichen Formen, Strukturen und Funktionen bis zu dem Punkt zu verändern, an dem die Wirklichkeit vollkommen im Künstlichen aufgeht. Aber ein anderer Aspekt fehlt bei Lukrez. Allenfalls indirekt ist er in seinem Werk enthalten. Ich beziehe mich auf die Verkünstlichung als Ergebnis direkter menschlicher Eingriffe in die Natur, ein Prozess, im Verlaufe dessen der Mensch von außen zur Artifizialisierung der Natur beiträgt. Ich betone, dass dieser Aspekt bei Lukrez indirekt tangiert wird; denn wenn seine These lautet, « alles ist künstlich », dann hindert nichts daran, auch das menschliche Handeln als einen, wenn auch sicher den wichtigsten Faktor der Selbst-Verkünstlichung der Wirklichkeit zu betrachten. Ich möchte im Folgenden auf vier moderne Denker hinweisen, die einen Lukrez sehr nahe kommenden Artifizialismus verteidigt haben, und zwar auf Voltaire, d’Alembert, Kant und Marx. Voltaire schreibt: « Man nennt mich Natur, und dabei bin ich ganz künstlich. » In einer berühmten Definition von d’Alembert wird die Natur unter anderem als « Gesamtheit der geschaffenen Dinge », einschließlich der vom Menschen geschaffenen definiert. Kant geht weiter: Die Kunst der Natur ist eine Technik der Natur. Marx spricht von einer humanisierten und von einer verkünstlichten Natur. In diesen vier Maximen scheint in Abstufungen der gemeinsame Vorsatz durch, die Auffassung von Natur als einer für sich bestehenden Sphäre zu überwinden, wie sie von den Naturalisten hypostasiert wurde, also die meiner Ansicht nach falsche Vorstellung, dass Kunst und Technik zwei jeweils für sich abgeschirmte und immer gegensätzliche, unvereinbare Bereiche bilden. Doch schimmert ein kaum verhülltes Misstrauen gegenüber dem Begriff Natur selbst hindurch. Im 20. Jahrhundert verwandelt sich dieses Misstrauen in offene Ablehnung. Freud zum Beispiel verbirgt nicht seine abgrundtiefe Abneigung gegen den Naturbegriff. Er schreibt, dass der Naturbegriff eine leere und jedes praktischen Interesses entbehrende Abstraktion verberge.

171

Digitale Welt und Gestaltung

Im Rahmen eines wissenschaftlichen Diskurses, der Objektivität anstrebt und sich auf empirische Nachprüf barkeit gründet, erweist sich der Natur begriff als kaum brauchbar, insofern er meist auf romantische (oder schlechtweg sentimentale) Werte und Glaubenseinstellungen anspielt, die zwar in einem literarischen oder künstlerischem Kontext Sinn machen, aber außerhalb dieses Kontextes relativ wenig besagen. Dazu kommt, dass in der Alltagssprache das Wort Natur oftmals mit subjektiven, stark von persönlichen Erlebnissen gefärbten Konnotationen durchsetzt ist. Vielleicht können wir nun die althergebrachte Dichotomie natürlich-künstlich relativieren, denn es gibt natürliche Bedürfnisse, die zum Künstlichen führen und umgekehrt. Der Fotoapparat zum Beispiel ahmt das Auge der Säugetiere nach. Das Radar ist eine Art künstliche Wahrnehmung, die sich direkt vom natürlichen Wahrnehmungsvermögen der Fledermaus herleitet. Bei Robotern dienen als Modell für die Gelenke der Effektoren (ihre « Arme » und « Hände ») unsere Gliedmaßen. Neuerdings hat sich die Beziehung zwischen Natürlichem und Künstlichem noch weiter differenziert. Natürlich ist nicht nur, was aus dem Natürlichen entsteht, sondern auch das Künstliche, das sich mit dem Natürlichen verbindet und somit Teil des Natürlichen wird. Es sei an elektronische batteriebetriebene Apparate erinnert, die bestimmte Körperfunktionen regeln – am bekanntesten ist wohl der Herzschrittmacher. Doch warum sieht sich der Mensch in der Vorphase des Menschwerdens gezwungen, zu seinem Überleben Artefakte zu entwickeln, warum (und wie) wird der homo zum faber ? Dafür gibt es verschiedene Erklärungen. Die am weitesten verbreitete wird von Anthropologen, Biologen, Paläontologen, aber auch von den Anhängern der philosophischen Anthropologie vertreten. Zu diesen gehört auch die kontroverse Figur von Arnold Gehlen (1950), der ausgehend von J. G. Herder, J. von Uexküll, M. Scheler und K. Lorenz den Menschen als ein unfertiges Mängelwesen begriffen hat. Abgesehen vom reaktionären ideologischen Gebrauch – nach meiner Ansicht ein Missbrauch –, den Gehlen von seiner eigenen Theorie macht, trifft seine Beschreibung sicher auf die Wirklichkeit zu. Der menschliche Säugling ist ein unfertiges Mängelwesen. Schließlich ist es kein Geheimnis, dass der Mensch als Frühgeburt auf die Welt kommt, in einem vorzeitigen Zustand der Ontogenese, und dass er bei der Geburt noch nicht fertig ist, um sich schnell (und wirksam) in die Umwelt einzufügen. Die Phase der Untauglichkeit, wie sie G. B. Campbell (1966) nennt, dauert zwei bis drei Jahre.

172

Der menschliche Körper in der digitalen Welt

05

Obgleich der Mensch zu einer aufrechten Haltung auf zwei Beinen bestimmt ist, verhält sich das neugeborene Kind in der Anfangsphase eher wie ein Vierfüßler, der, verglichen mit anderen Säugetieren und Menschenaffen, nur spärlich für das Überleben ausgerüstet ist. Er muss von allen Seiten beschützt werden: Er kann nicht gehen. Ihm fehlt jegliches Orientierungsvermögen. In den ersten Tagen ist er unfähig, zwischen Grund und Figur zu unterscheiden. Seine Welt ist f lach, ohne konkave und konvexe Krümmung. Alles in allem ist er nicht für die Herausforderungen der Umwelt gerüstet. 05 Auch wenn er später diese kritische Anfangsphase überwindet, bleibt der Mensch weiterhin mit Mängeln behaftet, die ihn verwundbar machen. Die Sinnesorgane der Tiere sind hoch spezialisiert, also einseitig auf eine Aufgabe ausgerichtet. Der Mensch dagegen bildet eine Ausnahme. Er ist ganz und gar das Gegenteil von dem, was man mit dem Terminus « für die Spezialisierung programmiert sein » bezeichnet. Der Mensch ist « weltoffen ». Oder besser weltenoffen. Er ist nicht wie die Tiere von der Geburt bis zum Tod in eine Welt eingeschlossen, eine enge Welt, in der ein angeborenes Schema die starren Bindungen sanktioniert und undurchlässige Grenzen vorgezeichnet hat. Wie alle Tiere hat der Mensch seine Nische, aber nur ihm gelingt es, Mittel zu erfinden, dank derer er die Grenzen seiner Nische überschreiten kann. Ohne die in seinen genetischen Code eingeschriebenen Spezialisierungen ist er grundsätzlich dazu bereit, alle möglichen Welten zu erkunden. In der Praxis bedeutet das die Fähigkeit, jene Spezialisierungen zu erwerben, also von sich selbst aus zu schaffen, die ihm fehlen, die aber unerlässlich sind, um außerhalb seiner eigenen ursprünglichen Welt zu agieren. Freilich zahlt er für diese Offenheiten einen hohen Preis. Sein Interesse und seine Neugier gegenüber allen Dingen hindern ihn, sich auf wenige, aber hoch effiziente Aspekte zu konzentrieren, wie es die anderen Tiere tun. Diese sich aus seinen Mängeln ergebenden Beschränkungen werden nun durch besondere Fähigkeiten ausgeglichen, die nur er besitzt. Dazu zählt das größte Unterscheidungsmerkmal, nämlich die Fähigkeit, aus der Not eine Tugend zu machen, die Nachteile in Vorteile umzuwandeln. Anders formuliert: aus seinen konstitutiven Schwächen einen Hebel zu machen, um sie durch ausgleichende Eingriffe in echte Zusatzfähigkeiten umzuformen. Es gibt Gründe für die Annahme, dass dafür in erster Linie die sektoriell ungleichmäßige Verteilung seiner Schwachstellen verantwortlich ist.

05

Ob das neugeborene Kind unfähig ist, räumlich zu sehen, ist noch umstritten. Vgl. J. Mehler ( 1994 ).

173

Digitale Welt und Gestaltung

Nehmen wir als Beispiel das Sehen. Auf der einen Seite ist die Fernsicht des Menschen nicht sonderlich ausgeprägt, trotz der dank seiner aufrechten Haltung möglichen Weite und Tiefe des Sehfeldes und trotz des zweiäugigen und stereoskopischen Sehens. Sie hält einem Vergleich mit den Sehleistungen anderer Raubsäugetiere nicht Stand, zum Beispiel mit dem Leoparden, der über eine außerordentliche Fernsicht und Wahrnehmungsschärfe verfügt. Doch die Sehschärfe betrifft nicht nur das Sehen, sondern auch das Handeln. Der Leopard kann nach Angaben der Ethologen aus großer Entfernung das Verhalten und die Qualität der Beute beurteilen und weiterhin die Entfernung und die erforderliche Geschwindigkeit abschätzen, um erfolgreich sein Ziel zu erreichen ( J. Reichholf, 1994).

Von der Undurchsichtigkeit zur Transparenz des Körpers Folgende Tatsache erscheint merkwürdig: Während der Prozess der Verkünstlichung des Körpers über Jahrtausende mit gleichbleibender Geschwindigkeit vorangeschritten ist, blieben unsere Vorstellungen über den Körper, seine Struktur und sein Funktionieren über einen langen Zeitraum hin unbestimmt, ungesichert und oberf lächlich. Zudem waren sie – wie wir heute wissen – zum großen Teil falsch. An einem bestimmten Punkt aber stieß der Prozess der Verkünstlichung in Bereiche vor, für die eine sehr genaue Kenntnis des Körpers unumgänglich schien. Mit anderen Worten, der Körper konnte nicht länger ein « schwarzer Kasten » bleiben. Zwar haben die Anstrengungen, seine Geheimnisse zu lüften, also die Undurchsichtigkeit abzubauen und die Transparenz zu erhöhen, eine lange Geschichte. Doch der entscheidende Beitrag, ein wahrer Wendepunkt, muss der modernen radiologischen Medizin zuerkannt werden. Am Anfang der medizinischen Radiologie steht die revolutionäre Entdeckung der Röntgenstrahlen. Aber bekanntlich war Röntgen kein Arzt, sondern Experimentalphysiker. Die medizinische Radiologie erwächst, wie die Bezeichnung selbst zeigt, aus der Konvergenz zwischen der Strahlungsphysik und der Medizin; aber auch aus den Beiträgen der Chemie, der Biologie und des Gerätebaus. Diese starke interdisziplinäre Tendenz ihrer Anfänge nimmt im Laufe der Zeit stetig zu. Seit Beginn der achtziger Jahre öffnet das erstaunliche, von der Computergrafik entwickelte Potenzial der Modellierung und Simulation für die medizinische Radiologie neue, unerahnte Perspektiven und zwar sowohl in der Diagnostik als auch in der Therapie und bis hin zum chirurgischen Bereich. Sie ebnet den Weg für technisch-wissenschaftliche Entwicklungen, die unter Einsatz von Techniken der

174

Der menschliche Körper in der digitalen Welt

Ionenstrahlung und nicht ionisierenden Strahlung eine immer reichere und genauere Kenntnis einer hinter der Undurchsichtigkeit des Körpers verborgenen Welt ermöglichen und auf diese Weise einige der Geheimnisse lüften, die ansonsten nur durch Eingriffe in den Körper entschleiert werden könnten. Es blieb aber das ungelöste Problem, wie denn diese Kenntnisse in dreidimensionale Modelle und Simulationen zu übersetzen seien, um auf diese Weise mit Hilfe der Bilder einen operativen Eingriff und, mehr noch, einen interaktiven Eingriff in Realzeit zu ermöglichen.

06

Dies konnte durch die neuen Techniken der medizinischen Röntgen-Computer-Tomografie (RCT), PET (Positron Emission Tomography), MagnetresonanzTomografie (MRT) und SPET (Single Photon Emission Tomography), aber auch dank der neuen Computerprogramme der Virtualisierung, die in gewisser Weise diese Techniken integrieren, verwirklicht werden. 06 Die medizinischen bildgebenden Verfahren werden auf diese Weise durch neue Instrumente der Visualisierung und durch neue Techniken der Festkörpermodellierung bereichert. Schlagartig ist nun die Möglichkeit gegeben, die Organe und Funktionseinheiten unseres Körpers in vier Dimensionen (drei Raumdimensionen und eine Zeitdimension) zu sehen. Zum ersten Mal in der Geschichte der medizinischen Klinik kann man in vitro mit Hilfe eines 3D-dynamisch-interaktiven Monitoring die Strukturen und Funktionen des menschlichen Körpers in vivo beobachten. Und nicht nur das: Darüber hinaus kann man auch in diese Strukturen und Funktionen chirurgisch eingreifen. Mit gutem Grund kann man sagen, dass wir einer umwälzenden Innovation im Bereich der wissenschaftlichen Modellierung gegenüberstehen. Gewöhnlich wird dieses Phänomen mit der Entstehung jenes Repertoires von Synthesebildern korreliert, die mit dem nicht sonderlich glücklichen (aber vielleicht auf der Ebene der Popularisierung einprägsamen) Begriff der virtuellen Realität bezeichnet werden. Wenngleich ein solcher Ansatz gerechtfertigt ist, so muss er doch ergänzt werden. Die bildlich-darstellenden wissenschaftlichen Modelle sind immer virtuell gewesen. Das Neue an den hier erörterten Modellen liegt weniger in ihrem virtuellen Charakter als vielmehr in ihrer besonderen Art der Virtualität. Das Neue – das Paradox sei erlaubt – wäre eher in der Tatsache zu suchen, dass sie die realsten jemals erstellten virtuellen Modelle sind. Extrem wirklichkeitsgetreue

06

Vgl. dazu J. McLeod und J. Osborn ( 1966 ), E. N. C. Milne ( 1983 ), L. L. Harris ( 1988 ), N. Laor und J. Agassi ( 1989 ), C. R. Bellina und O. Salvetti ( 1989 ), R. O. Cossu, O. Martinolli und S. Valerga ( 1989 ), J. M. Gore ( 1992 ), R. H. Höhne ( 1992 ), G. Cittadini ( 1993 ), M. Silberbach und D. J. Sahn ( 1993 ).

175

Digitale Welt und Gestaltung

Modelle im Sinne einer größeren formalen, strukturellen und funktionellen Ähnlichkeit mit den dargestellten Gegenständen, also Modelle, die im Umgang für alle Personen, die sie als kognitive Instrumente nutzen müssen, verlässlicher wirken. Der starke Einf luss der virtuell-interaktiven Modellierung macht sich heute in allen medizinischen Disziplinen (oder Spezialisierungen) bemerkbar. Sie spielt eine immer wichtigere Rolle in der Anatomie, der Physiologie, in der Diagnostik und in der Therapie bis hin zur Chirurgie. Es kann auch schwerlich anders sein, denn wenn dieser Modellierungstyp das Wissen über den menschlichen Körper erheblich ausweiten kann, dann werden unvermeidlich alle medizinischen Bereiche direkt interessiert sein. Das herausragende Merkmal der neuen virtuell-interaktiven Modelle besteht in ihrer Fähigkeit, die dargestellten Strukturen zu funktionalisieren. Man würde aber allzu sehr vereinfachen, wenn man annähme, dass es sich nur um eine technische Zugabe zu einer rein figurativen Erneuerung der deskriptiven Anatomie handele. Genau besehen liegt einem solchen Modell nichts ferner als die bloß statische Wiedergabe der strukturellen Morphologien. Als dynamisches Gebilde, das heißt als funktionierendes Gebilde, trägt das virtuell-interaktive Modell dazu bei, die Funktion der Strukturen explizit sichtbar zu machen.

07

Die virtuellen Modelle können dabei helfen, die traditionelle Unterscheidung zwischen der Formbeschreibung einer Struktur und ihrer Funktionsbeschreibung, zwischen Anatomie und Physiologie, wenn auch nicht überf lüssig, so doch zumindest weniger schematisch werden zu lassen. Dem großen Anatomen Alf Brodal folgend, stellen einige Wissenschaftler die Hypothese auf, dass die zunehmende Virtualisierung der bildgebenden medizinischen Verfahren das Entstehen einer neuen Anatomie fördern würde, bei der Struktur und Funktion untrennbar miteinander verbunden sind. « Im neuen funktionalen Bild », schreibt der schwedische Neuroradiologe Torgny Greitz, « können wir die neue Anatomie beschreiben ». 07 Doch bei all diesen technisch-wissenschaftlichen Neuigkeiten großer Tragweite ist es ratsam, zurückzublicken, um nicht nur über die Herkunft dieser Neuigkeiten Bescheid zu wissen, sondern auch um in einem viel reicheren Bezugsfeld ihre heutige und zukünftige Rolle eruieren zu können. Bis vor wenigen Jahrhunderten standen nur die Sinnesorgane des Arztes zur Verfügung: das Gehör, um Geräusche aus dem Innern des Körpers abhorchen zu

07

176

T. Greytz ( 1983 ).

Der menschliche Körper in der digitalen Welt

können, aber auch, um vom Patienten eine Beschreibung seiner Leiden aufzunehmen (also ihn zu hören); der Tastsinn, um die Eigenschaften der Gewebe, den Zustand und das Funktionieren tief liegender Organe zu ertasten; der Geruchssinn, um eventuelle Ausdünstungen zu erschnüffeln; der Sehsinn, um vor allem das Gesicht und die äußere Erscheinung des Körpers zu beurteilen. Der Sehsinn aber wurde meist nicht als sonderlich zuverlässig eingestuft. Nicht zufällig gewinnt er erst in dem Augenblick Vertrauenswürdigkeit, in dem er sich von der Sektionspraxis befreit. Man musste auf die großen Anatomen (und Sezierer) der Renaissance warten, auf Leonardo da Vinci, Berengario da Carpi, Andrea Cesalpino, Andrea Vesalia, Charles Estienne, J. Valverde de Amusco und Girolamo Fabrici d’Acquapendente, um dem Sehsinn jene zentrale Stellung einzuräumen, die er bis dahin nie eingenommen hatte – ein Sehsinn, der mit dem Sezieren verkoppelt ist, der die Undurchsichtigkeit des Körpers und seine vermeintliche Heiligkeit herausfordert, der das Unsichtbare im Körper sichtbar machen und peinlich genau herausfinden will, wie denn die Werkstatt des menschlichen Körpers aufgebaut ist und wie sie funktioniert. Es beginnt die unangefochtene Vorherrschaft des Auges.

08

Nach dem Urteil des Historikers Piero Camporesi (1985) wird mit den Anatomen der Renaissance « das Auge Gottes verinnerlicht ». Für die monotheistischen Religionen erklärte sich die Allwissenheit Gottes aus seiner Allsicht. Im 15. und 16. Jahrhundert werden der Arzt-Sezierer und der Künstler-Sezierer von dem « unersättlichen Willen zu studieren » gepackt, besessen vom Wunsch, dieselbe Allsicht zu erreichen. Ihre gnadenlosen, bisweilen grausamen Eingriffe werden durch die Annahme gerechtfertigt (und legitimiert), dass letzten Endes ihre Augen nichts weiter als unterwürfige Verlängerungen des Auges Gottes seien – ein Auge, dass wie Camporesi sagt, « überall forschte, unermüdlich herumstöberte », ein Auge, « dem nichts verborgen bleiben konnte ». Auf diese Weise unternimmt das Auge die « Reise ins Innere des Menschen » und inspiziert das Innere unseres Körpers als jene « Werkstatt in einer Werkstatt ». 08 Aber nicht nur das: Das Auge übernimmt auch die Aufgabe, die erworbenen Erkenntnisse zu dokumentieren und grafisch zu illustrieren. Das Primat des Auges wird – wie man erwarten konnte – zum Primat des Bildes. Dafür ein Beispiel: die anatomischen Tafeln von Vesalio. Mit ihm wird die Anatomie zum Gegenstand der Darstellung, einer Darstellung, von der man einen hohen Grad an Wiedergabetreue, ein Maximum an deskriptiver Genauigkeit fordert. Wie der Historiker Martin Kemp gezeigt hat, führt diese Tendenz in den folgenden Jahrhunderten zu einem

08

Zum Körper als « biologisches Trugbild » siehe U. Galimberti ( 1987, S. 46 – 51 ).

177

Digitale Welt und Gestaltung

09

immer höheren Realismus der anatomischen Abbildungen. Überaus reichhaltige Beispiele dafür bieten die im 18. Jahrhundert von William Chelselden, Bernard Siegfried Albinus und William Hunter erstellten Bilder und auch die Wachsanatomien der Wachsbildner aus Florenz und Bologna. 09

Jenseits des nackten Auges Die Vorherrschaft des Sehens in der anatomischen Darstellung bleibt nicht ohne Folgen für die Praxis der medizinischen Diagnostik. Bislang primär auf den Hörsinn und Tastsinn und in geringerem Maße auch auf den Geruchssinn gegründet, wird nun die Diagnostik durch eine starke Wiederaufwertung des Sehsinnes bereichert. Der Arzt fungiert gewissermaßen nicht mehr als Detektiv, der vornehmlich akustischen und taktilen Indizien nachspürt, sondern auch – und immer mehr – als einer, der visuellen Indizien nachgeht, sei es direkt während der chirurgischen Eingriffe, sei es unter Nutzung der morphologischen und physiologischen Kenntnisse, die dank der neuen grafischen Darstellungen des menschlichen Körpers erworben wurden, oder mit Hilfe des optischen Mikroskops, das vom 17. Jahrhundert an die Beobachtung von Zellen und organischen Geweben ermöglicht.

10

Diese Entwicklung verläuft nicht linear. Nicht zu vergessen ist, wie Mikel Dufrenne (1991) bemerkte, dass der Sehsinn den Tastsinn, aber auch den Hörsinn kopiert und umgekehrt.10 Wenn auch der Sehsinn dahin tendiert, eine verglichen mit den anderen Sinnen hegemoniale Rolle zu übernehmen, bleibt er auf der Ebene der metaphorischen Vorstellungen doch weiterhin dem Hörsinn untergeordnet. Im zweiten Jahrzehnt des 20. Jahrhunderts spricht der Histologe und Begründer der Neurophysiologie, Santiago Ramón y Cajal, bei der Beschreibung der Arbeit am Mikroskop genau davon, « durch das Okular des Mikroskops bezaubert, die Geräusche des summenden Bienenstocks zu hören, den wir alle in uns tragen » (1981). Hundert Jahre vor ihm hatte die Erfindung des Stethoskops von René Laennec der Auskultation größere semiotische Glaubwürdigkeit verliehen. Aber

09

Vgl. P. Rossi ( 1988 ), E. Battisti ( 1989 ), L. Belloni ( 1990 ), M. Kemp ( 1993 ), J. B. de C. M. Saunders und Ch. D. O’Malley ( 1993 ), W. F. Bynum, R. Porter ( 1993 ), A. Carlino ( 1994 ).

10

M. Merleau-Ponty ( 1964 ), J.-P. Césarini ( 1981 ), L. Jolly ( 1991 ), F. Mangili und G. Musso ( 1992 ), I. Amato ( 1992 ), F. Dagonet ( 1993 ), D. Riccò ( 1996 ).

178

Der menschliche Körper in der digitalen Welt

weder die weite Verbreitung dieses Instruments bei den Ärzten noch die neuerliche Akzeptanz der chemischen und physisch-chemischen Analyse von organischen, dem Körper des Patienten entnommenen Substanzen unterminiert die Rolle der visuellen Beobachtung bei der Diagnose. Der so genannte klinische Blick – die einigen Ärzten zugeschriebene Fähigkeit einer unmittelbaren und unfehlbaren diagnostischen Einschätzung – hört auf, eine Metapher zu sein. Der klinische Blick wird immer mehr Blick. Doch im Verlauf der Zeit wird das nackte Auge an unüberschreitbare Grenzen stoßen (C. Wilson, 1995). Der Gebrauch des optischen Mikroskops in der biomedizinischen Forschung stellt einen wichtigen Schritt zur Überwindung dieser Grenzen dar. Doch der wahre Bruch mit der Vergangenheit tritt 1895 ein, als Röntgen, wie bereits erwähnt, die nach ihm benannten Strahlen entdeckt und so den Weg für die radiologische Medizin ebnet. Diese Entdeckung öffnet das Tor für aufsehenerregende technischwissenschaftliche Neuerungen, die eine immer reichere und eingehendere Kenntnis einer durch die Opazität des Körpers seit je verborgenen Welt ermöglichen, die zuvor bestenfalls durch invasive Eingriffe einige ihrer Geheimnisse preisgegeben hat. Viel später erst wird das Arsenal der diagnostischen Methoden und Techniken durch die chemische und physisch-chemische Analyse von organischen, dem Patienten entnommenen Substanzen ergänzt. Aber nicht einmal dann wird die Rolle der visuellen Beobachtung in der Diagnostik geschwächt. In den vergangenen Jahrzehnten verfestigt sich vielmehr ihre Bedeutung definitiv und zwar – noch einmal sei daran erinnert – dank der neuen Techniken der digitalen Bildbehandlung. Diese neuen Techniken verfolgen ein hochgestecktes Ziel. Sie wollen der medizinischen Praxis dynamische Bilder des Organismus liefern, und zwar nicht nur, insofern sie die Aktivitäten eines lebenden Organismus aufzeichnen, sondern indem sie wenn möglich auch von außen seine Form, Lage und Dimensionen ändern (zum Beispiel den Organismus je nach den Erfordernissen der Beobachtung wenden oder vergrößern). Trotz der bereits erzielten bedeutenden Fortschritte sind neue, erstaunliche Entwicklungen in naher Zukunft zu erwarten. Wahrscheinlich sind sie an die heute in vielen Forschungszentren unternommenen Versuche geknüpft, die Kluft zwischen dem Realen und Virtuellen zu überbrücken. Dieses Unternehmen wirft Fragen auf, die bislang unter Wissenschaftlern, die sich mit den theoretischen und praktischen Aspekten der digitalen Bilderzeugung beschäftigen, keine einstimmige Antwort gefunden haben.

179

Digitale Welt und Gestaltung

Um die Reichweite der hier erörterten Probleme abschätzen zu können, seien die Experimente erwähnt, die in den Medien als « virtuelle Chirurgie » bezeichnet werden. Bekanntlich wird in der Chirurgie das virtuelle Modell oftmals eingesetzt, um in vitro einen Eingriff vorzunehmen und zu programmieren, der dann später in vivo im Körper des Patienten ausgeführt wird. Das virtuelle Modell wird also in der präoperativen Phase genutzt. Jetzt aber wird – in einigen Fällen mit positivem Erfolg – ein anspruchsvolleres Ziel angepeilt, und zwar eine Art von Symbiose zwischen dem in vitro verübten Eingriff und dem in vivo verübten Eingriff. Man experimentiert mit der Möglichkeit, dass der vom Chirurgen im virtuellen Raum ausgeführte Eingriff ein Echo erzeugt, also synchron im wirklichen Raum an der den Chirurgen interessierenden Stelle repliziert wird – eine ähnliche Beziehung wie zwischen Marionettenspieler und Marionette (A. Rovetta, 1993 und 1994, N. Cittadini, 1993). Eine sinnvolle Folge dieser Entwicklung wäre die Telechirurgie, wobei die Handlungsverantwortung für den chirurgischen Eingriff an ferngesteuerte Geräte delegiert wird. Theoretisch hieße das, einer instrumentellen Vorrichtung die Aufgabe anzuvertrauen, am Körper des Patienten dieselben Bewegungen und Handlungen auszuführen, wie sie der Chirurg am virtuellen Körper vornimmt. Der Chirurg – in der griechischen Etymologie cheirourgós (= der mit der eigenen Hand operiert) – stünde kurz davor, seine Handlungsweise zumindest in einigen Spezialbereichen (zum Beispiel in der Neurochirurgie und der Augenchirurgie) zu ändern. Zwar wird er weiterhin mit der eigenen Hand operieren, aber nicht mehr direkt am Körper des Patienten. Das Skalpell in seiner Hand würde nur virtuell, nicht real arbeiten. Real schneiden würde ein Skalpell mit Stellvertreterfunktion, ein ferngesteuertes chirurgisches Instrument, das handlungsgetreu das operative Verhalten eines Chirurgen außerhalb des Spielfeldes nachahmen kann. Das hätte – in diesen Spezialbereichen – für den Patienten immer genauere und weniger risikoreiche Eingriffe zur Folge. Dieser telematische Ansatz der Chirurgie birgt offensichtlich die Möglichkeit von Ferneingriffen in sich, denn die gleichzeitige Gegenwart von Chirurg und Patient erübrigt sich; der den Chirurgen vom Patienten trennende Abstand wird hinfällig. Es wäre aber anzumerken, dass die wachsende Vorherrschaft der Bilder, vor allem in dieser extremen Variante, die Frage des Bezugs zwischen Patient, Krankheit und Arzt von neuem und in aller Schärfe stellt. Jedes Bild, eben insofern Bild, resultiert aus einer Distanz zum beobachteten (oder dargestellten) Gegenstand; doch beim virtuellen Sehen wird diese Distanz auf die Spitze getrieben.

180

Der menschliche Körper in der digitalen Welt

Dieser Gedanke berührt den Kern der medizinischen Philosophie. Seit je meint das Nachdenken über die theoretischen Grundlagen des medizinischen Handwerks, der Heilkunst und der Vorbeugung gegen Krankheiten, sich mit der Frage des Abstands zwischen Arzt und Patient auseinanderzusetzen. Einige Historiker der Medizin behaupten, dass es bereits in der Antike zwei verschiedene Ansätze zu diesem Problem gegeben habe: auf der einen Seite die Ärzteschule von Kos mit Hippokrates als führendem Vertreter. Hier wurde empfohlen, den Abstand zwischen Arzt und Patient auf ein Minimum zu reduzieren; manchmal ging man sogar so weit, eine Art von Verschmelzung (oder subjektiver Identifikation) zwischen beiden nahezulegen. Der Patient wurde als die wichtigste Instanz betrachtet; der Arzt musste in engem Kontakt fürsorglich an seiner Seite weilen. Auf der anderen Seite steht die Schule von Knidos, die eher der Krankheit als Gegenstand der Beobachtung und der Untersuchung den Vorrang einräumte. Trotz des schematischen Charakters dieser Gegenüberstellung kann man behaupten, dass es diese beiden Ansätze in der langen Geschichte der Medizin – sicher mit Nuancierungen – immer gegeben hat. In einigen Perioden scheint der Patient vorzuherrschen, in anderen Perioden die Krankheit. Heutzutage treten wir in eine Phase ein, in welcher der Arzt eher an der Krankheit als am Patienten interessiert zu sein scheint. Vor allem wegen der wichtigen Rolle des medical imaging wohnen wir einerseits einem Anwachsen der physischen (und psychologischen) Distanz zwischen Arzt und Patient bei, andererseits einer Verkürzung der kognitiven Distanz zwischen Arzt und Krankheit. Kurz: Der Patient liegt weiter weg, die Krankheit rückt näher.

Medical imaging und Realität oder Virtualität Nach der Veröffentlichung meines Buches über die Beziehung zwischen Realität und Virtualität (1992) habe ich mich gefragt, wie sich der Bezug zwischen diesen beiden Bereichen direkt verifizieren ließe, ohne auf allzu zahlreiche Hilfsannahmen bei der Untersuchung zurückgreifen zu müssen. Ich glaube, mit dem medical imaging, besonders mit den jüngsten Entwicklungen, ein geeignetes Feld für diese Untersuchung gefunden zu haben. Wie ich oben zu erläutern versucht habe, gewinnt die Diskussion in diesem Bereich – im Unterschied zu anderen visuellen Bereichen – unausweichlich konkreten

181

Digitale Welt und Gestaltung

Charakter. Die abstrakten (und gewöhnlich unzusammenhängenden) paraphilosophischen Ausschweifungen über das Virtuelle als eines selbstreferenziellen Konstrukts, das keinerlei Auswirkung auf das Reale hat, werden radikal widerlegt. Im Bereich des medical imaging zeitigt die Virtualität weit über die Medizin hinausgehende theoretische und praktische Folgen. Die vom Virtuellen aufgeworfenen Probleme sind für eine Fülle von wissenschaftlichen Disziplinen von Interesse – von der Informatik bis zur kognitiven Neuropsychologie, von der Robotik bis zur Erkenntnistheorie, von der künstlichen Intelligenz bis zur Verhaltenstheorie. Einige der beim Einsatz der Virtualität in der Chirurgie aufgeworfenen Fragen habe ich auf theoretischer Ebene bereits gestreift; desgleichen die Bedeutung des Virtuellen im Zusammenhang mit den wachsenden Kenntnissen des menschlichen Körpers und seiner Krankheiten. Nun möchte ich auf einen besonderen Aspekt näher eingehen, und zwar auf die jüngsten Versuche, virtuelle Vorrichtungen bei der Behandlung von Patienten mit sensomotorischen Störungen einzusetzen, sei es zu Zwecken des Monitoring der Symptome oder zu Zwecken einer Rehabilitationstherapie. Mein Interesse hat allgemeinen Charakter und richtet sich darauf, einige für dieses Thema wichtige Voraussetzungen zu untersuchen und kognitive Implikationen herauszuarbeiten, die meiner Ansicht nach noch nicht gelöste Fragen aufwerfen. Es sei vorausgeschickt, dass die Pathologien sensomotorischer Funktionen zu den komplexesten Problemen gehören, mit denen sich die heutige neurowissenschaftliche Forschung beschäftigt – auch wenn das bekanntlich für alle Pathologien des zentralen Nervensystems gilt. Komplex sind vor allem die durch eine ernste Schädelverletzung verursachten Fälle. Bei Gehirnverletzungen wird man mit einer je nach Stelle und Art der erlittenen Verletzung stark variierenden Symptomatologie konfrontiert, weil man bei den Pathologien traumatischen Ursprungs – aber auch bei den durch Herzkreislaufstörungen oder Krebs verursachen Pathologien – nicht von einer allgemeinen Symptomatologie, sondern nur von einer Reihe besonderer Symptome, die je nach Verletzungsart variieren, sprechen kann. Die Schwierigkeiten wachsen, weil die Auswirkungen einer Verletzung sich nicht auf deren Ursprungsbereich beschränken, sondern sich oftmals in benachbarten oder sogar weiter entfernten Zonen bemerkbar machen. Daraus folgt, dass die besonderen Symptomatologien nicht immer eine lineare, von interpretativen Unstimmigkeiten freie Diagnose erlauben (P. S. Churchland und T. J. Sejnowski, 2 1993). Selbstverständlich ist die Lage weniger komplex, wenn man es mit schweren Körperbehinderungen nicht traumatischen Ursprungs zu tun hat. Beispielsweise ist bei der arteriosklerotischen Parkinson-Krankheit und bei der multiplen Sklerose die Symptomatologie eine Routineangelegenheit.

182

Der menschliche Körper in der digitalen Welt

Heute herrscht eine durchaus verständliche Begeisterung für das Virtuelle, wie es in der Medizin beim Auf kommen einer neuen Methodik immer wieder geschieht. Das bedeutet aber nicht, dass man prinzipiell eine sachliche Analyse ihrer Voraussetzungen oder ihrer Implikationen aufschieben sollte. Denn wenn es zutrifft, dass die Virtualität die Kenntnis des motorischen Verhaltens von Kranken vertiefen kann, dann trifft es gleichfalls zu, dass sie auf der Ebene der Rehabilitation noch so schwierige Probleme aufwirft, dass man nicht einfach über sie hinweggehen kann – Probleme der kognitiven Neuropsychologie, aber auch und nicht in geringerem Maße Probleme der für die Herstellung virtueller Umwelten eingesetzten Technologien. Um einem möglichen Missverständnis vorzubeugen: Keinesfalls möchte ich Zweifel an der Anwendung des Virtuellen im Bereich der biomedizinischen Forschung bekunden, denn persönlich bin ich von ihrem Wert überzeugt. Die interaktive Nutzung dreidimensionaler computergenerierter Bilder eröffnet hier neue und fesselnde Perspektiven. Ich bin gleichfalls sicher, dass sich der Rückgriff auf die Virtualität im Fall der neuromotorischen Körperbehinderungen (Bradikinesie, Apraxie, Ataraxie, Hypertonie, Fehlen von Haltungskontrolle usw.) früher oder später nicht nur als ein gangbarer Weg, sondern auch als ein fruchtbarer Weg erweisen wird. Diese Einschätzung scheint mir durchaus nicht überzogen. Das Virtuelle stellt zwar eine Neuigkeit dar, aber eine relative Neuigkeit. Schließlich geht es nur um eine neue Entwicklung der computergestützten Rehabilitationstechniken, die bekanntlich seit mehr als einem Jahrzehnt mit hervorragenden Ergebnissen angewendet werden und die dazu bestimmt sind, die seit je bei jedem Training der funktionellen Heilung benutzten Techniken zu stützen (aber nicht zu ersetzen). Ich meine die traditionellen, mit « Papier und Bleistift » und Tachystokop ausgeführten Tests. Doch erstaunlicherweise sind die computergestützten Techniken bislang nur in relativ wenigen Bereichen der Rehabilitationspraxis benutzt worden. Am häufigsten werden sie bei der Behandlung der konstruktiven Apraxie (Störungen des Handelns in Verbindung mit räumlichen Vorstellungen) und der Agraphie (Unfähigkeit, sich schriftlich auszudrücken) eingesetzt, aber kaum bei der Behandlung der eigentlichen Bewegungsanomalien. Meiner Ansicht nach kann die Virtualität diesen Mangel beheben. Die Verfügbarkeit eines virtuellen Raumes, in dem der mit « intelligenten » Vorrichtungen ausgerüstete Patient jetzt navigieren kann, eröffnet völlig neue Möglichkeiten für die Heilung von Kranken, die unter motorischem und räumlichem Koordinationsmangel leiden (A. Pedotti et al., 1989, L. Tesio, 1994, A. Freddi, 1995). Ich denke dabei an die Kranken, die zum Beispiel nur langsam gehen können, die keinen Schrittrhythmus beim Gehen finden und die kaum das Gleichgewicht halten können.

183

Digitale Welt und Gestaltung

Es ist mehr als plausibel, dass mit Hilfe der Virtualität die Kenntnisse des Bewegungsverhaltens von Kranken erweitert werden können. Die Immersion des Kranken in einen Raum, der von der außerordentlichen Rechenleistung und Speicherkapazität des Rechners kontrolliert wird, erleichtert in ganz erheblichem Maße die Analyse und Beurteilung eines anomalen Bewegungsverhaltens. Auf der anderen Seite haben wir auch betont, dass der Gebrauch der Virtualität bei der Rehabilitation Fragen aufwirft, denen man nicht ausweichen sollte.

Realer Raum und virtueller Raum Verbleiben wir zunächst bei der Beziehung zwischen realem und virtuellem Raum, zwischen natürlichem und künstlichem Raum. Was geschieht, wenn ein unter sensomotorischen Schwierigkeiten leidender Patient in einen virtuellen Raum eintaucht? Worin bestehen die Unterschiede für den Patienten zwischen dem Navigieren in einer wirklichen Umwelt und dem Navigieren in einer virtuellen Umwelt? Wenn man es mit einer wirklichen Umwelt zu tun hat, die als Gesamterlebnis erfahren wird, also als ein Erlebnis, in dem die Wirkung der Schwerkraft und die multisensorielle Teilnahme eine entscheidende Rolle spielen, was bedeutet es dann für den Patienten, in einer virtuellen Umwelt handeln zu müssen, in der die Schwerkraft nur simuliert wird und in der das Erlebnis in der Regel überwiegend visueller Natur ist? Was geschieht, wenn er sich für eine begrenzte Zeitspanne von einer reizgesättigten Wirklichkeit in die sicherlich viel ärmere Virtualität begibt? Dies sind keine nebensächlichen Fragen, denn hinter ihnen verbirgt sich der Kern des hier erörterten Themas: Wie und unter welchen Bedingungen kann der virtuelle Raum die Heilung von beschädigten sensomotorischen Automatismen fördern? Es wurde darauf hingewiesen (M. I. Jordan und D. A. Rosenbaum, 2 1990), dass die Kognitionswissenschaften, eben weil sie der Wahrnehmung eine zentrale Rolle zuschreiben, es sich nicht leisten können, von der Handlung abzusehen. Wenn das zutrifft, dann nicht weniger auch das Gegenteil. Bei einem kognitionswissenschaftlichem Ansatz wäre nichts abwegiger, als die Handlung von der Wahrnehmung zu isolieren ( J. Paillard, 1988, C. Fermüller und Y. Aloimonos, 1996, A. Berthoz, 1997). Bewegungsstörungen sind immer mehr oder weniger auch räumliche Wahrnehmungsstörungen. Dieses zeigt sich ganz klar, wenn man zum Beispiel das Verhalten eines Patienten beobachtet, der Koordinationsschwierigkeiten beim Gehen hat. Dass er es nicht schafft, den Schritt zu rhythmisieren, dass er im entscheidenden Moment des Übergangs vom Anheben des Fußes zum Aufsetzen des Fußes zögert, hat sowohl mit der Motorik als auch mit

184

Der menschliche Körper in der digitalen Welt

der Wahrnehmung zu tun. Die sich aus diesem Zögern ergebende allgemeine Instabilität, die zu einem Verlust des Gleichgewichts führen kann, ist ein eng mit der Wahrnehmungsanomalie der räumlichen Orientierung verknüpftes Phänomen. Vom Beginn der experimentellen Psychologie im 19. Jahrhundert – Fechner, von Helmholtz und Wundt – bis zu den jüngsten Entwicklungen in der Kognitionspsychologie war es ein langer und steiniger Weg, auf dem sich die Diskussion anfangs um die psychophysiologische Rolle der getrennt für sich untersuchten Wahrnehmungssinne drehte. Später wandten sich die Wissenschaftler den Wahrnehmungsprozessen und ihren zwei Dimensionen (propriozeptiv und exterozeptiv) zu; noch später dann der Lokalisierung dieser Prozesse im zentralen und peripheren Nervensystem und neuerdings der bislang kaum beantworteten Frage, wie die von den Rezeptoren gesammelten Nachrichten in unser Gehirn gelangen, und vor allem, wie sie dann Bedeutung annehmen. Dieser Rückblick auf die Geschichte der senso-perzeptiven Phänomene ist meiner Ansicht nach durchaus sinnvoll. Denn schließlich wirft die Virtualität Probleme auf, die seit je im philosophischen und wissenschaftlichen Diskurs über die Wahrnehmung präsent gewesen sind. Darüber hinwegzusehen birgt ein Risiko: zu glauben, dass man bei der Untersuchung der sensoperzeptiven Folgen für die Virtualität praktisch wieder von vorn beginnen müsse, oder schlimmer noch, dass man sich im Namen eines Scheinpragmatismus tatsächlich nicht für diese Probleme zu interessieren brauche. All das würde kaum eine Rolle spielen, wenn die Immersion eines Subjekts in den virtuellen Raum nur ein spielerischer Ausf lug wäre, eine mehr oder minder harmlose Spielerei. Aber die Sachlage ist besonders kritisch, da wir hier vom Gebrauch der Virtualität für diagnostische und therapeutische Zwecke sprechen. Man kann nicht darüber hinwegsehen, dass es sich bei der Person, die wir in den virtuellen Raum entlassen, um einen Kranken handelt. Es spielt da also die Frage der Verantwortung mit hinein, die weder zu übertreiben und noch als Bagatelle abzutun ist. Was den perzeptiven Einsatz des virtuellen Raumes angeht, weiß man über viele Dinge Bescheid, insofern er sich nicht wesentlich von den seit je im Umgang mit dem wirklichen Raum erworbenen Fähigkeiten unterscheidet. Freilich wissen wir nichts oder nur ganz wenig über andere Aspekte. Die Untersuchung dieser Aspekte kann umgekehrt unser Wissen über die Wahrnehmung allgemein bereichern. Denn der virtuelle Raum stellt sich heute als Grenzmodell dar, wie es bislang niemals für die Erforschung der Sinneswahrnehmungen zur Verfügung stand. Bei diesem Modell wird das Subjekt, wenn auch nur

185

Digitale Welt und Gestaltung

für eine kurze Zeitspanne, Extrembedingungen ausgesetzt. Eben deshalb schälen sich alle gelösten (und ungelösten) Probleme unserer sensomotorischen Beziehung mit der Wirklichkeit mit bislang unerreichter Klarheit heraus (M. Bergamasco, 1993). Auf der Grundlage von zahlreichen wissenschaftlich-empirischen Untersuchungen wurde neuerdings die Hypothese formuliert, dass man bei der Heilpraxis den Patienten dazu zwingen müsse, sich seines eigenen proprioperzeptiven Systems zu bedienen und mit allen Mitteln seine spontane Neigung bremsen müsse, sich ausschließlich auf das exterozeptive System, vor allem auf das Sehorgan zu verlassen. Auf diese Weise würde im Bereich des Zentralnervensystems eine immanente anatomische Wiederherstellung anstelle einer lediglich adaptativen Rehabilitation durch Anpassung erleichtert werden (L. Tesio, 1994).

Wahrnehmung und Fortbewegung Wie in vielen anderen Fällen lässt sich auch hier die Bedeutung der Fragen in ihrem Verhältnis zu den Wahrnehmungsprozessen ermessen. Ein unter Gehbeschwerden leidender Kranker hat – unabhängig von den Ursachen – zuallererst die automatische Kontrolle der Bewegungsfähigkeit verloren. Ein solcher Verlust erstreckt sich gleichzeitig auf die Handlungs- und auf die Wahrnehmungssphäre. Wir werden nun eingehender untersuchen, was der Verlust dieser automatischen Kontrolle in der Praxis bedeutet. Bekanntlich ist ein Großteil unserer motorischen Fähigkeiten einer automatischen Kontrolle unterworfen. Dies betrifft angeborene wie erworbene motorische Fähigkeiten, sowohl phylogenetische Fähigkeiten wie Gehen, Schwimmen und Laufen als auch ontogenetische Fähigkeiten wie Schreibmaschineschreiben, Klavierspielen und Autofahren. Einige Wissenschaftler haben die Dichotomie zwischen automatischer Kontrolle und nicht automatischer Kontrolle hart angegriffen (D. O. Hebb, 1949, A. Allport, 1990, C. Ryan, 1983, S. M. Kosslyn und O. Koenig, 1992), weil sie ihnen allzu vereinfachend erschien. Man zog es stattdessen vor, mit der von Hebb explizierten Vorstellung der « unbewussten Aufmerksamkeit » (unconscious attention) des motorischen Verhaltens zu arbeiten, die den Gegenpol zur « bewussten Aufmerksamkeit » bildet. Die erste Aufmerksamkeit hat passiven Charakter, wogegen die zweite aktiven Charakter hat. Bei der ersten handelt es sich um eine Art nicht bewusster Aufmerksamkeit; die zweite dagegen manifestiert sich in einem bewussten Akt der Aufmerksamkeit.

186

Der menschliche Körper in der digitalen Welt

Entgegen allem Anschein geht es nicht bloß um ein lexikalisches Detail. Genau betrachtet handelt es sich um einige methodologisch wichtige Aspekte der motorischen Rehabilitation. Wir sagten, dass eine Bewegungsstörung unter anderem ein Aussetzen der – wenn wir die alte Nomenklatur verwenden wollen – automatischen Kontrolle beinhaltet. Wenn wir die neue Terminologie vorziehen, kann man von einem Aussetzen der « unbewussten Aufmerksamkeit » sprechen, was nicht bedeutet, dass eine « bewusste Aufmerksamkeit » an ihren Platz tritt. Genau hier liegt das Problem: Der Patient bleibt gleichsam in der Schwebe zwischen einer verlorenen « unbewussten Aufmerksamkeit » und einer noch nicht erreichbaren « bewussten Aufmerksamkeit ». Der traditionelle Ansatz der Physiotherapie bestand immer darin, mit Hilfe vieler aufeinander abgestimmter Übungen den Patienten langsam an eine « bewusste Aufmerksamkeit » zu gewöhnen, das heißt an ein immer größeres Bewusstsein der Aufmerksamkeit bei den von ihm ausgeführten Bewegungen. Und das mit der Hoffnung, auf diesem Wege den vor dem Auftauchen der Störung bestehenden Zustand zumindest teilweise wieder zu erreichen, ein Zustand, in dem die gewollten Bewegungen von einer kaum spürbaren, aber immer wachsamen « unbewussten Aufmerksamkeit » kontrolliert werden. Diese Praxis wurde – manchmal mit bemerkenswertem Erfolg – von den Physiotherapeuten bei der Behandlung zum Beispiel der Parkinson’schen Krankheit befolgt. An dieser Stelle wäre zu fragen: In welchem Maße kann der zu Zwecken der Rehabilitation praktizierte Einsatz der Virtualität zu wesentlichen Änderungen bei dieser Thematik beitragen? Obgleich es keine Gründe für die Hypothese tief greifender Änderungen gibt, trägt sie zu einer bemerkenswerten Bereicherung der Theorie und Praxis bei. Und dies bedeutet, dass wir es nicht mit weniger Problemen, sondern mit mehr Problemen zu tun haben. Eines dieser Probleme ist mit dem therapeutischen Verfahren verbunden, den Patienten zu zwingen, umsichtige und gewissenhafte Aufmerksamkeit auf die von ihm ausgeführten Bewegungen zu richten. In anderem Zusammenhang hat der Experimentalpsychologe R. L. Gregory (1974) dieses Verfahren mit dem Ausdruck « Bewegungsbewusstsein » (awareness of movement) benannt. Wir alle wissen auf Grund unserer Alltagserfahrung, dass die beste Art und Weise, die Wirksamkeit einer Bewegungshandlung zu mindern, genau darin besteht, sie einer solchen kontrollierenden Aufmerksamkeit zu unterstellen. Wenn ein professioneller Daktylograf die Aufmerksamkeit auf seine Fingerbewegungen richtet, können wir sicher sein, dass die Zahl seiner Fehlanschläge enorm wächst.

187

Digitale Welt und Gestaltung

Das Phänomen hat aber auch andere Implikationen, und zwar dann, wenn man es nicht mit einer Fähigkeit, sondern mit einer Unfähigkeit zu tun hat. Unter Normalbedingungen kann man sich schwerlich vorstellen, dass eine Unfähigkeit auf diese Weise wachsen könnte, es sei denn, der Therapeut hätte keinerlei Erfahrungen mit der Ausführung und quantitativen Bemessung der Rehabilitationsübungen. Es geht nun darum, herauszufinden, ob die durch den therapeutischen Einsatz des Bewegungsbewusstseins im realen Raum erworbenen Kenntnisse auf den virtuellen Raum übertragen werden können. Offensichtlich bestehen zwischen diesen beiden Raumsituationen erhebliche Unterschiede. In einem Raum zu handeln meint nicht – wie man gemeinhin glaubt – innerhalb eines Behälters wahrzunehmen, sondern perzeptiv mit seinen Inhalten zu interagieren.

11

Die Inhalte des virtuellen Raums zeichnen sich durch besondere Eigenschaften aus. Zunächst findet sich da die äußerst schwach vermittelte Schwerkraftwirkung, die den perzeptiven Bezugsrahmen einer hohen Instabilität aussetzt. Der virtuellen Szene fehlt die feste Verankerung des Wahrnehmungsgerüstes, das für die reale Szene wesentlich ist. Sie erklärt sich aus der allgegenwärtigen Gravitation. In dieser illusorischen Welt scheint es die Verankerung zu geben und gleichzeitig nicht zu geben, ganz so, als ob man die Schwerkraft willentlich ignorieren könnte.11 Dieser strukturell schwache Punkt des künstlichen visuellen Wahrnehmungsfeldes führt dazu, dass es je nach den Kopf bewegungen fortwährend ruckartigen Änderungen ausgesetzt wird. Wie bei den ersten Erfahrungen des Neugeborenen mit einer externen Umwelt ergeben sich im virtuellen Raum bisweilen Situationen, in denen das Wahrgenommene mit dem Wahrnehmenden, das Objekt mit dem Subjekt gleichgesetzt wird und umgekehrt. Hier wird möglicherweise die Ursache für das Schwindelgefühl zu suchen sein, das wir oft erleben, wenn wir den Datenhelm abgenommen haben. Um diese und ähnliche Phänomene zu verstehen, ist zu berücksichtigen, dass im virtuellen Raum das Sehen ein fast unangefochtenes Primat genießt. Zwar sind heute Versuche (und mehr als Versuche) im Gang, raffinierte Vorrichtungen für haptische und auditive Erfahrungen zu entwickeln, aber diese werden niemals, wie wir später zeigen werden, die Vorrangstellung des Sehens beeinträchtigen können. Es handelt sich allerdings um eine Vorrangstellung besonderer Art, weil es sich beim hier angesprochenen Sehen auch um ein Sehen besonderer Art handelt.

11

Zur Beziehung von Schwerkraft und Vertikalität in der Raumwahrnehmung vergleiche A. Berthoz ( 1997, S. 107 – 124 ).

188

Der menschliche Körper in der digitalen Welt

Die visuelle Erfahrung im virtuellen Raum, besonders wenn ein Datenhelm benutzt wird, hat wenig mit unserer visuellen Alltagserfahrung gemein. Denn sie ist eine Erfahrung, die ausschließlich von der Kopf bewegung abhängig ist und somit die Augenbewegungen ausgrenzt – und diese wiederum bilden eine Grundvoraussetzung für die visuelle Wahrnehmung in der realen Welt. Seit mehr als dreißig Jahren, vor allem seit den Arbeiten des russischen Wissenschaftlers Alfred L. Yarbus (A. L. Yarbus, 1967) gehört die Untersuchung der Augenbewegungen zu den Vorzugsthemen der kognitiven Neuropsychologie. Allgemein stimmen die Spezialisten darin überein, dass die Änderung der Blickrichtung, der äußerst schnelle Fokuswechsel des Auges eine ausschlaggebende Rolle in unserer stereoskopischen Wahrnehmung spielt (P. Viviani und J.-L. Velay, 1987, P. Viviani, 1990, H. L. Galiana 1992). Ein Raum, der die Augenbewegungen ausschließt, wird immer ein plumpes, unzuverlässiges Simulacrum des wirklichen Raums bleiben. Das gilt auch für den derzeitigen Versuch einiger Forscher, den Datenhelm zu nutzen, indem sie ihn mit einem virtual dome ergänzen (M. Hirose, K. Yokoyama und S. Sato, 1993). Damit soll nicht ausgeschlossen werden, dass diese Hindernisse in Zukunft überwunden werden können. Für diese Annahme sprechen einige Untersuchungen, die auf Mischlösungen angelegt sind, also auf gleichzeitig immersive und nicht immersive Lösungen. Dennoch kann man die heutige perzeptive Armut des virtuellen Raumes nicht ausschließlich der durch ihn ermöglichten visuellen Erfahrung zuschreiben. Entgegen dem Jahrhunderte lang aufrechterhaltenen Glauben kann die menschliche Wahrnehmung nicht in gegeneinander abgeschottete Bereiche aufgeteilt werden. Den fünf Sinnen von Aristoteles wurden immer fünf Wahrnehmungsarten zugeordnet. Heute weiß man, dass die Dinge nicht so einfach liegen. Die Raumerfahrung schließt – in unterschiedlichem Umfang und unterschiedlicher Intensität – mindestens vier unserer Sinne ein: Sehen, Tasten, Hören und Riechen. Deshalb ist es richtig, den Raum als ein Wahrnehmungssystem zu definieren ( J. J. Gibson, 1950 und 1960). Unser sensomotorisches Verhalten, normal oder anomal, bezieht sich immer auf ein Wahrnehmungssystem. Wenn dieses fehlt, wird das sensomotorische Verhalten in Mitleidenschaft gezogen. In diesem Zusammenhang ist es aufschlussreich, die Empfindung körperlicher Instabilität zu analysieren, also den Gleichgewichtsverlust, wie man ihn im virtuellen Raum erfährt, was manchmal auch gesunden Personen widerfährt. Bekanntlich befindet sich der Mensch in aufrechter Haltung immer in einem instabilen Gleichgewicht. Dieses beizubehalten erfordert bei jedem Schritt ein subliminales

189

Digitale Welt und Gestaltung

Austarieren mit der Umwelt – ein komplexer Prozess, der ohne Unterlass darauf abzielt, ein fortwährend bedrohtes Bezugsfeld zu rekonstituieren (L. Tesio, P. Civaschi und L. Tessari, 1985). Um dieses Ziel zu erreichen, bedienen wir uns aller unserer Sinnesreize, sowohl der exterozeptiven aus auch der propriozeptiven. Derlei aber kann man im virtuellen Raum nicht einmal ansatzweise feststellen, und zwar nicht nur wegen der Armseligkeit der visuellen Erfahrung, sondern auch wegen der noch armseligeren taktilen und auditiven und der völlig fehlenden olfaktorischen Erfahrung. Man kann einwenden, dass es um den Tastsinn besser bestellt ist. Das trifft zu. Doch werden die erstaunlichen Fortschritte im Bereich der künstlichen taktilen Sensoren und Effektoren für die Robotik (F. Mangili und G. Musso, 1992, I. Amato, 1992, K. B. Shimoga, 1993, H. Iwata, 1993) das aufgeworfene Problem nicht wesentlich tangieren. Alles in allem handelt es sich um Vorrichtungen, die einzig gewisse Feedbackleistungen bei Kraftaufwand und Berührungen betreffen, auch wenn die derzeitigen Versuche, eine « künstliche Haut » zu entwickeln, die aus einem speziellen, je nach Druck mit einem elektrischen Widerstand reagierenden Kunststoff hergestellt ist, eine erheblich anspruchsvollere Finalität anstreben. Doch beim menschlichen Tastsinn geht es um erheblich mehr. Unser Tastsinn ist nicht nur Kontakt (F. Dagonet, 1993). Die Haut, die bekanntlich unsere gesamte Körperoberf läche bedeckt, ist nicht bloß eine passive Hülle, die uns gegen die Außenwelt abschirmt und uns von der Welt trennt. Die Haut ist auch einer der wirksamsten Mechanismen für die Interaktion mit der Welt. Sie ist der Sitz äußerst unterschiedlicher Sensibilität. Bei der Raumwahrnehmung spielt sie eine erhebliche Rolle, und zwar nicht nur durch den direkten Kontakt mit den Gegenständen, die diesen Raum füllen, sondern auch beim Fehlen dieses Kontakts, wie es unsere kutane Sensibilität für Temperatur, Feuchtigkeit, Schwerkraft und Vibrationen bis hin zu elektromagnetischen Effekten zeigt. Aus zahlreichen Untersuchungen geht die Wichtigkeit dieser Faktoren für die perzeptive Entfernungsschätzung und somit für den Auf bau eines räumlichen Bezugsfeldes hervor. « Die Haut besitzt Augen », behauptet Diane Ackerman mit einer gewagten, aber treffenden Metapher (D. Ackerman, 1991). Die Wahrnehmung des virtuellen Raumes ist – wie bereits erwähnt – kärglich, unzuverlässig und rudimentär, und zwar deshalb, weil die Augenbewegungen fehlen, aber auch weil eine Haut fehlt, die im metaphorischen Sinne von Ackerman sehen kann, also eine Haut mit gleichen Leistungen wie die menschliche Haut.

190

Der menschliche Körper in der digitalen Welt

Trotz dieser Bedenken halte ich es für richtig, bei sensomotorischen Störungen den virtuellen Raum zu diagnostischen und rehabilitiven Zwecken zu nutzen – wie es bereits geschieht –, auch wenn dieser eine grobe Karikatur des realen Raums darstellt. Leicht lässt sich erkennen, dass man im Bewusstsein dieser Unzulänglichkeiten dennoch mit ihnen arbeiten kann, um neue Erkenntnisse über das Verhalten des Kranken zu gewinnen, die man unmöglich im realen Raum gewinnen könnte. Man kann also aus der Not eine Tugend machen. Vom Standpunkt der Rehabilitation aus betrachtet wird weiterhin das Problem bestehen, das Gregory mit dem Ausdruck « negative Trainingsübertragung » bezeichnet hat (R. L. Gregory, 1974). Dieser Begriff kann mit einem banalen Beispiel illustriert werden: Es ist so, als ob man Tischtennis auf die gleiche Art und Weise spielen wolle, wie man Tennisspielen gelernt hat. Übertragen auf unsere Fragestellung bedeutet dies: Läuft man nicht Gefahr, dass das einem Kranken im virtuellen Raum angebotene rehabilitive Training sich bei der Rückkehr in den realen Raum als eine « negative Trainingsübertragung » entpuppt?

Virtualität und wissenschaftliche Modellierung Zu den wohl wichtigsten Fragen im Bereich der Eidomatik (ein interdisziplinäres Gebiet im Schnittpunkt von Bildverarbeitung, Computergrafik, visueller Wahrnehmung und kognitiver Aspekte der bildgebenden Computertechniken) gehören die erkenntnistheoretischen Implikationen der virtuellen Modellierung. Denn die synthetischen Bilder sind, unabhängig vom Grad ihrer Virtualität – schwache oder starke Virtualität, als Fenster oder Immersion – , nichts anderes als mathematische Modelle mit dem Zweck, Gegenstände oder Prozesse der Realwelt visuell zu simulieren, also abstrakte Räume, die dabei helfen, anschauliche und physische Räume darzustellen. In der langen Geschichte der wissenschaftlichen Modellierung stellt das Auf kommen der virtuellen synthetischen Modelle einen Wendepunkt dar. Bei den traditionellen Modellen, wie sie im 19. Jahrhundert von Lord Kelvin, James C. Maxwell und Oliver Lodge benutzt wurden, hatte man es überwiegend mit visuellen Analogien aus der Mechanik zu tun. Das gilt auch für das hydraulische Modell, dessen sich William Harvey im 17. Jahrhundert bediente, um den Blutkreislauf und die Pumpenfunktion des Herzens zu erklären.

191

Digitale Welt und Gestaltung

Die synthetischen Modelle – ob nun virtuell oder nicht – und die herkömmlichen mechanischen Modelle erfüllen eine replikative Funktion der Wirklichkeit; doch im ersten Fall hat das sich dabei ergebende replizierte Bild im Unterschied zum zweiten Fall keinen arbiträren Charakter oder, vorsichtiger ausgedrückt, nur im geringen Umfang arbiträren Charakter, und zwar deshalb, weil die traditionellen mechanischen Bilder Resultat einer gewissermaßen metaphorischen Auswahl sind, während die synthetischen Bilder das Resultat eines technischen Prozesses sind (wie bereits in der Fotografie, im Film und in der Radiologie), der sich in direktem generativen Kontakt mit dem replizierten Gegenstand entfaltet. Beim medical imaging tritt dieser Unterschied ganz besonders deutlich hervor. Mehr als in anderen Fällen erscheinen die synthetischen Bilder als Ergebnis eines komplexen Extraktions-Digitalisierungsprozesses, der mit Hilfe der operativen Kombination zwischen Techniken der Radiologie und Informatik abläuft. Wenn am Ende des Prozesses ein digitalisiertes Bild herauskommt, dann steht am Anfang die Extraktion eines Bildes des menschlichen Körpers. Deshalb sollte es nicht verwundern, dass zwischen der Darstellung /Abbildung (dem virtuellen Synthesebild) sowie zwischen dem Dargestellten /Abgebildeten (dem aus einem wirklichen Gegenstand extrahierten Bild) eine hohe Ähnlichkeit besteht, die dank der in jüngster Zeit erzielten technischen Fortschritte im Bereich der virtuellen Modellierung eine immer höhere Stufe erreicht. Wie aber die Geschichte der wissenschaftlichen Modellierung lehrt, ist es schwierig, wenn nicht unmöglich, von der Ähnlichkeit eines Modells mit der Wirklichkeit zu sprechen, ohne auf theoretischer Ebene die weitläufigen Fragen anzugehen, die seit je mit dem Begriff der Ähnlichkeit verknüpft sind. Dies gilt mehr denn je für die hier erörterten Bilder, und zwar aus dem einfachen Grund, weil in der Vergangenheit kein Modell der wissenschaftlichen Visualisierung den Anspruch erhoben hat, als Zwilling der realen Welt zu fungieren. Schon oft ist gesagt worden, dass die Landkarte nicht das Territorium ist; doch mit dem Auf kommen der virtuellen Realität werden wir mit einer Landkarte konfrontiert, die dem Territorium sehr nahekommt oder die darauf abzielt, zu einem Territorium, zu einer Art Quasi-Territorium zu werden. Im Gegensatz zu dem, was die Personen, die täglich mit den synthetischen Bildern umgehen – also Ärzte und Informatiker – denken mögen, bildet die Beziehung zwischen virtuellem Bild und Wirklichkeit kein Thema, das den Wissenschaftstheoretikern oder Wissenschaftlern der Eidomatik zu überlassen wäre. Das Thema muss (oder sollte) in gleicher Weise die Personen interessieren, die auf die eine

192

Der menschliche Körper in der digitalen Welt

oder andere Weise dieses System replikativer Simulation anwenden. Denn das Problem des Ähnlichkeitsgrades der Bilder berührt die mit weit reichenden praktischen Folgen verbundene Frage der kognitiven Vertrauenswürdigkeit. Die Frage lautet: Meint der Umgang mit der virtuellen Wirklichkeit dasselbe wie der Umgang mit der realen Wirklichkeit? In dem bedeutenden, 1966 auf Englisch erschienenen Buch Theorie der Ähnlichkeit und Simulation hat der Wissenschaftler der ehemaligen Sowjetunion V. A. Venikov den Begriff Isofunktionalismus geprägt. Venikov zufolge besteht das Ähnlichkeitskriterium genau im Isofunktionalismus, das heißt in jenen Eigenschaften, die einem Modell ermöglichen, gegenüber den gleichen äußeren Einf lüssen auf gleiche Weise wie das Original zu reagieren. Bei einem virtuellen Modell des Gehirns wäre zum Beispiel zu fragen, inwieweit die Behauptung gerechtfertigt ist, dass das Modell isofunktional mit dem wirklichen im Schädel eingeschlossenen Gehirn ist. Wenn das erwähnte Kriterium des Isofunktionalismus angewendet wird – dieselbe Reaktion gegenüber denselben äußeren Einf lüssen –, dann scheint es mir beim derzeitigen Wissensstand allzu gewagt, die Isofunktionalität zwischen dem darstellenden Gehirn und dem dargestellten Gehirn, zwischen simulierendem Gehirn und simulierten Gehirn als gesichert anzusehen. Für die Analyse der funktionalen Divergenz zwischen Modell und Modellgegenstand mag es nützlich sein, einige weitere Deutungsnuancen des Ähnlichkeitsbegriffs und notwendigerweise auch seines Gegenteils, der Unähnlichkeit, anzuführen. K. M. Sayre und F. J. Crosson (1963), die durch ihre Beiträge zur Modellierungstheorie bekannt geworden sind, haben darauf hingewiesen, dass der generative Prozess der Unähnlichkeit endlich ist, wogegen der generative Prozess der Ähnlichkeit unendlich ist. Anders formuliert: Die Suche nach Ähnlichkeit stößt im Unterschied zur Suche nach Unähnlichkeit nicht auf einen kritischen Schwellenwert, jenseits dessen sie notwendig innehalten müsste. Sie fährt vielmehr ohne Unterbrechung fort bis ins Unendliche. Die absolute Ähnlichkeit zwischen Bild und Gegenstand ist ein Ziel, das in immer weitere Ferne rückt, je näher wir ihm zu sein glauben. Diese Lehre können wir aus den fraktalen Gegenständen ziehen.

Das gilt mutatis mutandis auch für die Ähnlichkeit im Bereich der wissenschaftlichen Modellierung. Trotz der sensationellen Entwicklungen der virtuellen Realität liegt die Hypothese, eine totale Identität zwischen Modell und Modellgegenstand zu erreichen, derzeit nicht im Bereich des Möglichen. Meiner Ansicht nach wird es auch in Zukunft dabei bleiben. Wenn man mit Hilfe eines Turing-Tests einen

193

Digitale Welt und Gestaltung

mit zwei Wirklichkeiten – einer virtuellen und einer realen Wirklichkeit – konfrontieren Beobachter bitten würde, die reale Wirklichkeit herauszufinden, würde er sehr wahrscheinlich keinen Zweifel hegen; die reale Wirklichkeit würde sich einer eindeutigen Identifizierung nicht entziehen können. Aus dieser Feststellung wäre kein Schluss auf einen durchgängigen Mangel an kognitiver Zuverlässigkeit der synthetischen Bilder zu ziehen. Die Alltagspraxis des klinischen Gebrauchs dieser Bilder beweist das Gegenteil. Auf Grund dieser in der medizinischen Praxis erzielten Erfolge lassen sich viele dazu hinreißen, in ihnen einen Sieg der wissenschaftlichen Objektivität, einen Sieg über die Subjektivität des Arztes zu erblicken. Andere dagegen weisen auf die impliziten Risiken beim Verlust des unmittelbaren Kontakts mit dem Patienten hin, unter anderem die darin angelegte Möglichkeit einer Identitätskrise des Arztes. Die Annäherung an die Krankheit – so sagen sie – ist eine Illusion, da die Tendenz zur computergestützten Diagnose in der Tat dazu führt, dass sich der Arzt nicht nur vom Patienten, sondern auch von der Krankheit entfernt. Aus dieser Sicht könnte man zugespitzt formulieren, dass die Krankheit autonom wird. Auch wenn man solche Urteile durchweg anerkennt, ist nicht auszuschließen, dass sich hinter einigen eine vorurteilsgeprägte Ablehnung der (oder ein irrationales Misstrauen gegenüber den) neuen Technologien versteckt – eine Art von Heimweh nach den « guten alten Zeiten der Öllampen und Kerzen » der ärztlichen Praxis. Diese Einstellung findet man oftmals bei jenen, die sich gegenüber den jüngsten durch diese Technologien erreichten medizinischen Fortschritten verschließen, die direkt das Wissen über den menschlichen Körper, seine Krankheiten und deren Vorhersage- und Heilungsmöglichkeiten betreffen. Meine Wertungen sollten nicht mit der puerilen Tendenz verwechselt werden, in jeder technologischen Neuigkeit wie zum Beispiel in der virtuellen Realität eine Art von Allheilmittel für alle medizinischen Probleme sehen zu wollen, zumal hinter der Beziehung zwischen Medizin und neuen Technologien die quälende Frage nach der zukünftigen Identität des Arztes steht. Es wurde gesagt, dass es für einen Roboter leichter sei, viele Wissenschaftler als einen einzigen Gärtner zu ersetzen. Wenn das noch stimmt, hätte die Identität des Arztes nichts zu befürchten. Denn im Arzt gibt es heute viel vom Wissenschaftler, aber auch – wohl kaum ein Zufall – viel vom Gärtner.

194

Der menschliche Körper in der digitalen Welt

Körper und Sehen am Beispiel der Farbe

12

13

Auf den vorhergehenden Seiten habe ich eine Reihe von Themen erörtert, die alle auf die Klärung der Frage gerichtet sind, wie unser Körper im Verlauf weniger Jahrzehnte zum Objekt und Subjekt des digitalen Wissens geworden ist. Ich habe mich eingehend mit der Tatsache auseinandergesetzt, dass dieser Prozess eine Tendenz bestätigt, die sich seit der Renaissance immer deutlicher abgezeichnet hat: das Primat des Sehens. Ich hoffe, auch hinreichend überzeugende Beispiele dafür geliefert zu haben, wie sich das Primat des Sehens in verschiedenen Bereichen der Wissenschaft und Technik bekundet.12 Dagegen habe ich die nicht weniger wichtige Frage offen gelassen, ob die neuen Technologien der Informatik zu einem besseren Verständnis des Sehens führen könnten. Seit je haben Sehen und Sprechen im Zentrum philosophischer Auseinandersetzungen gestanden. Dabei ging es (und geht es) um die Grundfrage: Ist die Welt, die wir wahrnehmen (und über die wir sprechen), wirklich die Welt oder nur ein Teil der Welt oder nur unsere Eigenwelt? Dahinter steht die alte und nie verstummte Frage der Beziehung zwischen Geist und Materie. Da es sich um eine ausgesprochen philosophische Fragestellung handelt, haben sich natürlich die Philosophen als Erste engagiert, um Antworten zu finden. In jüngster Zeit aber hat sich der Kreis der an diesem Thema Interessierten erheblich erweitert. Zu den Philosophen gesellten sich die Vertreter der Neurowissenschaften und der Kognitionswissenschaften. Der wissenschaftliche Beitrag dieser Spezialisten hat die Diskussion über dieses Thema ganz erheblich bereichert. Daraus haben gewiss auch jene Philosophen selbst Vorteil gezogen, die über die Wissenschaft, die Technik und die Sprache ref lektieren. Es ist sehr aufschlussreich, dass die Thematik der Farbe – ein in der traditionellen Philosophie des Sehens recht häufig behandeltes Thema – heute wieder, wenn auch mit unterschiedlichem Ansatz, von den erwähnten neuen Disziplinen aufgegriffen wird.13 Dies sollte nicht verwundern, denn für Philosophen und Wissenschaftler waren

12

Zu den positiven und negativen Urteilen der Vorstellung, dass in unserer Epoche das Primat des Sehens vorherrscht, vergleiche M. Jay ( 1993 ) und D. M. Levin ( 1993 ).

13

Nicht zufällig sah sich der Philosoph C. L. Hardin ( 1988 ) veranlasst, ein Buch über die Farbe zum Gebrauch der Philosophen zu schreiben.

195

Digitale Welt und Gestaltung

14

die Farben, ihre Eigentümlichkeiten und ihre Ursachen in jeder Epoche ein konstant wiederkehrendes Thema.14 Dies trifft besonders auf geschichtliche Perioden zu, in denen im Unterschied zur heutigen Epoche die Denker bei ihrem Vorhaben, einen Diskurs über die Welt in Gang zu setzen, oftmals dieselben waren, die auch kognitive Hypothesen über diese Welt entwickelten. Ich meine hierbei besonders die Denker des Altertums. In ihren Überlegungen waren die Farbphänomene immer mehr oder weniger explizit präsent, wenn sie zu verstehen suchten, wie denn der Mensch einen visuellen Bezug zu der ihn umgebenden Wirklichkeit herstellen kann. Das Motiv leuchtet ein: Bei der alltäglichen Seherfahrung beeindruckt es seit je, dass sie sich intuitiv als eine überwiegend chromatische Erfahrung konstituiert. In unserem gleichsam naiven Wirklichkeitsbezug betrifft der Sehakt gewiss die Form, die Bewegung und die Entfernung, aber ganz besonders auch die Farben. Sehen ist hauptsächlich Farbsehen. Doch in der Antike war es ausgeschlossen, das Farbproblem auf objektiver Ebene zu behandeln, weil die Vorstellungen über den Sehmechanismus bestenfalls rudimentären Charakter hatten. Es fehlten die elementaren wissenschaftlichen Voraussetzungen. Wenngleich die Entwicklungen der Geometrie, wie Aristoteles und Euklid zu Recht angenommen hatten, tatsächlich den Weg für eine Gründungsphase der geometrischen Optik freigelegt haben, stieß die physikalische Optik doch auf Schwierigkeiten. Ohne empirischen Rückhalt blieb sie diffusen Spekulationen über das Verhalten der Lichtstrahlen überantwortet. Gesichertes Wissen gab es kaum oder gar nicht. Ähnlich verhielt es sich mit der physiologischen (und psycho-physiologischen) Optik. Gewiss gab es ein reges Interesse an der Anatomie des Auges. Das bezeugen die durchaus wirklichkeitsgetreuen Beschreibungen (und Darstellungen) des Augapfels: Hornhaut, Pupille, Iris, humor aqueus, humor cristalino, humor vitreus. Doch was die Retina angeht, ihren Auf bau und ihre Funktion, ihren entscheidenden

14

Nicht zu vergessen ist, dass dieselbe Frage implizit auch in den Reflexionen von Künstlern und Kunsthistorikern gefunden werden kann. Paul Cezanne sagte: « Die Farbe ist der Ort, an dem sich unser Gehirn und das Universum treffen » ( zitiert nach E. Thompson [ 1995, S. XII ], der dieses Zitat von M. Merleau-Ponty aufnimmt ). Zur Beziehung zwischen Farbe und Wahrnehmung vgl. R. Arnheim ( 1954 ), M. Brusatin ( 1983 ).

196

Der menschliche Körper in der digitalen Welt

Beitrag für die Ausarbeitung der Bilder, ihre Rolle in der Farbwahrnehmung und achromatischen Wahrnehmung, blieben die Vorstellungen wirr und oberf lächlich. Das konnte auch gar nicht anders sein. Bekanntlich fehlten in der Antike die unerlässlichen wissenschaftlichen Kenntnisse und Beobachtungsinstrumente, um die chemischen und elektrochemischen Prozesse aufzudecken, die es der retinalen Struktur auf Zellebene ermöglichen, Lichtreize in elektrische Impulse zu verwandeln und dem Gehirn zuzuführen. Hinzu kommt, dass man bei der Untersuchung des Augapfels niemals über den Eintrittspunkt des Sehnervs hinausging und somit die Rolle des zentralen Nervensystems außer Acht ließ. Auch das ist verwunderlich, wenn man sich vergegenwärtigt, dass das Gehirn insgesamt ein geheimnisvolles Objekt war, eine formlose, gelatineartige, nicht sonderlich auffällige Masse, der eine perzeptive und intelligente Funktion zuzuerkennen nahezu peinlich war. Hier nun möchte ich kurz auf die Kontroverse über das Thema des Sehens eingehen, zu deren Protagonisten die großen Denker der Antike gehörten. Über das Streitobjekt hat der Historiker der Optik, Vasco Ronchi (1962 und 1968), einen ausführlich dokumentierten Bericht verfasst.

15

Die Kontroverse drehte sich um die Art der funktionalen Beziehung zwischen Auge und Außenwelt. Man stritt darüber, ob das Auge – wie es Alcmeone von Crotone, Anaxagoras, Demokrit und Aristoteles meinten – die Strahlen von außen empfängt oder ob es – wie es die anderen, auch die Epikuräer zu wissen glaubten – die Strahlen von innen nach außen projiziert. Für die erste Gruppe fungierte das Auge als ein Organ der Strahlenrezeption, für die zweite Gruppe als ein Organ der Strahlenemission. Die einen verstanden das Auge als Lichtstrahlfänger, die anderen als Lichtstrahlgeber.15 Aber es gab noch eine dritte Gruppe, die durch Vertreter wie Empedokles, Platon und Galen eine Zwischenposition verteidigte: Das Auge wurde von diesen gleichzeitig als Lichtstrahlfänger und Lichtstrahlgeber verstanden. Zwar stützten sich diese Annahmen auf keinerlei empirische Grundlagen; doch kühn wurden die weißen Flecken der Wissenslandschaft mit bisweilen erstaunlichen Intuitionen gefüllt. So kam es zu den abwegigen Vorstellungen, von denen uns viele über Tausende von Jahren begleitet haben und derer wir uns erst in jüngster Zeit entledigen konnten.

15

Vgl. R. Pierantonio ( 1989 ).

197

Digitale Welt und Gestaltung

Doch nicht immer erwiesen sich die Intuitionen dieser Denker als abwegig. Vielmehr erscheinen einige Einfälle eher als Beleg für eine schrankenlose prophetische Kapazität. Es sei zum Beispiel an die Betrachtungen von Demokrit und Lukrez erinnert, von denen einige seitens der zeitgenössischen Wissenschaftler der Teilchenphysik nahezu als Vorwegnahme des eigenen Forschungsprogramms betrachtet werden. Wenn man die in ferner Vergangenheit zurückliegenden Vorläufer heutiger wissenschaftlicher Entwicklungen ausmachen will, läuft man natürlich Gefahr, die Deutungen zu überdehnen. Um das zu verhindern, müssen die Metaphern ernst genommen werden. Doch ich bin überzeugt, dass sich hinter ihnen bisweilen mehr als ein unzureichendes Wissen über die erörterten Fragen verbirgt. In einer Kontroverse, wie sie in der Antike über das Sehen geführt wurde, veranschaulicht der Rückgriff auf gegensätzliche Metaphern – nach meiner Ansicht durchaus treffend – die Grundmotive gegensätzlicher philosophischer Positionen (und wissenschaftlicher oder vorwissenschaftlicher Positionen), die in der Konfrontation zwischen den Vertretern des Objektivismus und des Subjektivismus, des Physikalismus und des Phänomenismus, des Empirismus und eigener Ideen zum Ausdruck kamen. Die oben genannten Metaphern – das Auge als Lichtstrahlfänger, das Auge als Lichtstrahlgeber und das Auge als Lichtstrahlfänger-Lichtstrahlgeber – gehören in diesen Zusammenhang. Doch blieb diese Auseinandersetzung nicht auf die Antike beschränkt. In der stürmischen Geschichte der Theorien über das Sehen lebte sie mutatis mutandis weiter, bis dank der Beträge von Ibn al-Haitam, Grossatesta, Roger Bacon, Witelo und später Maurolicus, Della Porta, Kepler, Descartes und Huygens die Vorstellung vom Lichtstrahlgeber als alleiniger aktiver Quelle in der Mechanik des Sehen endgültig überwunden wurde. Aber auch wenn das zutrifft, stimmt es dennoch, dass die Hypothese vom Auge als einem gleichzeitig als Lichtstrahlfänger und Lichtstrahlgeber fungierendem Organ nicht völlig aus dem Ref lexionsbereich der visuellen Phänomene verschwunden ist. Es handelt sich selbstredend nicht darum, die Version vom Auge als Lichtstrahlgeber, so wie Platon sie sich im Timeus vorstellte, noch einmal aufzunehmen – ein vom Auge ausgehendes, reines Feuer, das sich mit einem ähnlichen von anderen Gegenständen ausgehenden Feuer trifft, um mit diesem letztlich zu einem einzigen homogenen Körper zu verschmelzen.

198

Der menschliche Körper in der digitalen Welt

Mir scheint jedoch, dass man heute – mit aller gebotenen Vorsicht – eine revidierte, von vorwissenschaftlichen Konnotationen befreite Version der platonischen Vorstellung diskutieren könnte, um einige der subtilsten erkenntnistheoretischen Implikationen des hier untersuchten Phänomens zu veranschaulichen. Diese revidierte Version dürfte jedoch ausschließlich als Metapher für ein besonderes Verständnis der zweigleisigen Beziehung zwischen den Gegenständen der Außenwelt und dem menschlichen System der visuellen Wahrnehmung Verwendung finden.

Farbe und Zweigleisigkeit Die Zweckmäßigkeit eines solchen Modells liegt meiner Ansicht nach auf der Hand, wenn man der so oft erörterten Frage nachgeht, ob es sachgerecht ist, von einer Zweigleisigkeit bei der Deutung der Prozesse zu sprechen, die das menschliche Farberleben ermöglichen. Ich beziehe mich auf die entsprechenden experimentellen Untersuchungen, wie sie seit Newton durchgeführt worden sind, besonders auf die Beiträge von Young und Helmholtz und Hering, der Gestaltpsychologen und der, ausgehend von Schultze, Verrey und Ramón y Cajal, erzielten Fortschritte im Bereich der Neurobiologie. Dabei sollen die jüngst aufgeworfenen Fragen, wie sie von den Untersuchungen über die künstliche Intelligenz und von den neuen durch die Informationstechnologie erschlossenen Bereiche der digitalisierten Farbbilder aufgeworfen worden sind, nicht ausgeklammert werden. Nicht zu vergessen sind ferner die theoretischen Beiträge von Philosophen, die wie Husserl, Neurath, MerleauPonty und Goodman in die Kontroverse zwischen Physikalismus und Phänomenismus eingriffen oder die wie Wittgenstein versuchten, sie auf sprachlicher Ebene zu überwinden. Die Tendenz, die Metapher Platons von der Zweigleisigkeit in neuer Aufmachung zur Diskussion zu stellen, kann auf Vorläufer der Moderne zurückblicken. Descartes war wohl der erste von ihnen. Er schreibt in der Dioptrica: « Man muss anerkennen, das die Sehgegenstände mit Hilfe eines Agens wahrgenommen werden können, das – in ihnen gegenwärtig – auf die Augen zustrebt, aber auch mit Hilfe eines Agens, das – im Auge gegenwärtig – auf die Gegenstände zustrebt » (1953, S. 183). Doch findet sich bei Descartes eine radikal neue Vorstellung, deren frühester Vorgänger Hippokrates gewesen ist: Die Kontrolle der zweigleisigen Zirkulation, die vom Gegenstand zum Auge führt und umgekehrt, wird bei Descartes dem Gehirn zugeordnet. Er schreibt ferner: « Die Bilder der Gegenstände bilden sich nicht nur auf dem Hintergrund des Auges, sondern gehen weiter, bis sie das Gehirn erreichen » (S. 215).

199

Digitale Welt und Gestaltung

Newton, obwohl in vieler Hinsicht Descartes verpf lichtet, folgt ihm aber nicht auf diesem Weg. Er will auf Grund einer genauen Wahl des Untersuchungsbereichs seiner experimentellen Arbeiten über das Licht in den Grenzen der geometrischen und physikalischen Optik bleiben. Sein Interesse richtet sich auf die Lichteigenschaften und auf die Art und Weise, wie sich die Lichtstrahlen bei der Vermittlung zwischen natürlichen Körpern und dem menschlichen Auge verhalten. Bei seinen Farbexperimenten folgt er den Spuren von Descartes und Hooke, klammert aber die Farben aus, die von der – wie er sagt – « Vorstellungskraft » ( power of imagination) abhängen (1952, S. 158). Auch wenn man bei ihm viele Anleihen beim Platonismus (und Neo-Platonismus) finden kann, so steht doch außer Zweifel, dass beim Wissenschaftler Newton Aristoteles die Oberhand behält. Ganz der in jungen Jahren erfolgten Lektüre von Aristoteles’ Werken verhaftet, bleibt ihm das interaktive Modell Platos fremd. Er begegnet ihm sogar mit Misstrauen. Seine Optik ist ohne Abstriche der physikalistischen Idee der Eingleisigkeit verbunden, die vom Gegenstand aufs Auge gerichtet ist. Aber ist das alles so einfach? Ganz gewiss nicht. Auch wenn es sich um ein allzu oft aufgegriffenes und missbrauchtes Thema handelt, mag es zum besseren Verständnis der Sachlage nützlich sein, auf Goethes berühmte Polemik gegen die newtonsche Farbtheorie zu rekurrieren. Bekanntlich kritisiert Goethe den Newtons Theorie unterliegenden rein physikalischen Ansatz; er macht ihn sogar lächerlich. Doch seinem Versuch der « Enthüllung der newtonschen Theorie » war kein Erfolg beschert ( J. W. Goethe, 1993). Die zeitgenössische Wissenschaft hat jenseits allen begründeten Zweifels bewiesen, dass Goethe Unrecht hatte. Wenn man bei der platonischen Metapher bleibt, kann man festhalten: Der Irrtum Goethes lag darin, dass er bei seinem Vorhaben, die Bedeutung der psychophysiologischen und kulturellen – schon bei Galilei und Berkeley (G. Toraldo aus Frankreich, 1986) erkannten – Zweigleisigkeit zu erhärten, es als notwendig erachtet hat, den physikalischen Weg des Lichtes (und der Farbe) insgesamt abzulehnen. Goethe liefert ein Zerrbild der newtonschen Theorien, wie es übrigens immer bei extrem polemischen Stellungnahmen geschieht.

16

Natürlich war Newton ein genialer Vertreter einer mechanistischen Interpretation der Naturphänomene, doch seine Theorien waren nicht so ungeschliffen, wie Goethe aus Hang zur Polemik glauben machen wollte. Newton wundert sich zum Beispiel,16 wenn er in er in einer für ihn untypischen Weise erkennt, dass die Farben

16

200

I. Newton, o. D., S. 2. Vgl. R. S. Westfall ( 1980 ).

Der menschliche Körper in der digitalen Welt

so etwas Ähnliches wie « Phantome » sind. Als Phantome lassen sie sich nicht mit den Kategorien der physikalischen Optik behandeln, sondern nur mit anderen, offensichtlich nicht von ihm stammenden Kategorien.

17

18

In seiner Optik findet sich ein berühmter Abschnitt, in dem er die grundlegende Rolle des Sinnenapparats für die Farbwahrnehmung anerkennt: « Die Farben des Gegenstandes sind nichts anderes als eine Disposition, diese oder jene Art von Strahlen stärker zu ref lektieren; bei den Strahlen sind [ die Farben ] nichts anderes als die Disposition [ der Strahlen ], diese oder jene Bewegung im Sinnesapparat zu verbreiten; im Sinnesapparat verwandeln sich [ die Strahlen ] in Empfindungen dieser Bewegungen in der Form von Farben. » 17 Eine Klärung der Farbtheorie Goethes im Gegensatz zur Farbtheorie Newtons schuldet man Werner Heisenberg, der in einem 1941 gehaltenen Vortrag ausführlich darauf eingegangen ist.18 Bekanntlich gehörte Heisenberg zu jener Gruppe von Physikern, die in der Quantenmechanik dazu beigetragen haben, die Gültigkeit wenn auch nicht aller, so doch einiger Grundvoraussetzungen der klassischen Mechanik in Zweifel zu ziehen, zu deren Auf bau Newton als einer der wichtigsten Exponenten beigesteuert hatte. Dennoch lässt Heisenberg keinen Zweifel daran, dass für die moderne Physik die Farbtheorie Newtons und nicht die Goethes wissenschaftlich einwandfrei ist. Doch er belässt es nicht bei dieser Feststellung. Er versucht gleichsam, zwischen beiden Theorien zu vermitteln. Ihm zufolge ist die Theorie Goethes wissenschaftlich nicht haltbar, wenn sie als eine Alternative zur physikalischen Theorie des farbigen Lichts vorgetragen wird – und das war die Vorstellung Goethes. Indessen ändert sich die Sachlage, wenn sie nur als eine Theorie der psychologischen, physiologischen und ästhetischen Aspekte des Gebrauchs (und der Herstellung) von Farbmaterial seitens der Maler, Handwerker und Hersteller von Farben und Lacken beurteilt wird. In diesem Fall gewinnt sie Eigenständigkeit und konstituiert ein eigenes Untersuchungsfeld. Kurz gefasst, wären nach Heisenberg beide Theorien auf je eigene Weise gerechtfertigt und letztlich nicht vergleichbar, insofern sie « zwei ganz verschiedenen Schichten der Wirklichkeit angehören ».

17

I. Newton ( 1952, S. 125 ).

18

W. Heisenberg ( 1959 ). Vgl. D. Brinkmann und E. J. Walter ( 1947 ).

201

Digitale Welt und Gestaltung

Natürlich besteht der Risiko dieses, wenn man so will, Kompromisses zwischen beiden Theorien darin – und Heisenberg war sich dessen durchaus bewusst –, die Wirklichkeit in zwei abgeschlossene Bereiche zu spalten, also wiederum die Dichotomie zwischen objektiver Wirklichkeit und subjektiver Wirklichkeit der Farbe festzuschreiben. Auf der einen Seite stünde die physische, einer abstrakten mathematischen Formalisierung zugänglichen Wirklichkeit; auf der anderen Seite unsere alltägliche sinnliche, emotive und kreative Erfahrung der Farbwahrnehmung (und Farbherstellung), die sich schwerlich mit mathematischen Verfahren erschließen lässt. Heisenberg lässt offen, wie man dieses Risiko umgehen könnte. Doch gibt er zu verstehen, dass ein möglicher Ausweg darin bestehen könnte, den neurophysiologischen Aspekten des Sehens eine immer größere Aufmerksamkeit zu widmen, weil alles in allem – wie Heisenberg schreibt – « ... die Reaktionen des Auges … ihre Erklärung in dem feineren biologischen Bau der Netzhaut und der Sehnerven (die von dort den Farbeneindruck zum Gehirn weiterleiten) finden [müssen] » (S. 90). Sie haben den Zweck, den Farbeindruck zum Gehirn zu übertragen. Darüber hinaus schließt er nicht aus, dass theoretisch die sich dabei abspielenden chemischen (und elektrischen) Prozesse Gegenstand mathematischer Behandlung sein könnten. Wie dem auch sei, der Vorschlag Heisenbergs geht weit über die Grenzen des Streits zwischen Goethe und Newton hinaus und leitet wieder zu der Hypothese hin, dass die Farbwahrnehmung das Ergebnis einer in zwei Richtungen – und nicht nur in eine Richtung – verlaufenden Beziehung zwischen Außenwelt und unserem Gehirn sein könnte. Diese Hypothese stellt erneut das intuitive Modell Platons zur Debatte, jetzt aber in wissenschaftlicher Terminologie. Zu diesen neuen Perspektiven haben besonders die Entwicklungen der Neurowissenschaften während der vergangenen Jahrzehnte beigetragen. Es handelt sich dabei nicht nur um neue Perspektiven für die Wissenschaft, sondern auch für die Philosophie. Zu den zwei wichtigsten Exponenten der zeitgenössischen neurobiologischen Forschung der Farbwahrnehmung zählen David H. Hubel und Semir Zeki. Aus offensichtlichen Gründen wage ich nicht auf Themen einzugehen, so weit sie im Kompetenzbereich dieser Spezialisten liegen. Ich möchte aber einige Überlegungen anstellen, die auf allgemeiner Ebene mit diesen Forschungsbereichen zu tun haben. Das lässt sich nicht umgehen, da die durch sie und auch andere Wissenschaftler gewonnenen wissenschaftlichen Ergebnisse einen unerlässlichen Bezugspunkt für das hier behandelte Thema bilden. Meiner Ansicht nach wird die Theorie der Zweigleisigkeit in der neurobiologischen Forschung vollauf bestätigt. Das wird besonders klar bei der Untersuchung des bidirektionalen Verlaufs vom Auge zur Hirnrinde und von der Hirnrinde zum Auge.

202

Der menschliche Körper in der digitalen Welt

Nicht zufällig wird dieser Weg mit Ausdrücken der Übertragung und Rückübertragung, des Flusses und Gegenf lusses, des bottom-up und des top-down beschrieben. In einem engeren analytischen Bereich erscheint der bidirektionale Verlauf auf erhellende Weise von David Marr (1982) in seiner Theorie der Frühwahrnehmung (early vision) untersucht zu sein, ferner auch in der von Tommaso Poggio auf den Spuren von Marr entdeckten « umgekehrten Optik ». Gewiss ist das für die in diesem Bereich tätigen Wissenschaftler nichts Neues. Seit langem wissen sie, dass ein Netzhautbild, verglichen mit dem sozusagen endgültigen Bild, grob, f lüchtig und mehrdeutig (gleichzeitig zu arm und zu reich an Informationen) ist. Auch wenn wir über viele, durchaus wichtige Details noch im Dunklen tappen, steht es für die Wissenschaftler fest, dass das Endbild sich über einen differenzierten Prozess der Wiederverarbeitung auf baut, der hauptsächlich, aber nicht ausschließlich in der Hirnrinde der Primärwahrnehmung abläuft. S. Zeki (1993, S. 241) hat darauf hingewiesen, dass die Hirnrinde der Primärwahrnehmung eher als ein Organ des Kategorisierens und weniger als ein Organ des Analysierens fungiert. Es ist offenkundig, dass speziell die Arbeit des Kategorisierens – im Unterschied zur Arbeit des Analysierens – auf der einen Seite einen Prozess der Vereinfachung beinhaltet, ein Ausschalten überf lüssiger Informationen, und auf der anderen Seite eine Bündelung und wesentliche Bereicherung der nützlichen Informationen. Das zurückgekehrte Bild, das wir als das Endbild oder endgültiges Bild bezeichnet haben, ist unter anderem Ergebnis eines konstruktiven (oder rekonstruktiven) Prozesses, der dem von Mach (1922) und von Richard Avenarius in den achtziger Jahren des 19. Jahrhunderts ref lektiertem Prinzip des geringsten Aufwands entspricht – also einem auf maximale Wirtschaftlichkeit ausgerichteten Verhalten, bei dem Lösungen bevorzugt werden, die funktionell etwas bringen, und weniger Lösungen, die logischer, kohärenter oder eleganter erscheinen. Diese Konzeption prägt auch die « utilitaristische Theorie » von V. S. Ramachandran (1990, S. 347), nach der die visuelle Wahrnehmung ein, wie er sagt, « bag of tricks » ist. Unter dieser kuriosen Analogie versteht er die Gesamtheit der Bündelungen, Verfahren und Stratageme, mit denen das visuelle, permanent auf der Suche nach Einfachheit operierende Wahrnehmungssystem sich ein äußerst hohes Leistungsniveau sichert. Das Gehirn als der komplexeste Organismus auf unserem Planeten zieht Einfachheit vor. Um diese Einfachheit zu erreichen, setzt es, wie Ramachandran schreibt, die Strategie ein, komplizierte Elemente auszuschalten, aber auch und vor

203

Digitale Welt und Gestaltung

19

allem eine Strategie, bestehende Defizite durch eigens dafür geschaffene Elemente auszugleichen. Mit großer Wahrscheinlichkeit können viele der heute noch offenen (und strittigen) Fragen bezüglich der Farbe – wie Farbgegensatz, Simultankontrast und Farbkonstanz – vornehmlich abhängig von diesen Strategien erklärt werden. Was für die Farbwahrnehmung gilt, trifft wahrscheinlich auch auf Formwahrnehmung, Bewegungswahrnehmung und Tiefenschärfe zu.19 Neue Perspektiven wurden freigelegt, um die Kenntnisse darüber zu erweitern und zu präzisieren, wie der optische Signalf luss im Gehirn von der Netzhaut über das ganglion geniculi bis zur Kortex und Subkortex verläuft. Obgleich es bislang noch an Kenntnissen über sehr viele, nach Ansicht der Neurobiologen vielleicht der wichtigsten Aspekte fehlt, ist das Gehirn nicht mehr eine Blackbox, und zwar dank einiger bemerkenswerter Entwicklungen der Elektronenmikroskopie, die einen visuellen Zugang zu seinen verborgensten Gewebestrukturen ermöglichen, aber in nicht geringerem Maß auch dank der jüngsten Entwicklungen im Bereich des medical imaging. Es möge genügen, die Ergebnisse der PET (Positron Emission Tomography) bei der Untersuchung der neuronalen Aktivitäten in vivo zu erwähnen. Wenn wir heute von der Zweigleisigkeit der zerebralen Prozesse sprechen, beginnen wir, uns auf gesichertem Boden zu bewegen und zu verstehen, wie diese Zweigleisigkeit funktioniert.

Farben und künstliches Sehen Doch wenn man einmal über die Rolle der äußerst leistungsfähigen technischen Apparaturen für Beobachtungszwecke hinausblickt, kann man nicht die Forschungsbeiträge der künstlichen Intelligenz und Robotik übergehen. Ich meine konkret die Arbeiten über das künstliche Sehen.

20

204

Für unser Thema besitzen diese Beiträge ganz besondere Relevanz. Neben dem natürlichen Sehen, also der Fähigkeit des größten Teils der Lebewesen, die Außenwelt visuell wahrzunehmen, ist nun aus der Kopplung von Informatik und Mikroelektronik das künstliche Sehen entstanden, also die Fähigkeit einiger technischer Systeme (Roboter), mit Hilfe von Sensoren bestimmte Gegenstände oder räumliche Gruppierungen von Gegenständen der Außenwelt zu sehen.20

19

Vgl. D. Marini ( 1995a und b, 1995 – 1996 ).

20

L. Harris und M. Jenkin ( 1993 ). Vgl. R. H. Haralick und L. G. Shapiro ( 1993 ).

Der menschliche Körper in der digitalen Welt

21

22

23

24

Die vergleichende Analyse dieser beiden Wahrnehmungssysteme, des biologischen und des künstlichen, trifft ins Zentrum einiger traditionell philosophischer Fragen. Es stellt sich das Problem der Beziehung zwischen qualia und properties 21 – ein Problem, das über Jahrhunderte die erkenntnistheoretische Diskussion über die visuelle Wahrnehmung begleitet hat. Ist aber die Sachlage bereits äußerst komplex, wenn man von natürlichem Sehen handelt, wird sie noch komplexer, wenn man über künstliches Sehen nachdenkt. Und noch komplexer wird es, wenn nicht das künstliche Sehen allgemein analysiert wird, sondern speziell das Farbsehen. Dass die Roboter Formen, Bewegung und Raumtiefe erkennen können, ist nun eine hinlänglich bekannte Tatsache; weniger hingegen, dass sie Farben erkennen können. Die in diese Richtung zielenden Versuche sind bislang alles andere als überzeugend. Der Grund dafür liegt in der Tatsache, dass in der künstlichen visuellen Wahrnehmung bisher die Zweigleisigkeit fehlt, die für das natürliche Farbsehen von grundlegender Bedeutung ist.22 Wir haben bereits von der strategischen Rolle der Einfachheit bei der visuellen Wahrnehmung gesprochen. Es müssen aber noch einige Missverständnisse ausgeräumt werden. Auch wenn es paradox klingen mag, ist die Umsetzung dieser Strategie sehr komplex. Tommaso Poggio bemerkt: « Die Einfachheit ist trügerisch » (1989, S. 279). Unter klarem Bezug auf das künstliche Sehen fährt er fort: « Eine Sache ist es, ein Bild mit Hilfe einer digitalen Fernsehkamera zu digitalisieren; eine andere Sache ist es, zu verstehen und zu beschreiben, was denn das Bild darstellt. » Das gilt auch für das interessante Computermodell, mit dessen Hilfe man versucht hat, die Netzhaut künstlich zu simulieren. Ich denke hierbei an die so genannte « Siliziumnetzhaut », deren Schaltplan nach Aussage ihrer Autoren in der Lage sei, eine Antwort zu geben, die « dem Verhalten der menschlichen Netzhaut sehr nahe kommt ».23 In letzter Zeit sind neue Vorrichtungen zur Simulation des natürlichen Sehens entwickelt worden. Darunter finden sich die virtuellen, computererzeugten 3D-Bilder, bekannt als virtuelle Realität, interaktive synthetische Bilder mit äußerst hohem Grad an Wirklichkeitstreue.24 In diesen Bildern finden sich alle Elemente,

21

N. Goodman ( 1996, S. 130 und 136 ).

22

K. K. De Valois und F. L. Kooi ( 1993 ).

23

M. A. Mahowald und C. Mead ( 1991, S. 46 – 48 ).

24

Vgl. T. Maldonado ( 1992 ).

205

Digitale Welt und Gestaltung

die unsere Erfahrung der Wirklichkeit kennzeichnen, ohne die Möglichkeit der Immersion seitens des Beobachters und die Einbeziehung auch des Tastsinns und des Hörsinns auszuschließen. Die virtuelle Realität erweist sich nicht nur als ein nützliches Verfahren, um den Sehprozess zu simulieren, sondern auch als geeignet, das Endresultat eines solchen Prozesses nachzuahmen, was wir als Endbild oder endgültiges Bild bezeichnet haben. Dieser Aspekt verdient großes Interesse, weil er den Weg zu einer sachgerechteren Analyse der Beziehung zwischen Realität und Virtualität in der Farbwahrnehmung freilegt. Farben existieren bekanntlich nur in unserem Kopf, sie sind wahre virtuelle Konstrukte unseres Gehirns. Deshalb ermöglicht das virtuelle Modell als Simulation dieser Konstrukte ein besseres Verständnis der wirklichen Farbwahrnehmung. So gesehen verneint die virtuelle Farbe nicht einen Bezug zur Wirklichkeit, sondern bejaht ihn vielmehr.

206

Digitale Welt und Gestaltung

Noch einmal die Frage nach der Technik *

*

7. Kapitel aus Memoria e conoscenza . Sulle sorti del sapere nella prospettiva digitale, Feltrinelli, Mailand 2005, S. 200–224.

209

Noch einmal die Frage nach der Technik

Die Philosophen der Technik Mit gutem Recht kann man behaupten, dass wir heute in einem besonders innovationsreichen Moment der langen (und verwickelten) Geschichte der Ref lexion über die Technik leben. In den letzten Jahrzehnten kann man eine immer stärker sich ausweitende Tendenz beobachten, zu jenen Deutungsschemata idealistischen Zuschnitts auf kritische Distanz zu gehen, die seit je alle Versuche beeinf lusst und oftmals geschwächt haben, die Technik zu einen Gegenstand der Ref lexion zu machen.

01

Ich meine besonders eine philosophische Richtung, die eine führende Rolle in der zeitgenössischen Philosophie der Technik gespielt hat, und zwar die deutsche Philosophie der Technik. Es möge genügen, zum Beispiel an die Beiträge von E. Zschimmer (1914) und F. Dessauer (1927 und 1959) zu erinnern, zwei Ingenieure-Wissenschaftler-Philosophen, die in der Tradition von Hegel und Kant stehen.01 Trotz einiger durchaus anregender Aspekte in ihrem Werk waren diese Fachleute überzeugt, dass die von der Technik aufgeworfenen Fragen im Rahmen technikimmanenter Überlegungen beantwortet werden müssten. Die Technik sei als ein autonomer Bereich zu betrachten, ein geschlossenes System – ein System, das sich aus sich selbst erklärt (und entwickelt), ohne auf exogene Faktoren zurückgreifen zu müssen. Mit einer heute (allzu sehr) in Mode stehenden Terminologie könnte man sagen, dass für diese Autoren die Technik autopoetischen Charakter hat. Dessauer lässt sogar durchblicken – platonisch (und aristotelisch) –, dass die Formen der technischen Objekte bereits in einem Idealkatalog von Urformen enthalten seien. Technik sei nichts anderes als die Entfaltung dieser Formen. Er belässt es nicht dabei. Vielmehr behauptet er darüber hinaus, dass man die Technik nicht als eine angewandte Wissenschaft betrachten sollte, sondern als vielleicht wirksamste Art und Weise, sich der Fesseln der Immanenz zu entledigen. Im Rahmen des Transzendentalidealismus von Kant wagt Dessauer eine Art Revision oder besser eine Ergänzung der kantschen Kritiken. Den drei Kritiken Kants – der reinen Vernunft, der praktischen Vernunft und des Urteils – fügt er eine vierte Kritik hinzu : die Kritik des technischen Handelns. Darunter versteht er ein Handeln, das den Rahmen der bloßen Technik weit übersteigt, also ein Handeln, das als Moment der Vermittlung zwischen den Gegenständen « für uns » und den Gegenständen « an sich »

01

Vgl. T. Maldonado ( 1979 ), ferner auch E. Zschimmer, Philosophie der Technik, Eugen Diederichs, Jena 1914; F. Dessauer, Philosophie der Technik, Cohen Verlag, Bonn 1927 und Streit um die Technik, J. Knecht, Frankfurt am Main 1956.

211

Digitale Welt und Gestaltung

02

03

zwischen den Phänomenen und den noumena fungiert; ein technisches Handeln, das sich mit dem Anspruch auf absolute Autonomie als autonom nicht nur gegenüber der Wissenschaft, sondern auch – geradezu paradox – gegenüber der Technik selbst erklärt. 02 Wenngleich von ganz anderen philosophischen Voraussetzungen ausgehend, liefern die Schriften Heideggers über die Technik (1954, 1957, 1976a, 1976b, 1989) 03 , die heute zu diesem Zweck (und Unzweck) beinah überall zitiert werden, Beispiele für denselben spekulativen Ansatz zur Behandlung des Problems. Er macht aus der Technik – oder besser aus dem ‹Wesen der Technik » – einen Gegenstand von selbstbezogenen, bisweilen undurchdringlichen etymologisch-lexikalischen Tüfteleien. In seiner schon sprichwörtlich gestelzten Sprache, die seinen Denkstil auszeichnet, untersucht er das Vorhaben (anderer und seiner selbst), die « Technik geistig in die Hand zu bekommen », was mit anderen Worten bedeutet, die Technik zu unterwerfen und beherrschen zu wollen. Über die subtilen ontologischen Folgen des « In-die-Hand-Nehmens » hatte sich Heidegger, ohne sich explizit auf die Technik zu beziehen, schon in Sein und Zeit (1927) ausgelassen, als er seine berühmte Unterscheidung zwischen Zuhandenheit und Vorhandenheit einführte.

02

Zu den nahezu « mystischen » Aspekten von Dessauers Philosophie der Technik vergleiche G. Ropohl ( 1988 ). Doch in der deutschen Philosophie der Technik ist auch eine Persönlichkeit vertreten, die eine von Zschimmer und Dessauer erheblich abweichende Tendenz exemplifiziert. Ich meine Ernst Kapp, der mit Recht als der Begründer der « Philosophie der Technik », so wie wir sie heute verstehen, betrachtet wird und dessen langen und bewegten intellektuellen und persönlichen Werdegang der Historiker C. Mitcham ( 1994 ) in einer faszinierenden Untersuchung nachgezeichnet hat. Kapp ( 1877 ) ist der Verfasser des ersten systematischen Werkes über die neue Disziplin. Der Essay ist reich an geradezu prophetischen Intuitionen. Unter anderem kündigt er das Zeitalter der « Universaltelegrafie » an, das – mit der erforderlichen terminologischen Aktualisierung – mit unserem heutigen Internet verglichen werden kann. Und nicht nur das, er theoretisiert über die « Telegrafie als eine Art Verlängerung unseres Nervensystems », ein Vorschlag, der bei den heutigen Theoretikern der Künstlichen Intelligenz und den Anhängern einer verallgemeinerten Hybridisierung zwischen Maschine und Organismus helle Freude auslösen dürfte.

03

M. Heidegger, « Die Frage nach der Technik », in: Vorträge und Aufsätze, G. Neske, Pfullingen 1954; Der Satz vom Grund, G. Neske, Pfullingen 1957; « Die Kehre », in: Die Technik und die Kehre, Neske, Pfullingen 1976a; « Nur ein Gott kann uns retten », Interview, in: Der Spiegel, 31. Mai 1976b; Überlieferte Sprache und Technische Sprache, Erker, St. Gallen 1989.

212

Noch einmal die Frage nach der Technik

04

05

In der gegenwärtigen Debatte über die neuen Technologien haben zwei bekannte Spezialisten der Informatik, der Künstlichen Intelligenz und der Entscheidungstheorie, T. Winograd und F. Flores 04 , diesen Kategorien eine direkten Bezug zum hier erörterten Thema bescheinigt. Sie gehen so weit, in diesen beiden Kategorien die Möglichkeit angelegt zu sehen « [to] alter our conception of computers and our approach to computer design ». 05 In polemischer Auseinandersetzung mit anderen Fachleuten aus demselben Gebiet versuchen Winograd und Flores zu beweisen, dass die erwähnten Technologien die « rationalistische Tradition » nicht bestätigen, sondern vielmehr teilweise unterlaufen – was in gewisser Hinsicht zutreffen mag. Doch auf der Ebene logischer Schlüssigkeit lässt sich schwerlich ein unanfechtbarer Tatbestand übergehen : Die Entstehung und Entwicklung des Computers ist bekanntlich an Vorläufer wie Descartes, Pascal, Leibniz, Babbage und Boole als archetypische Vertreter gerade dieser rationalistischen Tradition gebunden. Selbst wenn sie die Bindung an diese Tradition einräumen, beeilen sich Winograd und Flores, darauf hinzuweisen, dass sich in der Rationalität dieser Vorläufer Elemente finden, derer man sich entledigen müsse, insofern sie heute die Lösung zahlreicher sich im Bereich der Informatik und der Künstlichen Intelligenz stellender Probleme durchkreuzen. Diese Fragestellung ist nicht neu. Es handelt sich um die alte Frage der Aktualität (oder Inaktualität) jener kognitiven Strategien, die es in den letzten Jahrhunderten von F. Bacon bis heute ermöglicht haben, in den Bereichen der wissenschaftlichen Entdeckung und der technologischen Innovation zu überragenden Ergebnissen zu gelangen. Diese wissenschaftliche und technologische Innovation stand und steht bis heute im Zentrum der Debatte unter Philosophen (und Wissenschaftlern). Einige – es werden immer weniger – bestehen verbissen darauf, der technisch-wissenschaftlichen Forschungsmethodologie eine universale Gültigkeit, eine absolute Objektivität zuzuweisen. Andere stellen sie im Namen des Pluralismus und Relativismus zur Diskussion. Und wieder andere hypostasieren eine Vermittlung zwischen diesen beiden Extrempositionen oder lehnen sie glattweg ab. Diese Debatte dreht sich um den Kern der logisch-erkenntnistheoretischen Grundlagen wissenschaftlicher Unternehmungen.

04

05

T. Winograd und F. Flores ( 1986 ).

Wenn ich mich nicht irre, hat H. L. Dreyfus ( 1967 und 1995 ) als Erster eine derartige Hypothese – Heidegger als Philosoph der neuen Technologien! – gewagt. Zur Kritik an Heideggers Denken über die Technik vergleiche T. Rockmore ( 1995 ).

213

Digitale Welt und Gestaltung

06

Folglich fragen Winograd und Flores vollauf zu Recht nach der der Beziehung zwischen rationalistischer Tradition und neuen Technologien innewohnenden Problematik. Bekanntlich hat I. Hacking (1985) 06 – gestützt auf die Arbeiten des Wissenschaftshistorikers A. C. Crombie – den Gedanken einer Vielfalt von « wissenschaftlichen Denkstilen » in die Debatte eingebracht. Wenn man diesen Gedanken akzeptiert, wäre theoretisch nichts gegen den Versuch der Autoren einzuwenden, den vorherrschenden Denkstil der « rationalistischen Tradition » in Frage zu stellen und den Weg für einen neuen Stil freizulegen, der an die Stelle des vorhergehenden zu treten hätte. Um die Stichhaltigkeit dieser Argumentation zu erhärten, ist es ungemein wichtig, klar herauszustellen, welche Elemente im bis heute vorherrschenden – und somit auszumusternden – Denkstil als obsolet und schädlich betrachtet werden. Die Autoren lassen an diesem Punkt Deutlichkeit vermissen; und das Wenige, was sich nachvollziehen lässt, entbehrt der Überzeugungskraft. Alles deutet darauf hin, dass die Elemente, an deren Entfernung ihnen gelegen ist, mit der banalen positivistischen Konzeption der Vernunft zu tun haben. Im Grunde geht es darum, zum zigsten Mal die längst säkularisierte « Göttin Vernunft » auf die Anklagebank zu zerren. Aber wenn es dabei bliebe, weitere Beweise dafür zu liefern, dass die Vernunft nicht frei von Unvernunft ist – was wohl niemand in Zweifel stellen wird –, dann lässt sich schwer nachvollziehen, warum gerade Heidegger mit seiner sperrigen, schroffen Terminologie bemüht werden muss. Um gegen eine derart karikatureske Version eines monolithischen, niemals von Zweifeln und Unsicherheiten heimgesuchten Rationalismus zu argumentieren, hätten einige wenige Beispiele unserer Alltagserfahrung genügt; also ein pragmatischer Ansatz, low profile. Stattdessen haben es die Autoren vorgezogen, das Thema unter Nutzung der schweren Geschütze aus dem heideggerschen Begriffsarsenal anzugehen – eine im philosophischen Bereich zumindest verwirrende Wahl. Verwirrend, weil man von Wissenschaftlern, die sich der Erforschung der logisch-erkenntnistheoretischen Folgen der conception of computers und des computer design widmen, eine andere Wahl erwartet hätte, wenn sie denn überhaupt philosophisch zu sein hätte. Obgleich im Werk von Winograd und Flores Wissenschaftler wie Tarski, Kuhn, Lakatos, Davidson, Hintikka, Putnam, Searle, Apel und Habermas erwähnt werden – bedeutende Protagonisten in der Diskussion über die Rationalität und ihre Grenzen –, scheinen die Autoren deren Argumenten nicht sonderlich zugetan, mit Ausnahme der Ideen von Searle. Die Szene wird von Heidegger beherrscht, wenngleich – das sei nebenbei gesagt – der Bezug auf

06

I. Hacking, « Styles of Scientific Reasoning », in: J. Rajchman ( Hrsg. ), Post-analytic Philosophy, Columbia University Press, New York 1985.

214

Noch einmal die Frage nach der Technik

07

08

Heidegger oftmals ein nur annäherndes Verständnis von dessen Werk durchscheinen lässt. Zudem glaube ich, dass ein Heidegger-Forscher starke Zweifel an einigen allzu gewagten Schlussfolgerungen der Autoren anmelden würde. 07 Bekanntlich führt das recht gängige Verfahren, Kategorien (Begriffe) aus einem Wissensgebiet in ein anderes zu übertragen, nicht immer zu positiven Ergebnissen. Im vorliegenden Fall handelt es sich um die Übertragung von Begriffen der heideggerschen Philosophie auf die Informatik und die Künstliche Intelligenz und sogar auf die Unternehmensorganisation. Dabei wird vergessen, dass derartige Begriffe als ausgesprochen philosophische Konstrukte nur im Kontext eines Diskurses der Philosophie, und speziell der heideggerschen Philosophie, einen Sinn haben (wenn sie denn einen Sinn haben). 08 Die Schwierigkeiten nehmen noch zu, wenn die Autoren unvermittelt behaupten: « Our commitment is to develop a new ground for rationality. » An diesem Punkt wäre zu fragen: Ist die These tragfähig, dass Heidegger bei der Suche nach einer neuen Rationalität Hilfe bieten kann, einer Rationalität, die den Anforderungen der neuen Technologien gerecht wird ? Ich halte dies für nicht praktikabel. Man kann sich schwer vorstellen, wie die logisch-erkenntnistheoretischen Fragestellungen, mit denen sich heute die Forscher – einschließlich Winograd und Flores – in diesen Technologien auseinandersetzen, Antworten (oder Anregungen) von einer Philosophie erhalten können, die die Technik in ontologischen Begriffen denkt und nie (oder fast nie) in logisch-erkenntnistheoretischen. Außerdem grenzt es ans Bizarre, auf ein durchweg so spärlich « transparentes » Denken wie das von Heidegger zurückzugreifen, um die Interaktion zwischen Computer und Nutzer « transparenter » zu gestalten, also anzunehmen, dass ein Denken, das ganz und gar nicht user-friendly ist, uns Begriff lichkeiten liefern könnte, die den Computer user-friendly machen.

07

Bisweilen kommt der Verdacht auf, dass das seit je in Frankreich und nun auch in den Vereinigten Staaten ( und Italien ) zu verzeichnende, geradezu versessene Interesse an Heidegger nicht philosophische Wurzeln hat. In jüngster Zeit « markiert Heidegger einen Trend» ( um einen nicht zufällig aus dem Bereich der Mode stammenden Ausdruck zu nutzen ). Heidegger zu zitieren, kommt einer Art von Passwort als Mittel der Eigenidentifikation gleich.

08

Es ist nicht leicht, der Versuchung zu widerstehen – und wer kann von sich behaupten, ihr niemals nachgegeben zu haben ? –, die einer bestimmten Diskurswelt eigenen Kategorien unbefangen auf eine andere Diskurswelt zu übertragen. Doch wenn das in Frage stehende Thema die Technik betrifft, sind die damit verbundenen Risiken zu hoch. Das Hauptrisiko besteht darin, von diesen Begriffen nur einen metaphorischen Gebrauch zu machen.

215

Digitale Welt und Gestaltung

09

Ich habe mich bei den Vertretern der deutschen Philosophie der Technik und besonders bei Heidegger (und seinem Einf luss) aufgehalten, weil sie nach meiner Ansicht recht gut eine Herangehensweise an die Frage der Technik veranschaulichen, die – außerhalb des engen Kreises der Philosophen – heute von vielen Seiten als zu weit ab von der Wirklichkeit beurteilt wird. Das sollte nicht verwundern. In einer Epoche wie der unsrigen entfaltet sich die Technik vor allem dank der neuen Technologien als eine Wirklichkeit, die sich in überwältigendem Maße auf alle Aspekte unseres Lebens auswirkt. Sie präsentiert uns nicht mehr wie früher Fragen überwiegend philosophischen Gehalts, sondern auch und vielleicht vor allem Fragen, wie man mit ethischen, sozialen und kulturellen bis hin zu politischen Problemen umgehen kann, die mit dem Entwurf der globalen Digitalisierung unserer Gesellschaft verbunden sind. 09

Mittelbare und unmittelbare Technik

10

11

Angesichts dieser neuen Sachlage scheint eine drastische Revision der « Art und Weise, die Technik zu denken », geboten, was nicht bedeutet, dass der Corpus der Überlegungen, den die Philosophen der Technik im Laufe der vergangenen Jahrhunderte geschaffen haben, nun vollkommen ad acta zu legen sei. Abgesehen von den bereits dargelegten starken Vorbehalten, gilt das auch für die eher spekulativen Beiträge, einschließlich derjenigen Heideggers selbst.10 Doch das größte Hindernis für dieses Programm bildet heute die wachsende Kluft zwischen der « mittelbaren Technik », also der als Diskurs erfahrenen Technik, und der « unmittelbaren Technik », wie sie im Alltagsleben der Produktion und des Gebrauchs gelebt und erlebt wird.11

09

Vgl. zu diesem Thema T. Maldonado ( 1997 ) und H. Popitz ( 1995 ).

10

Es bleibt aber noch das Problem, ob die Philosophie der Technik, so wie wir sie in der Vergangenheit gekannt haben, noch eine Zukunft hat. H. Skolimowski ( 1966 ) hat zwischen der philosophy of technology – der Untersuchung der Technologie als Erkenntnismittel – und der technological philosophy – der Untersuchung ihrer gesellschaftlichen Folgen – unterschieden. Genau besehen ist die Unterscheidung von Skolimowski – wie I. C. Jarvie ( 1966 ) bemerkte – nichts weiter als der Vorschlag eines « bewaffneten Friedens » zwischen der ( traditionellen ) Philosophie der Technik und der Soziologie der Technik.

11

216

D. Langenegger ( 1990 ).

Noch einmal die Frage nach der Technik

Ich meine, dass die Schuld dafür – wenn man von Schuld reden kann – zum großen Teil einer « mittelbaren Technik » zuzurechnen ist, die – häufig ein Opfer der Faszination durch die referenzielle Opazität – jeglichen Kontakt mit der « unmittelbaren Technik » verloren hat. Nicht weniger Schuld trifft ihrerseits die unmittelbare Technik wegen ihrer hartnäckigen und bornierten Weigerung, über eine verengte, rein instrumentelle Blickweise hinauszugehen und einzuräumen, dass die Technik ein Gegenstand der Ref lexion sein kann. Ich neige dazu, anzunehmen, dass in Zukunft die Aufgabe vorrangig darin bestehen müsste, die Distanz zwischen diesen beiden Auffassungen von Technik zu verringern – eine Aufgabe, an der sicherlich schon in der Vergangenheit gearbeitet worden ist. Hier kommen spontan zwei Denker in den Sinn, deren Vorläuferrolle nach einer Periode des ungerechtfertigten Vergessens und der Unterbewertung nun zu würdigen ist: L. Mumford (1934 und 1967) und S. Giedion (1941 und 1948). Mumford, weil er Elemente der gesellschaftlichen und kulturellen Vermittlung in die unmittelbare Technik eingeführt hat. Giedion, weil er auf Grundlage einer umfangreichen empirischen Forschung über Innovation Elemente der Unmittelbarkeit in die mittelbare Technik eingebracht hat. In dieser Dialektik wird in gebührendem Maß auch die Vorläuferrolle jener Historiker berücksichtigt, die sich der Vorstellung von der Technikgeschichte als autarker Disziplin widersetzt haben, also der Vorstellung einer in sich geschlossenen Geschichte, unwillig, ihre Grundvoraussetzungen und ihre Forschungsmethoden erneut zu überprüfen, unwillig auch, überhaupt in Erwägung zu ziehen, dass die Entwicklung der Techniken durch wechselseitige Abhängigkeit auch von anderen geschichtlichen Prozessen stark beeinf lusst sein könnte.

12

In der Tat war Technikgeschichte bis in die jüngste Vergangenheit vor allem eine Geschichte der unmittelbaren Technik, also eine Geschichte, die fein säuberlich die erfolgreichen Techniken dokumentierte und die unterlegenen Techniken außer Acht ließ, eine Geschichte, die den sozioökonomischen Hintergründen keine Aufmerksamkeit schenkte und nicht den Ursachen nachging, deretwegen einige Techniken sich durchsetzten und andere dagegen in Folgenlosigkeit versanken.12 Unter

12

Ich möchte dieses Urteil abschwächen. Meine Version einer nur an der Dokumentation der « siegreichen » technischen Subjekte interessierten Technikgeschichte vereinfacht das Panorama möglicherweise allzu sehr. In großen Zügen ist diese These haltbar, aber es geht zu weit, zu suggerieren, dass es in den bekanntesten Werken der Technikgeschichte – um zwei Beispiele zu nennen: Singer, Holmyard, Hall und Williams ( 1954–1958 ) oder die unter Leitung von M. Daumas ( 1962–1979 ) verfasste Technikgeschichte – völlig an Interesse für die unterlegenen technischen Subjekte fehle.

217

Digitale Welt und Gestaltung

den Historikern, die die Grenzen dieser Auffassung erkannten und einen anderen Weg skizziert haben, möchte ich L. Febvre (1935) nennen. Febvre hat nicht nur auf der Notwendigkeit bestanden, die Technikgeschichte im Rahmen einer « allgemeinen Geschichte » zu erforschen, sondern gleichzeitig auch einen kritischen Ansatz mitgeliefert. Im Grunde kam er sehr nah an die von Marx konzipierte Vorstellung einer « kritischen Technikgeschichte » heran. Für Febvre war die Umsetzung eines solchen Programms nicht ausschließlich den Historikern der Technik anzuvertrauen, vielmehr sollte sie aus dem zèle convergant der Forscher verschiedener Geschichtsdisziplinen (aber nicht nur ihrer eigenen Disziplin) und ihrer Bereitschaft resultieren, an einem gemeinsamen Entwurf mitzuwirken. Fünfunddreißig Jahre später zog der Technikhistoriker M. Daumas (1969) eine wenig erfreuliche Bilanz dieses interdisziplinären Ansatzes: « Es will mir scheinen, dass nicht jeder historische Fachbereich Anstrengungen unternommen hat, das eigene Spezialgebiet, die eigene Epoche und bisweilen nicht einmal das eigene Land zu verlassen. » Wenn man den Vorschlag von Febvre im Sinn einer Interdisziplinarität zwischen Forschern versteht, « das eigene Spezialgebiet, die eigene Epoche und das eigene Land zu verlassen », dann ist die Enttäuschung Daumas’ vollauf gerechtfertigt. Nichts aber lag Febvre ferner als die Vorstellung einer Zusammenarbeit unter Forschern, die alle gleichsam vor ihrer eigenen Disziplin f liehen. Er erwartete von einem zèle convergent der Wissenschaftler nichts anderes als die vertrauensvolle Bereitschaft zur Zusammenarbeit « autour du problème à étudier », ohne aber deshalb das eigene Forschungsgebiet aufgeben zu müssen. Und dieses Problem war eben die Technik. Der erste Versuch, dieses anspruchsvolle Programm in die Praxis umzusetzen, ist meines Wissens die L’Histoire des techniques, unter der Leitung von B. Gille, veröffentlicht in der Encyclopédie de la Pléiade (1978). Die Arbeit von Gille und seiner Mitarbeiter hat ein Beispiel für die Möglichkeit geliefert, in einem übergreifenden Projekt Disziplinen zu integrieren, die sich aus unterschiedlichen Perspektiven mit der Technikgeschichte befassen. Nun wird es immer deutlicher, dass nur durch die Beiträge von Philosophen, Historikern, Ingenieuren, Wirtschaftswissenschaftlern, Psychologen und Soziologen eine den Problemen unserer Zeit näher stehende Technikgeschichte entwickelt werden kann. Nur so werden mittelbare Technik und unmittelbare Technik in dieselbe Forschungsthematik einmünden können. Jeder Wissenschaftler müsste, auch wenn er der Besonderheit seines Forschungsgebiets treu bleibt, versuchen, die Wissensbeiträge aus anderen benachbarten und sogar weiter entfernten Disziplinen zu assimilieren, Wissensbeiträge, die ihre Arbeit weniger einseitig und somit

218

Noch einmal die Frage nach der Technik

konkreter und wahrheitsgetreuer werden lassen. In dieser Hinsicht müssen die anregenden Werke des Ethnologen A. Leroi-Gourhan (1943–45 und 1964–65) genannt werden, in denen die Technik im Kontext eines « technischen Milieus » im Sinne einer aufgefächerten und gegliederten Wirklichkeit erörtert wird, deren Interpretation das Zusammenspiel der unterschiedlichsten Disziplinen verlangt.

Simondon und der technische Gegenstand Aus den Bemühungen, die alte, gleichsam isolationistische Auffassung von der Technik zu überwinden, ist der ungemein innovative Beitrag von G. Simondon (1958, 1964, 1989 und 1994) hervorzuheben. Ihm gebührt das Verdienst, die Aufmerksamkeit auf die Entstehungs- und Konstituierungsprozesse des technischen Gegenstandes gerichtet zu haben – auf das, was er die « Prozesse der Individuation » nennt. Für ihn steht der technische Gegenstand am Ausgangspunkt und nicht am Endpunkt jeglicher Überlegung über die Technik. Dabei handelt es sich nicht allein um eine Wahl der Untersuchungsmethode – den induktiven Ansatz anstelle des deduktiven Ansatzes vorzuziehen –, sondern um eine für Simondon zentrale Vorentscheidung, dass genau im technischen Gegenstand die Kultur zur Technik und die Technik zur Kultur wird. Der technische Gegenstand bildet mit anderen Worten für Simondon die Säule, um die sich direkt oder indirekt die gesamte kulturelle Produktion dreht. In diesem Sinn könnte sein Werk unter anderem auch als ein Unternehmen angesehen werden, die Grundlagen einer « technischen (industriellen) Kultur », eines neuen Kulturverständnisses zu schaffen. Einige Jahre nach seinem Tod kann man nun in Frankreich ein wieder erwachendes Interesse an Simondon feststellen. Dieses Interesse scheint sich letztlich auf drei zentrale Positionen zu konzentrieren: 1) die Aktualität einer « technischen Kultur », die aus dem technischen Gegenstand den Kern aller Akkulturationsprozesse macht (G. Hottois, 1993 und J. Y. Goffi, 1996); 2) die Haltbarkeit der Vorstellung von der Individuation aus der Perspektive der jüngsten wissenschaftlichen und technischen Entwicklungen (A. Fagot-Largeault, 1994; R. Thom, 1994 und G. Hottois, 1996); 3) die vermeintliche Mehrdeutigkeit (Dichotomie von Optimismus und Pessimismus) bei Simondon gegenüber der Technik, eine Frage, die gewöhnlich mit der gleichen vermeintlichen Mehrdeutigkeit bei Heidegger verknüpft wird ( J. - Y. Chateau, 1994). Zu dem ersten Punkt – die nachdrückliche Forderung Simondons, der Technik und ihren Erzeugnissen den Status kultureller Legitimität zuzuerkennen – lässt sich bemerken, dass er heute unzeitgemäß ist – nicht etwa weil diese Legitimität

219

Digitale Welt und Gestaltung

13

14

15

16

zu bezweifeln wäre, sondern im Gegenteil, weil es sich erübrigt, noch einmal und zudem mit prophetischem Ton das einzufordern, was heute zu einem Bestandteil des common sense geworden ist. Man kann nicht davon absehen, dass die gegenwärtige kulturelle Produktion untrennbar mit den Prozessen und Produkten der Technik verknüpft ist. Es kann übrigens auch gar nicht anders sein in einer Welt, in der die Technik unser Alltagsleben derart stark prägt.13 Anders formuliert: Es wäre ziemlich anachronistisch, die Überwindung der These von der Unverträglichkeit zwischen Kultur und Technik zu fordern – die bekannte Gegenüberstellung von Kultur und Zivilisation in der Weimarer Republik14 –, ohne zu berücksichtigen, dass eine These diesen Zuschnitts in der Praxis längst widerlegt worden ist. Weiterhin kommt der Verdacht auf, dass der Appell Simondons, über die Dichotomie von Kultur und Technik hinauszugehen und sich der « l’opposition dressée entre la culture et la technique » zu entziehen, bereits anachronistisch war, als er ihn 1958 formulierte. Ohne den Innovationsschub seines Denkens relativieren zu wollen, scheint es mir, dass Simondon in diesem Punkt nicht auf der Höhe seiner Zeit argumentierte.15 Zwar hat der Vorsatz, der Technik volles Bürgerrecht in der Domäne der Kultur zuzugestehen, eine lange Geschichte16 , doch ist zweifellos erkennbar, dass das

13

M. Schwarz ( 1993 ) schreibt: « Die öffentliche Debatte über Technologie und Kultur muss vor allem in Rechnung stellen, dass die technischen Realisierungen bereits fest in unseren Institutionen, in unseren gesellschaftlichen Beziehungen, in unseren Praktiken und in unseren Wahrnehmungen verankert sind. » Schwarz unterscheidet zwischen « Kultur der Technologie », das heißt Kultur für die Technologie, und « technologischer Kultur », also der Technologie als kulturellem Phänomen. Demnach « betont der Begriff der technologischen Kultur den übergreifend-dominierenden Charakter unserer technologischen Umwelt ».

14

Vgl. T. Maldonado ( 1979 ).

15

Man darf nicht vergessen, dass im Jahr der Veröffentlichung von Simondons Buch in den Vereinigen Staaten die « Society for the History of Technology » gegründet wurde, die sich nicht nur, wie der Name anzeigt, der Geschichte der Technologie widmet, sondern auch die Querverbindungen der Technologie mit der Wissenschaft, der Politik, dem gesellschaftlichen Wandel, den Künsten, den Humanwissenschaften und der Wirtschaft fördert. Das offizielle Publikationsorgan, das ein Jahr später lanciert wurde, trägt den sehr bezeichnenden Titel « Technology and Culture ».

16

Bekannt ist der Feldzug von F. Bacon gegen die jahrhundertelang vorherrschende Tendenz, die technischen Berufe als verächtlich ( und sogar teuflisch ) abzutun, ebenso dessen spätere Fortführung von D. Diderot, der nicht zufällig ein großer Verehrer des Denkens von Bacon war.

220

Noch einmal die Frage nach der Technik

17

18

19

Recht auf diese Bürgerschaft in unserem Jahrhundert endgültig bestätigt worden ist.17 Dazu haben verschiedene Faktoren beigetragen. Wichtig war meiner Ansicht nach die Sensibilisierung der Architekten, Entwerfer, Ingenieure und Industriellen. Sie haben auf theoretischer und praktischer Ebene dem Tatbestand Glaubwürdigkeit verliehen, dass auch Industrieprodukte Träger kultureller Werte sein können (ästhetischer, ethischer, symbolischer und anderer Werte).18 Aber diese Sensibilisierung stieß anfangs auf erhebliche Widerstände, besonders seitens derer, für die nur die Kunstwerke (und allenfalls die Werke der angewandten Kunst) sowie die literarischen und musikalischen Werke kulturelle Werte schaffen und verkörpern konnten. Aus dieser Sicht wurde die Vorstellung, dass ein Industrieprodukt eine solche Funktion erfüllen könnte, noch während der ersten Jahrzehnte unseres Jahrhunderts gewöhnlich mit sarkastischen Bemerkungen bedacht. Aber es dauerte nicht lange, bis sich die Situation radikal änderte. Ab den dreißiger Jahren wurden dank der Konsolidierung des Industrial Design auch die technischen Objekte vollberechtigt in unser Universum der Kultur aufgenommen. Diese neue Entwurfstätigkeit, die in direktem Kontakt mit der Welt der Produktion steht, hat unter anderem bewirkt, dass die technischen Gegenstände von den Nutzern nicht mehr als kulturell unbeweglich-träge Masse angesehen, sondern hinsichtlich ihrer formalen und funktionalen Qualität als abhängig von kulturellen Werten beurteilt wurden.19

17

Wenn ich mich nicht irre, hat in unserem Jahrhundert als Erster U. Wendt ( 1906 ) die Aufmerksamkeit auf die Rolle der « Technik als Kulturfaktor » gelenkt. Ihm zufolge hat sie nicht nur Einfluss auf die « materielle Kultur », sondern auch auf die « soziale und geistige Kultur ». Vgl. J. Perrin ( 1994 ).

18

Ich führe als Beispiele Persönlichkeiten wie F. Releaux, P. Behrens, W. Rathenau, H. Muthesius, W. Gropius und Le Corbusier an.

19

Mit der entscheidenden Rolle der Entwurfskomponente in diesem Prozess habe ich mich bereits in einem Essay über das Industrial Design beschäftigt ( T. Maldonado, 1991 ). In diesem Text bin ich auch auf andere Faktoren eingegangen, die bei der Anerkennung der technischen Gegenstände als Kulturgegenstände mitgewirkt haben, zum Beispiel einige Beiträge der künstlerischen Avantgarde des ersten und zweiten Jahrzehnts des 20. Jahrhunderts, die wie der italienische Futurismus und der russische Konstruktivismus die Maschine als Träger einer neuen Kultur feierten, ohne den Dadaismus auszuschließen, der die Universalgültigkeit der traditionellen Kunst anfocht und ( provokatorisch ) einige technische Objekte als echte Kunstwerke präsentierte.

221

Digitale Welt und Gestaltung

20

Doch muss dieser kulturelle Legitimationsprozess des technischen Gegenstands in einen weiteren Kontext gestellt werden. Meiner Ansicht nach kann man nicht außer Acht lassen, dass die Art und Weise, « Kultur zu (er)leben » und « Technik zu (er)leben », seit den sechziger Jahren tief greifende Veränderungen erfahren hat. Die Grenzen zwischen « Kultur (er)leben » und « Technik (er)leben » haben sich mehr und mehr verwischt. Es genügt, einen Blick auf den veränderten Stellenwert der Technik im Bereich der jugendlichen Gegenkultur zu werfen: auf den Übergang von der technikfeindlichen Gegenkultur der Hippies der sechziger Jahre zur technikbegeisterten Gegenkultur der Cyberhippies der achtziger und neunziger Jahre.20 Nicht nur die « traditionelle » Kultur ist – wie die für die Herstellung und Verbreitung eingesetzten Mittel zeigen – mit Technik durchsetzt, sondern auch die Gegenkultur. Es gibt kein kulturelles Handeln, das nicht in gewisser Hinsicht technisches Handeln ist. Die technische Kultur – ein ehemals gewagter theoretischer Begriff – ist heutzutage eine Wirklichkeit, die einem je nach Standpunkt zusagen mag oder nicht, aber sie ist jedenfalls eine nicht zu leugnende Wirklichkeit.

Die biologische Metapher Der zweite Punkt in der kritischen Wiederaufnahme des Werks von Simondon betrifft die wissenschaftliche Haltbarkeit seines « Individuationsprinzips ». Dieses tangiert drei unterschiedliche Bezugsfelder: die Individuation der technischen Gegenstände (1958), die physisch-biologische Individuation (1964) und die psychische und kollektive Individuation (1989). In unserem Zusammenhang interessiert die erste der drei genannten Individuationsformen.

21

Bei seiner fesselnden Untersuchung der Entwicklungsdynamik technischer Gegenstände (oder « technischer Wesen ») bedient sich Simondon wiederholt der Begriffe aus der Biologie (Genese, Ontogenese, Phylogenese, Morphogenese, Genotyp, Phänotyp, Mutation, Hylomorphismus usw.). Das ist nicht verwunderlich, denn er geht von der Grundannahme aus, dass die Prozesse der Genese und Entwicklung technischer Gegenstände mit den Prozessen der Genese und Entwicklung von Lebewesen verglichen werden könnten. Das bedeutet: Die « Logik der Technik » ähnelt stark – um den Ausdruck von F. Jacob zu nutzen – der « Logik des Lebens ». Damit gibt er sich (fast) als Erbe seines Lehrers G. Canguilhelm (1965) zu erkennen, der genau diese Kontinuität zwischen (menschlichem) Organismus und der Technik behauptete.21

20

222

Zu diesem Thema vgl. M. Dery ( 1996 ), Th. Roszak ( 1986 ) und T. Maldonado ( 1997 ).

Noch einmal die Frage nach der Technik

Aber wenn die Theorie von Simondon als originaler Versuch gelten kann, biologische Kategorien zur Erklärung der Individuation (und Konkretisierung) technischer Gegenstände heranzuziehen, hängt die Antwort hinsichtlich ihrer wissenschaftlichen Stichhaltigkeit zum großen Teil von den Ergebnissen ab, die mit Hilfe dieser Begriffe erzielt worden sind (oder nicht). Mit anderen Worten: Die Antwort müsste klarstellen, ob die Biogenese von sich aus die Technogenese zu erklären vermag – was Simondon vorausgesetzt hatte. Gute Gründe lassen vermuten, dass ihm mit diesem Unternehmen kein Erfolg beschieden war. Einige Autoren behaupten, dass die wissenschaftlichen Entwicklungen der letzten Jahrzehnte, zum Beispiel die Fortschritte in der Artifizialisierung der Lebewesen (Biotechnologien, Genforschung, Bionik usw.) a posteriori die Methodenwahl Simondons bestätigen. Doch das stimmt nicht ganz. Es nicht damit getan, eine Kontinuität zwischen lebenden und nicht lebenden Systemen zu vindizieren, denn es geht um ein ganz anderes Problem: Mit welcher biologischen Evolutionstheorie will man angesichts dieser Kontinuität arbeiten ? Er traf meiner Ansicht nach keine sonderlich glückliche Wahl.

22

Einige Theoretiker führen zu seiner Rechtfertigung das Argument an, dass ihm gar keine andere Wahl blieb, da sich in den fünfziger Jahren der Kenntnisstand der Biologie erheblich von der heutigen Situation unterschied. Der Einwand trifft nur zum Teil zu. Wohl befanden sich in jenen Jahren viele der experimentellen Ergebnisse, dank derer die Interpretationsmuster der Evolutionsbiologie hätten geändert und bereichert werden können – zum Beispiel die der Molekularbiologie –, noch im Anfangsstadium. Doch waren sie Simondon bekannt. Es befremdet, dass er trotzdem der Idee der Kontinuität treu blieb, die – wie Anne Fagot-Largeault (1994) zu Recht feststellte – hartnäckig die Dialektik zwischen « hasard et nécessité » ausschloss. Wenngleich nach der französischen Forscherin « das simondonsche Schema weder das darwinsche noch das lamarcksche Schema war », so scheint doch seine Vorliebe für das lamarcksche Schema offenkundig. Die Folgen sind in der theoretischen Gesamtstruktur von Simondons Werk spürbar. Zwar mögen die Kontroversen über Lamarck (und eine Spur weniger auch über Haeckel) noch in gewisser Hinsicht aktuell sein 22, doch wenn bereits von sich aus fragwürdige Annahmen nahezu lamarckscher Prägung

21

Zur Untersuchung der Evolution technischer Gegenstände unter Anwendung von Modellen, die von den Naturwissenschaften abgeleitet sind, vergleiche die Dissertation von S. Pizzocaro ( 1993 ).

22

S. J. Gould ( 1977 ).

223

Digitale Welt und Gestaltung

23

24

von der Ontogenese der Lebewesen auf die Ontogenese der technischen Gegenstände übertragen werden, führt das zu einer doppelt fragwürdigen Verzerrung.23 Hier enthüllt sich das Unvermögen Simondons, zu erkennen, dass die Analogie der beiden Evolutionen – der biologischen und der technischen – nur dann ein Gebiet fruchtbarer Forschung konstituieren könnte, wenn ein wichtiger Tatbestand nicht übersehen wird: dass die Zahl der zwischen den beiden Entwicklungsmodalitäten bestehenden Ähnlichkeiten erheblich geringer ist als die Zahl der Verschiedenheiten (P. Grassmann, 1985). Ein Instrument kann die Funktion eines Organs erfüllen, was sicher ein Beweis für eine Ähnlichkeit ist (und zwar für eine Ähnlichkeit hinsichtlich der Leistung), es wäre aber abwegig, beide als in jeder Hinsicht äquivalent zu betrachten.24 Leroi-Gourhan (1982), der wie Simondon als ein Vertreter des « technischen Vitalismus » angesehen wird, schreibt: « Das Werkzeug kann in der Praxis durchaus als ein Organ betrachtet werden. … Statt mit den Nägeln zu schneiden, kann ich mit einem Messer schneiden. Aber man kann nicht sagen, das Werkzeug sei artgleich mit meinen Nägeln. Es ist etwas anderes. Es ist ein globaler Prozess, der es von sich aus ermöglicht, dass in einem bestimmten Augenblick das Werkzeug als eine Verlängerung meines Körpers fungiert; doch gibt es da eine Zäsur, die nicht zu ignorieren ist, weil der technische Fortschritt nicht völlig in eine Sequenz biologischer Mutationen assimiliert werden kann. » Für diese Zäsur gibt es zahlreiche Ursachen. Unter ihnen sei die funktionale, strukturelle und morphologische Dishomogenität zwischen lebenden und nicht lebenden Systemen erwähnt, die in der biomedizinischen Prothesentechnik wegen der durch sie bedingten Anwendungsschwierigkeiten wohlbekannt ist. Doch wird

23

Zum Problem des metaphorischen Gebrauchs der Theorien von Darwin und Lamarck vergleiche S. J. Gould ( 1997 ). Gould macht eine für unser Thema hochinteressante Beobachtung: « Wenn wir eine biologische Metapher für den kulturellen Wandel benutzen wollen, müssen wir wahrscheinlich eher von Infektion als von Evolution sprechen. … Der kulturelle Wandel des Menschen vollzieht sich hauptsächlich auf lamarcksche Weise, wogegen die genetische Evolution geschlossen darwinistisch bleibt. »

24

Wegen seiner betont abstrakten Behandlungsweise scheint Simondon nicht zu fassen, was ziemlich offensichtlich ist. R. Thom ( 1994 ) bemerkt darüber: « Wenn man einen Einwand gegen die Theorie Simondons erheben kann, dann seine Neigung, sich allzu sehr auf die Individuation der Gegenstände zu fixieren, ohne sich jemals explizit mit der Erscheinungsform der technischen, durch die Wahrnehmung als solche konstituierten Individuen auseinanderzusetzen. »

224

Noch einmal die Frage nach der Technik

25

die Zäsur unüberbrückbar, wenn sich das Problem in evolutionstheoretischen Termini stellt. In diesem Fall enthüllt die Analogie all ihre Willkürlichkeit, und zwar aus dem einfachen Grund, weil sich aus der Sicht der Evolution die « Lebenszeit » von der « Technikzeit » wesentlich unterscheidet. Während eine Mutation bei Lebewesen sehr langsam über eine lange Zeitspanne abläuft, kann sie bei technischen Gegenständen sehr schnell erfolgen.25

Gegen eine autokratische Auffassung der Technik

26

Ich möchte jetzt auf die dritte Frage eingehen, die das Werk von Simondon für seine Interpreten aufwirft. Sie betrifft seine vermeintlich mehrdeutige Haltung gegenüber der Technik: In einigen Textabschnitten – so sagen sie – sei Simondon optimistisch, in anderen pessimistisch (ein wenig wie Heidegger, füge ich hinzu). Dieses Beharren auf der Meinung, dass die Einstellungen zur Technik immer wie im 19. Jahrhundert als Gegensatz zwischen Optimisten und Pessimisten diskutiert werden müssen, mutet eigenartig an. Es ist das Beharren auf Whitman, der die Lokomotive als Erlöserin der Menschheit besang, oder auf Zola, der in ihr eine Verkörperung selbstzerstörerischer Gewalt sah.26

25

Wohl wird in jüngster Zeit das Erscheinen von Individuen verkündet, die aus einer Kombination von lebenden und nicht lebenden Systemen entstanden sind und die somit die normalen biologischen Zeitspannen hinter sich lassen könnten. Bis zum Gegenbeweis ist das noch Science Fiction. Wenn sich aber eines Tages, der hoffentlich nicht nah ist, die Erzeugung solcher sublimer Monster mit Hilfe genetischer Manipulation bewerkstelligen lässt, könnten auch sie nicht den Gesetzen der biologischen Evolution entfliehen, die weiterhin « ein komplexer Prozess der kombinatorischen Optimierung [ist], in dem jede betroffene Spezies an ein Ökosystem gebunden ist » ( S. A. Kauffman, 1993 ).

26

Freilich gibt es auch in unserer Epoche Personen, die gegenüber den technologischen Innovationen ähnliche Einstellungen wie Whitman und Zola hegen, doch alles in allem scheint es sich um relativ isolierte Einzelfälle zu handeln. Viel verbreiteter scheint mir die Bereitschaft zu sein, sowohl die Vorteile wie die Nachteile, die Chancen wie die Gefahren der neuen Technologien anzuerkennen – also weder die Naivität eines absoluten Optimismus, noch die düstere Haltung eines absoluten Pessimismus. Als Beispiel sei an Autoren erinnert, die in der Regel in die Rubrik der extremen Pessimisten eingestuft werden wie J. Ellul ( 1988 und 1990 ), D. F. Noble ( 1977 ), N. Postman ( 1992 ). Eine eingehendere Lektüre der Texte dieser Autoren zeigt aber, dass ihre in manchen Fällen virulente Technologiekritik hier und da positive Wertungen nicht ausschließt. Vgl. E. Fano ( 1993 ).

225

Digitale Welt und Gestaltung

Diese Frage halte ich für hochaktuell. Auf der einen Seite rückt Simondon die Technik ins Zentrum kulturellen und sozialen Handelns und geht weit darüber hinaus: Wie wir gesehen haben, geht er so weit, die technische Entwicklung als einen wesentlichen Faktor der natürlichen Evolution zu betrachten und umgekehrt. Auf der anderen Seite aber schließt die zentrale Stellung, die er der Technik zuschreibt, ein Bewusstsein der darin geborgenen Risiken nicht aus. Im ersten Kapitel des zweiten Teils von Du mode d’existence des objets techniques, vielleicht einem der klarsten je geschriebenen Texte der Technikphilosophie, setzt Simondon seinem Optimismus genaue Grenzen. Er weist auf die Risiken einer Verzerrung im Verständnis der technischen Individuen (und ihrer Nutzung) hin; weiterhin spielt er auf die Risiken einer, wie er es nennt, «autokratischen Philosophie der Techniken » an. Es sei aber festgehalten: Wenn bei Simondon Mehrdeutigkeit existiert, dann leitet sie sich nicht aus einer Doppelzüngigkeit gegenüber dem untersuchten Phänomen her. Im Gegenteil, die Mehrdeutigkeit ist ein Beweis für seine bemerkenswerte intellektuelle Strenge. Im Gegensatz zu einigen vorgebrachten Interpretationen hat seine Haltung nichts mit der Mehrdeutigkeit des heideggerschen Diskurses über die Technik gemein. Für Heidegger ist die Technik ein « Geheimnis », deren Wesen entborgen werden muss – und der Ereignisse harrend, wäre es besser, vor den inneren Gefahren dessen zu resignieren, was er als « das Rasende der Technik » apostrophiert. Nichts dergleichen findet man bei Simondon: weder ein Kult des quälenden Geheimnisses von Technik noch ein zahmes Resignieren vor ihren eventuellen negativen Folgen. Ich möchte nun, wenn auch nur in groben Umrissen, einen bislang beiseitegelassenen Aspekt näher untersuchen: die Beziehung der Wirtschaftswissenschaftler und Wirtschaftshistoriker zu unserem Thema. Aus verständlichen Gründen war ihr Augenmerk seit je, von Smith, Ricardo und Marx bis heute, in erster Linie darauf gerichtet, überzeugende Antworten auf einige Zentralfragen der Beziehung zwischen Technologie und Wirtschaft zu finden. Ich zitiere nur die immer wiederkehrenden Fragen: Auf welche Weise und in welchem Umfang wirkt die Technologie – oder besser die technologische Innovation – auf die wirtschaftliche Entwicklung ein ? Geht der Mehrwert der technologischen Innovation voran oder folgt er ihr ? Ist die Profitquote Ursache oder Wirkung des technologischen Fortschritts ? Warum gelangen einige Innovationen ans Ziel, und warum bleiben andere dagegen auf der Strecke ? Ist es richtig, zwischen Erfindung und Innovation zu unterscheiden ? Wenn dem so ist, worin besteht ihre Beziehung ? Das sind alles Fragen, die in unserem Jahrhundert Gegenstand heftiger Kontroversen waren, an denen zu verschiedenen Zeiten gewichtige Wirtschaftswissenschaftler wie J. A. Schumpeter, A. C. Pigou,

226

Noch einmal die Frage nach der Technik

27

J. R. Hicks, R. F. Harrod, J. V. Robinson, M. Kaldor, J. E . Meade und P. A . Samuelson teilgenommen haben.27

In diesem Zusammenhang interessiert vor allem der Vorschlag von Schumpeter (1939), zwischen Erfindung und Innovation zu unterscheiden. Ob man diese Unterscheidung nun akzeptiert oder nicht, sie hat auf die jüngsten Entwicklungen der Wirtschafts- und Technikgeschichte einen beträchtlichen Einf luss ausgeübt. Schumpeter schreibt: « Ebenso wenig war z.B. die Erfindung der Montgolfière ein äußerer Faktor der Wirtschaftslage ihrer Zeit; sie war überhaupt kein Faktor. Das Gleiche gilt für alle Erfindungen als solche; dies beweisen die Erfindungen der Antike und des Mittelalters, die jahrhundertelang ohne Einf luss auf den Ablauf des Lebens blieben. Sobald jedoch eine Erfindung im Wirtschaftsleben Anwendung findet, haben wir es mit einem Prozess zu tun, der aus dem Wirtschaftsleben seiner Zeit erwächst und gleichzeitig ein Element desselben ist und der damit nicht mehr als ein von außen einwirkender Faktor betrachtet werden kann » (S. 15). Und später fügt er zu: « Innovation ist möglich ohne irgendeine Tätigkeit, die sich als Erfindung bezeichnen lässt, und Erfindung löst nicht notwendig Innovation aus, sondern bringt für sich … keine wirtschaftlich bedeutungsvolle Wirkung hervor » (S. 91). Der Gedanke Schumpeters, dass die Erfindung sich in ein profitables Moment und in eine Komponente des Wirtschaftslebens verwandeln kann, weil sie wirtschaftlich ausgenutzt wird, ermöglicht eine dialektische Version der Beziehung zwischen Erfindung und Innovation. Wie er explizit in einem anderen Abschnitt des zitierten Textes anerkennt, schließt er nicht aus, dass die Erfindung sich in bestimmten Fällen in Innovation verwandeln kann. Nathan Rosenberg (1976, 1982 und 1994), der – wie wir sogleich sehen werden – eine zentrale Rolle bei dem Versuch spielte, den Diskurs der Wirtschaftsgeschichte in den Diskurs der Technikgeschichte einmünden zu lassen, hat Einwände gegen die schumpetersche Vorstellung erhoben, das erfinderische Moment vom innovativen abzuschotten. In einem seiner ersten Bücher (1976) betont Rosenberg die Wichtigkeit der Prozesse, die von der Erfindung zur Innovation führen. Es war gerade die Untersuchung dieser Prozesse, die zu einem besseren Verständnis dafür führt, wie und weshalb die Erfindung den Weg zur Innovation findet, also « wirtschaftlich

27

Zur eingehenden Behandlung dieses Themas vergleiche T. Maldonado ( 1992 ).

227

Digitale Welt und Gestaltung

28

ausgenutzt » werden kann, und wann und weshalb derlei geschieht. Entscheidend dafür war die Entwicklung neuer Kategorien, insofern sie neue ergiebige Interpretationsmöglichkeiten eröffnet haben. Ich beziehe mich auf die Begriffe « technologische Trajektorie », « technologisches Regime » und « technologischer Korridor ».28 Dank dieser Kategorien wissen wir heute, dass die Erfindung einen alles andere als leichten Weg zurückzulegen hat. Er ist mit allen möglichen Fallen gesät. In einem vor einigen Jahren veröffentlichten Text (1992, S. 89) habe ich die Hauptschwierigkeiten aufgelistet, denen sich die Erfindung auf dem Weg zur Innovation ausgesetzt sieht: « Sie (die Erfindung) muss sich mit den Herausforderungen der anderen im selben Korridor befindlichen Erfindungen messen, mit den Drohungen, die von der (oftmals gnadenlosen) Konkurrenz zwischen Firmen ausgehen, mit der plötzlichen Veränderung der Produktions- und Herstellungsstrategien der Großunternehmen, mit der Unvorhersehbarkeit des Marktes und nicht zuletzt mit den Schwierigkeiten, die aus dem zeitaufwendigen und labyrinthischen Wegen der Patentanmeldung erwachsen. »

29 30

Es scheint immer klarer zu werden, dass die Beziehung von Erfindung zu Innovation nicht mehr wie bisher den Wirtschaftswissenschaftlern und Wirtschaftshistorikern vorbehalten bleibt, sondern jetzt auch – und in nicht geringerem Maß – der Technikgeschichte und Soziologie der Technik als Forschungsgegenstand dient. Ich denke vor allem an die Historiker, die an der Erforschung der « large technical systems » 29 arbeiten, sowie an die Wissenschaftssoziologen und Vertreter der Soziologie der Technik mit « konstruktivistischer » Ausrichtung. 30

28

Vgl. R. Nelson und S. Winter ( 1982 ), G. Dosi ( 1983 ), L. Georghiou et al. ( 1986 ). Eine erhellende Analyse des « Innovationsprozesses » mit besonderem Bezug auf Rosenberg findet man bei G. Dosi et al. ( 1988 ). Zum Thema der « technologischen Trajektorie » im Zusammenhang der Unternehmenstheorie und Unternehmensgeschichte vergleiche R. Giannetti und P. A. Toninelli ( 1991 ).

29

Th. P. Hughes ( 1979, 1989 und 1991 ); R. Mayntz und V. Schneider ( 1988 ), F. Canon ( 1988 und 1997 ). Vgl. B. Joerges ( 1988 ), I. Gökalp ( 1992 ), A. Gras ( 1993 und 1997 ), M. Nacci und P. Ortoleva ( 1997 ).

30

W. E. Bijker ( 1989, 1994 und 1995 ), T. J. Pinch und W. E. Bijker ( 1989 ), J. Law ( 1992 ), B. Latour ( 1987, 1991, 1993 und 1995 ), B. Latour und S. Woolgar ( 1986 ), M. Akrich ( 1992 ), K. Knorr Cetina ( 1992 ).

228

Noch einmal die Frage nach der Technik

Der soziologische Ansatz

31

32

Ich möchte abschließend auf einige Aspekte des theoretischen Werks von B. Latour als einem der bekanntesten Vertreter der Wissenschaftssoziologie (und in seinem Fall auch der Wissenschaftsanthropologie) und der Techniksoziologie eingehen. Latour legt einen in vieler Hinsicht fruchtbaren Pfad für die Ref lexion in seinem Fachgebiet frei. Zwar kann sein Darstellungsstil, vor allem in seinen eher theoretischen Werken, desorientierend wirken – ein Stil, der zur Überbetonung der literarischen Komponente neigt und somit bisweilen die argumentative Strenge beeinträchtigt. Das geht so weit, dass die Klarheit der aufgestellten Thesen durch einen alles andere als sparsamen Gebrauch gewagter Metaphern und eigenwilliger Neologismen verdunkelt wird. 31 Unbeschadet dieser Einschätzungen der Form (die wohlverstanden zum Teil auch Wertungen des Inhalts sind), gebührt Latour das Verdienst, anhand konkreter Beispiele gezeigt zu haben, dass die Alltagspraxis der Wissenschaftler und Ingenieure « aus der Nähe » untersucht werden kann – ohne dabei, wie eine gewisse journalistische Hagiografie es möchte, einer epischen Vision ihrer Arbeit zu huldigen, in der sie immer als frei und ausgenommen von jeglicher interner oder externer Bedingung dargestellt wird. 32

31

M. Serres ( 1994 ), der das Denken Latours stark beeinflusst hat, behauptet, dass die Triebkraft hinter dem Fortschritt der Philosophie und der Wissenschaft im « c’est d’inventer des concepts » besteht. Das mag stimmen, sofern man unter Begriffen nicht nur Metaphern und Neologismen versteht.

32

Der Widerstand einiger Wissenschaftler gegen die Abwendung von der epischen Vision hat zu hitzigen Stellungnahmen gegenüber der Wissenschaftssoziologie geführt. Es ist durchaus möglich, dass dieser Widerstand eine gewisse Rolle in der Affäre Sokal ( 1996a und 1996b ) gespielt hat, ebenso bei der diskriminierenden Entscheidung durch das Institute of Advanced Studies von Princeton gegen M. Norton Wise – einen herausragenden Vertreter der Wissenschaftsgeschichte und Wissenschaftssoziologie. Andererseits kann man auch nicht ausschließen, dass die Kritiken einiger Vertreter der Wissenschaftssoziologie zumindest teilweise berechtigt sind. Ich beziehe mich hauptsächlich auf die Kritiken an jenen Wissenschaftlern, die sich vom Narzissmus sprachlicher ( und begrifflicher ) Akrobatik haben verführen lassen und die rationalistische Grundlage ihres Programms verleumdet haben, das den kulturellen und gesellschaftlichen Kontext der Wissenschaftsproduktion wissenschaftlich untersuchen wollte ( und will ). Nicht weniger zutreffend – Latour ≥

229

Digitale Welt und Gestaltung

Was man in den Laboratorien (und den Forschungs- und Entwicklungszentren) tut, steht nicht außerhalb der Gesellschaft, sondern ist, wie Latour sagt, « durch die Gesellschaft vermittelt ». Diese Behauptung kann leicht einen programmatischen Ton annehmen. Latour ist sich dieses Risikos bewusst und sucht dementsprechend, sie eng an die wirklichen in der Gesellschaft ablaufenden Prozesse zu koppeln. Mit seinen empirischen Untersuchungen liefert er äußerst erhellende Beispiele für die Art und Weise, in der sich das durch die Gesellschaft vermittelte technisch-wissenschaftliche Handeln entfaltet. Ich denke an seine Untersuchungen des « Lebens im Labor » (1987), aber auch und vor allem an seine Untersuchungen der « gescheiterten » innovativen Projekte (1993). Folgt man Latour, bezieht sich die Vermittlung nicht auf die abstrakte Gesellschaft, sondern auf die Agenturen, die aus ihr ein funktionierendes System machen, also die Agenturen der Verwaltung, Produktion und Sozialisierung. Genau auf diesem Wege nähert sich Latour dem Diskurs der Modernität. Ein solcher Ansatz muss zwangsläufig dazu führen (und er hat dazu geführt), sich mit den verborgensten ideologischen Mechanismen unserer Gesellschaft auseinanderzusetzen – Mechanismen, die einen wesentlichen Bestandteil einer Gesellschaft bilden, deren Gesamtdynamik im Diskurs der Modernität fortwährend eine Quelle der Motivation und des Ansporns (und nicht zuletzt der Legitimation) findet. Wenngleich die um dieses Thema kreisenden Vorstellungen Latours sich weit von denen der Modernitätsbefürworter entfernen, hat er andererseits nichts mit jenen zu tun, die stattdessen eine vorgefasste Ablehnung der Modernität im Namen eines nicht klarer definierten Postmodernismus theoretisch auswalzen – eines Postmodernismus, in dem gewöhnlich eine kaum verhüllte Sehnsucht nach den « guten alten Zeiten » durchscheint. Für diese Position hält Latour ein vernichtendes Urteil bereit. Er schreibt: « Ich habe kein hinreichend vulgäres Wort gefunden, um diese

selbst gibt das zum Teil zu ( 1997 ) – sind die Kritiken am Soziologismus einzustufen, an der irritierenden und anmaßenden Einstellung jener, die sich brüsten, alles mit Hilfe einiger weniger abgetakelter soziologischer Kategorien erklären zu können. Die Reaktionen auf alle diese Kritiken waren gelinde gesagt peinlich. Man denke nur an den kürzlich geäußerten Verdacht, dass diese Kritiken nichts anderes als Ausdruck eines kaum verhehlten ( amerikanischen ) Chauvinismus gegen die französische Kultur seien. Ich frage mich: Liegt darin nicht auch eine bestimmte Verantwortung zwar nicht seitens der französischen Kultur generell, aber besonders jener französischen ( und auch amerikanischen! ) Autoren, die in den letzten Jahren dazu beigetragen haben, die beste Tradition der französischen Kultur zu negieren und in einigen Fällen geradezu zu diffamieren ? Es wäre meiner Ansicht nach ein Beweis wissenschaftlicher Reife, wenn die Wissenschaftler prinzipiell die Richtigkeit dieser Möglichkeit zugeben würden. Ein wenig Selbstkritik dürfte schließlich nicht schaden.

230

Noch einmal die Frage nach der Technik

33

Bewegung oder besser diese intellektuelle Immobilität zu definieren, die Menschen und Nicht-Menschen ihrem Schicksal überlässt. » 33 In den gegen die Modernität (und die « Modernen ») vorgebrachten Kritiken nimmt er eine weniger bissige und durchweg differenziertere Stellung ein. Für Latour ist die Modernität eine Fiktion, weil sie letztendlich eklatant die Erwartungen der Wirklichkeit verfehlt hat. Wir sind niemals modern gewesen, lautet der Titel eines seiner extrem polemischen Bücher. Er hätte auch sagen können: « Wir werden niemals postmodern sein ». Einerseits entlarvt er die Fiktion einer Modernität, die nie existiert hat; andererseits lehnt er als doppelte Fiktion eine Postmodernität ab, die über das hinausgehen will, was nie existiert hat. In dieser Hinsicht zeigt der Ansatz Latours zur Dialektik von Moderne und Postmoderne eine gewisse Verwandtschaft mit Habermas, und zwar nicht so sehr auf inhaltlicher Ebene, sondern auf der Ebene der unter ihr verborgenen Logik – eine nicht widerspruchsfreie Logik. Dass der Eindruck dieses Verwandtschaftsklimas entstehen kann, mag Latour nicht sonderlich zusagen. Um diesem Eindruck vorzubauen, beeilt er sich denn auch, zu Habermas unmissverständlich auf Distanz zu gehen. Wenngleich er jenen als « aufrichtig und achtenswert » einschätzt, teilt er nicht dessen Vorstellung der Modernität als eines unvollendeten Projekts, also eines Projekts, das noch zu verwirklichen ist oder das nur zum Teil verwirklicht ist. Es handelt sich nach Latour um eine Karikatur, in der « sich noch ein schwaches Flimmern der Lichter des 17. Jahrhunderts oder ein Echo der Kritik des 18. Jahrhunderts erkennen lässt ». Nicht weniger bissig sind seine wohl ein wenig vereinfachenden Einwände gegen die Absicht von Habermas, den Diskurs an der Intersubjektivität und an der kommunikativen Vernunft festzumachen. Über die Aporien des Projekts der Moderne bei Habermas habe ich mich bereits ausführlich an anderer Stelle geäußert (1987). Nun wäre zu fragen, ob wir sicher sein können, dass in der Position Latours, in seiner provokatorischen Anklage einer verkündeten (und theoretisch erörterten), aber niemals verwirklichten Modernität sich nicht auch eine logische Mehrdeutigkeit verbirgt, auch hier also eine offenkundige Aporie vorliegt ? Wenn die Modernität als ideologische Fiktion, also als eine Täuschung (oder kollektive Selbsttäuschung) betrachtet werden kann, dann darf man vermuten, dass für Latour eine von jeglicher ideologischen Fiktion befreite Modernität ein programmatisch erstrebenswertes Ziel sein kann. Doch darüber schweigt er sich aus; bisweilen scheint er eine derartige Hypothese zu akzeptieren, bisweilen aber verneint er sie radikal.

33

Somit ist es erstaunlich, Latour–wie Sokal es tut (1997)–unter die Postmodernisten einzureihen.

231

Digitale Welt und Gestaltung

Die Bedeutung von Latours Beitrag wäre meiner Ansicht nach weniger in seiner Theorie der Modernität (oder der Antimodernität) zu sehen als vielmehr in seinen empirischen Untersuchungen der Sozialanthropologie der Wissenschaft und der Technik. Für ihn besteht das Ziel derartiger Untersuchungen nicht im « Sprechen über Wissenschaft und Technik », sondern darin, sich mit « dem Stoff der Gesellschaft selbst » zu beschäftigen. Dabei treibt Latour einige Thesen der führenden Vertreter des Konstruktivismus auf die Spitze. Seine Arbeiten bereichern das noch verschwommene und nicht widerspruchsfreie Programm des Konstruktivismus und ziehen es auf eine konkrete Ebene. Aber Latour hätte noch herauszustellen, dass seine Konkretheit – « Zugang zu den Dingen selbst zu haben und nicht zur ihren Phänomenen » – nicht die Konkretheit eines beschränkten Interesses an den « an sich langweiligen Dingen » (es sind seine Worte) und auch nicht an den « unter sich langweiligen Menschen » meint. Nicht zu übersehen ist, dass der Beitrag der Konkretheit bei Latour in einigen Fällen von den Theorien durchkreuzt wird, die er um seine Forschungsergebnisse errichtet. Das scheint mir befremdlich, wenn man an die von ihm selbst vertretene Auffassung denkt, dass zwischen theoretischem und praktischem Wissen kein Gegensatz existiert (oder existieren sollte) (1996). Trotz seiner These von der Unteilbarkeit der Wissenstypen leiden die Überlegungen Latours unter der starken Tendenz, sich von der Praxis, einschließlich seiner Praxis selbst zu entfernen und sich als relativ autonom zu etablieren. Ich glaube, dass der Grund dafür einmal mehr in seiner Art des Schreibens liegt, und zwar in der eigenartigen Neigung, dieselbe Thematik unter Rückgriff auf verschiedene (und gegensätzliche) Deutungsmuster zu diskutieren, mehr noch, mit Begriffen zu diskutieren, die je nach Kontext ihren Sinn ändern, manchmal mit einer positiven Valenz, manchmal mit einer negativen Valenz.

34

Auf der anderen Seite wäre es ungerecht, Latour in die Schar jener Philosophen einzureihen, die – wie wir bereits gezeigt haben – sich mit der Wissenschaft und Technik nur auf spekulativer Ebene auseinandersetzen wollen. Nur wer seine erwähnten empirischen Arbeiten nicht kennt, könnte dem Gedanken verfallen, Latour in jene Kategorie einzustufen, die er selbst mit Verachtung als Kategorie derer definierte, die gerne nur « über Wissenschaft und Technik reden », kurz: die nur über sich selbst reden. Aber wenn das auch ganz und gar nicht auf Latour zutrifft, so wäre doch einzugestehen, dass einige seiner gewählten Begriff lichkeiten dazu beitragen können, diesem Fehlurteil über den Kern seines Denkens Vorschub zu leisten. 34

34

Wie einige terminologische « Exzesse » von Latour einen Streit entfachen können, der nur am Rande den Inhalt betrifft, ist bei M. Callon und B. Latour ( 1992 ); sowie bei H. M. Collins und S. Yearley ( 1992 ) nachzulesen.

232

Noch einmal die Frage nach der Technik

Symmetrie, Netz, Übersetzung Da nun die Ursachen für dieses mögliche Missverständnis unter anderem den von ihm verwendeten Begriffen zuzuschreiben sind, scheint es mir angebracht, sie etwas näher zu betrachten. Obgleich die Terminologie Latours oftmals allzu verschwommen scheint, können doch einige Fixpunkte ausgemacht werden. Wie er selbst zugibt, stammen die häufigsten in seinen Schriften verwendeten Begriffe einerseits aus der Wissenssoziologie von D. Bloor (1991) – zum Beispiel die Vorstellung der methodologischen Symmetrie (und Asymmetrie) –, andererseits vom Wissenschaftstheoretiker M. Serres (1968, 1974 und 1989), zum Beispiel die Gedanken der Übersetzung, der Symmetrisierung und der des Netzes. Diese Kategorien spielen eine grundlegende Rolle, um die Stellung Latours zum Thema der Modernität zu verstehen. Für ihn manifestiert sich das Hauptmerkmal der Modernität in der Tendenz, jene Dichotomien hinter sich zu lassen, die seit je das okzidentale (und nicht nur das okzidentale) philosophische Denken beschäftigt haben: Natur – Gesellschaft, Natur –Kultur, Natur – Geschichte, Natur – Technik, Objekt – Subjekt, nicht menschliches Objekt – menschliches Objekt. Seiner Meinung nach sind wir heute mit einem unauf haltbaren Prozess der Vermischung aller gegensätzlichen Wirklichkeiten, mit einem Prozess der Symmetrisierung aller Asymmetrien konfrontiert. Entgegen dem, was man zunächst vermuten könnte, führt dieser Prozess nicht zur Entstehung eines chaotischen Universums vereinzelter Mischbildungen, nicht vermittelbarer Fast-Identitäten. Es sei vermerkt, dass Hegel hinter der Theorie der Hybridisierung steckt, auch wenn Latour das ausschließt. Diese Hybridisierung verschiedener (und konf ligierender) Welten unterscheidet sich nicht allzu sehr von der « Einheit der Gegensätze » der hegelschen Dialektik. 35

Doch bei Latour und auch bei M. Callon35 bezieht sich der Begriff der Hybridisierung nicht nur auf die Überwindung der Antinomien; vielmehr wird er als grundlegend für das Verständnis des generativen Prozesses des Netzwerks angesehen.

35

M. Callon ( 1994 ). Latour und Callon, Koautoren zahlreicher Bücher und Essays, verwenden sogar die gleichen Begriffe, wenn sie die hier interessierenden Themen untersuchen. Mir scheint es somit angebracht, bei der Erörterung der Terminologie Latours auch die Terminologie Callons zu zitieren. Vgl. M. Callon und B. Latour ( 1997 ).

233

Digitale Welt und Gestaltung

Die Frage des Netzes steht im Zentrum des theoretischen Entwurfs von Latour und Callon. Allerdings weicht die von ihnen diesem Begriff zugelegte Bedeutung ganz erheblich von der üblichen Verwendungsweise ab. M. Callon schreibt: « Das Netz, von dem ich spreche, darf weder mit den Netzen der Ingenieure (zum Beispiel mit der Datenautobahn, die Herr Clinton entwickeln will) noch mit den sozialen Netzen der Soziologen (zum Beispiel der Freundschaft, des Berufs, des Vertrauens, des Rufes) noch mit den Netzen der Aussagen oder Texte verwechselt werden, wie sie die Philosophen oder die Spezialisten der Diskursanalyse so sehr lieben. Meine Netze sind eine Mischung dieser drei Netzformen. » Es sind also Netze von « hybridischen Kollektiven », die ihren Ursprung nicht in « technischer Solidarität » finden, wie es bei den « technischen Zusammensetzungen » (ensambles téchniques) Simondons der Fall ist, sondern die mit Hilfe einer Übersetzung, das heißt durch die Kreuzung zweier ursprünglich gegensätzlicher Entitäten entstehen sowie durch Einschreibung, also durch die Annahme einer neuen Ausdrucksmodalität, die den beiden Ausgangskategorien fehlt.

36

Wie wir bereits erläutert haben, übernimmt Latour die Idee der Übersetzung von Serres (1974). Unter Übersetzung versteht Serres wesentlich einen Prozess, mit dessen Hilfe der Sinn eines bestimmten, zum Beispiel eines wissenschaftlichen Konstrukts durch ein künstlerisch-bildliches Konstrukt ersetzt wird. Unter vielen ähnlichen Fällen führt Serres als Beispiel die in ein Gemälde von Turner übersetzte Thermodynamik von Carnot an. 36 Latour schreibt: « Unsere Argumentation entfaltet sich im Hin und Her zwischen Übersetzung und Netz. Weniger starr als der Systembegriff, geschichtlich stärker als der Schriftbegriff, empirisch gesicherter als der Komplexitätsbegriff, ist der Netzbegriff der Ariadnefaden dieser konfusen Sachlage. » Das Netz würde also den Systembegriff ersetzen. Dieser Vorschlag scheint mir von einiger Bedeutung zu sein. Latour argumentiert, dass der Netzbegriff, insofern weniger « starr », handlicher als der Systembegriff ist, und lässt durchblicken, dass seiner Ansicht nach der erste den zweiten ersetzen könnte. Wenn Latour beabsichtigt, « diese konfuse Sachlage » zu klären, scheint mir nun genau das Gegenteil einzutreten.

36

Bezeichnenderweise bezeichnet der Übersetzungsprozess für Serres einen entsprechenden Prozess der kontinuierlichen topologischen Transformation.

234

Noch einmal die Frage nach der Technik

In jüngster Zeit wird der Netzbegriff arg strapaziert. Gewöhnlich wird ihm eine Vielzahl von mehr oder weniger vertretbaren Bedeutungen zugeschoben. Was mich angeht, ziehe ich die Art und Weise vor, wie ihn die Theoretiker der large technical systems verwenden: das Netz als Teil eines Makrosystems, das die Flussprozesse jedwelcher Art kontrolliert. Diese terminologische Entscheidung ist aus zwei Gründen wichtig: 1) Sie verhindert, dass aus dem Netz ein Gegenstand nicht verifizierbaren paraphilosophischen und paraliterarischen Schwadronierens gemacht wird; 2) sie verhindert ferner, dass das Netz sich zu etwas wie einem Bereich selbstgenügsamer Ref lexion entwickelt, abgekoppelt vom reichen analytischen Erbe, das seit den fünfziger Jahren von der Systemtheorie entwickelt worden ist.

37

An diesem Punkt scheint es mir angebracht, die noch offene Frage der geschichtlichen Verbindung zwischen Konstruktivismus und Systemtheorie wieder aufzunehmen. Der Konstruktivismus besteht unter anderem auf der Notwendigkeit, der Ideologie des technologischen Determinismus zu entkommen, also die Tendenz einzudämmen, in der Technik den einzigen dynamischen Faktor des gesellschaftlichen, wirtschaftlichen und kulturellen Lebens zu sehen. Aber das ist nicht neu. Die Theoretiker der Umweltsysteme W. Ogburn (1956) und J. H. Milsum (1972) haben, ausgehend von den Arbeiten von V. I. Vernadskij und G. F. Chil’mi, eine anthropozentrische Systemansicht der Welt unterbreitet. Die Umwelt wurde als ein System angesehen, das in drei Subsysteme gegliedert ist: die Biosphäre, die Soziosphäre und die Technoshpäre. Keines dieser drei Subsysteme kann als Ursache für die beiden anderen oder unter Vernachlässigung der beiden anderen betrachtet werden. 37 Ich beabsichtige nicht, mich mit der Gültigkeit dieser These auseinanderzusetzen, vielmehr möchte ich nur die Aufmerksamkeit darauf lenken, dass der Konstruktivismus und die Systemtheorie viele Dinge gemein haben. Das hatte der Wissenschaftler der large technological systems, Th. P. Hughes, mit seinem systemischen Ansatz zur Technikgeschichte ebenso erkannt wie auch J. Law (1989), der drei Elemente isoliert, die seiner Meinung nach beide Theorien eint: 1) Die Technologie hängt nicht nur von der Natur ab; 2) die Technologie hat nicht eine invariable Beziehung zur Wissenschaft; 3) die technologische Stabilisierung wird nur als solche anerkannt, wenn ein Artefakt mit einem weiten Bereich von nicht technischen und speziell gesellschaftlichen Faktoren verknüpft werden kann.

37

Der Gedanke eines Systems ist dazu bestimmt, funktional und strukturell die drei Sphären in Form der Bio-Techno-Soziosphäre zu integrieren. Er hat einen erheblichen Einfluss auf das heutige Umweltdenken ausgeübt. Vgl. T. Maldonado ( 1970 und 1987 ) und auch M. Chiapponi ( 1989 ).

235

Digitale Welt und Gestaltung

Ich glaube, dass diese drei Punkte von einem Vertreter der traditionellen Systemtheorie, zum Beispiel von Milsum, hätten unterschrieben werden können, wie auch von den Technikhistorikern aus der konstruktivistischen Schule, zum Beispiel von Hughes. Aber wenn Law dann die Unterschiede auf listet, dürften die Meinungen auseinandergehen. Nach Law würden die Vertreter der Techniksoziologie der gesellschaftlichen Dimension Vorrang einräumen, wogegen die Neosystemtheoretiker diese Dimension relativieren würden. Meiner Ansicht nach wird bei dieser Interpretation die Sachlage über Gebühr vereinfacht. Selbstverständlich berufen sich die Soziologen auf einen Satz von Kategorien, der den Systemtheoretikern fremd ist. Aber es ist falsch, wie Law zu behaupten, dass die Systemtheoretiker den gesellschaftlichen Aspekten keine Bedeutung beimessen.

38

39

40

In diesem Zusammenhang lohnt es sich, die Einstellung eines Historikers wie F. Braudel zu untersuchen. 38 Er schreibt: « Alles ist Technik », womit er sich wohl auf die Tatsache bezieht, dass in jedem menschlichen Handeln in größerem oder geringerem Umfang ein artifizielles Moment mitspielt, eine Prothese, also ein Zugriff auf eine instrumentelle Vorrichtung zur Verstärkung unseres operativen und kommunikativen Handelns. So genommen trifft die Behauptung Braudels zu oder zumindest teilweise zu. Viel treffender wäre die Formulierung gewesen: « Alles ist Technik, insoweit alles Gesellschaft ist. » Oder umgekehrt: « Alles ist Gesellschaft, insoweit alles Technik ist. » 39 Die actor-network theory von Callon und Law (1995) entspricht einem ganzheitlichen Verständnis der Beziehung von Technik, Gesellschaft und Natur. Dies zeigt sich daran, dass der Begriff actor-network theory durch den Ausdruck actor-system theory ersetzt werden kann, ohne dass damit der Inhalt verfälscht würde. 40 Alles in allem kann der Netzgedanke nicht vom Systemgedanken getrennt werden, und das trifft besonders auf den Fall eines dynamischen Systems zu. Zwar gibt es auch statische Systeme ohne Handlung und ohne Handelnde und somit ohne Netze, doch

38

39

F. Braudel, Civilisation matérielle et capitalisme, A. Colin, Paris 1967.

Vgl. F. Canon, Les deux révolutions industrielles du XXe siècle, Albin Michel, Paris 1997. Canon behauptet, dass in der Tat die « Technologie das Gesellschaftliche konstruiert », aber dieser Prozess läuft weder linear noch isoliert ab. Auf der einen Seite gibt es die « innere Logik » der Technologie, die in das Gesellschaftliche einbricht, auf der anderen Seite gibt es die « externe Logik » der Handelnden, die ihrerseits stark die Dynamik der Technologie beeinflusst.

40

Noch passender wäre es, mit der Formulierung von G. Ropohl ( 1979 und 1986 ) von einem sociotechnical action system zu sprechen.

236

Noch einmal die Frage nach der Technik

solche Systeme gehen über das hier behandelte Thema hinaus, insofern es uns primär um die dynamischen Interaktionen zwischen technischen Systemen und Sozialsystemen geht. Die andere terminologische Option von Latour betrifft den Fachbegriff Symmetrie und dessen Ableitungen: Asymmetrie, symmetrisch, asymmetrisch und Symmetrisierung. Während der Ausdruck Hybridisierung im vorliegenden Fall eine Metapher aus der Biologie darstellt, meint der seit langem in die Umgangssprache aufgenommene Begriff Symmetrie eine Metapher mit einer reicheren und komplexeren wissenschaftlichen Herkunft aus den Bereichen Mathematik, Physik und Biologie. Wenn man sich vergegenwärtigt, dass im Diskurs von Latour (und von Callon) die symmetrische Metapher von großer Bedeutung ist, würde man eine größere Strenge im Umgang mit ihr erwarten: eine genauere Definition, in welchem Sinn der Begriff verwendet wird. Hier lässt uns Latour aber im Dunkeln.

41

Man kann annehmen, dass er das Wort so verwendet, wie es in der Alltagssprache gebraucht wird – also im Sinne eines Symmetriebegriffs, der sich ausschließlich auf die Spiegel- oder die bilaterale Symmetrie beschränkt. Das zeitigt Folgen für seine These. Die Spiegelsymmetrie ist bekanntlich nur eine der möglichen Symmetriearten. Wie die Herkunft des Wortes anzeigt, wird die Symmetrie abhängig von der Kommensurabilität zwischen den Teilen eines Ganzen definiert. Bekanntlich sind nicht alle Konfigurationen auf die gleiche Weise kommensurabel. Es gibt Symmetrien, die, wenn auch nicht durch die Art der Spiegelung, dennoch Symmetrien sind. 41 Inwieweit ist das für den Diskurs von Latour wichtig ? Indem er sich des Symmetriebegriffs aus der Alltagssprache bedient, also nur des Begriffs der Spiegelsymmetrie, verliert sein Diskurs Überzeugungskraft. Bei vielen der von ihm angezeigten Asymmetrien – zum Beispiel menschlicher Gegenstand und nicht menschlicher Gegenstand – muss es sich durchaus nicht um Asymmetrien handeln. Latour verzichtet darauf, theoretischen Vorteil aus der Tatsache zu ziehen, dass es alles in allem « im Himmel und auf Erden » mehr Symmetriearten gibt, als man gemeinhin annimmt. Freilich bedient er sich des Begriffs der Spiegelsymmetrie, ausgehend von Bloor, in einem viel engeren Bereich, und zwar in dem methodologischen Bereich. Nach Bloor « muss die Wissenssoziologie mit symmetrischen Erklärungsarten verfahren, dieselben kausativen Verfahren müssen die wahren Annahmen und die falschen Annahmen erklären ». Trotz meiner Einwände gegen einen nur spiegelsymmetrischen Ansatz wäre diese Feststellung generell zu akzeptieren. Letztendlich hat man es mit einem vernünftigen Vorschlag « methodologischer Unparteilichkeit » zu tun.

41

Vgl. K. L. Wolf und R. Wollf ( 1956 ).

237

Digitale Welt und Gestaltung

Am Ende dieser langen Darlegung der Versuche, die Technik in nicht spekulativen Begriffen zu denken, entfaltet sich ein uneinheitliches Panorama. Einige Wissenschaftler haben beispielhaft das Ziel erreicht, andere nur zum Teil. Es gibt aber auch jene, denen es trotz aller Anstrengungen nicht gelungen ist, sich von der alten forma mentis zu befreien, die in der Technik eine abstrakte Wirklichkeit sieht, die nur mit abstrakten Begriffen beschrieben werden kann.

238

Digitale Welt und Gestaltung

Brillen – ernst genommen

*

*

8. Kapitel aus Memoria e conoscenza . Sulle sorti del sapere nella prospettiva digitale, Feltrinelli, Mailand 2005, S. 227 – 238.

241

Brillen – ernst genommen

Nach heute weit verbreiteter Ansicht bildet die Technik einen exogenen Faktor, der unsere alltägliche Lebenswelt von außen beeinf lusst – also einen Faktor, der uns aus weiter Ferne erreicht und der sich gleichsam unter der Hand in unsere Gesellschaft einschleicht, eine abgehobene und vor allem übergeordnete Instanz. Aus dieser Sichtweise lässt sich nachvollziehen, inwieweit und auf welche Weise dieses Insistieren auf der Autonomie der Technik dazu beiträgt, sie zu einer dem Menschen fremden Instanz zu stilisieren und dann zu sakralisieren. So wird der Weg für einen technologischen Determinismus geebnet, demzufolge die Technik die Ursache aller wirklichen oder vermeintlichen über die Gesellschaft hereinbrechenden Veränderungen ist. Dabei wird übersehen, dass Technik nicht eine gleichsam ungebändigte Kraft außerhalb der Gesellschaft darstellt, sondern dass sie sich in ihrem Innern entfaltet und stark von der gesellschaftlichen, wirtschaftlichen und kulturellen Dynamik geprägt wird. Kurz: Nicht die Technik, sondern die Gesellschaft verändert die Welt – im Guten wie im Schlechten. Wenn Technik wie zum Beispiel im Umweltbereich « Probleme erzeugt », dann handelt es sich letztlich um gesellschaftliche und nicht um technische Probleme. Wie ich bereits im vorherigen Kapitel erwähnt habe, sagte der Historiker Fernand Braudel: « Alles ist Technik. » Damit spielte er wohl auf die Tatsache an, dass in jedem menschlichen Handeln in größerem oder geringerem Umfang ein Moment des Instrumentell-Gegenständlichen, des Prothesenhaften mitspielt, und das meint einen Rückgriff auf ein Werkzeug oder Gerät zu dem Zweck, die Wirksamkeit unseres instrumentellen und kommunikativen Handelns zu erhöhen. Ich glaube, dass in dieser Hinsicht die Behauptung Braudels stimmt oder besser: teilweise stimmt. Treffender dürfte die Aussage sein: «Alles ist Technik, weil alles Gesellschaft ist.» Oder umgekehrt: « Alles ist Gesellschaft, weil alles Technik ist. » Dieser Satz enthält jedoch eine implizite Frage: Verbirgt sich nicht hinter dieser totalen Gleichsetzung der Technik mit der Gesellschaft, hinter der Gleichsetzung des technischen Handelns mit dem gesellschaftlichem Handeln eine subtilere Version eines technologischen Determinismus ? Diese Befürchtung ist meiner Ansicht nach unbegründet. Wenn man auf der einen Seite die Allgegenwärtigkeit der Technik anerkennt, weil die Gesellschaft allgegenwärtig ist, und auf der anderen Seite die Allgegenwärtigkeit der Gesellschaft anerkennt, weil die Technik allgegenwärtig ist, so folgt daraus nicht die Existenz einer autonomen Technik. Noch weniger ist damit die Annahme verknüpft, dass

243

Digitale Welt und Gestaltung

Technik als unanfechtbare Leitinstanz der Weltgeschäfte fungiert. Vielmehr werden gerade die vermeintliche Autonomie der Technik und der darin verborgene technologische Determinismus als unhaltbar zurückgewiesen. Ebenso wird die These von der schrankenlosen Autonomie der Gesellschaft gegenüber der Technik bestritten. Denn offensichtlich scheitert die Vorstellung einer entsprechenden Autonomie an der Härte der Fakten. Wer kann heute – ohne sich lächerlich zu machen – bezweifeln, dass die technische Entwicklung unseren Lebensstil, unsere zwischenmenschlichen Beziehungen und unsere Wertvorstellungen ungemein stark prägt und beeinf lussen kann ? Wer könnte so verstockt sein zu behaupten, dass die Technik allenfalls als ein nebensächliches Element unserer Gesellschaft zu betrachten sei ? Es geht weniger darum, die Relevanz der Technik zu bejahen (oder zu verneinen) – die steht außer Debatte –, als vielmehr darum zu wissen, ob man ihr hinsichtlich der in der Gesellschaft beobachtbaren Veränderungen eine kausale Rolle zuschreiben soll (oder nicht). Viele Historiker, Wissenschaftstheoretiker und Philosophen der Technik, vor allem aus der Schule des soziologischen Konstruktivismus, bestreiten eine solche Möglichkeit. Ihnen zufolge wäre die Ursache, die treibende Kraft hinter den gesellschaftlichen Veränderungen primär in der Gesellschaft selbst und nicht in der Technik zu sehen. Diese Position wird gewöhnlich in folgendem Satz zusammengefasst: Die Gesellschaft ist die treibende Ursache, die Technik dagegen nur der ausführende Agent der Veränderungen. Doch bedarf diese (meiner Ansicht nach grundsätzlich akzeptable) Behauptung einiger Erläuterungen. Man sollte nicht die Tatsache übersehen, dass die Begriffe Ursache und Agent eine sehr lange Geschichte im philosophischen Denken haben. Es möge genügen, an die aristotelische Doktrin der « vier Ursachen » und die komplexen Begriffskonstruktionen der mittelalterlichen Scholastik zu erinnern, die den Topos der Beziehung zwischen Ursache und Wirkung thematisieren, ohne die ausgefeilten logisch-epistemologischen Betrachtungen der modernen Wissenschaftsphilosophie zu vergessen. Wenngleich ich nicht beabsichtige, mich bei den vielgliedrigen philosophischen Folgen des technologischen Determinismus aufzuhalten, so liegt doch die Schwierigkeit (und ich würde sagen, die Unmöglichkeit) offen zutage, dieses Thema zu diskutieren, ohne auf diese Folgen einzugehen. Das gilt auch, wenn die Begriffe von Ursache und Wirkung nur verhüllt benutzt und gegebenenfalls durch entsprechende mehr oder minder ausgeklügelte metaphorische Umschreibungen ersetzt werden.

24 4

Brillen – ernst genommen

Nehmen wir die den Verteidigern des technologischen Determinismus so wichtige Formel, dass die Technik eine Push-Funktion und die Gesellschaft eine PullFunktion ausübe. An diesem Punkt taucht ein Zweifel auf: Können wir sicher sein, dass diese beiden gegensätzlichen Versionen nicht beide auch Ergebnis desselben Irrtums sind, und zwar des Irrtums zu glauben, dass die Verbindung zwischen Ursache und Wirkung immer und überall in eine lineare, irreversible Richtung zeigt ? Hat uns nicht die erwähnte philosophische Tradition der Kausalität oftmals dazu angehalten, über das – bislang ungelöste – Problem der zirkularen Kausalität, der Kausalketten nachzudenken ? Bei dem hier erörterten Thema kann die Frage der Zirkularität nicht umgangen werden. Denn wenn es stimmt – um bei der Metapher zu bleiben –, dass in einer bestimmten Phase die Technik als Push -Faktor und die Gesellschaft als PullFaktor fungieren, dann stimmt es auch umgekehrt, dass in einer vorhergehenden Phase die Gesellschaft als Push-Faktor und die Technik als Pull-Faktor gewirkt haben. In anderem Zusammenhang habe ich die vorgängige Rolle der Gesellschaft in der Dynamik der gesellschaftlichen Veränderungen erörtert. Ich bin fest von der Gültigkeit dieser Ansicht überzeugt. Doch lässt sich die Beziehung zwischen Gesellschaft und Technik auch nicht als ein Prozess mit einem Anfangspunkt (der Gesellschaft) und einem Endpunkt (der Technik) beschreiben, wie es oftmals die Vertreter des Konstruktivismus tun. Dies wäre mit anderen Worten ein Prozess, der in der Technik gipfelt und darin seine endgültige Erfüllung findet, doch das ist allzu einfach gedacht. Auf dem Weg von der Gesellschaft zur Technik stellt man niemals einen Endpunkt fest, und man erreicht niemals die Ziellinie. Was heute eine Pull-Funktion ausübt, kann morgen eine Push-Funktion erfüllen und umgekehrt. In jüngster Zeit gibt es eine Reihe von Versuchen, anhand konkreter Beispiele die Art und Weise zu belegen, wie die Gesellschaft mit ihrem komplexen Netz wirtschaftlicher, gesellschaftlicher und kultureller Anforderungen in jeder Epoche die technologische Innovation stimulieren, bedingen und lenken kann. Kurz gesagt: Die Gesellschaft erfüllt die Push-Funktion und relegiert die Technik in die Rolle eines Pull-Faktors. Mit wenigen Ausnahmen gehören die untersuchten Fälle dem Bereich der technischen Makrosysteme an. Es sei auf die bekannten Arbeiten von Th. P. Hughes (1979) über die Elektrifizierung der USA oder von F. Canon (1988) über die französischen Eisenbahnen verwiesen. Aus gleicher Perspektive hat Robert Pool in seinem Buch mit dem bezeichnenden Titel Beyond Engineering. How Society shapes Technology (1977) neben vielen anderen Beispielen die Entwicklung der Atomtechnik behandelt.

245

Digitale Welt und Gestaltung

Offensichtlich stellen die technischen Makrosysteme gleichzeitig starke (oder sehr gute) und schwache (oder sehr schlechte) Beispiele dafür dar, die in Frage stehende These zu untermauern. Ich sage starke Beispiele, insofern ihre Verkettung mit der Gesellschaft so klar zutage tritt, dass man schwerlich argumentieren kann, diese hätte wenig mit technischen Makrosystemen zu tun oder spiele im Vergleich zu den Makrosystemen eine untergeordnete Rolle. Technische Makrosysteme sind im Kern wahre Makrosysteme sozialen Managements (und sozialer Kontrolle). Auf der anderen Seite sind sie schwache Beispiele, insofern ihre erdrückende Beweiskraft ein Hindernis darstellt, sich mit der Einschätzung der weniger augenscheinlichen, aber deshalb nicht weniger wichtigen Aspekte der Beziehung von Gesellschaft und Technik abzugeben. Um die Möglichkeit eines solchen anderen, weniger vereinfachenden Ansatzes zu eruieren, möchte ich Entstehung und Entwicklung eines technischen Gegenstandes darlegen, der trotz (oder wegen) seiner kleinen Abmessungen und seiner geringen Komplexität dazu dienen kann, Aspekte aufzudecken, die in den Makrosystemen in der Regel übergangen werden. Ich denke hier an die Sehbrille – ein Gegenstand, der still und ohne laute Fanfarenklänge seit mehr als siebenhundert Jahren einer großen Zahl von Menschen, die unter Kurzsichtigkeit, Weitsichtigkeit, Altersweitsichtigkeit und Astigmatismus leiden, einen sensorisch-perzeptiven Zugang zur Wirklichkeit ermöglicht. Sicher, die Sehbrille « ernst zu nehmen » mag jenen Forschern wenig reizvoll erscheinen, die ihre analytische Kompetenz nur und ausschließlich an Objekten großen Zuschnitts messen. Doch die Tatsache, dass Brillen offenbar banale Gegenstände sind (oder zumindest für uns zu banalen Gegenständen geworden sind), ist kein triftiger Grund, sie als historisch bedeutungslos abzutun oder, schlimmer noch, sich zu weigern, ihre Nützlichkeit im Rahmen der theoretischen Erörterungen über die Technik anzuerkennen. Der Historiker Lynn White schreibt (1940): « Sicherlich wird keiner der bebrillten Akademiker sich zum Zweifel an der Tatsache versteigen, dass die Erfindung der Brille dazu beigetragen hat, das allgemeine Ausbildungsniveau anzuheben und eine nahezu fiebrige Geistestätigkeit zu fördern, wie sie das 14. und 15. Jahrhundert auszeichnete. » Zu Beginn sei daran erinnert, dass die Geschichte der Brille bekanntlich eng mit der Geschichte der Linsen verknüpft ist. Mehr noch: Die Erfindung der ophtalmologischen Linsen markiert einen Wendepunkt in der Entwicklung der optischen

246

Brillen – ernst genommen

Geräte. Die Sehlinsen öffneten den Weg für die Entwicklung der ersten Teleskope und Mikroskope mit zusammengebauten Linsensätzen. Sie bildeten die Vorläufer der Präzisionsoptik, also der Gesamtheit der Instrumente und Apparate, die im Zeitraum vom 13. bis 17. Jahrhundert die Voraussetzungen für die technisch-industrielle Revolution schufen. Sie waren kurz gesagt Instrumente und Apparate, die eine Grundlage für den erstaunlichen Durchbruch boten, um – mit der treffenden Formulierung von A. Koyré (1961) – « von der Welt des Ungefähren zur Welt der Präzision » zu gelangen; einer Welt, in der die sorgfältige Beobachtung, die genaue Messung und die Quantifizierung zu den drei Grundpfeilern der strukturellen und funktionellen Ordnung wurden. Aber – so ließe sich einwenden – ist es nicht ein wenig übertrieben, der Brille eine derart wichtige Rolle bei der Entfaltung der modernen Welt zuzuschreiben ? Wird da nicht der interpretative Bogen überspannt ? Meiner Ansicht nach sind diese (oder ähnliche) Bedenken unbegründet. Ich vermute, dass sie einfach ein Überbleibsel dessen sind, was Vasco Ronchi (1962) die « Verschwörung des Schweigens » der « Berufsdenker » (Philosophen und Historiker) gegenüber den Linsen und ihren Anwendungen nennt – dieselbe « Verschwörung des Schweigens », die der geniale Giambattista Della Porta als Erster im 16. Jahrhundert mit seinen Büchern Magia Generalis und De Refractione zu brechen suchte. Es verwundert, dass trotz der verf lossenen Jahrhunderte und trotz der erstaunlichen Fortschritte, die im Verlauf dieser Zeit im Bereich der optischen Instrumente und mit ihnen verwandter Gebiete gemacht worden sind, immer noch Zweifel über die geschichtliche Bedeutung dieser Erfindung gehegt werden. Und die geschichtliche Bedeutung bezieht sich hier nicht nur auf die Erfindung eines unter diesem Namen bekannten Gebrauchsgegenstandes, sondern auch auf die wissenschaftlichen Kenntnisse und technischen Erfahrungen, die dieser Erfindung vorangegangen sind (und sie in gewisser Hinsicht vorgeprägt haben). Darüber hinaus sind natürlich auch die Kenntnisse und Erfahrungen nicht zu vergessen, die unmittelbar danach erworben wurden und radikal neue Perspektiven für die durch Instrumente vermittelte Beobachtung eröffneten. Für die Vorläuferphase sind zum Beispiel die Beiträge von Alhazen, Grossatesta und Roger Bacon zu nennen, für die Folgephase die Beiträge von Della Porta, Keppler und Galilei. Ich möchte mich nicht auf die zwischen Florentinern, Pisanern und Venezianern diskutierte Streitfrage einlassen, wem denn die Erfindung der Brille zugeschrieben werden dürfe. Für die Florentiner gilt bekanntlich Salvino Armando degli Armati als Erfinder. Für die Pisaner ist es Alessandro Spina und für die Venezianer ein anonymer Glasschleifer aus Murano.

247

Digitale Welt und Gestaltung

Wie bereits erwähnt, zielt mein Interesse in andere Richtung. Ich möchte eine Antwort auf zwei verschiedene (und gegensätzliche) Fragen finden. Die erste lautet: Welche (möglicherweise kausale) Verbindung besteht zwischen den Fortschritten der Glasindustrie, also der Fähigkeit, leistungsfähige optische Linsen zu liefern, und der Erfindung der Brille ? Die zweite lautet: Wie und warum entstand um 1280 der gesellschaftliche, wirtschaftliche und kulturelle Bedarf, die Sehprobleme der Weitsichtigen zu korrigieren, und erst später, um 1450, der Bedarf für die Korrektur der Kurzsichtigkeit ? Mit diesen Fragen kehren wir zurück ins Zentrum der weiter oben erörterten Frage, welcher Faktor in der Beziehung von Technik und Gesellschaft eine PushFunktion und welcher eine Pull-Funktion erfüllt. Ich möchte mich zunächst der zweiten Frage zuwenden. Die Hauptschwierigkeit liegt hier in unserer subjektiven Situation, insofern wir im modernen Zeitalter leben. Wir sind heute derart an den Gebrauch von Brillen und anderen ausgefeilten visuellen Prothesen gewöhnt, dass wir uns nur schwer das Alltagsleben eines Kurzsichtigen oder Weitsichtigen vor der Erfindung der Brille vorstellen können. Dennoch lohnt sich ein solcher Versuch. Vermutlich ist das Leben der Kurz- und Weitsichtigen im Spätmittelalter – euphemistisch gesagt – nicht leicht gewesen. Doch im Vergleich zu den Weitsichtigen gestaltete sich das Leben der Kurzsichtigen erheblich schwieriger, zumindest jener, die unter mittlerer bis starker Kurzsichtigkeit litten. Beginnen wir nun damit, deren Existenzbedingungen zu untersuchen. Obwohl wir eine Menge über die verschiedenen Facetten des Alltagslebens im Spätmittelalter wissen – Hygiene, Ernährung, Kleidung, Schmuck und Ornamente, Geschlechterbeziehung, Feste, Paraden und Prozessionen –, finden wir erstaunlich wenig Informationen über die Personen, die unter starker Kurzsichtigkeit litten. Das lässt sich nur schwer verstehen, weil das augenfällig andere Verhalten dieser Personen im alltäglichen Umgang hätte bemerkt werden müssen. In den wenigen diesbezüglichen Dokumenten, einschließlich der medizinischen Krankheitsberichte, werden die Kurzsichtigen nur indirekt erwähnt, in kryptischen Anspielungen und ironischen und sarkastischen Kommentaren. Ob aus Unwissenheit oder kaum verhehlter Boshaftigkeit, sie werden manchmal mit gleichsam falschem Namen erwähnt. Zum Beispiel wird in den Listen der in Spitäler aufgenommenen Patienten neben Kranken, Altersschwachen, Waisen, Armen, Geisteskranken und nicht zuletzt Blinden eine nicht weiter bestimmte Gruppe der « Fastblinden » aufgeführt.

248

Brillen – ernst genommen

Wer waren diese « Fastblinden » ? Die Annahme scheint nicht zu gewagt, dass sich in dieser Gruppe auch die Kurzsichtigen befanden. Sehr wahrscheinlich endete ein hoher Prozentsatz von stark kurzsichtigen Frauen und Männern im besten Fall in Spitälern. Im schlimmsten Fall wurden einige von ihnen als unerwünscht betrachtet und deshalb gezwungen, außerhalb der Stadt- und Befestigungsmauern zu hausen, womit sie in die vielfältig zusammengesetzte Gruppe der Ausgestoßenen abglitten. Selbstredend widerfuhr dieses Geschick nur den stark Kurzsichtigen der Unterschicht. Den Mitgliedern der Oberschicht stellten sich andere Probleme. In den zwischenmenschlichen Beziehungen der höfischen Kultur spielte das Blickritual eine entscheidende Rolle. Die Kurzsichtigen waren aus offensichtlichen Gründen von diesem Ritual ausgeschlossen, da sie diese Form der Etikette und des guten Benehmens nicht respektieren konnten. So betrachtet erschien die kurzsichtige Person als gleichgültig, scheu, kalt, rätselhaft, verstört oder bisweilen gar als hochmütig und anmaßend. Jedenfalls stießen die Kurzsichtigen, unabhängig vom Klassenstatus, durchweg auf Intoleranz. Und mehr noch: Die Abneigung wenn nicht offene Feindseligkeit, die sie hervorriefen, konnte sich – wie es in der Tat geschah – zu abwegigen Verdächtigungen steigern, die zu ernsthaften Folgen für die Betroffenen führten. Ich meine die Neigung, dem Kurzsichtigen, wie übrigens auch dem Blinden, glattweg böse Kräfte zu unterschieben. Dass die kurzsichtige Person sehr gut in der Nähe liegende Dinge sehen konnte, aber selten (oder gar nicht) weiter entfernt liegende Dinge, wurde nicht als Folge einer optisch-physiologischen Pathologie verstanden – um die es sich schließlich handelte –, sondern als Beweis für eine vermutliche Doppelzüngigkeit genommen. Mit anderen Worten: Die kurzsichtige Person wurde als Schwindler angesehen, der aus rätselhaften Motiven vorgab, blind zu sein, ohne wirklich blind zu sein. Ferner wurden Kurzsichtige mehr noch als Blinde dem Vorwurf ausgesetzt, über teuf lische Kräfte zu verfügen. Deshalb darf es nicht verwundern, dass nach dieser perversen Logik einige der « Blindheitssimulation » bezichtigten Frauen in den Hexenprozessen gefoltert und zum Scheiterhaufen verurteilt wurden. Zugegeben liefern die hier skizzierten Tatsachen ein unvollständiges, wenn auch zutreffendes Bild der Kurzsichtigen und ihres Schicksals im Spätmittelalter. Es muss aber auch die Kehrseite der Medaille betrachtet werden. Die Kurzsichtigen sind eben wegen ihrer Anomalie in all den Berufen anzutreffen, die eine gute Nahsicht erfordern, zum Beispiel: Schreiber, Kopierer, Kalligraf, Graveur, Miniaturist, Lehrer, Händler, Buchhalter, Notar, Richter, Goldschmied, Spinner, Weber, Sticker, Tischler, Kunsttischler (Intarsienleger), Schuster, Schneider usw. Die Weitsichtigen dagegen entschieden sich ebenfalls auf Grund ihrer Anomalie gezwun-

249

Digitale Welt und Gestaltung

genermaßen für jene Aktivitäten, die eine präzise Wahrnehmung auf mittlere und weite Distanz erforderten, zum Beispiel: Jäger, Bauer, Hirt, Viehzüchter, Fischer, Holzfäller, Maurer, Bergmann, Seemann, Soldat usw. Die erste Gruppe bestand aus Personen, die mit den Worten von Lucien Febvre (1942) « Gewächshausmenschen » waren, eingeschlossen und beschützt in begrenzten Räumen, wogegen die zweite Gruppe sich aus « Freiluftmenschen » zusammensetzte, der Erde nah und dem Leben auf dem Lande verbunden. Diese Arbeitsteilung ist für beide Formen von Fehlsichtigkeit sehr aufschlussreich. Während die Weitsichtigen sich überwiegend den Tätigkeiten in herkömmlichen Produktionsbereichen widmen, also der Bereitstellung von Nahrungsmitteln und dem Abbau und Transport von Baumaterialien, sind die für die Kurzsichtigen typischen Tätigkeitsfelder weit stärker gegliedert und differenziert. Zweifelsohne arbeiten sie auch in traditionellen Produktionsbereichen, vor allem im Handwerk. Doch nicht nur das. Einige von ihnen, Geistliche und Laien, widmen sich in den Klöstern und Universitäten dem Schreiben, dem Lesen, der Übersetzung und der Herstellung von Büchern. Andere (möglicherweise handelt es sich auch um dieselben Personen) spielen auf Grund ihrer organisatorischen, buchhalterischen und juristischen Fähigkeiten eine wichtige Rolle bei Verwaltungs- und Wirtschaftsangelegenheiten (und auch bei politischen Problem) der Herren. Diese Kurzsichtigen genossen auf ihre Weise ganz klar eine Machtposition. Wie bereits erwähnt, wird die Erfindung der Brille in zwei Phasen gegliedert: Die erste beginnt gegen Ende des 13. Jahrhunderts mit der Entwicklung der Brillen mit konvex-konkaven Gläsern zur Korrektur der Weitsichtigkeit; die zweite in der Mitte des 15. Jahrhunderts mit der Entwicklung konkav-divergenter Gläser zur Korrektur der Kurzsichtigkeit. Doch warum – so darf man fragen – mussten eineinhalb Jahrhunderte verstreichen, um von den Linsen für Weitsichtige zu den Linsen für Kurzsichtige zu gelangen. Wie erklärt sich diese Kluft zwischen den beiden Perioden ? Die Vertreter des technologischen Determinismus unterstützen verständlicherweise die These, dass dieser Verzug in erster Linie der Unfähigkeit der Brillenhandwerker zuzuschreiben ist, vor 1450 konkav-divergente Linsen herzustellen. Trifft dieses Argument zu ? Nur zum Teil. Natürlich lässt sich die Tatsache nicht abstreiten, dass die Brillenhandwerker solche Linsen während dieses langen Zeitraums nicht hergestellt haben. Doch man darf sich nicht mit dieser unwiderlegbaren Feststellung zufrieden geben.

250

Brillen – ernst genommen

Allgemein stimmen die Historiker der Technik darin überein, dass die erforderlichen Kenntnisse für die Herstellung von Linsen für Weitsichtige sich letzthin nicht allzu stark von denen für die Herstellung von Linsen für Kurzsichtige unterschieden. Die Handwerker aus Venedig, die die qualifiziertesten Handwerker im Europa des 13. Jahrhunderts waren, wären sehr wahrscheinlich nach einer kurzen Versuchsperiode durchaus in der Lage gewesen, diese Linsen herzustellen. Es mag genügen, auf das hohe Niveau des Fachwissens hinzuweisen, dass sie in den Techniken des Zuschneidens, Glättens und Polierens von Linsen erreicht hatten. Doch hier stellt sich eine implizite Frage: Wenn die Herstellung beider Linsenarten, wie es scheint, durchaus im Bereich des Möglichen lag, was stand dann dem Versuch im Wege, sie auch anzufertigen? Einige Wissenschaftshistoriker fanden eine schlüssige Antwort: Die Erfindung der Brille für Weitsichtige resultierte aus dem seltenen Zusammentreffen von zwei Faktoren: auf der einen Seite die Forschungen der Oxforder « Gelehrten », Roberto Grossatesta und Roger Bacon, über die optischen Eigenschaften konvexer Linsen; auf der anderen Seite die Herstellung ähnlicher Linsen seitens der italienischen « Praktiker ». Unter « Gelehrten » sind hier die « Naturphilosophen » zu verstehen und unter « Praktikern » die « Handwerker ». Ein wenig zugespitzt kann man die erste Gruppe nach modernem Sprachgebrauch einfach Wissenschaftler und die zweite Gruppe einfach Techniker nennen. Es steht außerdem fest, dass diese zeitliche Koinzidenz zwischen Gelehrten und Praktikern während des ganzen 14. Jahrhunderts nicht auftritt. Der Grund hierfür ist den Gelehrten zuzuschreiben, die keine Theorie der bikonkaven Linsen lieferten, wie sie es im 13. Jahrhundert für die bikonvexen Linsen getan hatten. Die sich aus dieser Sichtweise zwingend ergebende Schlussfolgerung ist: Die Entwicklung der Brillen für Kurzsichtige ist in dem Augenblick ermöglicht worden, in dem die Gelehrten den Praktikern eine Theorie der bikonkaven Linsen zur Verfügung stellen konnten. Somit besäße der althergebrachte Topos Gültigkeit, dass die Gelehrten und nicht die Praktiker als Hauptagenten der technologischen Innovation fungieren – eine Vorstellung, die sich auch in der Kontroverse wieder findet, wer denn als der wirkliche Erfinder der Dampfmaschine anzusehen ist: der Gelehrte (Theoretiker) Denis Papin oder der Praktiker Thomas Newcomen; der Gelehrte (Theoretiker) Joseph Black oder der Gelehrte und Praktiker in einem, James Watt ? Es sei aber sogleich vermerkt, dass die obige Darstellung, wie die Linsen für Kurzsichtige erfunden wurden, meiner Ansicht nach falsch ist. Der Fehler liegt weniger in der impliziten Parteinahme im Streit zwischen Gelehrten und Praktikern, sondern im Fehlen geschichtlicher Daten zur Stützung der These. Im Unterschied

251

Digitale Welt und Gestaltung

zu den Ereignissen im 13. Jahrhundert traten die Gelehrten nicht zur gleichen Zeit auf den Plan wie die Praktiker, sondern diesmal mit erheblicher Verspätung, nämlich erst 150 Jahre später, nachdem die Techniker die neuen Linsen bereits erfunden hatten. Brillen für Kurzsichtige tauchen zum ersten Mal um 1450 auf, wogegen die zu einem Abschluss (oder beinahe zu einem Abschluss) einer « allgemeinen Theorie der Linsen » führenden Texte, vor allem die Werke von Della Porta, Keppler und Maurolico, erst im Zeitraum zwischen 1589 und 1611 veröffentlicht wurden. Diese interpretativen, durchaus notwendigen Nuancen haben allerdings verhältnismäßig wenig dazu beigetragen, eine Antwort auf die Zentralfrage nach den Ursachen dafür zu finden, dass in einem bestimmten gesellschaftlich-geschichtlichen Kontext Korrekturlinsen zuerst für Weitsichtige und nicht für Kurzsichtige entwickelt wurden. Um bei der Suche nach einer Antwort auf diese Frage weiterzukommen, ist es hier notwendig, einige benutzte Begriffe zu klären. Bislang habe ich mich der Einfachheit halber auf die Kurzsichtigen und Weitsichtigen beschränkt und dabei die wichtige Gruppe der Normalsichtigen ausgeschlossen, also all jener, die unter keinerlei Sehbehinderungen litten. Während der Kurzsichtige mit fortschreitendem Alter zwar leichte Besserungen (oder leichte Verschlechterungen) erfährt, aber sein ganzes Leben über kurzsichtig bleibt, werden die meisten Normalsichtigen nach fünfundvierzig oder fünfzig Jahren weitsichtig. Noch einmal auf eine Metapher von Febvre zurückgreifend, kann man sagen, dass vor der Erfindung der Brille die Kurzsichtigen immer (und auf jeden Fall) «Gewächshausmenschen» blieben, wogegen sich die Lage für die Normalsichtigen, die in der Jugend die gleiche Berufslauf bahn wie die Kurzsichtigen eingeschlagen hatten, mit zunehmenden Alter dramatisch zuspitzte. Im kritischen Alter von fünfundvierzig bis fünfzig Jahren mussten diese « Gewächshausmenschen» plötzlich « Freiluftmenschen » werden. Sie sahen sich mit der großen Schwierigkeit konfrontiert, sich auf einen neuen Beruf umstellen zu müssen. So musste beispielsweise jemand, der bis dahin als Kopist tätig gewesen war, nun plötzlich das Handwerk eines Jägers oder Bergmanns erlernen. Weniger gravierend war das Problem für in der Jugend Normalsichtige, die sich den für Weitsichtige typischen Berufen zuwandten. Für sie, die so lebten und arbeiteten, als ob sie weitsichtig wären, bedeutete es keinen traumatischen Schritt, es auch wirklich zu werden. Doch wie groß war an der Schwelle des 13. zum 14. Jahrhundert die Zahl der Kurzsichtigen im Vergleich zu den Weitsichtigen ? Man kann das nicht genau wissen, da die betreffenden Daten äußerst spärlich sind. Eine quantitativ verlässliche Angabe ist deshalb auszuschließen. Zum Zwecke der Veranschaulichung kann man jedoch einen Vergleich mit der gegenwärtigen Lage anstellen.

252

Brillen – ernst genommen

In den industrialisierten Ländern ist die Zahl der Weitsichtigen sehr hoch; es werden immer mehr. Wenn man berücksichtigt, dass die Weitsichtigkeit auch eine altersbedingte Sehbehinderung ist, dann sollte es nicht verwundern, dass eine Gesellschaft wie die unsrige mit einer geschätzten durchschnittlichen Lebenserwartung von fünfundsiebzig Jahren, also eine Gesellschaft der Alten, auch eine Gesellschaft mit vielen Weitsichtigen ist – und mit proportional wenigen Kurzsichtigen. Das Spätmittelalter bietet ein völlig anderes Bild. Unter den Forschern der Bevölkerungsgeschichte besteht keine Einigkeit über die Lebenserwartung in jener Zeit, doch die zuverlässigsten und weniger pessimistischen Schätzungen reichen von fünfundfünfzig bis sechzig Jahre. Dies bedeutet, dass eine normale Person, die mit fünfundvierzig oder fünfzig Jahren weitsichtig geworden war, nur zehn Jahre ihres « natürlichen Lebens » weitsichtig war. Deshalb fällt im Unterschied zur heutigen Situation die Zahl der Weitsichtigen proportional weniger ins Gewicht als die Zahl der Kurzsichtigen. Um diese These zu untermauern, ist es angebracht zu prüfen, wie es heute um die Weitsichtigkeit bestellt ist. Robert N. Kleinstein, Epidemiologe der Weitsichtigkeit, vergleicht die Situation in einem Lande wie den USA – mit der bereits erwähnten Lebenserwartung – mit einem Land der dritten Welt wie Haiti, das eine dem Spätmittelalter ähnliche Lebenserwartung aufweist. Das Ergebnis spricht für sich: In der Bevölkerungsgruppe mit über fünfundvierzig Jahren haben die Weitsichtigen einen Bevölkerungsanteil von 31 Prozent der Gesamtbevölkerung, in Haiti dagegen nur von 16 Prozent. Angesichts dieser und anderer Schätzungen kann man einige Dinge klarer sehen, die für die hier untersuchte Frage von Belang sind. Man darf annehmen, dass sich an der Schwelle des 14. Jahrhunderts die damals vorherrschende allzu starre Arbeitsteilung als wenig geeignet erwies, um dem wachsenden Bedürfnis nach größerer gesellschaftlicher Mobilität gerecht zu werden. Dieses Bedürfnis, dies verdient festgehalten zu werden, spielt bei den Überlegungen führender Mediävisten – von Rudolf Stadelmann bis zu Charles Haskins, von Marc Bloch bis zu Georges Duby, von Gioacchino Volpe bis zu Ovidio Capitano – eine zentrale Rolle. Sie alle waren auf je eigene Weise damit beschäftigt, die Krisenfaktoren und latenten Ursachen für die Neugliederung im Spätmittelalter aufzudecken. Es ging ihnen darum, die These vom statischen, unveränderlichen Charakter jener Epoche zu widerlegen. Gerade im so verstandenen spätmittelalterlichen Kontext können wir die Beziehung zwischen Arbeitsteilung und Sehbehinderungen untersuchen. Alles spricht für die Annahme, dass zwischen dem 13. und 14. Jahrhundert das herkömmliche Verfahren, die Arbeitsteilung im Land nach Kriterien der Sehkapazität (Nahsicht

253

Digitale Welt und Gestaltung

und Fernsicht) vorzunehmen, als nicht mehr angemessen betrachtet wurde, um es mit den Veränderungen aufzunehmen, die sich langsam aber unauf haltsam in der Gesellschaft Bahn brachen. Doch bleibt auch in dieser neuen Perspektive die Frage, die ich noch einmal wiederhole: Warum wurde der Erfindung der Brille für Weitsichtige Vorrang eingeräumt ? Ich bin überzeugt davon, dass diese Priorität nicht als Ergebnis einer willkürlichen Wahl oder eines Zufalls anzusehen ist, sondern als Ergebnis der Notwendigkeit, sich den Änderungen (oder den erhofften Änderungen) in der übergreifenden Organisation der Arbeitsteilung anzupassen. Im Grunde ging es darum, den in jenen Bereichen beschäftigten Normalsichtigen, für die eine Nahsicht unerlässlich war, mit Hilfe der Brillen eine Weiterbeschäftigung in eben diesen Bereichen zu ermöglichen – und das trotz der Tatsache, dass sie nach fünfundvierzig oder fünfzig Jahren weitsichtig wurden. Auf diese Weise wollte man vermeiden, dass – wie es vorher geschah – die neuen Weitsichtigen in Arbeitsbereiche abwanderten, in denen Nahsicht nicht erforderlich war, denn dies hatte zur Folge gehabt, dass auf Grund der permanenten Migration der betroffene Tätigkeitsbereich einer dauernden Schwächung ausgesetzt war und geringe Stabilität und Kontinuität besaß. Doch hinter dieser Entwicklung verbarg sich ein noch anspruchsvolleres Projekt. Dank des Gebrauchs von Korrekturgläsern sollten viele Menschen angezogen werden, die bislang Tätigkeiten ausübten, die eine gute Fernsicht voraussetzten. Kurz gesagt, sollte eine gleichsam umgekehrte Migration der Arbeitskräfte gefördert werden – vom Bereich der Weitsichtigen zum Bereich der Kurzsichtigen. Hinter dem Druck, auf territorialer Ebene die Verteilung der Arbeitskräfte neu zu organisieren, verbarg sich auch die Notwendigkeit, neuen Anforderungen gerecht zu werden, die in der spätmittelalterlichen Gesellschaft immer dringenderen Charakter annahmen; Anforderungen, die letzten Endes darauf abzielten, jene Arbeitsbereiche zu stärken, die an die Nahsicht gekoppelt waren. Es ging also um Tätigkeiten, bei denen es wesentlich auf eine minutiöse und genaue Ausführung ankam. Es mag hier genügen, auf einige dieser damals auf kommenden Anforderungen zu verweisen: die Alphabetisierung der Jugendlichen und der Handwerker, die Zunahme der Studien und Universitäten, das Entstehen der Buchhaltung und die Verbreitung der notariellen Aktivitäten, die internationale Ausdehnung des Handels, die Entwicklungen in der Textilmanufaktur, die Fortschritte im Bereich der Herstellung mechanischer Uhren und Feuerwaffen usw.

254

Brillen – ernst genommen

Am Beispiel der Brille habe ich aufzuzeigen versucht, auf welche Weise die Gesellschaft eine Push-Funktion und die Technik eine Pull-Funktion ausübt. Dieser Vorgang – dessen bin ich mir bewusst – verläuft nicht so linear, wie es vielen zusagen mag. Doch so ist nun einmal die Sachlage, die aber andererseits wieder durch Zweifel unterminiert wird. Bei allen Tätigkeiten, die mit dem durch Instrumente ermöglichten Sehen zu tun haben oder allgemein bei jedem Sehakt ist es schwierig, eindeutig auszumachen, was Ursache und was Wirkung ist – eine Frage, die Bachelard in dem ihm eigentümlichen Stil voller Anspielungen auf folgende Weise zusammenfasst: « Ein Vergrößerungsglas zu benutzen bedeutet Aufmerksamkeit zu schenken; aber ist die Aufmerksamkeit nicht bereits selbst ein Vergrößerungsglas ? »

255

Digitale Welt und Gestaltung

Das «Zeitalter des Entwurfs » und Daniel Defoe *

*

Anhang von Il futuro della modernità, Feltrinelli, Mailand 1987, S. 186 –194.

257

Das « Zeitalter des Entwurfs » und Daniel Defoe

01

02

03

04

Im Jahre 1697 veröffentlicht Daniel Defoe seinen Essay upon Projects. 01 In diesem einzigartigen, aus vielen Gründen hochaktuellem Buch kündigt Defoe den Beginn des projecting age, des Entwurfszeitalters an. Dieser Text erscheint zwanzig Jahre vor der Veröffentlichung von Defoes The Life and Strange Surprising Adventures of Robinson Crusoe of York, Mariner (1719) 02, dem Abenteurerroman, der seinem Autor Weltruhm bescherte. In diesen Werken wird das Thema der Entwerf barkeit behandelt – im ersten explizit, im zweiten implizit. Doch die Vorstellung der Entwerfbarkeit, wie sie im Essay vertreten wird, unterscheidet sich von jener, die sich aus dem Roman herauslesen lässt – und mehr noch: Sie steht ihr diametral gegenüber. Während Defoe im Essay die Hypothese einer Entwerf barkeit unterbreitet, die in erster Linie auf den « Methoden der bürgerlichen Politik » 03 – es sind die Worte des Autors – beruht, um die Probleme einer von « Kriegen und öffentlichen Wirren » erschütterten Zivilisation zu lösen04 , ist die Entwerf barkeit im Roman ausschließlich darauf ausgerichtet, die Probleme eines Individuums zu lösen, das vom Schicksal (oder nach der Chronik, die Defoe als Vorlage diente, durch die Entscheidung des ersten

01

D. Defoe, An Essay upon Projects, The Scholar Press Limited, Menston 1969. Diese Ausgabe ist ein Faksimile-Druck der 1697 von Th. Cockerill in London veröffentlichten Originalausgabe, die im Jahre 1700 unter dem Titel Several Essays relating to Academies und 1702 mit dem Titel Essay on Several Projects nachgedruckt wurde. Vergleiche W. Sombart, Der Bourgeois. Zur Zeitgeschichte des modernen Wirtschaftsmenschen ( 1913 ), Verlag Duncker und Humblot, München 1923. Wichtig sind vor allen die Überlegungen Sombarts über die Rolle der Projekteurs im 17. und 18. Jahrhundert, denen gegenüber Defoe im Essay eine kritische Stellung dialektischer Konfrontation bezieht. Defoe distanziert sich offen von diesen Projektemachern, die er als eine wahre Plage betrachtet. Ihm zufolge sind sie mit wenigen Ausnahmen dreiste Verkäufer von dishonest projects, die nicht mit jenen zu verwechseln sind, die – wie Defoe selbst – honest projects für den Fortschritt der damaligen Gesellschaft ausarbeiten. Der Gedanke der Entwerfbarkeit, der, falls konsequent auf allen Ebenen der Wirklichkeit umgesetzt, als ein Faktor der Modernisierung fungieren kann, ist das Kernstück dieses Werks.

02

Als Grundlage für diesen Text wurden zwei Ausgaben benutzt, D. D., The Life and Adventures of Robinson Crusoe. Written by himself, Sands and Co., London 1899 und D. D., Robinson Crusoe, Dent-Everyman, London 1977. Letztere basiert auf der Shakespeare-Head-Ausgabe, Oxford 1927.

03

D. Defoe, An Essay…, op.cit., S. 2.

04

Ibidem, S. 1.

259

Digitale Welt und Gestaltung

05

06

Schiffoffiziers) an einen namenlosen Strand geworfen und gezwungen worden war, allein in einer feindlichen Umwelt ohne andere Menschen, « ohne Gesellschaft » zu leben. 05 Deswegen fragt Robinson niemals, was denn very useful to society ist, sondern immer und nur, was denn very useful to me, was also nützlich für ihn selbst ist. 06 So erklären und rechtfertigen sich zum Teil die Robinsonaden von Robinson: Er entwirft nicht für andere, sondern nur für sich selbst. Seine Entwurfshaltung zollte niemals, oder fast niemals, dem Wert- und Normensystem Tribut, das in der Regel die Moda-

05

Die Einsamkeit, die Abgeschiedenheit des Individuums ist ein wiederkehrender Topos in den Erzählungen ( und nicht nur in den Erzählungen ) Defoes. Personen wie Robinson, Captain Singleton, Moll, Colonel Jack oder Roxana haben alle das Inseldasein gewählt, das hier als eine individuelle Überlebenstaktik ( oder besser eine Strategie ) verstanden wird, als Schutzschild gegen eine drohende Umwelt. Es sei aber gesagt, dass die drohende Umwelt, mit der Robinson sich auseinandersetzen muss, nicht die gleiche ist wie die anderer Charaktere Defoes. Während sich der einsame Robinson an der « Welt der Natur» misst, ist es die « Menschenwelt» , mit der sich die « Einzelgänger » Singleton, Moll, Jack und Roxana beschäftigen. Der Gegensatz zwischen Natur und Gesellschaft kann unzureichend, ja geradezu irreführend sein, insofern er nicht die Beziehung zwischen state of nature und natural man in Rechnung stellt. Diese Beziehung steht bekanntlich im Zentrum der wichtigen philosophischen ( und philosophisch-politischen ) Auseinandersetzungen des 17. und 18. Jahrhunderts in England. Defoe war in gewissem Maße Protagonist in dieser Debatte, vor allem auch – wenngleich nicht immer vertrauenswürdiger – Interpret der verschiedenen Positionen. Vergleiche die umfassende Erörterung dieses Themas bei M. E. Novak, Defoe and the Nature of Man, Oxford University Press, Oxford 1963. Defoe wie auch Locke waren stark von zwei konträren politischen Philosophien angeregt: von Hobbes und R. Cumberland. Nach Novak ist die Vorstellung Defoes vom « Naturzustand des Menschen » ( Locke ) nichts anderes als eine Kreuzung zwischen dem lupus von Hobbes und dem agnus von Cumberland. Denn Defoe kann nicht über die Schwierigkeit hinwegsehen – und er sieht nicht darüber hinweg –, sich ausschließlich der einen oder anderen Philosophie anzuschließen. Auf der einen Seite lässt sich Robinson nicht in die Kategorien von Hobbes einordnen: Er ist ein natural man in Abgeschiedenheit, und die Abgeschiedenheit wird von Hobbes bekanntlich nicht mit Wohlwollen betrachtet. Vergleiche Th. Hobbes, Leviatano, La Nuova Italia, Florenz 1976. Auf der anderen Seite hätte Cumberland ( De legibus naturae, 1672 ) als treuer Anhänger des Holländers Grotius ( De jure belli et pacis, 1625 ) niemals Robinson als seinen Prototyp des natural man akzeptieren können. Robinson verfügt nicht über genügend Freiraum gegenüber den « Befehlen der Regierenden », auch wenn die Regierenden auf der Insel in diesem Fall physisch nicht anwesend sind, sondern sich nur im Gepäck der « moralischen » Werte befinden, die er auf die Insel mitgebracht hat. Vergleiche F. Chapman Sharp, « The ethical system of Richard Cumberland and its place in the history of British ethics », in: Mind , XXI: 83 ( 1912 ), S. 371–398.

260

Das « Zeitalter des Entwurfs » und Daniel Defoe

litäten des Entwurfs und die Eigenschaften der entworfenen Gegenstände bestimmt. Er hat ein und nur ein Problem: zu überleben. Was diesseits oder jenseits seines Überlebenswillens liegt, wird nicht als Problem wahrgenommen. Robinson ist vor allem ein «Problemlöser ». Was für ihn kein Problem darstellt, existiert praktisch nicht.

07

In den gleichen Bezugsrahmen gehört eine andere Verhaltensmaxime: Wichtig ist nur, was gerade nützlich ist. Seine Besessenheit kreist letztendlich immer um das Nützliche. Deshalb wird Robinson oft als Paradebeispiel des ethischen Utilitarismus von Bentham und als erster Exponent der « bürgerlichen » Ideologie zitiert. Viele Autoren haben geglaubt, in Robinson den archetypischen Ausdruck des protestantischen Arbeitsethos sehen zu können. 07 Bei der Zusammensetzung seiner materiellen Umwelt verzichtet Robinson auf jeden Bezug – oder Hinweis – auf die institutionalisierten Formen der Kultur. In der Tat sucht er keinesfalls eine kulturelle Legitimation für die Gegenstände, die er produziert: Die Vorstellung der Legitimation scheint ihm jedes Sinns zu entbehren. Wenn er sich entschließt, zum Beispiel einen Schirm herzustellen, nimmt er

06

L. Terzi, « Vorwort », in: D. D., La vita e le avventure di Robinson Crusoe, Adelphi, Mailand 1963, S. XII.

07

P. Colaiacomo, Biografia del personaggio nei romanzi di Daniel Defoe, Bulzoni, Rom 1965: « Für Robinson scheint sich jedes Produkt seines Handelns als ‹Arbeitszeit› zu erschließen » ( S.47 ). Diese Interpretation trifft zu, doch eine zu starke Vereinfachung könnte den Rahmen des robinsonschen Denkens sprengen. Zudem wäre der weit verbreiteten These mit großem Vorbehalt zu begegnen, nach der das Einverständnis Defoes mit dem Arbeitsethos « vollständig » mit den Begriffen der protestantischen Ethik erklärt werden könnte. Vgl. dazu M. E. Novak, « Robinson Crusoe and economic utopia », in: Kenyon Review, 25 ( 1963 ), S.474–490. Obwohl das protestantische Arbeitsethos bei Defoe und Robinson, wie Nova zu Recht betont, in recht verschwommener Weise erscheint, fährt man heute fort, in der « Berufung zum Handeln » Robinsons eines der charakteristischen Kennzeichen des « aufsteigenden Bürgertums » zu sehen, also einen Beweis für die protestantische Wurzel, die der « Geist des Kapitalismus » innehabe. Das ist eine Interpretationslinie, auf die sich Max Weber bezieht, für den die Ursprünge des Kapitalismus vor allem in der protestantischen Ethik zu suchen sind, also in der Vergöttlichung der Arbeit, in der Askese, in der Sparsamkeit usw. Vgl. den berühmten Aufsatz von M. Weber, « Die protestantische Ethik und der ‹Geist› des Kapitalismus », in: Archiv für Sozialwissenschaft und Sozialpolitik, XXI ( 1905 ), S. 1–110. Allerdings wurde die Version Webers über die Ursprünge des Kapitalismus von den Spezialisten, die sich diesem Thema gewidmet haben, niemals vollständig akzeptiert. Vgl. zum Beispiel W. Sombart, Luxus und Kapitalismus, Verlag von Duncker und Humblot, München 1913, der eine andere Interpretation geliefert hat.

261

Digitale Welt und Gestaltung

08

09

sich nicht vor, ein « Kunst »-Objekt oder einen « kunsthandwerklichen » 08 Gegenstand zu schaffen, sondern nur eine Vorrichtung, die geeignet ist, ihn gegen Sonne und Regen zu schützen und die man bei Bedarf zusammenfalten kann. 09 Der Mangel an Ressourcen, das Fehlen von Werkstoffen und Werkzeugen erschweren seine Absicht ungemein. In dieser Notlage ändert Robinson seine schöpferische Strategie: Unter solch widrigen Umständen kann er nicht nach einem herkömmlichen Schema vorgehen. In der Tat kann er nicht von der allgemeinen Idee des Schirms ausgehen – des « einst in Brasilien gesehenen Schirms » – und von da aus eine Reihe von Teilerfindungen herleiten, deren Summe in den Gegenstand Schirm mündet. Er wählt offensichtlich einen anderen Weg: Er reduziert den Umfang der Teilerfindungen auf ein Minimum und macht sich daran, in der Natur die – sagen wir « vorgefertigten » – konstitutiven Elemente des zukünftigen Schirms zu finden. Doch dieses Verfahren setzt voraus, die Natur mit anderen Augen betrachten zu können, mit gleichsam kriegerischem Blick, also in jedem Stück der Wirklichkeit ein potenzielles Teil eines Regenschirms sehen zu können. Das utilitaristische Verhalten Robinsons erscheint in dieser Entwurfsoption vollauf bestätigt. Er verhält sich wie ein Raubtier, für das alles Beute ist: Jeder Gegenstand, jedes Fragment der Wirklichkeit, jedes beobachtete Phänomen wird unvermittelt unter dem Gesichtspunkt der Nützlichkeit betrachtet. Für Robinson existiert keine klare Trennlinie zwischen der Rationalität der Zwecke und der Rationalität der Mittel. Diese Sichtweise bietet weder Raum noch Zeit für axiologische Vorannahmen.

08

Defoe begegnete der Kunst immer mit Misstrauen. Er ist ein puritan suspicious of art, wie Anthony Burgess formulierte und wie James Joyce in seinem berühmten Vortrag 1912 in Triest gleichfalls hervorhob ( jetzt veröffentlicht in Daniel Defoe, Robinson Crusoe, Einaudi, Turin 1963 ). Doch für Robinson bietet Paul Valéry eine differenziertere Interpretation, indem er zwischen einem ersten Robinson, wie wir ihn unmittelbar nach dem Schiffbruch kennen, und einem anderen Robinson unterscheidet, der alle oder nahezu alle seine Überlebensprobleme gelöst hat; ein Robinson in der Phase der Sicherheit und des Überflusses. Darüber schreibt er: « Ein wohl eingerichtetes Heim, reichliche Vorräte, die wesentlichen Sicherheiten wieder gefunden – all das führt dazu, Freizeit [loisir] zu haben. Mitten in diesen Gütern wurde Robinson wieder Mensch, also ein unbestimmtes Tier, ein Wesen, das sich nicht aus bloßen Umständen bestimmen lässt. Er atmete zerstreut und verunsichert. Er wusste nicht, welchen Fantasmen er sich ergeben sollte. Er lief Gefahr, sich auf Literatur und Künste einzulassen. » P. Valéry, « Histoires brisées. Robinson. Le Robinson oisif, pensif, pourvue », in: Oeuvres, Gallimard, Paris 1960, S. 412.

09

262

D. Defoe, La vita…, op.cit., S. 161.

Das « Zeitalter des Entwurfs » und Daniel Defoe

10

11

Freilich spielt Robinson oft auf sein reiches religiöses Erbe an. Davon zeugen seine häufigen Anrufungen Gottes, seine Bezugnahmen auf die Bibel, seine Gebete, sein Dank an die Vorsehung, seine Moralurteile klaren puritanischen Zuschnitts.10 All das tut seinem Verständnis der Entwurfstätigkeit als eines explizit auf das Nützliche fixierten, von ethischen oder ästhetischen Urteilen unberührten Verhaltens keinen Abbruch. Ebenso wenig tangiert es seine Einstellung extremer Sachlichkeit und totaler Distanz, mit der er die Beziehung zwischen der eigenen Arbeit und den daraus resultierenden Produkten betrachtet. Marx formuliert im Kapital eine ironisch-positive Wertung dieser Haltung und geht so weit, in der von Defoe erfundenen Figur nahezu einen gewissen Beitrag zur politischen Ökonomie, genauer zur « Werttheorie » zu sehen.11 Betrachten wir ein anderes gleichfalls aufschlussreiches Beispiel. Vom Tag seiner Ankunft auf der Insel an weiß Robinson, dass er sich dringend eine Unterkunft bauen muss. Doch von Anfang an ist er sich auch der Schwierigkeiten bewusst: Es muss schnell gehen, aber er weiß nicht, wo und vor allem mit welchen Mitteln er die Unterkunft erstellen kann. Abgesehen von einigen Überbleibseln des Schiff bruchs sind die zur Verfügung stehenden Mittel sehr beschränkt. Zur materiellen Notlage gesellt sich nun die kognitive Notlage. In den ersten Tagen weiß Robinson nichts über die Insel. Dieses fehlende Wissen macht letztlich sein Unternehmen problematisch:

10

Vgl. M. Praz, « Defoe e Cellini », in: Studi e saghi inglesi, Sansoni, Florenz 1937. Hierzu bemerkt Praz: « Obgleich Robinson versichert, dauernd mit religiösen Gedanken beschäftigt zu sein, ist an ihm weniger seine Kontemplation als seine Aktion bewundernswert » ( S. 38 ); « Robinson … betet viel, aber noch mehr handelt er » ( S. 39 ); « sein moralgetränktes Gehabe ist kaum mehr als ein schwaches Reflektieren post eventum » ( S. 52 ).

11

K. Marx, Das Kapital, ( 1.Abschnitt, 1. Kapitel, 4. Unterkapitel: Der Fetischcharakter der Ware ). Vgl. S. S. Prauver, Karl Marx and World Literature, Oxford University Press, Oxford 1978, S. 335. Was die wirtschaftstheoretischen Implikationen sowohl der Erzählungen als auch der Essays von Defoe angeht, vgl. K. Polanyi, The Great Transformation, Holt, Rinehart and Winston, New York 1944: « Defoe hatte die Wahrheit ausgemacht, die siebzig Jahre später Adam Smith begriffen oder nicht begriffen haben mag » ( S. 139 ). Diese heute weit verbreitete Einschätzung wird von M. E. Novak, Economics and the Fiction of Daniel Defoe, University of California Press, Berkeley 1962, nicht geteilt. Novak sieht in Defoe einen der verbissensten Verteidiger des mercantile system. Vergleiche auch M. E. Novak, Robinson Crusoe and economic utopia, op.cit. Novak unterzieht jene Wirtschaftler einer harschen Kritik, die versucht haben, « Crusoe als Helden für ihre Parabeln einzusetzen », S. 477. Über die Einstellung Defoes zum Pauperismus und zur Wohltätigkeit, siehe die anregende Einführung von V. Accattatis zu D.D., Fare l’elemosina non è carità, dare lavoro ai poveri è un danno per la nazione, Feltrinelli, Mailand 1982. Doch aus heutiger Sicht Defoe in die Gruppe der seinerzeit Konservativen einzuordnen ist ein Urteil, das wie alle Urteile über Defoe durchaus strittig ist.

263

Digitale Welt und Gestaltung

Er muss eine Unterkunft errichten, die den feindlichen Umwelteinf lüssen widersteht, aber er ist noch nicht in der Lage, die wirkliche Gefahr dieser Kräfte einzuschätzen – ihre Härte, ihre Häufigkeit. Somit tut er sich schwer damit, die Festigkeit und die Abmessungen seines Unterschlupfes festzulegen. Es bereitet ihm Schwierigkeiten, die physischen Eigenschaften der Unterkunft zu bestimmen: Einerseits kann er nicht das Risiko der Unterdimensionierung eingehen, andererseits kann er sich nicht den Luxus der Überdimensionierung leisten.

12

Auch hier ist wie im Falle des Schirms sein Verhalten notgedrungen auf rabiate Vereinnahmung des Nützlichen gerichtet, so wie es ihm die Umwelt bietet. Auch hier wird sein Entwurfsverhalten stark durch die Dringlichkeit des zu lösenden Problems eingeschränkt: Für ihn ist der Unterschlupf nur ein Unterschlupf, und damit hat es sich. Es kommt ihm nicht in den Sinn, dass sein Wohnraum ein « Architekturwerk » sein könnte. Das Ergebnis seines Eingriffs zeigt « ein Zelt unter eine Felswand gestellt, umgeben von einem starken Zaun aus Holz und Schiffsseilen », ein Werk, das schwerlich ohne Vorbehalte als «Architekturwerk» akzeptiert werden dürfte. Allenfalls könnte man es in die Kategorie der « Architektur ohne Architekten » einstufen, die Bernhard Rudofsky die non-pedigreed architecture (die nicht professionell verbriefte Architektur) genannt hat: Architektur ohne große Namen, ohne professionelles Siegel.12 Nun wäre zu fragen: Können diese beiden Formen des Entwurfsverhaltens, die Defoe zu Ende des 17. und zu Beginn des 18. Jahrhunderts herausgearbeitet hat – das Entwurfsverhalten aus dem Essay upon Projects und das Entwurfsverhalten aus Robinson Crusoe –, dazu dienen, die Diskussion um die gegenwärtige Rolle des Entwerfens zu bereichern ? Wahrscheinlich schon. Die seinerzeit von Defoe aufgeworfenen Fragen sind – mit einigen Abstrichen und Aktualisierungen – auch heutzutage aktuell. Es genügt, auf den an einer zentralen Stelle im Essay stehenden Diskurs über die drängende Notwendigkeit zu verweisen, die Probleme unserer Gesellschaft aus einer Entwurfsperspektive anzugehen. Dieser Ansatz zeigt gestern wie heute Schwachstellen. Wenn man allgemein von Entwerfen und Entwurf spricht, ohne die spezifischen Entwurfseingriffe zu präzisieren, dann kann das zu dem selbstzufriedenen Glauben führen, eine Aufgabe erfüllt zu haben, während man nur auf der Ebene des sprachlichen Appells verweilt, statt sich auf die Ebene des konkreten Eingriffs zu begeben. Eben diese Schwachstelle findet man auch im Essay von Defoe. Wozu dient die Hypothese einer als « Methoden der bürgerlich-rechtlichen Politik » verstandenen Entwerf barkeit, wenn sich später diese Methoden in der Tat als unfähig erweisen, zu

12

264

B. Rudofsky, The Prodigious Builders, Secker and Warburg, London 1997, S. 18.

Das « Zeitalter des Entwurfs » und Daniel Defoe

13

einer realen Veränderung der « bürgerlich-rechtlichen Politik » in ihrer Gesamtheit beizutragen ?13 Zugegeben, Defoe weicht dieser Frage nicht aus. Er selbst betont die Gefahr eines Entwerfens, das sich am Rande der großen gesellschaftlichen Institutionen bewegt, ohne jedoch direkt die Machtzentren zu beeinf lussen, in denen über « the immediate benefit for the public, and imploying of the poor » entschieden wird. Um diese Gefahr zu vermeiden, schlägt Defoe – immer im Essay – nicht nur ein einzelnes « Projekt » vor, sondern zahlreiche « Projekte », die Institute und Dienstleistungen für die Gemeinschaft schaffen sollen. Gedacht war an Akademien für das Studium der englischen Sprache, für die Bildung der Frauen, für die professionelle Schulung des Militärs; an Kreditinstitute, die unter Aufsicht einer Zentralbank stehen, und an ein Straßennetz, das den intensiven Personen- und Güterverkehr garantiert und das über « Abgaben für die Urbanisierung », also durch Steuerbeiträge – wie man heute sagen würde – der Eigentümer der interessierten Gebiete finanziert wird. Wenn auch noch verschwommen, so wird hier doch schon die moderne Unterscheidung zwischen Steuern, indirekten Steuern und Gebühren getroffen. Gedacht war schließlich auch noch an ein Institut zur gegenseitigen Hilfe, um die Handelsleute vor den Risiken und Folgen eines eventuellen Bankrotts zu schützen. An diese Vorschläge knüpfte Defoe die Illusion, die Machtzentren zwingen zu können, eine gerechtere Neuregelung des gesellschaftlichen Auf baus anzugehen. Doch auch dieser Versuch bleibt abstrakt und letztendlich fruchtlos – aus dem einfachen Grunde, weil man Institutionen und Servicestrukturen nicht allein mit Hilfe eines Entwurfsdiktats schaffen kann. Noch weniger kann man die Welt durch den ausschließlichen Einsatz eines solchen Diktats verändern. Es geht hier um eine Kritik, die seit je gegen die von der Auf klärung geprägte Entwurfshaltung ins Feld geführt worden ist. In der jüngsten Vergangenheit kann man eine Tendenz feststellen, diese in vielen Punkten durchaus zutreffende Kritik derart aufzubauschen, dass sie jegliche Manifestation von Entwurfsverhalten diskreditiert. Diese Tendenz beruht auf dem Irrtum, « Entwurf » mit « Ideologie », oder « Entwurf » mit « Plan » gleichzusetzen – ein allem Anschein nach schwerwiegender Fehler. Zweifelsohne verfallen die verschrobensten Positionen, die in den jüngsten Debatten über das Entwerfen aufgetaucht sind, genau diesem Fehlschluss. Sie haben in der Tat dazu beigetragen, ein wichtiges

13

Vgl. M. Apollonio, Defoe, La Scuola, Brescia 1946. Apollonio schreibt: « Wenn wir als Nachfolger Defoes vor der seinen Entwürfen innewohnenden Qualität in Erstaunen verharren …, dann mochte sie den Zeitgenossen und mehr noch den bürokratischen Prüfern seiner Vorschläge verborgen bleiben » ( S. 84 ).

265

Digitale Welt und Gestaltung

14

theoretisches Thema zu banalisieren, wenn nicht schlechtweg zu vernebeln. Schlagartig ist Entwerfen nicht mehr eine Aktivität, die innovative Problemlösungen für eine Gesellschaft anbietet, und somit nicht mehr ein Faktor des « innovativen Fortschritts », wie L. Sklair es nennt 14 , sondern wird zu einer Aktivität perfider spätauf klärerischer Ideologen (oder extravaganter Utopisten), die der Menschheit ihre allumfassenden (totalisierenden) Entwürfe (oder Träume) aufdrängen wollen. Man verteufelt das Entwerfen und endet auf diese Weise bei seiner pauschalen Leugnung, die wir bereits kommentiert haben. Man vergisst, dass unsere Epoche, im Guten wie im Schlechten, eine Epoche des Entwerfens ist – ein projecting age, wie es Defoe im Vorgriff von drei Jahrhunderten genannt hat –, möglicherweise die entwurfintensivste Epoche der Geschichte. Ziehen wir zur Veranschaulichung die jüngsten Entwicklungen der Informatik heran, die heute radikal die Voraussetzungen ändern, die für Jahrtausende die Grundlage unserer materiellen und gesellschaftlichen Praxis gebildet haben. Diese Entwicklungen sind das Ergebnis einer beispiellosen technisch-wissenschaftlichen Kreativität. Gleiches lässt sich von anderen wichtigen Entwicklungen im Bereich der modernen Technik behaupten. Denn eines dürfte unmissverständlich klar sein: In einer Welt der technischen Gegenstände und Prozesse, zu der sich unsere Welt mehr und mehr entfaltet, ist das Entwerfen allgegenwärtig. In diesem Kontext kann die Rhetorik des Anti-Entwerfens nur einen Sinn haben: den Sinn einer akritischen Kapitulation gegenüber dem status quo eines bereits überall verwirklichten Entwerfens. Außerdem gibt es eine Tendenz (oder besser eine Bewegung), die das Entwurfsverhalten Robinsons zu einem eigenständigen Verhaltensmodell für unsere Epoche stilisiert. Robinson wird somit zum archetypischen Idealtyp eines neuen Entwurfsmodus stilisiert, der im Unterschied zum heute vorherrschenden Entwurfsmodus nicht auf ausgefeiltes technisch-wissenschaftliches Wissen zurückgreift und sich auch nicht vornimmt, Gegenstände mit hoher struktureller und funktioneller Komplexität zu entwerfen; ein neuer Entwurfsmodus also mit einer Vorliebe für elementare Ressourcen und Einfachheit der präsentierten Lösungen.

15

Aus dieser Optik wird Robinson als Vorläufer der « armen Technologien » präsentiert, als Exponent avant la lettre eines Entwurfsverhaltens, das explizit die institutionellen, den « reichen Technologien » eigenen Rahmenbedingungen leugnet. Dabei wird vergessen, dass er eine erfundene Person ist und somit einen hohen Grad von Künstlichkeit besitzt.15 Er ist nicht, wie Defoe glauben machen will, frei von jeglicher Form institutioneller Bedingtheit, und zwar deshalb nicht, weil er nicht den

14

266

L. Sklair, The Sociology of Progress, op. cit., S. 117 ff.

Das « Zeitalter des Entwurfs » und Daniel Defoe

subtilen Einf lüssen der gesellschaftlichen Institutionen entf liehen kann, an denen er vor dem Schiff bruch teilhatte und denen er wohl oder übel weiterhin Tribut zollt: der englischen Gesellschaft zu Zeiten von Lord Walpole und der Zeit Defoes selbst. Genauer betrachtet, handelt es sich bei der armen Technik Robinsons um nichts anderes als um eine abgespeckte Version, eine Notversion der reichen Technik, wie sie zuzeiten Defoes bestand.

16

17

Natürlich sehen die Parteigänger der armen Techniken in Robinson – zu Recht – jemanden, der gegen die ungerechten Bedingungen der Institutionen seiner Zeit rebelliert. Es sei daran erinnert, dass Defoe in seinem Buch Serious Reflections during the Life and Surprising Adventures of Robinson Crusoe16 , veröffentlicht 1720, ein Jahr nach den Farther Adventures (20. August 1719), einen anderen Schlüssel zur Interpretation seines Romans erahnen lässt: Das Leben Robinsons wäre nichts anderes als die allegorische Version des leidvollen Lebens einer Person, die wirklich existiert hat, des Lebens eines Menschen, der « alle Arten von Gewalt, von Unterdrückung, von schmählicher Schande erlitten hat, der die Verachtung der Menschen, die Heimsuchung von Dämonen, die himmlischen Strafen und die irdischen Anklagen auf sich gezogen hat ». Diese Person – das gibt er klar zu verstehen – wäre nicht der schottische Matrose Alexander Selkirk, alias Robinson, sondern Defoe selbst17, der auch ein « Gewaltmensch » war. Denn der Autor von Robinson Crusoe war nicht nur Romancier,

15

Was den artifiziellen Charakter der Personen von Defoe angeht, ist mit Bedacht vorzugehen. Denn was an der Erzählweise Defoes hervorsticht, ist der hohe Grad von Wahrscheinlichkeit seiner Erzählungen. Das macht ihn zu einem bedeutenden Vorläufer des Realismus oder besser eines « visionären Realismus », wie ihn Terzi zu Recht nennt, oder eines « magischen Realismus » nach Apollonio. De Quincey bewunderte an Defoe eben die air of verisimilitude seiner Erzählweise [P. Rogers ( Hrsg. ), Defoe. The Critical Heritage, Routledge and Kegan Paul, London 1972, S. 118]; und J. L. Borges spricht von den novelas exasperadamente verosímiles de Daniel Defoe ( Discusión, Gleizer, Buenos Aires 1932, S. 97 ). Borges weiß, vielleicht besser als jeder andere, dass die Detailversessenheit – typisch für Defoe wie auch für Borges – früher oder später ins Fantastische mündet.

16

D. Defoe, «Serious Reflections During the Life and Surprising Adventures of Robinson Crusoe », in: Shakespeare Head Edition of Novels and Selected Writings of Daniel Defoe, XII und XIII, Oxford 1927.

17

Das Leben Defoes ist in der Tat eine lange Folge von Missgeschicken und Schwierigkeiten jeglicher Art gewesen, von denen viele durchaus keine Ausnahmeerscheinungen in der Existenz von « Menschen der Feder » oder Federfuchser in jener Periode der europäischen Geschichte waren. Es ≥

267

Digitale Welt und Gestaltung

Essayist und ein genialer Journalist, sondern auch ein skrupelloser Berater der Machtinhaber, ein vom Bankrott geplagter, von Schulden gehetzter Unternehmer, ein Verfasser von Streitschriften, der wegen Diffamierung ins Gefängnis gesperrt wurde und aus dem Gefängnis freigelassen wurde – als Geheimagent. Doch die Alternative, die sich aus den Entwurfsphilosophien Defoes herausschält – jene, die explizit im Essay formuliert ist, und jene, die man aus dem Verhalten der Person Robinson herauslesen kann –, ist keine moderne Alternative. Die Probleme, die wir heute vor uns haben, lassen sich nicht im Bezugsrahmen der Akzeptanz oder Negation der Institutionen angehen und noch weniger lösen. Unsere dringendsten Probleme sind Probleme des Krieges, der Umwelt, des Hungers, aber auch der Freiheit, der Gleichheit, der Würde. Einige dieser Probleme, das wissen wir, sind institutionellen Charakters, andere sind es teilweise, andere wiederum sind es überhaupt nicht. Der Essay upon Projects von Defoe ist das Werk eines Machers von honest projects, der in einer besonders stürmischen Periode der entstehenden bürgerlichen Gesellschaft gelebt hat. Das Nachdenken über diesen Defoe kann uns dabei helfen, die Möglichkeit (und vor allem die Wahrscheinlichkeit) zu prüfen, honest projects in einer Epoche wie der unsrigen auszuarbeiten, in der die enorme Komplexität der zu lösenden Probleme den Entwurfswillen Tag für Tag auf eine harte Probe stellt.

geht darum zu wissen, wie diese persönlichen Missgeschicke von jenen gedeutet worden sind, die sie erlitten haben ( und denen sie manchmal als Rohstoff der Kreativität dienten ). Das ist ein delikater Punkt. Es mag in diesem Fall angeraten sein, einen Vergleich anzustellen ( oder besser, Analogien und Unterschiede zu suchen ) zwischen den Persönlichkeiten, die ähnliche, von Schicksalsschlägen geprägte Lebenswege durchgemacht haben. Diese Methode nutzte Schwob, der Defoe und Cervantes miteinander vergleicht, und weiterhin Praz, der Defoe und Cellini gegenüberstellt. Bei Defoe wie auch bei Cellini ( aber nicht bei Cervantes ) kann man einen starken Zug zum Selbstmitleid feststellen. Es handelt sich aber um ein Selbstmitleid, das nicht mit Resignation zu verwechseln ist. Weder Defoe noch Cellini gehören zu jener Kategorie von resignierten Opfern, die sich selbst bemitleiden.

268

Digitale Welt und Gestaltung

Ist die Architektur ein Text ?

*

*

Tre lezioni americane, Three American Lectures, Feltrinelli, Mailand 1992, S. 11–28.

271

Ist die Architektur ein Text ?

Angenommen, man befände sich in New York, Frankfurt oder Mailand und hielte einen Passanten an, um ihn unvermittelt zu fragen, ob sie oder er glaube, dass ein Gebäude ein Text sei. Der Passant wird den Fragenden verdutzt anblicken und sich bestenfalls umschauen, um die candid camera zu entdecken, mit der man zur Erheiterung des Fernsehpublikums seine Verwirrung dokumentieren will. Wenn man dagegen dieselbe Frage an einen Architekten aus derselben Stadt richtete, würde sie – vorausgesetzt, dass der Architekt ein frommer Jünger der kulturellen Moden und Stammgast bei den Meistern des prêt-a-penser ist – sicher enthusiastisch bejaht werden. Ein Gebäude, so würde der Architekt ohne Zögern antworten, ist in der Tat nichts anderes als ein Text, als eine Art von Schrift, die als solche gelesen werden kann. Das ist im metaphorischen Sinn durchaus annehmbar. Schließlich kann man gegenüber einem Gebäude einen bestimmten Wahrnehmungspfad einschlagen; und wo es einen Pfad gibt, also eine Abfolge von perzeptiven Erfahrungen, ist es – immer im metaphorischen Sinn – gestattet, von einem Lesevorgang zu sprechen. In bestimmten Grenzen kann man also über die Architektur als Sprache theoretisieren – aber allenfalls im metaphorischen Sinn. Das Verfahren, Architektur und Text, Architektur und Schrift, Architektur und Lesen, Architektur und Sprache nebeneinander zu stellen und einander anzunähern, kann keinen sonderlichen Originalitätsanspruch erheben, wenn man sich vergegenwärtigt, dass diese Beziehungen in der Tradition der Semiotik strukturalistischen Zuschnitts in den sechziger und siebziger Jahre wiederholt aufgegriffen wurden. Die Architektur wurde damals als ein visuelles Zeichensystem begriffen. Der gesamte Architekturdiskurs präsentierte sich als ein Diskurs über Zeichen. Es fehlte nicht an Vorschlägen, die über den semiotischen Zeichenbegriff hinausgingen und im Namen eines Neopopulismus die suggestive Empfehlung wagten, dass die Architektur von den konkreten und wahren Zeichen zu lernen habe, von denen etwa die main street von Las Vegas überquillt. In Italien, Frankreich und Deutschland gab es zu jener Zeit zahlreiche Veröffentlichungen (und Debatten) über dieses Thema. Einige Spezialisten gingen so weit, die Geburt einer neuen Disziplin zu verkünden: die der « Architektursemiotik ». Obwohl der theoretische Einsatz hoch war, fielen die Ergebnisse recht mager aus. Genauer betrachtet, war es nur ein Tausch von Worten: der Ersatz einer Terminologie durch eine andere. Die Architektursemiotik hat keine besseren Beschreibungen (und Interpretationen) der Gebäude geliefert als jene Theorie, die der Schweizer Gelehrte Heinrich Wölff lin 1915 präsentiert hat, wobei er sich eines weniger anspruchsvollen Begriffsapparats bediente. Und nicht nur das. Im Vergleich zwischen der von Wölff lin benutzten Methode zur Beschreibung beispielsweise einer Fassade und dem von einem Semiotiker praktizierten Verfahren erweist sich

273

Digitale Welt und Gestaltung

nach eingehender Prüfung das Vorgehen Wölff lins als treffender und dem untersuchten Gegenstand angemessener. Diese Feststellung befreit allerdings beide Ansätze nicht von dem Fehler, zu glauben, dass die Architektur ausschließlich und primär ein visuelles Phänomen darstellt. Trotz ihrer expliziten terminologischen Rückgriffe auf die Zeichentheorie und die strukturalistische Linguistik bleibt die Architektursemiotik im Netzwerk der Ästhetik einer « reinen Sichtbarkeit » verfangen, zu deren wichtigsten Vertretern – den Spuren Fiedlers folgend – Wölff lin gehörte. Doch wenn der oben zitierte hypothetische Architekt im Brustton der Überzeugung antwortet, dass die Architektur in der Tat ein Text sei, dann lässt sich die Bedeutung dieser Behauptung heute nicht mehr so leicht ausmachen wie in den sechziger und siebziger Jahren, als die Semiotiker dieselbe Behauptung verbreiteten. Damals schienen deren Theorien leichteren Zugang zu gewähren, weil sie sich, mehr oder weniger bewusst irreführend, als Fortsetzung einer bekannten geistigen Tradition präsentierten, die immer den Ruf inhaltlicher Konsistenz sowie eine wissenschaftliche, philosophische oder einfach kulturelle Glaubwürdigkeit genossen hat. Die Semiotik ließ den Einf luss all jener Denker spüren, die, jeweils in einem spezifischen Bereich, versucht haben, eine stimmige Bedeutungstheorie zu liefern: Peirce, Frege und Saussure. Im letzten Jahrzehnt haben die bedeutungstheoretischen Erörterungen radikal ihre Richtung geändert. Dies wird deutlich, wenn man die Produkte der aktiveren Pariser Philosophie-Werkstätten unter die Lupe nimmt. Ich meine jene theoretischen Abenteuer, die darauf abzielen, die Schrift aus jedem Bedeutungsbezug zu lösen – also den Vorschlag ihrer radikalen Dekonstruktion mit der Absicht, die kommunikative Kraft des Textes zu zersetzen, zu verdrängen oder sogar zu beseitigen. Angesichts solcher Entwicklungen ist zu fragen, was denn heute der von einigen Theoretikern vorgebrachte Anspruch meint, die Architektur sei ein Text. Das lässt sich nicht leicht bestimmen, besonders wenn man die bereits erwähnte Theorie der Dekonstruktion einbezieht. Hier bieten sich zwei mögliche Deutungen: 1) Die Architektur wird als ein dekonstruierter Text verstanden, als ein offener Text, als ein Text, dem man eine unendliche Zahl von Bedeutungen unterschieben kann; 2) die Architektur wird als ein Entwurfsakt verstanden, der darauf angelegt ist, seine eigene Dekonstruktion als Text zu antizipieren oder vorzubestimmen. Ich gestehe, dass beide Interpretationsmöglichkeiten für mich eine frustrierende Rätselhaftigkeit aufweisen. Bisweilen bin ich versucht zu glauben, dass da ein kleiner Dämon sein Unwesen treibt, der mit allen Mitteln zu verdunkeln sucht, was jeder vernünftigen Person klar sein sollte. Warum kann dieser kleine Dämon sein Spiel so ungestraft spielen ? Was macht es ihm so leicht ?

274

Ist die Architektur ein Text ?

Eine Antwort ist in dem unentwirrbaren paraphilosophischen und paraliterarischen Gedankenknäuel zu finden, das der Dekonstruktivismus nun einmal ist, als dessen Hauptverkünder bekanntlich Jacques Derrida gilt. An diesem Punkt sei ein Exkurs eingeschoben, um das Thema in seinen Kontext zu stellen. In den ersten Nachkriegsjahren hegten die Deutschen wie immer schon Misstrauen gegen die Klarheit – die berüchtigte lucidité – der Franzosen, in der sie eine Form intellektueller Oberf lächlichkeit sahen, während sie ihrer eigenen Tradition die Tugend zusprachen, der einzige Hort der Tiefe zu sein. In den fünfziger Jahren begannen die Deutschen – das kann ich aus eigener Erfahrung bezeugen –, diese Einstellung selbstkritisch zu durchleuchten und sich mit dem Denkstil der Franzosen vertraut zu machen, wobei sie übrigens auch eine große Offenheit gegenüber der angelsächsischen analytischen Tradition bewiesen. Eigenartig ist nun Folgendes: Während sich die Deutschen unter enormen Anstrengungen auf Klarheit umpolten, marschierten die Franzosen ihrerseits genau in die Gegenrichtung und ahmten ziemlich unbeholfen die deutsche Tiefe (und Dunkelheit) nach. Sicher, ich treibe hier die Vereinfachung an die Grenze des Zumutbaren. Doch in groben Zügen verhielt es sich so in jenen Jahren. Alles lief über Heidegger. Die Deutschen entfernten sich von Heidegger, die Franzosen dagegen stellten ihn wieder als Denker hin, der einen neuen Weg für die abendländische Philosophie gewiesen hat – einen Weg, den in Begleitung von Marx und Freund zu gehen sie sich nun anstrengten. In jüngster Zeit wurde die Lage noch verworrener. Die Amerikaner begannen, ihre vom Pragmatismus und der analytischen Philosophie geprägte kulturelle Tradition aufzugeben und sich dank des Einf lusses von Derrida stark mit französischem Denken zu identifizieren, bei dem es sich nun, weil es von Heidegger geprägt war, um eine französische Version des deutschen Denkens handelte. Paradebeispiele für diesen amerikanischen Einstieg in den spekulativen Kreislauf von Derrida lassen sich vor allem im Umfeld des so genannten deconstructive criticism finden, der in der Regel mit den Yale critics in Verbindung gebracht wird. In diesem Spiel gegenseitiger Missverständnisse, das mit frenetischem Seitenwechsel gespielt wurde – ein Spiel, an dem Pirandello seine helle Freude gehabt hätte –, konnten die Italiener nicht fehlen. Auch sie haben in den letzten Jahren auf heideggersche Weise an diesem Rennen in die Finsternis teilnehmen wollen, und zwar indem sie ein schwaches – oder besser sehr schwaches – Denken theoretisierten, das dazu dienen sollte, die Modernität zu « dekonstruieren » und endgültig ihr Ende zu besiegeln.

275

Digitale Welt und Gestaltung

All das wäre im geschlossenen Interessenkreis der Literaturtheoretiker und Kritiker verblieben, wenn sich der « Dekonstruktivismus » auf das Gebiet der Hermeneutik literarischer Texte beschränkt hätte. Doch die Architekturkritiker (und die Architekten selbst) haben jüngst begonnen, die Idee des « Dekonstruktivismus » vom Bereich der Literatur auf den Bereich der Architektur zu übertragen. Für diesen gewagten Schritt ist, zumindest teilweise, Derrida selbst verantwortlich, wie sich an einigen Essays gerade über die Architektur belegen lässt. Ich habe mich in diesen Jahren intensiv mit Derrida auseinandergesetzt, vielleicht aus unerklärlicher Wissbegierde. Ich habe, wenn ich mich nicht irre, alle lesbaren (und auch einige kaum lesbare) Werke dieses Autors rezipiert. Wenn ich es mir recht überlege, habe ich eine höchst eigenartige Beziehung zum Werk Derridas. Die Schrift dieses Schriftpropheten – SCHRIFT mit Großbuchstaben – hat sicherlich meine Neugierde geweckt und mich in einigen Textpassagen uneingeschränkt fasziniert. Doch muss ich gestehen – mir ist bewusst, damit den Zorn der Derridianer hervorzurufen –, dass eine nicht geringe Anzahl der Texte Derridas mir als brillante Beispiele für Flachsinn, für Stücke einer letteratura buffa erschienen sind. Dies mag mit der ans Groteske grenzenden Tatsache zu tun haben, dass jeder Bezug zwischen den spitzfindigen Texten Derridas – seine undurchdringlichen Neologismen, seine äußerst gewagten metaphorischen Reformulierungen – und den von ihm erörterten Thematiken fehlt. Alles in allem handelt es sich dabei um nichts anderes als um Variationen einiger antimetaphysischer, breit ausgewalzter Gedanken Heideggers. Doch will Derrida päpstlicher als der Papst sein. Er will sogar mehr Heidegger sein als dieser selbst. In einigen seiner Schriften literarischer Prägung – ich denke zum Beispiel an Positions (1972) und vor allem Glas (1974) – wird die Vorliebe für Verbalakrobatik auf die Spitze getrieben, mit – gelinde gesagt – enttäuschendem Ergebnis. Diese Texte erinnern stark an einige Schreibweisen, wie sie typisch für die literarische Avantgarde der zwanziger und dreißiger Jahre waren. Wenn es aber Derridas Absicht ist, mit der Schrift zu experimentieren – und ich bin überzeugt davon, dass dies letzten Endes seine geheime Absicht ist –, dann ziehe ich die Werke der großen AvantgardeSchriftsteller vor. Sie sind meiner Ansicht nach gelungener und zudem origineller. Was sagt nun Derrida Neues über das spezifische Thema der Architektur ? Recht wenig. Meines Wissens handeln drei seiner neueren Texte von der Architektur: der erste Text von 1986 über Bernard Tschumi, der zweite von 1987 über Peter Eisenman und der dritte aus demselben Jahr in Form eines Vorworts für die Abhandlungen eines Kongresses über die Beziehung zwischen Architektur und Philosophie –

276

Ist die Architektur ein Text ?

alle drei Texte sind erneut in seinem Buch Psyché (1987) veröffentlicht. An den ersten beiden Texten interessieren weniger die Werke von Tschumi oder Eisenman – die ich als Architekten schätze – als vielmehr die theoretischen Ausführungen Derridas über die Werke (und Ideen) Tschumis und Eisenmans. Man muss zugeben, dass sich Derrida mit äußerster Vorsicht bewegt, wenn er über Architektur spricht. Seine Position, besonders im Text über Tschumi, unterscheidet sich nicht wesentlich von jener, die Heidegger in seinem Essay Bauen, Wohnen, Denken expliziert – ein Essay, der bekanntlich bei Architekten mit philosophischen Neigungen beinahe den Status einer heiligen Schrift genießt. Der letzte der drei Texte – es handelt sich um zweiundfünfzig erlesene Aphorismen über die Architektur – enthält wohl die meisten Anregungen. Trotz der hermetischen Koketterie, die den Schriften Derridas eigen ist, lassen sich aus diesem Text einige sinnvolle Behauptungen herauspicken. Auch hier zeigt sich die Vorsicht Derridas vor allem bei seiner zweideutigen Argumentation, wenn es darum geht, die Möglichkeit (oder Unmöglichkeit) zu prüfen, ob die Idee der Dekonstruktion auf die Architektur anzuwenden ist. Bisweilen bejaht er diese Möglichkeit, dann wieder verneint er sie, und manchmal bejaht und verneint er sie in einem Zug. Dies illustrieren einige aus den zweiundfünfzig Aphorismen herausgegriffene Beispiele: «Es gibt keinen dekonstruktiven Entwurf, keinen Entwurf für die Dekonstruktion. … Entgegen dem Anschein ist Dekonstruktion keine architektonische Metapher … Eine Dekonstruktion müsste vor allem, wie schon der Name besagt, die Konstruktion selbst dekonstruieren. … [Sie müsste] aber auch die architektonische Konstruktion in engerem Sinn, die philosophische Konstruktion des Begriffs Architektur dekonstruieren … » Um diese Behauptungen besser zu verstehen, müssen einige Vorannahmen des Dekonstruktivismus Derridas in Erinnerung gerufen werden. Er kontrastiert seine « Architextur », also die als Urform und « irreduzibel grafische » Konfiguration verstandene Schrift, mit der Tyrannei, bis hin zum Terrorismus des logos, des Denkens, das die Sprechlaute privilegiert. Mit anderen Worten: Die Schrift ist als Alternative zum « Logozentrismus » zu verstehen, das ist die tragende These seiner « Grammatologie ». Aus dieser Perspektive wird die Versuchung verständlich, die Architektur als Schrift zu betrachten. Derrida zufolge ist (oder wäre) sie nicht, wie es Rousseau wollte, eine « Ergänzung des Wortes » oder, wie es Voltaire wollte, eine « Malerei der Stimme ». Das gilt seiner Ansicht nach auch für die Architektur als ein rein visuelles Phänomen, das völlig abgehoben von jeglichem sprachlich entwickelten Diskurs ist.

277

Digitale Welt und Gestaltung

Doch lässt sich die Methode der Dekonstruktion, die es der Schrift ermöglichen sollte, sich von der Tyrannei des logos zu befreien, nicht so unbesehen auf die Architektur übertragen. Dessen ist sich Derrida bewusst. An einer Stelle im Text über Tschumi fragt er sich: «Was die dekonstruktiven Strategien zu destabilisieren beginnen oder beenden, ist das nicht genau das Strukturprinzip der Architektur ? » Er fährt fort: «Als bloß negative würden die Dekonstruktionen schwach sein, wenn sie nicht zu konstruieren vermöchten, vor allem aber, wenn sie nicht fähig wären, sich mit den Institutionen hinsichtlich der Festigkeit am Ort ihres größten Widerstands zu messen … ». Dabei bleibt es nicht. Eine weitere Schwierigkeit ist mit der Tatsache gekoppelt, dass der hypostasierte dekonstruktive Eingriff paradoxerweise die Form eines Diskurses über die Dekonstruktion annimmt und damit wohl oder übel der Tradition des logos Tribut zollt. Dann ist da noch die alles andere als zweitrangige Frage der Materialität sowohl des Bauens als auch des Gebauten. Die Worte – so sagt ein italienisches Sprichwort – sind Steine, womit darauf angespielt wird, dass die Worte ein subjektives Gewicht haben und dass sie, einmal ausgesprochen, Auswirkungen haben, die nicht immer ungeschehen gemacht werden können. Wenn aber die Worte Steine sind, dann sind umgekehrt die Steine dennoch keine Worte. Die Steine haben offensichtlich ein größeres Gewicht als die Worte, weil ihr Gewicht bekanntlich keine subjektive, sondern eine objektive Gegebenheit ist. Deshalb ist ihr Beharrungsvermögen, also ihre Dauerhaftigkeit, immer größer als das der Worte. Manchmal vergessen die Architekten, dass man mit Steinen baut – und nicht mit Worten. Es gibt allerdings auch Vertreter dieser Zunft, die überzeugt davon sind, dass die Dekonstruktion einer Konstruktion so leicht ist wie die Dekonstruktion eines Textes – was nicht stimmt, es sei denn, man versteht unter Dekonstruktion eines Gebäudes nicht das ausgeklügelte Sprengverfahren der Gebäude von Pruitt-Igoe in St. Louis –, ein Verfahren, das sich, wenngleich in vielen Fällen gerechtfertigt, so doch kaum als verallgemeinerte Methode der Architekturkritik anempfehlen dürfte. Denn, und darum geht es, jeder hätte seine eigene Liste der zu « dekonstruierenden » Gebäude. In Italien zum Beispiel würde ich an erster Stelle das Nationaldenkmal für Vittorio Emanuele II in Rom und den Hauptbahnhof in Mailand vorschlagen. Ich verkenne nicht, dass diese Denkmäler heute glühender Verehrer haben – eine Geschmacksfrage, so nannte man das einmal. Zwar könnte jemand den Einwand erheben, dass es nicht um die Dekonstruktion einer Konstruktion geht, sondern um die formale Ausprägung der Konstruktion. Um ein altes, für viele (auch für mich) kompromittiertes Wort zu gebrauchen:

278

Ist die Architektur ein Text ?

Es geht um einen Stil, also die Gesamtheit der Stileme, die ein Gebäude von einem anderen absetzen. Der Stil ist der Unterschied, und hier hat der Begriff des Unterschieds wenig mit Nietzsches Auffassung gemein und gar nichts mit dem sicher abstrusen Begriff des Unterschieds (Differenz) von Heidegger, Deleuze oder Derrida. Einen Stil zu dekonstruieren, so wird man argumentieren, ähnelt der Dekonstruktion eines Textes, insofern ein Stil letzten Endes eine Art von Kanon oder ein Axiom ist, das ursprünglich mit Worten sanktioniert worden ist. Man kann durchaus versuchen, zum Beispiel den Barock, den Neoklassizismus oder den russischen Konstruktivismus zu dekonstruieren. Man kann sich ein Gebäude (oder den Entwurf eines Gebäudes) von Borromini, Schinkel oder von den Gebrüdern Vesnin vornehmen und ihre jeweiligen Stileme verzerren, aufsplittern oder abkappen oder eine Collage all dieser Stileme kombinieren, um daraus ein einziges Gebäude zu schaffen. Doch das alles sind akademische, eben « linguistische » Übungen, wie man einst sagte und wie man weiterhin in den Architekturschulen allerorten sagt. Ich will nicht behaupten, dass derartige Übungen auf theoretischer Ebene nutzlos sind oder kein Interesse verdienten. Wohl aber möchte ich vor der heute weit verbreiteten Tendenz warnen, Übungen dieser Art einen programmatischen Wert zuzuschreiben und zu glauben, dass sie von sich aus und für sich genommen eine neues großes Paradigma, gleichsam den Königsweg zur Architektur bilden. Diese Absicht spricht ganz klar aus dem Text Derridas über Eisenman. Hier gibt er seine Vorsicht gegenüber der Architektur auf und nimmt die Haltung eines Predigers ein. Er bringt Plato, Nietzsche und Wagner ins Spiel und befördert damit den Diskurs in eine Zone jenseits des Erträglichen. Er spricht von einer nietzscheanischen, antiwagnerischen Architektur, die den Humanismus und Anthropozentrismus destabilisieren soll. Es ist nicht zu einzusehen, warum hier Nietzsche bemüht wird. Bekanntlich hasste Nietzsche an der Wagner-Oper das « In-Szene-Setzen der Musik », die beklemmende Theatralisierung der Musik. Wenn ich recht verstehe – ich bin mir aber nicht ganz sicher –, zielt die vom Dekonstruktivismus anvisierte Architektur darauf ab, die Architektur mit Nietzsches Worten zu « theatralisieren », also das zu verdrängen, was in ihr eine Sensibilität (oder zumindest den Willen zum Verständnis) für das Geschick und Missgeschick im konkreten Leben der Menschen als Nutzer der architektonischen Räume durchscheinen lässt. Als erfüllte Dekonstruktion bleibt nur noch eine Neuauf lage der Architektur als Show, der « in Szene gesetzten » Architektur. Dies ist nicht eine Architektur Nietzsches und noch weniger eine antiwagnersche. Dafür gibt es zu viel Schauspielerei, zu viel Suche nach theatralischen Effekten. Wahrscheinlich hätte die dekonstruierte Architektur eine feindselige Reaktion Nietzsches provoziert, wenn man sich seine Abneigung gegen all das verge-

279

Digitale Welt und Gestaltung

genwärtigt, was an einen verknöcherten, nebelhaften, tröstlichen, mit den Lebensinteressen unvereinbaren Ästhetizismus erinnert. Es ist nicht auszuschließen, dass Nietzsche eine derartige Architektur als Sumpf bezeichnet hätte, als einen – mit seinen eigenen Worten gesagt – «wagnerschen Sumpf » .

01

Sicher, Nietzsche schrieb: «Moral für Häuserbauer. – Man muss die Gerüste wegnehmen, wenn das Haus gebaut ist. » 01 Hier haben wir eine Metapher, die mit einigen Abstrichen den Architekturtheorien Derridas Halt bieten könnte. Doch gleichzeitig warnt Nietzsche vor dem « metaphysischen Architekten », der Theorien im leeren Raum konstruiert. Meiner Meinung nach ist der « dekonstruktivistische » Architekt doppelt metaphysisch, insofern er Theorien im leeren Raum schafft und gleichzeitig aus jeder Konstruktion eine Leere machen will. Diese Einschätzung wird sehr wahrscheinlich den Anschein erwecken, vereinfachend, sektiererisch und arrogant oder das Ergebnis vorgefasster Feindseligkeit zu sein. Ich bestreite nicht, dass meine Kritik sogar ungerecht sein kann. Eins hingegen steht fest: In der Szene der gegenwärtigen Architekturtheorie gebührt dem Dekonstruktivismus das Verdienst, für seine weihevollen (oder wenn man will, entheiligenden) Erörterungen den russischen Konstruktivismus der zwanziger Jahre gewählt und auf diese Weise eine Alternative zu den neoklassischen Revivals geschaffen zu haben, die in großem Maße die so genannte postmoderne Bewegung kennzeichneten. Er besiegelt das Ende einer der schamlosesten Koketterien des Postmodernismus, der nämlich, sich rückhaltlos dem show biz angedient haben. Zwar ist die Wahl des russischen Konstruktivismus auch ein Revival, aber es handelt sich in diesem Fall zumindest um eine Wiederbelebung, die einen bedeutenden Augenblick der Avantgarde erneuert und deshalb – mag man damit nun einverstanden sein oder nicht – implizit eine Hommage an die nicht traditionelle Tradition der Modernität darstellt. Diese Wahl stellt das Gegenstück zum grotesken Versuch einiger Tendenzen des Postmodernismus dar, den klassizistischen wedding cake der Stalinära aufzuwärmen. In der Epoche der Perestroika ist diese Wahl alles andere als überholt.

01

F. Nietzsche, Menschliches, Allzumenschliches, Kritische Studienausgabe, Band 2, Giorgio Colli und Mazzino Montinari ( Hrsg. ), Deutscher Taschenbuch Verlag und de Gruyter, München–Berlin 1999, S. 698.

280

Digitale Welt und Gestaltung

Anmerkungen zum Ikonizitätsbegriff *

*

Anhang I zu Reale e virtuale , Feltrinelli, Mailand 1992, S. 119 – 144.

Vorbemerkung Anlässlich einer Neuausgabe meines Textes Appunti sull’iconicità (1974), der als Anhang in meinem Buch Reale e Virtuale (1992) veröffentlicht wurde, hatte ich mich entschieden, die in der Originalfassung enthaltenen polemischen Diskussionspunkte über die Semiotik von Umberto Eco zu streichen. Der Grund war einfach. Meine neuen Überlegungen zu dem Thema der Ikonizität haben mich zu einer ausgewogeneren, weniger dogmatischen Einschätzung der Positionen geführt, wie sie Eco formuliert hat. In einem Kommentar (Kant e l’ornitorinco, 1997) zu meiner Entscheidung, die erwähnten Diskussionspunkte zu streichen, griff Eco seinerseits das strittige Argument wieder auf und lieferte eine zwar nicht andere, aber nuanciertere Version seines Konventionalismus, also seiner Neigung, der Ikonizität eine kognitive Valenz abzusprechen. Bedauerlicherweise bin ich in der vorliegenden Übersetzung gezwungen, auf die ursprüngliche Fassung meines Textes zurückzugreifen, denn der deutschsprachige Leser hat im Unterschied zum italienischen Leser nicht die Möglichkeit, die beiden Versionen zu vergleichen. Zwar gibt es eine deutsche Übersetzung des Buches von Eco, Kant und das Schnabeltier, es fehlt aber eine Übersetzung meines Originaltextes. Ich muss bekennen, dass diese (behutsame) Annäherung unserer Positionen für mich keine Kehrtwende meiner schon immer vertretenen Auffassung bedeutet, dass die visuelle Ikonizität, verstanden als Prozess und als Produkt, sei es auf der Ebene der theoretischen Ref lexion, sei es auf der Ebene der konkreten Erfahrung,

283

ein kognitives Potenzial mit großer Tragweite birgt. Im Gegenteil, angesichts der heutigen Entwicklung der computergestützten ikonischen Produktion und der nicht weniger beeindruckenden Techniken des imaging in den Bereichen der Biomedizin, der Biotechnologien, der Molekularbiologie und der Astrophysik bin ich mehr denn je vom kognitiven Potenzial der Ikonizität überzeugt. An dieser Stelle sei ein weiterer Hinweis zu diesem Text gestattet. Der Leser wird etliche Kommentare (und Einschätzungen) des Denkens von Wittgenstein finden. Einige dieser Kommentare sind infolge der nach und nach erscheinenden Schriften von Wittgenstein oder entsprechender Untersuchungen zum Teil überholt. Gleiches ist auch zu Frege anzumerken. Tomás Maldonado, 2006

Anmerkungen zum Ikonizitätsbegriff

Der Diskurs über Ikonizität wirkt ernüchternd: am Anfang wohlmeinende Absichten, am Ende dürre Resultate. Der Vorsatz, den Diskurs voranzubringen, wird mit auf den Weg genommen, aber am Ende wartet nur eine Ikonizität, die zum Diskurs gewordenen ist. Denn die Ikonizität ist ansteckend. Das Symbol, als bildliches Symbol, infiziert die zu seiner Beschreibung benutzten Worte; und als sprachliches Symbol infiziert es die zu seiner Veranschaulichung herangezogenen Bilder.

01

Dies hatte Lichtenberg mit ätzender Klarheit bereits vor zwei Jahrhunderten vermerkt: « Die Silhouetten sind Abstracta. Seine [sic] Beschreibung ist eine bloße Silhouette. » 01 In diesem Aphorismus lassen sich Subjekt und Objekt nicht eindeutig bestimmen. Doch vergegenwärtigt man sich, dass Lichtenberg oftmals in provokatorischer Absicht mit der grammatikalischen (und mehr noch logischen) Zweideutigkeit spielte, kann man folgende Umschreibung formulieren: « Die Beschreibungen der Silhouetten sind selbst Silhouetten. » Mit anderen Worten: Wenn Sprache und Silhouette in Kontakt treten, dann wird die Sprache gewöhnlich zur Silhouette, das heißt, sie wird zum Ikon. In gewisser Hinsicht ist Lichtenberg ein Vorläufer Wittgensteins, und dieser – ebenfalls ein Liebhaber ätzender Klarheit – war sich dessen durchaus bewusst. Denn wenn er auch Frege und Russell viel schuldete, so galt seine Bewunderung doch vor allem Lichtenberg. Die spürbarsten Einf lüsse gingen zwar von den Erstgenannten aus, doch die subtilsten, tiefsten Einf lüsse sind bei Lichtenberg und letztlich bei Heinrich R. Hertz zu suchen.

02

Verweilen wir einen Augenblick beim Tractatus Logico-Philosophicus, in dem Wittgenstein seine Abbildungstheorie entwickelt. 02 Der Kern dieser Theorie kann, erheblich vereinfacht, folgendermaßen charakterisiert werden: Jedem Satz liegt

01

02

G. C. Lichtenberg ( 1998, Paragraf 172, S. 486 ).

Der Begriff « Abbildungstheorie » wird im Italienischen mit teoria della raffigurazione und im angelsächsischen Sprachbereich mit picture theory wiedergegeben. Hier haben wir den Begriff « Modelltheorie » vorgezogen, der, verglichen mit dem deutschen Original, eine freizügige Übersetzung ist, aber nicht weniger freizügig als die beiden angeführten Beispiele. Doch hat diese Übersetzung zumindest den Vorteil, die wahre Absicht Wittgensteins im Tractatus zu unterstreichen: den Bildbegriff mit dem Modellbegriff zu koppeln ( siehe die Paragrafen 2.12 und 4.463 ). Auf der anderen Seite trägt er dazu bei, die Vorläuferrolle Wittgensteins hinsichtlich der modernen Modelltheorie ( theory of modelling ) klar herauszustellen. Ich vertraue darauf, dass die Wittgensteinexperten mir dieses Sakrileg verzeihen.

285

Digitale Welt und Gestaltung

03

04

05

06

ein Bild-Abbild und jedem Bild-Abbild ein Satz zugrunde. Oder besser: In jedem Satz zeig t sich ein Bild-Abbild und in jedem Bild-Abbild sieht man einen Satz. «Das Bild ist ein Modell der Wirklichkeit (2.12). … Das Bild stellt die Sachlage im logischen Raume, das Bestehen oder Nichtbestehen von Sachverhalten vor (2.11). … Der Satz ist ein Bild der Wirklichkeit (4.0.1). » 03 Wir haben bereits das Paradox der Silhouette bei Lichtenberg erwähnt; aber jetzt führen wir eine weitere, nicht weniger hermetische Formulierung über die Entsprechung zwischen Sprache und Bild an: « In dem Satz 2 mal 2 ist 4 oder 2 x 2 = 4 liegt würklich schon etwas von der Parallaxe der Sonne oder von der pomeranzenförmigen Gestalt der Erde. » 04 Viel ist über « den starken Eindruck, den Wittgenstein auf Russell machte » 05 , geschrieben worden. Das wird in dem Artikel von Russell On Propositions aus dem Jahre 1919 deutlich, in dem der Autor sich der Abbildtheorie Wittgensteins anschließt: « Ich mache einen Unterschied zwischen einem in Worten ausgedrückten Satz – einem ‹Aussagesatz› – und einem in Form eines Bildes ausgedrückten Satz – einem ‹Bildsatz›. » 06 Doch diese Koinzidenz mit Wittgenstein beruht auf einem Missverständnis, weil ein wesentlicher Unterschied zwischen dem Begriff Bild bei Wittgenstein und dem Begriff image bei Russell besteht. Oft wird übersehen, dass Wittgenstein der empiristischen angelsächsischen Tradition völlig fremd gegenüberstand und somit auch dem Begriff image im Sinne von Hume – also mental image (Vorstellungsbild). Dies wird treffend und überzeugend in dem von A. Janik und S. Toulmin veröffentlichten Buch über die auf Wittgenstein einwirkenden kulturellen Einf lüsse erläutert. « Die englischen und nordamerikanischen Interpretationen des Tractatus lassen die Schwierigkeiten der Wiedergabe des deutschen Wortes Bild und der davon abgeleiteten Worte wie abbilden usw. spüren. Indem sie auf Englisch schrieben, haben die Philosophen versucht, die Bildtheorie Wittgensteins so zu erörtern, als ob es sich um Sätze handele, aus denen gleichsam Schnappschüsse – oder auch Vorstellungsbilder – von Tatsachen erzeugt werden

286

03

L. Wittgenstein ( London 1951, S. 38 und 62 ).

04

G. Ch. Lichtenberg ( Buchverweis 1988, Paragraf 130, S. 81 ).

05

Siehe J.-P. Leyraz ( 1972 ).

06

B. Russell ( 1971, S. 285 – 320 ).

Anmerkungen zum Ikonizitätsbegriff

07 08

09

können. Ein Bild ist Wittgenstein zufolge etwas, was wir als ein Artefakt erzeugen, wie ein Maler, der eine ‹künstlerische Darstellung› einer Szene oder einer Person wiedergibt; oder wie wir, wenn wir in der Sprache ‹Sätze› mit der gleichen Form wie die abgebildeten Tatsachen konstruieren. » 07 Anders formuliert: Das Bild wird bei Wittgenstein als eine konkrete Gestalt verstanden, die als Modell fungiert. 08 Um den Hintergrund für den Modellbegriff des Bildes besser zu verstehen, sei daran erinnert, dass Wittgenstein ein brillanter und, wie es heißt, genialer Student der Ingenieurwissenschaften, und zwar des Maschinenbaus in Manchester, war, bevor er Philosoph wurde. Aufschlussreich ist der Weg, der ihn zuerst zu Russell und dann zu Frege führte. Anfangs richtete sich sein Interesse durchaus nicht auf die Philosophie, sondern ausschließlich auf technische Studien: Auf die Principles of Mathematics von Russell greift er zu, als er nach Berechnungen sucht, die er für den Entwurf eines Propellers benötigt. 09 Was ihn in jenen Jahren beschäftigte wie auch die von ihm benutzte Terminologie sind typisch für die Lage der Experimentalphysik in der zweiten Hälfte des 19. Jahrhunderts und im ersten Jahrzehnt des 20. Jahrhunderts. In dieser Periode war die Welt der Wissenschaft durch die neuen Entdeckungen vom Auf bau der Materie in Bewegung geraten, vor allem durch die von Hertz bestätigte These Maxwells über die elektromagnetische Natur des Lichts.

07

08

A. Janik und S. Toulmin ( 1973, S. 182 ff. ).

D. Pears, ein intimer Kenner des Werks von Wittgenstein, bestätigt diese Modellinterpretation: « Am einfachsten lässt sich das erklären, wenn wir von dem deutschen Wort ‹Bild› ausgehen, das nicht nur Abbildung, sondern auch Modell bedeutet. » Eine gegenläufige Interpretation bietet A. Naess, der darauf besteht, dem Bild bei Wittgenstein eine geistige Natur zuzuschreiben ( 1969, S. 21 ff. ). Nach der Veröffentlichung der Tagebücher ( 1914 – 16 ) – vorbereitenden Manuskripten des Tractatus –, der Zettel ( 1929 – 48 ) und des Buches Philosophische Grammatik ( 1933– 34 ) besteht kein Zweifel mehr in diesem Punkt. In den Tagebüchern zum Beispiel heißt es: « Der Satz, das Bild, das Modell ist – im negativen Sinn – wie ein fester Körper, der die Bewegungsfreiheit der anderen beschränkt, im positiven Sinne, wie der von fester Substanz begrenzte Raum, worin ein Körper Platz hat ( S. 119 ) … Im Satz wird eine Welt probeweise zusammengestellt. ( Wie wenn im Pariser Gerichtssaal ein Automobilunglück mit Puppen usw. dargestellt wird. ) » ( 1969, S. 94 ff. )

09

W. Mays ( 1955 ). « Wittgenstein », so schreibt Mays in seinem Kommentar über die Erinnerungen von Eccles, « interessierte sich für den Entwurf eines Propellers, dessen Form mit rein mathematischen Methoden bestimmt werden konnte. Das steigerte sein Interesse an der Mathematik, und am Ende wurde der Propeller vergessen. » Zum gleichen Thema siehe auch G. H. von Wright ( 1955 ) und N. Malcolm ( 1958 ).

287

Digitale Welt und Gestaltung

10

11

12

13

14

Plötzlich büßte das traditionelle Modell, zum Beispiel das von Lord Kelvin, seine Rechtfertigung angesichts einer Materie ein, deren Materialität, zumindest im herkömmlichen Sinn, zu verschwinden schien.10 Das Hauptinteresse verlagerte sich nun auf die neuen erkenntnistheoretischen Grundlagen, mit deren Hilfe eine neue Bildtheorie entwickelt werden konnte. Das Buch des Physikers Hertz Prinzipien der Mechanik spiegelt am klarsten diese Interessenlage wider. Es gehörte zur wissenschaftlichen Lieblingsliteratur des jungen Wittgenstein und stellt einen für eine sachgerechte Einschätzung des Tractatus unerlässlichen Text dar.11 Es genügt, die folgenden Zeilen aus der Einführung der Prinzipien von Hertz zu lesen, um den enormen Einf luss dieses Buches auf die Bildtheorie Wittgensteins ermessen zu können: « Ist es uns einmal geglückt, aus der angesammelten bisherigen Erfahrung Bilder von der verlangten Beschaffenheit abzuleiten, so können wir an ihnen, wie an Modellen, in kurzer Zeit die Folgen entwickeln, welche in der äußeren Welt erst in längerer Zeit oder als Folgen unseres eigenen Eingreifens auftreten werden. »12 Später, in den Philosophical Investigations13 , schränkt Wittgenstein sein Vertrauen ein, das er bis dahin in die Beweiskraft der Modellierung gesetzt hatte. Dieser Positionswechsel hat dem Auf kommen der Legende von der Nicht-Linearität, vom Bruch im Denken Wittgensteins Vorschub geleistet. Es gibt also nicht nur bei Marx und Nietzsche eine coupure14 vom Zuschnitt Althussers, sondern auch bei Wittgenstein. Ebenso wie man zwischen dem Marx der Ökonomisch-Philosophischen Manuskripte (1844) und dem Marx des Kapitals (1867), zwischen dem Nietzsche der Geburt der Tragödie (1872) und dem von Menschliches, Allzumenschliches (1878) unterscheiden muss, so müsste man entsprechend den Wittgenstein des Tractatus (1921) von dem der Investigations unterscheiden. Nach dem Alptraum des sprachlichen Solipsismus sehen

10

Siehe E. Bloch ( 1972 ). Besonders das Kapitel « Zum Kältestrom-Wärmestrom in Naturbildern », S. 316 ff.

11

Im Tractatus wird Hertz zweimal zitiert, in Paragraf 4.04 und 6.361.

12

H. R. Hertz ( 1894, S.1 ff. ).

13

L. Wittgenstein ( 1953 ).

14

Über die coupure bei Wittgenstein und Nietzsche siehe E. Heller ( 1972, S. 57 ) und J. J. Katz ( 1971, S. 5 ff. ).

288

Anmerkungen zum Ikonizitätsbegriff

15

16

17

18

viele in den Investigations eine Rückkehr zum common sense ; für andere handelt es sich dagegen um einen Versuch, die Philosophie auf bloße Philologie herunterzustutzen, um eine banale lexikografische Untersuchung. Nach Cornforth zeigen die Investigations, dass Wittgenstein « nicht nur ein genialer Philosoph, sondern auch ein ehrlicher Mensch gewesen ist ».15 Für den bedeutendsten sowjetischen Historiker des Positivismus, I. S. Narski, verdient dagegen das neue Buch Wittgensteins harte Worte: « Ein derartig nichts sagendes Ende hebt die jahrelange Erforschung der philosophischen ‹Wahrheit› auf. Und das nicht zufällig. »16 In die gleiche Kerbe schlägt auch C. D. Broad, wenn er sarkastisch vom « gequälten Ausloten in den Tiefen der Seele des späten Professor Wittgenstein und seiner Schüler in Cambridge » spricht.17 Zweifelsohne fanden zwischen der ersten und zweiten Phase der Entwicklung Wittgensteins Veränderungen statt, doch handelt es sich meiner Ansicht nach um Veränderungen, die nur einen bestimmten Abschnitt seines Gedankensystems, nicht aber die Gesamtheit seines Systems betreffen. Einige Interpreten messen jedoch genau diesem Abschnitt eine entscheidende Bedeutung bei und behaupten, dass letztendlich das System in seiner Gesamtheit verändert worden sei. Ich schließe mich dieser Interpretation nicht an: Grundlegend sind bei Wittgenstein nicht die Aspekte, die sich verändert haben, sondern im Gegenteil jene, die unverändert beibehalten wurden. Vom Tractatus bis zu den Investigations finden wir ein unverändertes Kernthema, das auch in der dritten und letzten Phase der Remarks on the Foundations of Mathematics beibehalten wird.18

15

M. Cornforth ( 1971, S. 133 ).

16

I. S. Narski ( 1967, S. 239 ).

17

C. D. Broad ( 1963, S. 45 ).

18

L. Wittgenstein ( 1956 ). In diesem Buch – eine posthume Sammlung von Anmerkungen – erscheint ein Wittgenstein, der nach dem Zwischenspiel der Investigations ohne Abstriche zu seiner Leidenschaft am Beginn seiner Laufbahn zurückkehrt: zur Philosophie der Mathematik. Es handelt sich um ein Buch, das von Widersprüchen strotzt und in dem der subjektive Idealismus des Autors Formen extremer Aggressivität annimmt. Wie in all seinen vorhergehenden Werken sucht Wittgenstein auch hier zu verblüffen. Seine hartnäckige Suche nach ungewöhnlichen Formulierungen, die er von Lichtenberg ( und auch von K. Kraus ) übernommen hat, führt dazu, in einigen Passagen sein Denken noch weniger fassbar zu machen, als es ohnehin schon ist. Genau diesen Punkt kritisiert der Mathematiker P. Bernays ( 1959 ).

289

Digitale Welt und Gestaltung

19

20

21

Dieses Kernthema wird weder durch die Turbulenzen der großen metaphysischen (und antimetaphysischen) Fragen noch durch die akrobatischen Sprachspiele beeinträchtigt. Es führt gleichsam ein Eigenleben und nutzt diese Eigenheit, um nach und nach immer größere Klarheit und Dichte zu gewinnen. So schält sich der Begriff des Bildes als Modell, als Modellierung der Wirklichkeit heraus.19 Erneut kommt dieser Begriff in den Investigations und Remarks zum Vorschein, und zwar in einer erheblich verbesserten Version. « Eine Vorstellung ist kein Bild, aber ein Bild kann ihr entsprechen (S. 301). Können nun Bild und Anwendung kollidieren ? Nun, sie können insofern kollidieren, als uns das Bild eine andere Verwendung erwarten lässt, weil die Menschen im Allgemeinen von diesem Bild diese Anwendung machen » (S. 142).20 Nicht weniger bedeutend ist der folgende Paragraf der Remarks: « Wie kann ich wissen, dass dieses Bild meine Vorstellung der Sonne ist ? Ich nenne es eine Vorstellung der Sonne. Ich wende es als ein Bild der Sonne an» (I, 129). 21 Die hier gestreifte Problematik ähnelt stark jener, die später ins Zentrum der Diskussion über die erkenntnistheoretischen Grundlagen einer wissenschaftlichen Theorie der Modellierung rückt. Nach diesen Erörterungen sind wir besser gerüstet, das Thema der Ikonizität anzugehen. Denn jetzt zeigt sich klar, dass der anfangs erwähnte infektiöse Charakter der Ikonizität – Ikon und Wort stecken sich gegenseitig an – von der Annahme herrührt, dass die Ikons gleichsam « Bildersätze» von Vorstellungs gehalten sind. Doch denkt man hier nicht an Vorstellungsbilder, wie es Russell wollte, sondern an konkrete Bilder, wie es Wittgenstein wollte.

19

Diese Interpretation betrachtet die Modelltheorie als den konstanten Kern der Philosophie Wittgensteins, indem sie ihn von anderen wichtigen Aspekten dieser Philosophie isoliert. Sie kann deshalb wegen ihrer Oberflächlichkeit kritisiert werden. A. Schaff warnt vor der Gefahr eines solchen Ansatzes. Die Aussagen Wittgensteins über die Modelltheorie kommentierend, schreibt er: « Betrachtet man die äußere Form dieser Ausführungen getrennt vom Gesamtsystem Wittgensteins, nehmen sie die Gestalt einer Theorie an, die die Wahrheit in der Übereinstimmung des Urteils mit der Wirklichkeit sieht » ( A. Schaff 1954, S. 421 ). Dieser Einspruch ist zum Teil gerechtfertigt, denn es leuchtet ein, dass man mit diesem Ansatz aus der wittgensteinschen Theorie sowohl eine empiristische, sogar eine materialistische wie auch eine solipsistische Lesart ableiten kann. Ich gebe der ersten den Vorzug, auch wenn sie nicht genau die ganze Realität von Wittgensteins Denken wiedergibt.

290

20

L. Wittgenstein ( 1953, S. 101 und 56 ).

21

L. Wittgenstein ( 1956, S. 40 ).

Anmerkungen zum Ikonizitätsbegriff

22

23

Beim Lesen von Russells On Propositions ruft ein Detail besondere Aufmerksamkeit hervor: In seiner langen und minutiösen Polemik gegen den Anti-Imaginismus von Watson geht Russell mit keinem Wort auf andere Bilder ein, die nicht Vorstellungs bilder sind. Er spricht niemals von vergegenständlichten Bildern, von reproduzierten Bildern, mit einem Wort: von ikonischen Bildern.22 Wittgenstein dagegen benutzt diese Formulierung häufig, auch weil – wie bereits hervorgehoben – die Bilder, die er meint, nicht Vorstellungsbilder sind. Seine Beispiele stammen gewöhnlich aus dem Bereich der Mechanik, des technischen Zeichnens, der Kartografie, der Malerei, der Fotografie und des Films. Im Jahre 1953 erscheinen – immer im Kontext der britischen Philosophie – zwei Veröffentlichungen, die das erkenntnistheoretische Interesse an ikonischen Bildern erneut beleben. Wir beziehen uns auf das Buch von H. H. Price Thinking and Experience, und den Artikel von Frau Daitz (damals noch O’Shaughnessy) « The Picture Theory of Meaning ». Auch wenn Price nicht verdächtigt werden kann, ein Anhänger Wittgensteins zu sein (ganz im Gegenteil), so lässt seine Einstellung hinsichtlich der Bildproblematik keinen Zweifel zu: « Es gibt einen bedeutenden Punkt der Imaginisten (der Parteigänger der ‹geistigen› Bilder oder Vorstellungsbilder), den sie völlig übersehen haben. Modelle, Grafiken, in aller Öffentlichkeit gemachte Zeichnungen, in denen es keine Spur von ‹Geistigem› gibt, Stummfilmszenen, Standfotos, Darstellungen auf der Bühne oder ihre öffentliche Wiedergabe im Kino – all diese Dinge und Ereignisse haben dieselbe Quasi-Beispiel-Funktion der Bilder. In Abwesenheit eines realen Krokodils fungiert für mich das Gipsmodell eines Krokodils als Verkörperung (oder ‹Einlösung›) des Wortes ‹Krokodil›. Um mich und andere davon zu überzeugen, dass ich das Wort ‹gekrümmt› verstehe, kann ich eine Skizze von einem Sichelmond auf Papier machen. … Auf den Einwand, dass man für die Herstellung eines Modells oder einer Zeichnung zuerst ein Vorstellungsbild braucht, kann man erwidern, dass dies weder faktisch noch prinzipiell trifft. All diese verschiedenen Arten als Quasi-Beispiele fungierender Bilder, die ich erwähnt habe, sowohl die repräsentierenden wie auch die öffentlichen oder gegenständlichen Bilder, können sehr wohl ‹Reproduktionen› (oder Kopien) genannt werden. Bisweilen denken wir gerade mit Hilfe solcher Reproduktionen. » 23

22

Wir benutzen hier absichtlich den Begriff «ikonische Bilder » – ein Ausdruck, der von einem bestimmten Gesichtspunkt aus redundant erscheinen kann. Doch in diesem Kontext rechtfertigt sich dieses Vorgehen: Für uns ist das Ikon ein besonderer Bildtyp. Später werde ich diesen Punkt wieder aufgreifen.

23

H. H. Price ( 1969, S. 256 ).

291

Digitale Welt und Gestaltung

24

25

26

Was den Artikel von Daitz angeht, so besteht ihr Beitrag hauptsächlich darin, zum ersten Mal die picture theory von Wittgenstein mit der semiotischen Theorie der Ikonizität von Ch. S. Peirce in Verbindung gebracht zu haben.24 Zum ersten Mal wird das Bild bei Wittgenstein dem Ikon von Peirce gegenübergestellt. Weniger geglückt dagegen ist der Versuch, den Wittgenstein und Peirce zugeschriebenen Anspruch zurückzuweisen, den ikonischen Bildern eine Aussagefunktion mit deklarativem Charakter zu unterstellen. « Spiegelungen, Bilder und geografische Karten – schreibt die Autorin – haben alle eine Eigenschaft von grundlegender Bedeutung gemein: Es sind Ikons … Sätze andererseits sind nicht Ikons … Ikons zeigen, Sätze stellen fest. Zeigen besteht aus Darstellen und Ordnen, Feststellen besteht aus Sichbeziehen-auf und Beschreiben. … Darstellende Elemente sind gleichzeitig zeigende Elemente; doch Elemente, die sich auf etwas beziehen oder etwas beschreiben, stellen nicht auch fest. »25 Wittgenstein definierte das Bild als einen Satz; ebenso hat Peirce zwar nicht das Ikon, so doch zumindest das Ikon als möglichen Träger eines Index bestimmt.26 Doch scheint Daitz zu verkennen oder nicht zu berücksichtigen, dass

24

Darin einen « positiven Beitrag » sehen zu wollen ist von J. C. Morrison ( 1968 ) skeptisch beurteilt worden. Die Vorstellungen von Daitz über das Bild ( picture ) bei Wittgenstein erörternd, schreibt Morrison: pictures are not icons ( S. 64 ).

25

E. Daitz ( 1966, S. 59 ff. ). Zu einigen Fehldeutungen von Wittgenstein durch die Autorin vergleiche E. Evans ( 1955 ).

26

« Das Portrait einer Person, unter dem der Name der dargestellten Person geschrieben steht, ist streng genommen eine Aussage, auch wenn seine Syntax nicht die Syntax der Sprache ist und das Portrait selbst nicht nur ein Hypo-Ikon repräsentiert, sondern in Wirklichkeit ein Hypo-Ikon ist » ( C. S. Peirce, 1960, Bd. II, S. 184 ). Die Beziehung zwischen Aussage, Ikon und Index bildet einen der komplexesten Aspekte der schon sprichwörtlich komplexen peirceschen Welt. Um Missverständnisse zu vermeiden, werden hier die relevanten Ideen von Peirce rekapituliert. Vor allem bestreitet dieser, dass das Ikon ein Informationsträger sein kann. Deshalb ist es schwierig zu verstehen, zumindest für Nichteingeweihte, wieso das Ikon als Aussage fungieren kann. Das aber wird klarer – freilich nicht völlig klar –, wenn man sich bestimmte, von Peirce selbst vorgetragene Ergänzungen vergegenwärtigt. « Ein reines Ikon kann keine positive oder faktische Information vermitteln; denn es bietet keinerlei Garantie dafür, dass derlei in der Natur existiert » ( C. S. Peirce, 1960, Bd. IV, S. 359 ). Nach Peirce kann die aussagenlogische Information nur mit Hilfe des Index und mit der Komplexität des Namens erzeugt werden. « Eine Aussage ist auch eine allgemeine Beschreibung, doch unterscheidet sie sich von einem Ausdruck, insofern sie beansprucht, in einer wirklichen Beziehung mit der Tatsache zu stehen, von ihr bestimmt zu sein; deshalb kann eine Aussage nur aus dem Zusammenspiel eines Namens mit einem Index gebildet werden » ( C. S. Peirce, 1960, Bd. I, S. 196 ). Über die eventuellen logischen Folgen der Wahrnehmung lässt Peirce keine Zweifel: « Wenn man sieht, kann man das Wahrgenommene ≥

292

Anmerkungen zum Ikonizitätsbegriff

27

28

Wittgenstein selten das Wort Satz als Ausgesprochenes oder Behauptung benutzt. Vielmehr verwendet er es fast immer als « das, was durch einen Satz ausgedrückt (bedeutet, formuliert, dargestellt, bezeichnet) wird (im deklarativen Sinn) ».27 Wir müssen einschränkend formulieren: selten oder fast immer, denn Wittgenstein ist mit seiner terminologischen Wahl nicht sehr konsequent. G. E. Moore, der seine Vorlesungen in Cambridge in den Jahren 1930–1933 besucht hatte, berichtet, dass Wittgenstein oftmals die Begriffe « Satz » und « Aussage » benutzt, so als meinten sie dasselbe.28 Peirce seinerseits ist auch nicht viel konsequenter als Wittgenstein, doch im Unterschied zu ihm benutzt er fast immer den Begriff « Aussage » als Ausgesprochenes und selten in einem anderen Sinn. Anders formuliert: Peirce widerspricht oftmals Peirce, Wittgenstein widerspricht Wittgenstein. Deshalb trifft die Autorin Daitz in beiden Fällen ins Schwarze und zugleich daneben. Sie strengt einen Prozess gegen die Absichten zweier Denker an, die aus Prinzip eine besondere Abneigung dagegen hegten, ihre Absichten allzu klar und somit zugänglich zu machen. Doch ungeachtet der von Peirce und Wittgenstein verursachten Schwierigkeiten bleibt das von Daitz explizierte Thema offen: Ist es richtig zu sagen, dass ein Ikon ein Satz ist ?

29

Diese Frage zu beantworten ist niemals leicht gewesen. Alle Versuche in der Vergangenheit, eine Antwort zu finden, führten schwerlich zu überzeugenden Ergebnissen. In jüngster Zeit ist diese Aufgabe immer schwieriger geworden, und zwar aus zwei Gründen: a) wegen der gegenwärtigen – nach den Worten von Lewis29 – « chaotischen Lage » der logischen Forschungen; b) wegen der heutigen nicht weniger

nicht vermeiden… Doch das Wahrgenommene kann nicht eine Prämisse sein, denn es ist keine Aussage; und eine Behauptung über den Charakter des Wahrgenommenen müsste sich auf das Wahrnehmungsurteil gründen, statt umgekehrt. Deshalb repräsentiert das Wahrnehmungsurteil logisch nicht das Wahrgenommene. Auf welche intelligible Weise kann nun das Wahrgenommene repräsentieren ? Es kann nicht eine Kopie des Wahrgenommenen sein, da es, wie man sehen wird, überhaupt nicht dem Wahrgenommenen gleicht. Es bleibt nur der Ausweg, das Wahrgenommene zu repräsentieren, als Index oder als wahres Symptom, so wie der Wetterhahn die Windrichtung oder ein Thermometer die Temperatur anzeigt » ( C. S. Peirce, 1966, Bd. VII, S. 373 ).

27

R. Carnap ( 1959, S. 235 ff. ).

28

Vgl. G. E. Moore ( 1959 ).

29

« Logical theory is today in a chaotic condition », sagte Lewis 1946; und das trifft heute noch stärker zu ( C. L. Lewis 1962, S. 36 ).

293

Digitale Welt und Gestaltung

chaotischen Lage der semiotischen Forschungen. Aber während im ersten Fall die Lage aus der evolutiven Entwicklung der modernen Logik resultiert, die den Forschungsgegenstand dieser Disziplin wachsen und komplexer werden ließ und somit den Kontrast zwischen den verschiedenen Interpretationsweisen verschärfte, resultiert die heutige Situation im zweiten Fall aus einer involutiven Entwicklung, deren Hauptursache in dem stetig wachsenden Einf luss der französischen Semiolinguistik zu suchen ist, die den ganzen Fragenkomplex der Semiotik oberf lächlich versprachlicht hat (linguistifié ). Trotz dieser keineswegs ermutigenden Situation soll erneut eine Antwort auf die logisch-erkenntnistheoretischen Folgen der Ikonizität gesucht werden, zumindest wird diese Absicht hier verfolgt. Diesmal aber müsste man im Unterschied zu früheren Versuchen damit beginnen, die Bedeutung entweder des Ikon oder des Satzes zumindest als Arbeitshypothese als festgesetzt anzunehmen. Aus taktischen Gründen, die weiter unten erläutert werden, bevorzugen wir die als fest angenommene Bedeutung des Begriffs « Satz ».

30

31 32

33

Der Begriff « Satz » wird dabei so verwendet, wie ihn heute auch die Mehrzahl der Forscher auf dem Gebiet der formalen Logik versteht. « Satz » bedeutet hier also nicht « sprachlicher Ausdruck und auch nicht ein subjektives oder geistiges Ereignis … Wir werden den Ausdruck Satz für jede Entität eines bestimmten logischen Typs verwenden, genauer für jene Entitäten, die mit Hilfe von Aussagen in einer Sprache ausgedrückt werden können ». 30 Der Satz « wird nicht den psychologischen Charakter einer ‹ propositio mentalis › von Wilhelm Occam oder des ‹traditionellen Urteils› haben ». 31 Für uns wird Satz der « objektive Inhalt eines Urteils » sein. 32 Wir sagen auch, dass « ein Satz ein Ausdruck ist, der einen Sachverhalt bedeuten kann … Der Satz ist etwas, was behauptet werden kann; er ist der ‹Inhalt› der Behauptung; und derselbe Inhalt, der einen Sachverhalt bedeutet, kann diskutiert, verneint oder einfach als Annahme behandelt werden … » 33 Es sei betont, dass dieses Mosaik von Definitionen ausschließlich im Rahmen der Einschränkungen zu verstehen ist, wie sie eine nicht zu extensive Darlegung

294

30

R. Carnap ( 1966, S. 27 ).

31

A. Church ( 1956, S. 26 ).

32

A. Pap ( 1955, S. 2 ).

33

C. I. Lewis ( 1962, S. 48 ).

Anmerkungen zum Ikonizitätsbegriff

erfordert. Diese Vorgehensweise kann durchaus kritisiert werden. Denn wenn die Definitionen aus dem hiesigen Kontext gerissen und in einen anderen Kontext verpf lanzt werden, der von vornherein auf eine homogene begriff liche Stimmigkeit abzielt, scheinen die Zitate der verschiedenen Autoren größere Gemeinsamkeiten aufzuweisen, als sie in Wirklichkeit besitzen. Für unsere Zwecke bildet das aber kein ernstes Risiko: Es genügt vorerst, festzustellen, wenn auch durch ein rudimentäres Verfahren, was denn näherungsweise der Begriff des Satzes meint, den wir seiner Vorteile wegen angenommen haben. Wenn nach der getroffenen Übereinkunft nun kein Satz eine gesprochene Aussage ist, und wenn das Ikon – nach Peirce und Wittgenstein – ein Satz ist, dann ist das Ikon keine gesprochene Aussage. Doch an diesem Punkte angelangt, stellt sich heraus, dass die Sachlage nur scheinbar an Klarheit gewonnen hat. Das Forschungsgebiet, dessen Umfang wir verkleinern wollten, scheint sich nun im Gegenteil ungehemmt auszudehnen. Neue Schwierigkeiten haben sich zu den bereits bestehenden hinzugesellt.

34

Wenn man einerseits den Satzcharakter des Ikons akzeptiert und andererseits den Unterschied zwischen Satz und Aussage betont, sieht man sich mit dem Problem der Bedeutung in seiner ganzen Tragweite konfrontiert. Es geht um das Problem, das von Aristoteles bis heute und vor allem nach Frege im Zentrum der Auseinandersetzung über die Grundlagen der Logik steht; gleichzeitig aber auch um das Problem, das von Aristoteles bis heute und vor allem nach Saussure im Zentrum der Diskussion über die Grundlagen der Sprache steht. Bekanntlich definieren sich die Forscher der Logik je nach angenommener Position als Realisten oder Nominalisten und die Sprachforscher entweder als Analogisten (Grammatiker der Regeln) oder als Anomalisten (Grammatiker der Ausnahmen). 34 Trotz der erstaunlichen Verfeinerung des Begriffsapparats der heutigen Logik und Sprachwissenschaft stellt sich das Problem der Bedeutung weiterhin in den nahezu gleichen Termini wie in der Antike und im Mittelalter. Die Stoiker, die als Erste erahnt hatten, dass Logik und Sprache eben im Bereich der Bedeutung zusammenprallen, sind auch die Ersten gewesen, die auf die Bedeutung als Halbschattenzone verwiesen haben. Sie hatten Recht: Das Problem der Bedeutung bildet einen Bereich, der durch die Rauchwolken des Idealismus verdunkelt ist; einen Bereich aller möglichen Gefahren, voller Fallen und unliebsamer Überraschungen. In einem jeweils verschiedenen Kontext kann ein und dasselbe Argument sowohl zur Stützung einer These wie auch der Gegenthese dienen. Nicht anders verhält es sich mit den schon sprichwörtlichen Beispielen der mythologischen Fauna, die oftmals herangezogen werden, um die

34

Vgl. H. Arens ( 1955, S. 18 ).

295

Digitale Welt und Gestaltung

Stichhaltigkeit (oder Unhaltbarkeit) der einen oder der anderen These zu erhärten. Wir spielen auf die zahmen und gutmütigen Monster an – Zentaur, Pegasus und Einhorn –, immer bereit, sowohl den Realisten wie den Nominalisten, den Analogisten wie den Anomalisten zu Hilfe zu eilen. Nach diesem Exkurs wollen wir nun die Analyse der Beziehung zwischen Ikon und Satz fortsetzen. Von jetzt ab geht es primär darum, die Grenzen des logischen Diskurses über die Ikonizität zu umreißen. Um dieses Ziel zu erreichen, ist es nach meiner Ansicht am zweckmäßigsten, zunächst einmal zu klären, in welchem Maße die Thesen der modernen Logiker über den Satz sachgerecht in Thesen über die Ikonizität umgeformt werden können. Es ist zwar nur ein Gedankenexperiment, doch lohnt es sich, es einmal durchzuspielen.

35

36

37

38

Ist es gerechtfertigt, das Ikon – oder einen Ikontyp – als Denkvorgang im logischen Sinn zu betrachten, also als Beispiel für jenen spezifischen Denkmodus zu nehmen, der « Inferenz » genannt wird und « mit dessen Hilfe man, von Prämissen ausgehend, zu Schlüssen gelangt » ?35 Lässt sich behaupten, dass die ikonische Konstruktion und die logische Konstruktion isomorph sind ? Oder einfacher formuliert: Kann die Hypothese aufrechterhalten werden, dass das Ikon – oder ein Ikontyp – den Charakter einer echten deklarativen Satzform annimmt ? In der Regel verhält sich das Ikon nicht auf diese Weise. Wenn es einen Gegenstand mit statischen Mitteln (Fotografie, Zeichnung, Gemälde) darstellt, nimmt es die Form einer synoptischen Gestalt an. 36 Unter synoptischer Gestalt wird ein System verstanden, dessen Elemente sich konstitutiv und nicht additiv verhalten, also ein System, dessen Elemente in einer wechselseitigen Beziehung totaler formaler, struktureller und funktioneller Abhängigkeit erscheinen. 37 Mit anderen Worten: als eine Gestalt mit einem hohen Grad systemischer Dichte. Dabei ist aber ein Phänomen festzuhalten: Je höher der Grad systemischer Dichte ist, desto höher ist auch der Grad der Bedeutungsdichte im Sinne von Undurchsichtigkeit und Schwerverständlichkeit, also die Aussagedichte des Systems. 38 Die synoptische Ordnung schränkt den Spielraum der Unordnung ein, was für die Erzeugung von logischer Ordnung erforderlich ist. Denn während die logische Aussageform Heterogenität voraussetzt –

35

36

I. M. Copi ( 1966, S. 2 ).

A. C. Moorhouse ( 1932, S. 7 ff. ). « Das wichtigste Merkmal der piktografischen Schrift besteht darin, die dargestellte Tatsache als ein Ganzes auf synoptische Weise zu sehen. »

37

296

L. von Bertalanffy ( 1969, S. 2 ff. ). Vgl. auch A. D. Hall ( 1965, S. 65 ).

Anmerkungen zum Ikonizitätsbegriff

und somit einer Artikulation bedarf –, betont die systemische Kompaktheit die Homogenität und relativiert die Artikulation.

39

Offensichtlich gilt diese Behauptung nicht im absoluten Sinn. Denn kein Ikon kann sich ohne Artikulation konstituieren. Als Bild benötigt das Ikon notwendigerweise auch ein Minimum an interner Differenzierung, ein Minimum an Hierarchisierung zwischen seinen Teilen. Eine zweidimensionale Struktur mit isometrischem Auf bau (also eine Struktur, deren Teile alle die gleiche Form und den gleichen Abstand haben) 39 , aber ohne Gliederung vermag nicht ein Bild zu erzeugen, sei es ikonisch oder nicht. Bekanntlich spielt sich der Leseprozess eines Bildes – einschließlich der statischen Bilder – in der Zeit ab. Wahrnehmen heißt einen Weg zurücklegen, heißt einen Pfad festlegen. In einem dem Betrachter präsentierten Bild rufen einige Teile früher als andere das Interesse hervor, wogegen andere – in der Regel die Mehrzahl – den Betrachter gleichgültig lassen; sie bilden nur ein Hintergrundgeräusch. Wenn man diesen Sachverhalt in den Begriffen der Rhetorik ausdrücken will, ist damit gemeint, dass im Wahrnehmungsprozess die Figur der Synekdoche, vor allem in der Form des pars pro toto, am häufigsten auftritt. Diese Tatsache ist nicht nur auf kognitiver, sondern auch auf der Ebene des Wiedererkennens wichtig. Doch all dies spielt sich auf einem Niveau sehr niedriger Komplexität ab, das viel niedriger ist als das für die Artikulation eines Satzes erforderliche. Es sei hervorgehoben, dass das ikonische System, in dem sich die Teile konstitutiv verhalten, nicht das einzig mögliche ist. Es gibt auch Beispiele für ikonische Konfigurationen – in unserer Kultur immer stärker verbreitet –, in denen sich die Teile additiv verhalten. Zu dieser Kategorie gehören alle diejenigen ikonischen Systeme, die Gegenstände oder Ereignisse mit Hilfe von technischen Aufzeichnungsverfahren von Bewegungen (Film, Fernsehen usw.) abbilden. Bei diesem Organisationstyp tritt – im Unterschied zu oben erwähnten Typen – nicht nur Gliederung auf, vielmehr entfaltet sie sich in der Zeit, also linear und sukzessiv. In einer derartigen ikonischen Gestalt findet – zumindest theoretisch – die Fassung der logischen Aussageform erheblich günstigere Bedingungen. Man kann zielgerichtet eine Reihe von Sequenzen entwerfen, die sich als logische Aussageform strukturieren.

38

W. van O. Quine ( 1960, S. 141 ff. ). Referenzielle Opazität und Transparenz können nicht getrennt voneinander analysiert werden. Zum Begriff der Transparenz vergleiche den Anhang zur 2. Ausgabe ( 1927 ) von A. N. Whitehead und B. Russell ( 1968, I, S. 665 ).

39

Vgl. K. L. Wolf und R. Wolff ( 1956, I, S. 5 ).

297

Digitale Welt und Gestaltung

40

41

42

43

Es ist noch ein weiterer Ikontyp zu erwähnen, und zwar die seit Jahrtausenden bekannten Ikons, die dazu dienen, Gegenstände oder bewegte Ereignisse mit Hilfe statischer Mittel darzustellen, also Ikons, die dank eines syntaktischen Strategems die technischen kinematischen Verfahren zu simulieren vermögen. In diesen Systemen verhalten sich einige Elemente konstitutiv und andere additiv. Als Beispiel dieser Vorläufer der Schrift dient die so genannte synthetische Schrift. « Die Schrift, der wir das Attribut synthetisch zuschreiben, zeichnet sich wesentlich dadurch aus, dass sie mit Hilfe einer einzigen Zeichnung inhaltlich zu vermitteln sucht, was das Auge mit einem Blick erfassen kann, einen kompletten Satz, eine vollständige Aussage oder eine ganze Satzgruppe. »40 Es stimmt nicht, dass diese Protoschrift immer und zwangsweise mit Hilfe eines einzigen Bildes, « einer einzigen Zeichnung » operiert. Es gibt Fälle, in denen « ein kompletter Satz, eine vollständige Aussage und eine ganze Satzgruppe » durch eine Reihe von Bildern vermittelt wird, die sich als Sequenzen ein und derselben thematischen Entwicklung darstellen. Die Proclamation from van Diemen’s Land (Tasmanien), die von I. J. Gelb untersucht wurde 41, liefert dafür ein hervorragendes Beispiel. In dieselbe Kategorie kann man die modernen Comics einordnen. Auch wenn sich diese ikonischen Konfigurationen nur teilweise additiv verhalten, so eignen sie sich sehr gut dafür, einen Aussagesatz einzukapseln. Das erklärt sich, wie wir gezeigt haben, aus ihrem hohen Grad an Komplexität. Doch wenn man allzu sehr auf der Rolle der Komplexität besteht, läuft man Gefahr, anzunehmen, dass zwischen logischer Komplexität und ikonischer Komplexität eine gänzliche Entsprechung (oder Symmetrie) besteht. Daraus ergibt sich dann ein Sprachgebrauch, der die einfachen oder Grundikons atomar und die komplexen oder zusammengesetzten Ikons molekular nennt, so wie man in der Logik seit Russell 42 von Atomsätzen und Molekularsätzen spricht. Diese Übertragung ist allzu freizügig. Das atomare Ikon, das wir Ikonem43 nennen, lässt sich so wenig mit dem Atomsatz vergleichen wie das molekulare Ikon mit dem Molekularsatz. Das atomare Ikon als niederkomplexe Gestalt ist gewöhnlich empfindlicher gegenüber der referenziellen Opazität, wogegen das molekulare Ikon als hochkomplexe Gestalt in der Regel leichter die Stufe der referenziellen Transparenz erreicht.

40

J.-G. Février ( 1959, S. 43 ). Das Verhalten dieser Konfiguration erklärt sich aus der Tatsache, dass sie dem Diskurs näher steht als der Schrift, der direkten Semie näher als der substitutiven Semie. Vgl. E. Buyssens ( 1943, S. 49 ff. ). Bedeutende Entwicklungen der erkenntnistheoretischen Aspekte der semischen Theorie von Buyssens finden sich bei L. J. Prieto ( 1966 ).

41

42

I. J. Gelb ( 1952, S. 32 ff. ).

R. Russell ( 1969 und 1971a, S. 177 ff. ). Vgl. auch die Einführung zur zweiten Ausgabe ( 1927 ) von Whitehead und Russell ( 1968, S. XV ).

298

Anmerkungen zum Ikonizitätsbegriff

44

45

Die Begriffe der referenziellen Opazität und Transparenz werden hier in weniger strengem Sinn gebraucht als bei Quine; eher im Sinne des minimal descriptive meaning und des maximal descriptive meaning von Strawson. 44 Im Unterschied zum Ikon erscheint die Beziehung zwischen Atomsatz und Molekularsatz viel nuancierter, da es sich vom Standpunkt der Referenz aus betrachtet um eine Beziehung gegenseitiger Unterordnung handelt. Man kann sagen, dass die referenzielle Transparenz eines Molekularsatzes – also sein maximal descriptive meaning – nur dann erreicht wird, wenn die ihn konstituierenden Atomsätze ihrerseits einen bestimmten Grad von referenzieller Transparenz besitzen. 45 Hier ist eine Klarstellung am Platz. Weiter oben wurde dargelegt, dass sich die synoptischen Ikons auf Grund ihrer nahezu fehlenden oder sehr schwachen Gliederung wenig dazu eignen, einen Aussagendiskurs zu beinhalten. Sogleich aber wurde diese Feststellung relativiert, indem eingeräumt wurde, dass die Ikons, einschließlich der synoptischen Ikons, sich immer als differenzierte Gestalten zeigen, also als Konfigurationen, deren Teile dem Beobachter nicht alle gleichwertig erscheinen. Mit anderen Worten: Es finden sich da privilegierte Teile, die unter bestimmten Bedingungen das Ganze ersetzen können. Schließlich wurde das Thema der Komplexität eingeführt, wobei die referenzielle Opazität des Ikonems – sein minimal descriptive meaning – unter Hinweis auf seinen niedrigen Komplexitätsgrad erklärt wird. All das scheint widersprüchlich: Auf der einen Seite wird aus dem Ikonem als kognitiv privilegierter Komponente der Spielverderber jeglicher synoptischen Gestalt gemacht; auf der anderen Seite wird dagegen behauptet, dass das Ikonem als atomares Element niedriger Komplexität die referenziell schwache Komponente bildet und somit nicht mit einem Atomsatz verglichen werden kann, der in der Regel als referenziell starke Komponente fungiert.

43

Ikonem: eine ikonische Einheit, die nicht in weitere kleinere Einheiten geteilt werden kann. Vgl. die Definitionen von « Phonem » und « Morphem », in: « Projet de terminologie phonologique standardisée », in: Traveaux du Circle Linguistique de Prague, Réunion phonologique internationale, Prag, 18.–21. Dezember 1939; Prag, 1931, Bd. 4., S. 311 und 321.

44

45

P. F. Strawson ( 1966, S. 44 ).

Dieses Thema gehört zu den am heftigsten diskutierten der zeitgenössischen Logiker; somit wird die hier vorgeschlagene Interpretation von vielen Logikern nicht akzeptiert werden, vor allem nicht von jenen, die mit der fundamentalen Rolle nicht einverstanden sind, die Wittgenstein den Elementarsätzen ( oder Atomsätzen ) im berühmten Paragraph 2.0201 des Tractatus zuweist.

299

Digitale Welt und Gestaltung

Der hier auftauchende Widerspruch bezeugt die extreme Schwierigkeit des Topos Ikon und Aussage. Es wäre indessen falsch zu glauben, dass dieser Widerspruch dem ikonischen System fremd wäre oder dass es um eine Schwierigkeit geht, die nur von der Unreife (oder Ineffizienz) unseres methodologischen Instrumentariums herrührt. Im Gegenteil, sie gehört zum Kern des untersuchten Systems und bestätigt somit die Gültigkeit der hier benutzten interpretativen Instrumente. Heute weiß man, dass das Problem der Ikonizität nicht von der Beziehung zwischen begrifflicher Kategorisierung und perzeptiver Kategorisierung, von der Beziehung zwischen der Denkstruktur und der Wirklichkeitsstruktur getrennt werden kann. Man weiß aber auch, dass man keinen Fortschritt erwarten darf, wenn ein so weites Gebiet von einer einzigen epistemologischen Warte aus betrachtet wird.

46

47

Piaget gebührt das große Verdienst, als Erster auf die Notwendigkeit hingewiesen zu haben, dass man mit zwei Epistemologien arbeiten muss: mit einer normativen und einer genetischen. In den Worten Piagets: « Die normative Epistemologie befasst sich nicht mit den Handlungen des erkennenden Subjekts, sondern sucht ausschließlich zu bestimmen, welche Wahrheitsbedingungen für einen Erkenntnisbereich gelten oder auf welche allgemeinen Normen sich diese Wahrheit gründet. Dagegen befasst sich die genetische Epistemologie nicht mit den Wahrheitsnormen, sondern sucht einzig festzustellen, mit Hilfe welcher Handlungen das Subjekt diese Wahrheitsnormen konstruiert … und sie früheren Versionen als überlegen betrachtet hat. »46 Diese Arbeitsteilung in der epistemologischen Forschung betont nicht, wie man annehmen könnte, einen unüberbrückbaren Unterschied, sondern liefert vielmehr die Grundlage für einen zukünftigen Prozess der Einheit in der Verschiedenheit. Wenn es auch paradox erscheint, so stellt diese Arbeitsteilung den härtesten Schlag gegen das dar, was Quine in einem berühmten Artikel als eines der Dogmen des Empirismus gebrandmarkt hat: die Notwendigkeit einer starren Trennung zwischen logischem Diskurs und Tatsachendiskurs, zwischen analytischer und synthetischer Wahrheit. 47

46

J. Piaget ( 1967. S. 27 ). Die Theorie der zwei Epistemologien ist nicht als neue Variante des « Psychologismus » zu betrachten. Piaget nimmt eine sehr eindeutige Stellung ein: « In Wirklichkeit dürften keine Konflikte zwischen der normativen und der genetischen Methode erwachsen, wenn sich beide an ihre strengen Normen halten: niemals eine psychologische Beobachtung in die logische Formalisierung einzuschleusen ( es sei denn, man wolle sich des ‹Psychologismus› schuldig machen ) und niemals die logische Deduktion durch eine genetische Analyse der Tatsachen zu ersetzen ( es sei denn, man wolle sich des ‹Logizismus› schuldig machen ) » ( S. 24 ff. ).

47

300

W. van O. Quine ( 1963. S. 110 ff. ). Zu diesem Thema vgl. auch B. Kaplan ( 1971, S. 75 ).

Anmerkungen zum Ikonizitätsbegriff

Die mit Peirce und Wittgenstein einsetzende Tradition, eine isomorphe Beziehung zwischen Bild und Satz als Hypothese anzunehmen, hat neue fruchtbare Perspektiven eröffnet. Doch hat diese Tradition es nicht vermocht, sich von der Einseitigkeit der «normativen Epistemologie» zu befreien; sie ist an all den Problemen gescheitert, die aus einem anderen als dem formal-logischen Bereich stammen.

48

Die wichtigsten Vertreter dieser Tradition haben geglaubt, dass der für jedes ikonische System so wichtige Prozess der Kategorisierung ausschließlich mit Hilfe der «begriff lichen Kategorisierung» erklärt werden kann. Auf Grund ihrer antipsychologischen Voreingenommenheit weigerten sie sich, die Notwendigkeit anzuerkennen, diesen Begriff auch im Rahmen der «perzeptiven Kategorisierung» zu definieren.48 Die Bedeutung dieses Typs der Kategorisierung verständlich gemacht zu haben ist ein weiteres Verdienst Piagets und seiner Schule der genetischen Epistemologie. Für das Thema der Ikonizität erweist sich diese Einstellung als entscheidend. Das Ikon ist in erster Linie das Ergebnis eines Prozesses der « perzeptiven Kategorisierung» – und das gilt sowohl vom Standpunkt der Herstellung des ikonischen Zeichens wie auch vom Standpunkt seiner Nutzung . Dieses Detail übergangen zu haben hat zu schwerwiegenden Fehleinschätzungen geführt. Ohne Zweifel spielt die « konzeptuelle Kategorisierung » eine zentrale Rolle bei der Vermittlung zwischen ikonschem Raum und logischen Raum. Gerade diese Vermittlerrolle erlaubt dem ikonischen Raum, « die Sachlage im logischen Raum zu zeigen, das Vorliegen oder Nicht-Vorliegen eines Sachverhalts » (Wittgenstein).

49

Doch es ist nicht gerechtfertigt zu behaupten, dass der ikonische Raum der logische Raum ist. In diesem Fall erweist sich die von Frege anempfohlene Vorsicht hinsichtlich des Wortes «ist» als durchaus angebracht. 49 Die gewissenhafte Beachtung dieser Vorsichtsmaßnahme leitet zu der Schlussfolgerung, dass der ikonische Raum weder der logische Raum und noch weniger jene besondere Struktur des logischen Raums in Form des Aussagesatzes ist noch sein kann.

48

J. S. Bruner, J. J. Goodnow und G. A. Austin ( 1966 ). Ein großer Teil der Begriffe, die sich auf den Prozess der Kategorisierung beziehen, sind diesem grundlegenden Werk über die Struktur des Denkens entnommen. Besonders haben wir die Definition der Kategorisierung übernommen: « Kategorisieren bedeutet, verschiedene Dinge als gleichgewichtige unterscheidbar zu machen, uns umgebende Gegenstände und Personen in Klassen zu ordnen und sie auf Grundlage ihrer eigenen Klassenzugehörigkeit zu replizieren, statt auf Grundlage ihrer Individualität » ( S. 1 ). Vgl. J. S. Bruner et al. ( 1966 ).

49

G. Frege ( 1969, S. 60 ).

301

Digitale Welt und Gestaltung

Ikonischer Raum und logischer Raum sind einander nicht fremd. Sie können dies auch gar nicht, weil zwischen Wahrnehmen und Denken ein Nexus besteht. Was zwischen Ikon und Satz geschieht – oder nicht geschieht –, erscheint allgemein stark bedingt durch die Dinge, die zwischen Wahrnehmen und Denken übereinstimmen (oder nicht übereinstimmen).

50 51 52

53

Wahrnehmen und Denken haben wichtige Eigenschaften gemein: Beide entfalten sich in einem fortwährenden «Übergang zu einer anderen Sache » 50 , beide sind auf die Konstitution (oder Rekonstitution) einer «seriellen Ordnung » ausgerichtet 51, und beide werden stärker durch Neues als durch Bekanntes stimuliert. 52 Doch diese Gemeinsamkeiten manifestieren sich nicht auf gleiche Weise: Die Art des «Übergangs zu einer anderen Sache gestaltet sich anders » als die Strukturierung der seriellen Ordnung oder die Art und Weise, auf Neues zu reagieren. Man kann sagen, dass die Diskrepanz zwischen Denken und Wahrnehmen sich in erster Linie auf die Form bezieht. Form wird hier nicht in einem allgemeinen, sondern in einem ganz spezifischen Sinn verstanden. Die Diskrepanz der Form meint ausschließlich eine jeweils andere Art, die Verbindungen zwischen den Ereignissen herzustellen, das heißt eine jeweils andere Art, die Kausalketten zu regeln. Oder besser: eine andere Art, die zwei Attribute der Kausalität zu konkretisieren, die unter den Begriffen Antezedenz und Kontiguität bekannt sind. 53 Der Grund für die Schwierigkeit des Ikons, einen Satz zu umschreiben, liegt genau in dieser Art von Diskrepanz. Das ist kein Zufall. Ikon und Satz – beide in gewisser Hinsicht formale Konstruktionen – sind besonders den Folgen der bereits erwähnten formalen Diskrepanz ausgesetzt. Ikon und Satz strukturieren auf je eigene Weise das eigene konnektive Gewebe. In der Regel decken sich ihre Kausalketten nicht; dies ist einer – nicht der einzige – der Gründe dafür, dass das Ikon den Satz derart unbeholfen nachahmt. Es sei hier auf die Unmöglichkeit oder zumindest erhebliche Schwierigkeit verwiesen, ein ikonisches Kompositum zu finden, das fähig wäre, einen Molekularsatz zu vermitteln, ohne auf verbale Mittel zurückzugreifen. Das sollte nicht

302

50

J. Paliard ( 1949 ).

51

K. S. Lashley ( 1951 ).

52

D. E. Berlyne ( 1950 ).

53

M. Born ( 1964 ).

Anmerkungen zum Ikonizitätsbegriff

verwundern, denn ein Molekularsatz benötigt – um als solcher zu fungieren – bestimmte synkategorematische Ausdrücke, das heißt Konjunktionen und Operatoren; doch nur mit Mühe lassen sich derartige Ausdrücke mit visuellen Verfahren wiedergeben.

54 55

Berechtigt uns diese Feststellung zu der Annahme, dass Ikon und Satz unvereinbar sind ? Das wäre ein vorschneller Schluss. Es ist schwer, in diesem Augenblick vorauszusehen, welche Überraschungen die so genannten « Denktechnologien » (thought technologies) für uns zukünftig bereithalten 54 – vor allem wenn sie gekoppelt mit den fortgeschrittensten « Wahrnehmungstechnologien » wie der computer graphic auftreten.55 Trotz des rudimentären Charakters ihrer ersten Anwendungen hat die computer graphic eine neue Phase in der Geschichte der instrumentellen Beziehung zwischen Denken und Wahrnehmen eröffnet. Zum ersten Mal sind die technischen Grundlagen geschaffen, die eine operative, vielleicht auch eine heuristische Beziehung zwischen logischer Formalisierung und visueller Modellierung ermöglichen. Es sei aber betont, dass diese technische Möglichkeit nicht – wie man meinen könnte – die alte Debatte über die Bedeutung ins Abseits befördert, sondern sie im Gegenteil erneut und mit noch größerer Virulenz auf die Tagesordnung setzt. Wir hatten die Überprüfung des Bedeutungsproblems vorerst beiseitegeschoben und der Beziehung zwischen Ikon und Satz Vorrang eingeräumt, weil wir sie für wichtiger erachteten. Nach meiner Ansicht mussten vorgängig die Grenzen des ausschließlich logischen Diskurses über die Ikonizität bestimmt werden. Jetzt ist das Terrain bereitet, um das eigentliche Bedeutungsproblem anzugehen, um uns in die « Halbschattenzone » der Debatte zu begeben. In jüngster Zeit hat die Beschäftigung mit diesem Thema an Aktualität gewonnen, und zwar nicht dank der Logiker sondern dank der Forscher, die sich der Analyse der sprachlichen, ästhetischen und kommunikativen Probleme gewidmet haben. Unter diesen ist U. Eco als unermüdlicher Anreger der Semiolinguistik in Italien hervorzuheben.

56

Ich gehe speziell auf Eco ein, weil seine Bedeutungstheorie die Wende in der Debatte veranschaulicht. 56 In der Vergangenheit, und zwar von Frege an, entwickelte sich die Kontroverse auf einer betont technischen Ebene. Oftmals verbarg sich

54

M. Bunge ( 1966 ).

55

T. E. Johnson ( 1963 ); R. W. Mann ( 1965 ); S. Coons ( 1964, S. 26 – 28 ); I. E. Sutherland ( 1963 ).

56

U. Eco ( 1971 ). Vgl. auch das 2. Kapitel in U. Eco ( 1968 ).

303

Digitale Welt und Gestaltung

hinter der spekulativen Virtuosität eine philosophisch ausweichende Haltung. Heute hat sich die Situation geändert. Die Epoche der terminologischen Glasperlenspiele scheint überwunden zu sein. Immer seltener stößt man auf die bewundernswerten begriff lichen Differenzierungen von früher. Es sei zum Beispiel an die Texte von Russell erinnert, in denen er sich mit einer Re-Interpretation von Frege und Meinong beschäftigt, oder an die Texte von Strawson in offener Polemik mit Russell oder an die von Quine mit seinen Vorbehalten gegen Carnap. Auch wenn es diesem neuen Denkstil nicht gelingt, Argumentationsstränge mit demselben Differenzierungsgrad wie früher zu entwickeln, so ist zumindest das Verdienst anzuerkennen, das Augenmerk auf das gerade vom differenzierenden Denkstil Verdeckte, Verborgene und Ausgeblendete gerichtet zu haben: dass nämlich jedes Urteil über die Bedeutung auch eine Stellungnahme über die Existenz oder Nicht-Existenz einer außersprachlichen Wirklichkeit in sich birgt. Mit anderen Worten: Jedes Urteil über die Bedeutung schließt ein Urteil über die Objektivität der Außenwelt ein, ob sie nun akzeptiert wird oder nicht.

57

58

In dieser Hinsicht liefert die Bedeutungstheorie von Eco ein gutes Beispiel, was nicht heißt, dass sie gegen Kritik gefeit ist (wir selbst werden eine Kritik formulieren); doch diese kritischen Anmerkungen richten sich in erster Linie gegen einige philosophische Voraussetzungen seiner Theorie, kaum jedoch gegen die Art und Weise, wie sie vorgetragen wird. Das unbekümmert-summarische Urteil zum Beispiel über Frege 57 und – wie wir später sehen werden – über Peirce lässt die negative Seite einer Theorie deutlich werden, die als Folge einer Vorentscheidung feinere begriff liche Nuancen opfert. Diese Vorbehalte indessen tun der Nützlichkeit dieser Theorie in der gegenwärtigen Debatte keinen Abbruch, vor allem wenn man sie aus der Perspektive der erkenntnistheoretischen Folgen betrachtet. Bei der Analyse der Bedeutungstheorie von Eco empfiehlt es sich, von seinem Urteil über die Definition des ikonischen Zeichens von Peirce auszugehen. 58

57

Die neueste ( 1969 ) Veröffentlichung der posthumen Schriften von Frege – den Wissenschaftlern der Universität Münster bereits seit 1935 bekannt – ermöglicht uns jetzt, festzustellen, dass sein Begriffsapparat erheblich reicher und komplexer war als bislang angenommen. Einige stereotypisierte, ehemals vielleicht gerechtfertigte Interpretationen seines philosophisch-wissenschaftlichen Werkes müssen heute kritisch durchleuchtet werden. Eco dagegen fährt fort, die Beziehung von Sinn und Bedeutung so zu behandeln, als ob während der vergangen fünf Jahre gar nichts geschehen wäre. Vgl. G. Frege ( 1969 ); siehe auch H. Scholz und H. Hermes ( 1936, Bd. VIII, S. 24 ff. ). Eine aufschlussreiche Analyse der Nachgelassenen Schriften findet sich auch bei M. Dummet ( 1973 ).

304

Anmerkungen zum Ikonizitätsbegriff

Eco rechtfertigt seine ablehnende Haltung, indem er dieser Definition einen logischen Zirkelschluss unterstellt, doch scheint der wahre Grund ein anderer zu sein: Bei der Definition des ikonischen Zeichens von Peirce stößt Eco sich daran, dass ein Begriff von Referenz durchscheint, der noch allzu stark von Materialität getränkt ist. Trotz der dem Interpretanten zugeschriebenen Vermittlungsfunktion bleibt der Begriff Referent bei Peirce ein Gegenstand, also eine außersprachliche Wirklichkeit, auf die sich das ikonische Zeichen bezieht. Anders formuliert, als bête noire figuriert für Eco der Bezug auf jede außersprachliche Wirklichkeit. Dies erklärt auch seine gleichfalls radikale Ablehnung jeglicher Art von «referenziellem» Dualismus (der Dichotomie von Sinn und Bedeutung bei Frege wie auch ähnlicher Dichotomien bei Mill, Russell, Carnap, Morris, Quine, Goodman usw.) und seine Verurteilung des bekannten zeichentheoretischen Dreiecks von Odgen und Richards – ein Diagramm, das bekanntlich nicht mehr als eine Banalisierung der triadischen Struktur von Peirce ist.

59

60

61

Unverhüllt zeigt sich die Bedeutungstheorie Ecos auch in den zwei folgenden Urteilen über den Begriff des Referenten: 1) « In semiotischer Perspektive entbehrt das Problem des Referenten jeglicher Relevanz » 59 oder anders formuliert: « Die Bedeutung – jene ‹ schädliche Idee › – muss rückhaltlos aus jeder Semiotik seziert werden als ein Überbleibsel, das den kulturellen Charakter der Kommunikationsprozesse zu verstehen hindert » 60 . 2) Das Zeichen wäre nicht zu einem schimärischen Referenten in Bezug zu setzen, sondern nur zu einem anderen Zeichen und dieses seinerseits zu einem anderen Zeichen und so fort. Anders formuliert: Ein Zeichen wird nur als ein Moment eines « Prozesses endloser Semiosis » betrachtet. 61 Insofern Eco die semiotische Gültigkeit des Referenten bestreitet und ihn durch einen « Prozess endloser Semiosis » ersetzt, schlägt er die Semiotik als « eine Disziplin » vor, « die sich den hierarchischen Beziehungen zwischen Codes widmet ».

58

U. Eco ( 1972, S. 1 – 16 und 1968, S. 33, vor allem das Kapitel B, S. 106 – 130 ).

59

U. Eco ( 1968, S. 33 ).

60

U. Eco ( 1972, S. 21 ).

61

U. Eco ( 1972, S. 25 ). Wahrscheinlich geht die Vorstellung der « endlosen Semiosis » von Eco auf das zurück, was Peirce – in der Folge des regressus ad infinitum der klassischen und mittelalterlichen Logik – infinite regression nennt ( Ch. S. Peirce 1960, Bd. I, S. 171 ).

305

Digitale Welt und Gestaltung

62

Diese Codes – « Konventionen der Kommunikation » – sind, Eco zufolge, nicht « geistige Prozesse », sondern « Kulturphänomene » (in anthropologischem Sinn). 62 Doch an diesem Punkte angekommen, sucht Eco seine Position zu verfeinern – vielleicht weil er bemerkt, dass er allzu deutlich gewesen ist. Der Referent, bis vor kurzem noch eine Kategorie non grata, verwandelt sich nun wieder in eine zu rehabilitierende Kategorie. Eco gewährt ihr wieder Existenzberechtigung, doch nur unter der Bedingung, dass sie einer Behandlung unterzogen wird, die er « Semiotisierung des Referenten » nennt. Der Referent hätte sich also jeglichen außersprachlichen Restes zu entledigen und somit in ein Referent-Zeichen zu verwandeln.

63

Weiterhin erklärt Eco – immer mit der Absicht, möglichen Missverständnissen vorzubeugen –, dass er nicht die Existenz jener Aussagen leugnen will, « denen wir die Werte wahr und falsch zuzuschreiben geneigt sind, indem wir sie mit den ‹realen› Ereignissen vergleichen ». Ebenso wenig bestreitet er, dass « der Empfänger einer Botschaft diese Botschaft auf die ‹Sachen› bezieht, über die sie spricht oder über die zu ihm gesprochen wird ». Er fügt noch hinzu, dass wir alle angesichts der Botschaft « Dein Haus ist abgebrannt » reagieren können, alle einschließlich eines Professors der Semiotik, der unsere Vorbehalte gegenüber dem Referenten teilt. Doch beeilt er sich noch einmal hinzuzufügen, dass « all das für die Semiotik keine Rolle spielt, da sie nur die Bedingungen der Kommunikation und des Verständnisses der Botschaften (Kodierung und Dekodierung) untersuchen soll ».63 Aus diskurspraktischen Gründen haben wir die Bedeutungstheorie von Eco auf das Wesentliche reduziert und dabei unvermeidlich einige durchaus überzogene Vereinfachungen begangen. Dennoch glaube ich, die Grundzüge seiner Theorie im Grossen und Ganzen wahrheitsgetreu wiedergegeben zu haben, besonders jene, die sich auf die erkenntnistheoretischen Voraussetzungen seiner Bedeutungstheorie beziehen. Nachfolgend werden die meiner Ansicht nach irrtümlichen Voraussetzungen erläutert. Beginnen wir mit der These, dass die Semiotik « nur die Bedingungen der Kommunikation und des Verständnisses der Botschaften untersuchen soll » und dabei von den Entitäten absieht, auf die sich die Botschaft bezieht. Zweifelsohne handelt es sich dabei um eine ungewöhnliche Art, den Gegenstand der Semiotik zu definieren. Vielleicht setzt Eco hier absichtlich (anders lässt es sich nicht verstehen) die Semiotik

306

62

U. Eco ( 1968, S. 37 ).

63

U. Eco ( 1972, S. 22 ).

Anmerkungen zum Ikonizitätsbegriff

64

65

66

67

mit der Informationstheorie gleich. Aus irgendeinem bislang verborgenen Grund hat er nicht davon Kenntnis genommen, dass gerade die Informationstheorie und nicht die Semiotik sich durch, wie es einige Autoren nennen64 , absolute semantische Neutralität auszeichnet. Es sei an die berühmte Formulierung von C. E. Shannon erinnert: « Das Grundproblem der Kommunikation besteht darin, eine an einem Punkt ausgewählte Botschaft genau oder möglichst genau an einem anderen Punkt wiederzugeben. Oft besitzen die Botschaften eine ‹Bedeutung›, sie werden auf bestimmte gegenständliche oder begriff liche Entitäten bezogen und das innerhalb eines Systems. Diese semantischen Aspekte der Kommunikation sind irrelevant für das technische Problem. » 65 Nicht weniger deutlich formuliert W. Weaver: « In der Kommunikationstheorie bezieht sich der Ausdruck Information weniger auf das, was man sagt, als auf das, was man sagen könnte. » 66 Doch wenn auch die Semiotik sich nicht mit dem abgeben soll, « was man effektiv sagt », welches wäre dann nach Eco die Disziplin, der man diese Aufgabe anvertrauen könnte ? Vielleicht die Logik ? Oder die Linguistik ? Oder faute de mieux die « Philosophie » im herkömmlichen Sinne ? Das bleibt unklar. Zudem ist hervorzuheben, dass Ecos Desinteresse für das, « was man effektiv sagt », in krassem Widerspruch zu dem steht, was er selbst in anderen Passagen von La struttura assente und Las formas del contenido zu beweisen versucht hat. Wir denken an die wiederholten Versuche, die Probleme der Bedeutung mit Hilfe der Begriffe « Kultur » und « Ideologie » zu erklären67, sowie auf sein ungemindertes Interesse an den psychosoziologischen Aspekten der Massenkommunikation. In einem derart widersprüchlichen Kontext ist es schwer, wenn nicht unmöglich, den Sinn einer Semiotik zu erfassen, die sich – nach der Definition von Eco – vornimmt, « nur die Bedingungen der Kommunikation und des Verständnisses einer Botschaft » zu untersuchen. Während die Kommunikation eine molare Kategorie bildet, hat das Verständnis molekularen Charakter. Anders formuliert: Beide bewegen sich auf verschiedenen Stufen – Verständnis ist eine der Ingredienzien der Kommunikation. Doch diese Behauptung reicht nicht aus. Vielmehr geht es darum festzustellen – was Eco vermieden hat –, welcher Typ von Verständnis zur Verhandlung steht.

64

Vgl. Y. Bar-Hillel und R. Carnap ( 1964 ) und Y. Bar-Hillel ( 1964 ).

65

C. E. Shannon ( 1948, S. 379 ).

66

W. Weaver ( 1949. S. 99 ff. ).

67

Die Themen « Kultur » und « Ideologie » sind von Eco in den erwähnten Schriften behandelt worden, darüber hinaus auch in Linguaggi nella società e nella tecnica ( 1970, S. 120 ff. ).

307

Digitale Welt und Gestaltung

68

69

Wenn man die drei von Weaver vorgeschlagenen Ebenen der Kommunikation akzeptiert 68 , kann man auch das Verständnis auf drei Ebenen ansiedeln. Ist damit die « Genauigkeit in der Übertragung der Information vom Sender zum Empfänger » gemeint, ergibt sich ein Verständnis im Sinne der technischen Kommunikation (technical communication) . Wenn dagegen die « Interpretation der Bedeutung auf Empfängerseite im Vergleich zur Senderseite » die Grundlage ist, haben wir ein Verständnis im Sinne der semantischen Kommunikation (semantic communication) . Bedeutet Verständnis schließlich die Fähigkeit eines Zeichens, beim Empfänger ein bestimmtes Verhalten hervorzurufen, haben wir einen Fall persuasiver Kommunikation (influential communication). Die beiden zuletzt angeführten Ebenen entsprechen der semantischen und der pragmatischen Ebene der Semiotik. Die erste dagegen entspricht nicht notwendig der syntaktischen Ebene, auch wenn man das zunächst vermuten könnte.69 Die Deutung des Begriffs «Verständnis » bei Eco lässt sich nicht fassen. Da er es ablehnt, sich mit dem zu beschäftigen, was « man effektiv sagt », gewinnt sie den Charakter der Beliebigkeit. Tatsächlich ist es nahezu unmöglich, sie klar einzuordnen. Sie gehört weder der zweiten noch der dritten Kategorie von Weaver und noch weniger der ersten Kategorie an. Eine Theorie, die polemisch ihren asemantischen und apragmatischen Charakter unterstreicht, müsste zumindest in der Lage sein, ihren streng technischen Charakter zu erhärten. Das aber geschieht nicht. Genauer betrachtet erscheint der Diskurs als eine nicht technische Betrachtung über eine technische Interpretation der Kommunikation und des Verstehens; daher sein geradezu hermetischer Charakter. Das kann man nicht behaupten, wenn man den philosophischen Hintergrund des Diskurses bei Eco betrachtet. Die Matrix seines Denkens lässt sich leicht fassen, und es ist klar zu sehen, worauf er abzielt: Er will mit Hilfe einer semiotisch-linguistischen Terminologie dem alten Gespenst der idealistisch-subjektivistischen Erkenntnistheorie wieder neues Leben einhauchen. Hier treffen wir auf den Kern des Problems. Denn keiner der vorzüglichen Darstellungsqualitäten Ecos – weder Wendigkeit noch Einfallsreichtum noch Elastizität – gelingt es, den idealistischen Extremismus seiner Philosophie zu eskamotieren. Ganz besonders deutlich wird dies bei seiner Untersuchung der Ikonizität. Seine antimaterialistische Haltung ist derart ausgeprägt, dass selbst der peircesche

68

W. Weaver ( 1949, S. 95 ff. ).

69

Die technische Kommunikation umfasst in gewissem Umfang auch die Rolle der Grammatik. Vgl. Y. A. Will ( 1972 ).

308

Anmerkungen zum Ikonizitätsbegriff

Begriff des ikonischen Zeichens, dessen Materialität wahrlich verschwindend gering ist, seinen polemischen Eifer entfesselt. Seine Einstellung verleitet ihn auch zu überzogenen Deutungen, indem er Peirce eine Theorie der Ikonizität unterschiebt, die wenig oder gar nichts mit den Arbeitsresultaten des amerikanischen Philosophen zu tun hat. Peirce hat bekanntlich viele Definitionen des ikonischen Zeichens geliefert. Von diesen pickt sich Eco nur eine zum Hauptgegenstand seiner Polemik heraus. Es handelt sich um die bekannte Definition des ikonischen Zeichens als Ähnlichkeitsrelation, die durch den Gebrauch, den Morris von ihr machte, weit verbreitet wurde. Wem die Denkweise von Peirce vertraut ist, der weiß wohl, dass diese Definition nicht getrennt von anderen Definitionsvorschlägen betrachtet werden darf. Andernfalls läuft man Gefahr, zusammengewürfelte Einwände zu formulieren – und das im Namen einer logischen Strenge, die man als bedroht ansieht. Im Namen dieser logischen Strenge bezichtigt Eco die Definition von Peirce einer petitio principii, ohne abzusehen, was seine Anklage impliziert: ausgerechnet Peirce – mit De Morgan und Schröder einer der Gründer der Relationenlogik – zu verdächtigen, sich nicht den Schlingen einer banalen Zirkeldefinition entzogen zu haben. Die Kritik Ecos an der Definition des ikonischen Zeichens von Peirce ist aus folgenden Gründen nicht stichhaltig: 1) Weil die Definition des ikonischen Zeichens im Rahmen der Ähnlichkeitsbeziehungen nicht aus dem Kontext der komplexen Theorie der Ikonizität von Peirce gerissen werden kann und diese auch nicht aus dem Kontext seiner noch komplexeren Theorie des Index. 2) Weil man das Argument der Zirkeldefinition nicht unterschiedslos auf alle Definitionen anwenden kann; denn jedem Definitionstyp entspricht eine andersartige funktionale Relation zwischen definiendum und definiens. 3) Weil es unabhängig von der Debatte über Pierce eine übertriebene Nonchalance beweist, mit einigen wenigen apodiktischen Betrachtungen die gesamte erkenntnistheoretische Diskussion über den Begriff der Ähnlichkeit abzufertigen.

70

71

Weiter oben, als wir den Zusammenhang der Beziehung von Ikon und Satz erörtert haben, haben wir uns mit dem ersten der drei angeführten Gründe befasst.70 Nun wollen wir die beiden anderen Einwände untersuchen. Eco sieht in folgenden Definitionen eine petitio principii: Ikon ist ein Zeichen, das « seinen Gegenstand primär auf Grund seiner Ähnlichkeit darstellen kann ».71 Ferner: Ikon ist ein Zeichen « das einfach auf Grund seiner Ähnlichkeit anstelle von etwas tritt ». (« I call a sign which

70

Vgl. Fußnote 26.

71

Ch. S. Peirce ( 1960, Bd. II, S. 157 ).

309

Digitale Welt und Gestaltung

72

73

74

75

310

stands for something merely because it resembles it, an icon.»)72 Nehmen wir an, dass Eco diese Definitionen als Beispiele der so genannten fünften Modalität der petitio principii von Aristoteles interpretiert: « An fünfter Stelle schließlich taucht die petitio principii auf, wenn zwei Sätze notwendigerweise sich gegenseitig voneinander ableiten und wenn der Fragende um eine Zustimmung zu einem der beiden Sätze bittet, wenn er den anderen beweisen müsste; zum Beispiel, wenn er beim Beweis, dass die Diagonale mit der Seite inkommensurabel ist, anzuerkennen fordert, dass die Seite mit der Diagonale inkommensurabel sei. »73

Von diesem Gesichtspunkt aus betrachtet, spielt die Idee der Ähnlichkeit eine eigenartige Rolle bei der Ikondefinition von Peirce. Sie verhält sich wie ein definitor, der die Beziehung zwischen definiendum und definiens auf eine Weise orchestriert, dass jedes Teil seine spezifische Identität in dem Maß erwirbt, in dem es die spezifische Identität des Teils widerspiegelt, das heißt in dem Maße und nur in dem Maße, in dem es sich seiner eigenen spezifischen Identität begibt. Die Idee der Ähnlichkeit käme dem hypothetischen « maxwellschen Dämon » nahe, dessen teuf lischer Witz in diesem Fall darin bestünde, nicht eine perfekte Asymmetrie, sondern die perfekte Symmetrie zu schaffen. Auf den ersten Blick mag diese Interpretation überzeugend scheinen. Sie ist es auch, insofern wir dem strikt aristotelischen Modus treu bleiben, uns mit dem Problem der Definition auseinanderzusetzen. Dieser Modus ist bekanntlich von zwei Voraussetzungen stark geprägt: 1) Die Definition stellt einen kompakten und vor allem isolierten Aussagenblock dar. 2) Die Definition verursacht, so weit es um die logische Verbindung von Prämisse und Schluss geht, keine Probleme. Doch wächst die Schwierigkeit, wenn man feststellt, dass sich die Bemühungen der modernen Logik, vor allem seit De Morgan, Frege, Bolzano und Peano einschließlich Peirce, gerade darauf richten, diese beiden Voraussetzungen zu hinterfragen.74 In denselben Kontext gehört der radikale Skeptizismus gegenüber dem Begriff der Definition der traditionellen Logik selbst: « Die Definitionen – schreibt Peano – sind nützlich, aber nicht notwendig, weil man an die Stelle des Definierten immer das Definierende stellen und somit das Definierte aus der ganzen Theorie ausschließen kann. »75

72

Ch. S. Peirce ( 1960, Bd. III, S. 211 ).

73

Aristoteles ( Buchverweis 1973, S. 594 ).

74

Vgl. W. Dubislav ( 1931 ), K. Crelling ( 1932, S. 189 – 200 ) und W. Dubislav ( 1932, S. 201 – 203 ).

75

G. Peano ( 1958, Bd. II, S. 434 ).

76

H. Leblanc ( 1950, S. 302 – 309 ).

Anmerkungen zum Ikonizitätsbegriff

76

Nicht weniger Gewicht gewinnt die Kritik einiger Theoretiker an der von Aristoteles stammenden Vorstellung, nach der die Definitionen zwingend in « wirkliche » (quid rei) und « nominale » (quid nominis) unterteilt werden müssen.76 Wenn die heute von den verstocktesten Realisten und Nominalisten vertretene These außer Acht gelassen wird, wonach die einzig gültige Definition entweder die « reale » oder die « nominale » ist, lässt sich auch die Tendenz zu einem pluralistischen System der Definition verzeichnen. Eine Vielzahl dieser neuen oder – vorsichtiger formliert – fast neuen Definitionsformen wird heute als Ergänzung, wenn nicht als Ersatz der aristotelischen Dichotomie genommen. Es geht nicht so sehr um die Vielzahl der Definitionsformen als um die Art des zwischen ihnen bestehenden Netzwerks. Und nicht nur das, gleichermaßen wichtig ist, dass diesem pluralistischen System auch ein pluralistisches System der « Denkregeln » entspricht. So kann zum Beispiel eine Methode zum Nachweis, dass es sich bei einer Definition um eine Pseudodefinition handelt – also um einen Denkfehler –, nicht schematisch auf jeden Definitionstyp angewendet werden. Auch muss zugegeben werden, dass in einem pluralistischen System einige Definitionen durchaus einer bestimmten « Denkregel » widersprechen können, ohne dass damit eine irreversible Tatsache impliziert wird. Eine Definition, die in ein entsprechendes Begriffsnetz eingebaut wird, müsste die logische Folgerichtigkeit wiedergewinnen können, die ihr in einem anderen Begriffsnetz gefehlt hat.

77

78 79

Peirce hat als Erster ein solches pluralistisches System konzipiert. Obwohl er nach eigener Aussage der Scholastik anhing – I am myself a scholastic realist of a somewhat extreme stripe 77 –, schlug er Lösungen vor, die auf Grund ihres unmissverständlichen Hanges zur Systematik heute eine erstaunliche Aktualität besitzen. Nach unserer Meinung ist der Schlüssel zu seinem System in seiner nonkonformistischen Haltung gegenüber dem Problem der Zirkularität zu suchen. Den Vorgaben von J. Stuart Mill78 folgend, zieht Peirce den als selbstverständlich angesehenen Charakter der petitio principii in Zweifel.79 Wohlverstanden: Die Skepsis

77

Ch. S. Peirce ( 1960, Bd. V, S. 232 ).

78

« Man muss zugestehen », schreibt John Stuart Mill, « dass in jedem Syllogismus, der als Argument zum Beweis eines Schlusses betrachtet wird, eine petitio principii vorliegt » ( J. Stuart Mill 1961, S. 120 ). Eine scharfsinnige Erörterung der Position von Mill findet sich in M. R. Cohen und E. Nagel ( 1966, S. 177 ff. ).

79

Ch. S. Peirce ( 1960, Bd. II, S. 368 ).

311

Digitale Welt und Gestaltung

80

gegenüber der absoluten Gültigkeit der petitio principii führt Peirce – übrigens ganz ähnlich wie Peano – direkt zur Skepsis gegenüber der Definition im Allgemeinen. Indessen geht Peirce, im Unterschied zu Mill und Peano, einen Schritt weiter und schlägt sein ideenreiches « zyklisches System » vor. 80 In diesem System bildet die Zirkularität ein notwendiges Übel, weil sie die treibende Kraft ist, dank derer Schritt für Schritt eine immer größere definitorische Bündigkeit erreicht werden kann. Die Bewegung verläuft spiralförmig, nicht kreisförmig: Man kehrt zum Ausgangspunkt zurück, aber immer auf einer höheren Ebene. Auf diese Weise büßt die Definition schlagartig ihren spekulativen Charakter ein, sie wird geschmeidiger, relativer, greif barer und passt sich immer mehr den Verifikationsbedingungen der existierenden Tatsachen an. Hier ist nicht der Ort, die vielfachen und weit reichenden Folgen des « zyklischen Systems » von Peirce zu verfolgen. Doch ist zumindest die wichtige Idee des percept zu erwähnen, die im « zyklischen System » die Idee der Definition nahezu ersetzt.

81

312

Es besteht kein wesentlicher Unterschied zwischen dem percept von Peirce und dem, was man nach allgemeiner Übereinkunft eine generative, kreative oder produktive Definition nennt. « Wenn man in einem Text über Chemie die Definition von Lithium nachschlägt, lesen wir, dass Lithium ein Element ist, dessen spezifisches Atomgewicht nahe bei sieben liegt. Doch wenn der Autor streng logisch argumentiert, wird er uns Folgendes sagen: Wenn man unter den gläsernen, durchscheinenden, grauen oder weißen, sehr harten, kühlbaren und unlöslichen Metallen ein Mineral sucht, das mit einer nicht leuchtenden Flamme karmesinroten Rauch erzeugt, ein Mineral, das, zerkleinert und gemischt mit Kalk oder giftigem Bariumcarbonat und sodann geschmolzen, teilweise in Salzsäure gelöst werden kann, und wenn diese Lösung beim Verdampfen einen Rückstand lässt, der, mit Schwefelsäure behandelt und gereinigt, sich mit normalen Verfahren in ein Chlor verwandelt, und wenn dieses Chlor, im Festzustand und dann geschmolzen und elektrolytisch mit geladenen Zellen behandelt, eine rosa-silbrige Metallkugel bildet, die auf dem Gasolin schwimmt – dann ist der so beschriebene Stoff Lithium. Diese Definition – oder nach Peirce dieses percept – weist eine besondere Eigenschaft auf: Sie erklärt uns, was das Wort Lithium bezeichnet, und zwar durch eine genaue Beschreibung dessen, was wir anstellen müssen, um ein über Wahrnehmung vermitteltes Wissen des Wortgegenstandes (object of the word) zu erlangen. » 81

80

Ch. S. Peirce ( 1960, Bd. IV, S. 504 und 516 ).

81

Ch. S. Peirce ( 1960, Bd. II, S. 189 ).

Anmerkungen zum Ikonizitätsbegriff

82

83

84

Das Perzept von Peirce liefert ein ausgezeichnetes Beispiel für das definitorische Verfahren, das P. W. Bridgeman später unter der Bezeichnung Operationalismus verbreitet hat. 82 Doch gleichzeitig stellt es, wie man aus dem zweiten Teil des zitierten Fragments sehen kann, ein treffendes Beispiel für das Definitionsverfahren dar, das heute seitens der genetischen Epistemologie von Piaget empfohlen wird. 83 Für Peirce erreicht man die operative Aneignung des « Wortgegenstandes » mit Hilfe eines durch die operative Aneignung ermöglichten « perzeptiven Erkennens ». Wir werden später das Thema der Definition bei Peirce nochmals aufgreifen, der die operative Definition von Bridgman und die assimilative Definition von Piaget ankündigt. Wir haben es hier bereits eingeschoben, um seine Komplexität zu verdeutlichen und die gedanklichen Untiefen der Unternehmungen zu entlarven, die mit dem simplistischen Argument der petitio principii die Definition des ikonischen Zeichens von Peirce unterlaufen wollen. Es ist nun noch ein weiterer schwerwiegender Einwand in der Argumentation gegen Peirce zu erwähnen. Wir beziehen uns auf die These, nach der es darauf hinausläuft, ein Ding nicht zu definieren, wenn es auf Grund seiner Ähnlichkeit mit einem anderen Ding definiert wird, weil letztendlich alle Dinge etwas miteinander gemein haben. 84 Dem Anschein zum Trotz richtet sich dieser Einwand nicht nur gegen ein bestimmtes Definitionsverfahren – in diesem

82

Vgl. P. W. Bridgman ( 1961 ).

83

Vgl. J. Piaget ( 1957, S. 53 ).

84

Diesen Einwänden hat Peirce selbst in seinen Schriften mehrfach eine Antwort gegeben. Seine bedeutenden Beiträge zur Theorie der Ähnlichkeit sollten nicht außer Acht gelassen werden. Er hat zum Beispiel als Erster die Idee der « Ähnlichkeitsstufe » konzipiert, die später als Grundlage der modernen Verfahren zur Quantifizierung des Ikonizitätsgrades diente. « Oftmals sagen wir, dass ein Ding einem anderen Ding sehr ähnlich ist; somit nutzen wir eine ungefähre Mengenangabe der Ähnlichkeit. Auch wenn die Eigenschaften quantitativ nicht genau erfasst werden können, können wir sie als annähernd genau ansehen. In diesem Fall können wir die Ähnlichkeit mit einer Skala von null bis eins messen. Zu sagen, dass S die Ähnlichkeitsstufe 1 mit P besitzt, bedeutet, dass es alle Eigenschaften eines P hat und deshalb ein P ist. Zu sagen, dass es eine Ähnlichkeit 0 ( null ) aufweist, impliziert dagegen eine völlige Unähnlichkeit» ( 2.704 , 1960, Bd. II, S. 443 ). Das bedeutet nicht, dass Peirce den relativen Charakter, und vor allem den dialektischen Charakter in der Beziehung von Ähnlichkeit und Unähnlichkeit verkennt: « Die Worte Ähnlichkeit und Unähnlichkeit legen nahe, dass das eine die Negation des anderen ist, was absurd ist, denn jede Sache ist gleichzeitig ähnlich und unähnlich mit allen möglichen Sachen » ( 1960, Bd. I, S. 304 ). Doch diese Feststellung von Peirce bedeutet nicht, dass auf einer bestimmten Beobachtungsstufe die Ähnlichkeit oder Unähnlichkeit zwischen Systemen nicht festgestellt und gemessen werden kann.

313

Digitale Welt und Gestaltung

85

86

Fall gegen Peirce. Dahinter steht noch eine andere Absicht: Die Vorstellung der Ähnlichkeit selbst wird verneint, indem ihr jeglicher Erkenntniswert aberkannt wird. Das ist ein sehr schwerwiegender Vorwurf, denn die feindselige Einstellung gegenüber der Ähnlichkeit ist ein Indiz für eine noch feindseligere Einstellung gegenüber den theoretischen Konstrukten, die heute jede wissenschaftliche Praxis leiten. Der Ähnlichkeit einen Erkenntniswert abzusprechen läuft auf die Behauptung hinaus, dass die Verfahren des Modellierens, des Simulierens, des Kategorisierens und des Klassifizierens gleichfalls keinen Erkenntniswert haben. Indessen ist wohlbekannt, dass diese Verfahren – unabdinglich für die wissenschaftliche Erkenntnis seit Galilei – sich gerade auf den Begriff der Ähnlichkeit stützen: Ein Modell zu konzipieren und das Simulieren bedeutet, Ähnlichkeiten zu konstruieren; das Kategorisieren und Klassifizieren meint Ähnlichkeiten ordnen. 85 In diesem Zusammenhang scheint es angebracht, auf einen anderen Aspekt derselben Problematik zu verweisen: die Kritik an dem Stellenwert der Ähnlichkeit bei der Beobachtung mit Hilfe von Instrumenten. Diese Art von Beobachtung gründet sich offensichtlich auf die Vorannahme, dass zwischen dem durch das Instrument vermittelten Bild und dem durch das Bild dargestellten Gegenstand ein gewisser Ähnlichkeitsbezug besteht. Das zu bezweifeln käme einem Versuch gleich, nach 300 Jahren eine Streitfrage zu beleben, die man endgültig für überwunden angesehen hat, und zwar die, die durch die astronomischen Entdeckungen von Galilei und durch seinen Gebrauch des Teleskops entfesselt wurde. In der Praxis bedeutet dies, sich auf die Seite der Gegner Galileis zu schlagen, die sich weigerten, auch nur durch das Teleskop zu schauen, mit dem Argument, dass es sich bei dem « wunderschönen und wunderbar gefälligen Bild des Mondes », das der Verfasser des Sidereus Nuncius zu sehen behauptete, nur um seine eigenen, persönlichen Halluzinationen handelte. 86

85

Die Modelltheorie ( modelling theory ), Simulationstheorie ( simulation theory ), Kategorisierungstheorie und Klassifikationstheorie ( taxonomy ) sind von großem Interesse für die Problematik der Ähnlichkeit, ganz besonders der Ikonizität. Die Modelltheorie und die Simulationstheorie einerseits, die Kategorisierungstheorie sowie die Klassifikationstheorie andererseits weisen gegenwärtig einen starken Drang zu einer Integration und sogar zur Fusion auf. Andererseits ist festzustellen, dass die ersten beiden Theorien in eine engere und häufigere Beziehung zu den zweiten treten, wenn man das Thema des Erkennens ( pattern recognition ) angeht. Einige Autoren vertreten die Ansicht, dass die Verfahren der Modellierung, der Simulation, der Kategorisierung und der Klassifikation allesamt auf Erkennen der Ähnlichkeit beruhen. Zum Thema Modellierung und Simulation vergleiche F. J. Crosson und K. M. Sayre, ( 1963 ). Zum Thema Kategorisierung und Klassifikation vergleiche R. R. Sokal und P. A. A. Sneath ( 1963 ) und N. Jardine und R. Sibson ( 1971 ), ferner den wichtigen Beitrag von G. A. Maccaro ( 1958, S. 231 – 239 ). Zur Frage der Erkenntnis als Treffpunkt der oben erläuterten Theorien vergleiche K. M. Sayre ( 1965 ). Eingehend behandelt wird die Rolle der Ähnlichkeit und der Simulations- und Modellierungstheorien in dem Buch von V. A. Venikov ( 1969 ).

314

Anmerkungen zum Ikonizitätsbegriff

Sehr wahrscheinlich würden unsere Semiolinguisten in derselben Situation sich ebenfalls nicht dazu herablassen, durch das Teleskop zu blicken, mit dem Argument, dass dem, was man sieht, jeder Bedeutungsbezug fehlt. Das heißt, es würde sich um ein Zeichen eines Zeichens eines Zeichens handeln und so fort.

87

Nicht zufällig greift Frege auf das Beispiel der Beobachtung des Mondes durch ein Teleskop zurück, um die Beziehung zwischen Bedeutung, Sinn und Vorstellung zu verdeutlichen. « Jemand betrachtet den Mond durch ein Fernrohr. Ich vergleiche den Mond selbst mit der Bedeutung; er ist Gegenstand der Beobachtung, die vermittelt wird durch das reelle Bild, welches vom Objektivglase im Innern des Fernrohrs entworfen wird, und durch das Netzhautbild des Betrachtenden. Jenes vergleiche ich mit dem Sinn, dieses mit der Vorstellung oder Anschauung. Das Bild im Fernrohr ist zwar nur einseitig; es ist abhängig vom Standort; aber es ist doch objektiv, insofern es mehreren Beobachtern dienen kann. » 87 Eine aufmerksame Lektüre dieses Beispiels macht verständlich, warum die Semiolinguisten – Eco unter ihnen – so entschieden die Dichotomie von Sinn und Bedeutung ablehnen: In ihrem hartnäckigen Idealismus bestreiten sie all das, was sie auf die eine oder andere Weise zum Eingeständnis zwingen könnte, dass die Wirklichkeit – in diesem Fall der Mond – existiert. Das Beispiel von Frege löst allerdings nicht alle Fragen der Ähnlichkeit, wenn es um die Beobachtung mit Hilfe von Instrumenten geht. Deshalb werden wir jetzt die Instrumente näher betrachten, die ebenso wie das Fernrohr dazu dienen, unser visuelles Wahrnehmungsvermögen zu steigern; also jene Instrumente, die uns dabei helfen, einen bestimmten Ausschnitt der Wirklichkeit zu erkennen, zu enthüllen oder zu registrieren. Das Ergebnis dieser Vermittlung ist notwendigerweise wiederum ein Bild, das eine wesentliche Bedingung erfüllen muss, um seinem Zweck zu genügen: Es muss einen gewissen Ähnlichkeitsgrad mit dem physischen Gegenstand besitzen, über den wir eine neue Erkenntnis zu gewinnen hoffen.

86

Vgl. G. Galilei ( Buchverweis 1953 ). Über die Debatte um das Teleskop Galileis vergleiche V. Ronchi ( 1942 und 1952, S. 85 ff. ). Zum Thema der Beziehung zwischen Erfahrung und Experiment vergleiche A. Pasquinelli ( 1968, S. 82 ff. ). Zum gleichen Thema vergleiche ferner A. Koyré ( 1966, besonders das Kapitel über Galilei und Plato, S. 166 ff. ) und P. Rossi ( 1971, vor allem das 3. Kapitel über Galilei, S. 85 ff. ).

87

G. Frege ( 1962, S. 42 ff. ). Zu diesem Thema vergleiche auch Ch. Thiel ( 1965, S. 89 ).

315

Digitale Welt und Gestaltung

Es sei daran erinnert, in welchem Maße diese Auf lage den Charakter der Vermittlung bedingt. Die Technizität der Vermittlung verdankt sich der einfachen Tatsache, dass es hier um eine instrumentelle Vermittlung zwischen Beobachter und beobachtetem Gegenstand geht. Diese Feststellung verdeckt aber ein wichtiges Detail: Sie gibt keine Auskunft über das spezifische Problem, das zu lösen die Technizität mobilisiert wird. Es geht also darum, wie man die Ähnlichkeit optimieren kann. Das bedeutet nichts anderes, als – auf der technischen Ebene – die bestmögliche Anpassung zwischen den konventionellen Anforderungen seitens des Beobachters und den unkonventionellen Anforderungen seitens des beobachteten Gegenstands zu erzielen. Bedauerlicherweise haben die Semiolinguisten und die Philosophen im Allgemeinen diesem scheinbar banalen Phänomen der technischen Optimierung der « Bildqualität » nur spärliche Beachtung geschenkt. Andernfalls hätten sich sehr wahrscheinlich viele der prägalileischen Rätsel, unter denen sie noch heute leiden, in Rauch aufgelöst.

88

Im Forschungsbereich der « Bildqualität » hat die technische Physik, vor allem nach den Fortschritten der Fotoelektronik einen revolutionären Beitrag zur Erkenntnistheorie beigesteuert.88 Dank dieses Beitrages weiß man heute, dass « Sinn » und « Bedeutung » objektiv zueinander in Bezug gesetzt werden können, ohne damit ihre Eigenheit einzubüßen. Anders formuliert: Die technische Physik hat das Beispiel Freges erhärtet. Was auf der Ebene des common sense einsichtig erschien, enthüllt sich nun als Antwort auf Einf lüsse, die weitere Kreise ziehen, als man auf den ersten Blick vermutet hätte. Eine Frage ist aber noch nicht beantwortet. Warum erschien die These von Frege immer so einleuchtend ? Warum hat seine These der Ähnlichkeit zwischen Sinn und Bedeutung so überzeugend gewirkt, auch ohne technisch abgesichert zu sein? Woher rührt der gleichsam spontane Eindruck des Selbstverständlichen bei Galilei, der an die Ähnlichkeit zwischen instrumentell vermitteltem Mondbild und wirklichem Mond « glaubt » ? Um diese Fragen zu beantworten, müssen wir uns mit einigen der umstrittendsten Probleme in der Philosophie der Wissenschaft befassen, insbesondere mit der zentralen Thematik des Isomorphismus. Sie wird durchgängig uneinheitlich behandelt. Die Definition des Isomorphismus in der Kristallografie (« isomorph sind Substanzen, die eine sehr ähnliche Kristallform, aber eine unterschiedliche chemische

88

316

Vgl. H. L. Snyder ( 1973 ).

Anmerkungen zum Ikonizitätsbegriff

Struktur haben ») hat wenig gemein mit den Definitionen in Mathematik und Logik (« isomorph sind Mengen oder Klassen hinsichtlich einer eineindeutigen Entsprechung, wobei die Beziehung isometrisch, ref lexiv oder transitiv sein kann »). Es genügt nicht, eine allgemeine strukturelle Analogie zu zitieren, um die Integration beider Definitionen in ein einziges System zu rechtfertigen. Man muss aber anerkennen, dass sowohl die Kristallchemie wie auch Mathematik und Logik in einem wichtigen Punkt übereinstimmen: Alle sind in der Lage, ihren jeweiligen Begriff des Isomorphismus mit bemerkenswerter methodologischer Genauigkeit zu bestimmen.

89

90

91

Das lässt sich nicht – oder noch nicht – von allen anderen Disziplinen sagen, gewiss nicht von der Psychologie. Köhler, einer der bekanntesten Vertreter der Gestalttheorie, vertrat die These, dass zwischen bestimmten Bewusstseinsinhalten und bestimmten Aktivitätszonen des Gehirns Korrespondenzen bestehen. 89 Trotz der Intensität und wissenschaftlichen Strenge, mit der Köhler das Thema bearbeitete, hat er für seine These auf empirischer Ebene keinen überzeugenden Beweis erbringen können. Die Theorie der Equipotenzionalität (equipotentiality, mass action) von Lashley 90 hat dagegen bewiesen, dass die Phänomene der Korrelation, insofern sie existieren, sich weitaus komplexer darstellen, als Köhler angenommen hatte. Kurz gefasst: Der Isomorphismus, so wie er von der Gestaltpsychologie verstanden wurde, ist ein allzu verschwommener Begriff; auch ist er praktisch nicht gegen den Vorwurf des spätcartesianischen Dualismus zu verteidigen, der oft gegen ihn vorgebracht wurde. 91 Ähnlich lautet der Einwand, den man gegen einen anderen Typus des Isomorphismus vorbringen kann. Sprachwissenschaft und Sprachphilosophie verstehen Isomorphismus nämlich im Sinne einer eineindeutigen Korrelation zwischen Sprache und Wirklichkeit. Bei diesem Typus tritt noch deutlicher hervor, was die vorhergehenden Theorien kaum verbergen konnten: die enormen Schwierigkeiten, die sich ergeben, wenn man die isomorphen Entsprechungen beschreiben will, ohne vorher bestimmte Fragen der epistemologischen Grundlagen der Ähnlichkeit geklärt zu haben – ein Thema, das wir unter anderem Sichtwinkel bei der picture theory von Wittgenstein bereits erörtert haben.

89

W. Köhler ( 1920, S. 193 und 1929, S. 64 ); weiterhin The Place of Value in a World of Facts ( 1938 ), besonders das Kapitel IV über den Isomorphismus.

90

K. S. Lashley ( 1929 und 1931 ).

91

E. G. Boring ( 1963, S. 3 ff. ).

317

Digitale Welt und Gestaltung

92

93

Wir haben es hier mit alten, im Laufe der Jahrhunderte wieder und wieder gestellten Fragen zu tun, die schon Leibniz mit seltener Klarheit in seinem Text De Analysi Situs durchscheinen ließ: « Es genügt nicht, Gegenstände, deren Form die Gleiche ist, als ähnlich zu definieren, wenn man nicht den allgemeinen Formbegriff geliefert hat. Beim Versuch, die Qualität oder Form zu erklären, wurde mir bewusst, dass es dabei um Folgendes geht: Ähnlich sind Dinge, die jedes für sich und eins nach dem anderen betrachtet nicht verschieden sein können. Die Quantität kann nur festgestellt werden bei einer ‹ compraesentia › [gleichzeitige Präsenz] der Dinge oder mit Hilfe der Intervention von etwas, was effektiv auf sie angewendet werden kann. Die Qualität dagegen bietet dem Geist etwas, was man in den jedes für sich genommenen Dingen erkennen kann und das man beim Vergleich zweier Dinge anwenden kann, ohne sie unmittelbar zusammen zu nehmen oder durch die Vermittlung eines dritten quid als Maß. » 92 Die erkenntnistheoretischen Grundlagen der Ähnlichkeit und somit des Isomorphismus können geklärt werden, indem man die Aussagen von Leibniz noch einmal eingehend prüft, der zwei Vorgehensweisen vorschlägt, wie die Strukturierung der Ähnlichkeit erfolgen kann: einen quantitativen Modus und eine qualitativen Modus. Der erste wird durch die Abhängigkeit von der compraesentia bestimmt; der zweite wird durch die Unabhängigkeit von ihr festgelegt. Nach Leibniz war Peirce einer der wenigen, der diese Idee wieder aufgegriffen und ihre Konsequenzen vollständig ausgelotet hat. In der Tat ist die leibnizsche Idee der compraesentia unerlässlich für das Verständnis von zwei Grundbegriffen von Peirce: Index und Ikon. 93 Der

92

93

G. W. Leibniz, De Analysi Situ ( Buchverweis 1962, V, S. 180 ).

Wir möchten hervorheben, dass der hier vorgetragene Begriff des Index nur teilweise mit dem heute in Italien am weitesten verbreiteten Begriff, vor allem im Werk Ecos, übereinstimmt. Bei Peirce wird der Index auf zwei Weisen verstanden: 1 ) als Zeichen mit einer Anzeigefunktion ( « a weathercock is an index of the direction of the wind », 1960, Bd. II, S. 161 ) oder als Zeichen mit einer Kausalfunktion ( « a low barometer with moist air is an index of rain », ibid. ); 2 ) als Zeichen, das explizit durch seine Verknüpfung mit einem realen Gegenstand bestimmt wird ( vgl. Fußnote 26 ). Diese beiden Aspekte ergänzen sich und sind untrennbar miteinander verbunden. Wenn man den Index – wie Eco es tut – nur auf den ersten der beiden Aspekte reduzieren will, banalisiert man offensichtlich das Denken von Peirce; denn so würde der Index sich nur als Symptom zeigen, mehr noch: als ein Symptom, das der Realität entbehrt. « Alle als Index interpretierten visuellen Phänomene », behauptet Eco, « können als konventionelle Zeichen verstanden werden » ( 1968, S. 108 ). Auf diese Weise wird selbst das Zeichen mit geringstem Konventionalitätsgrad zu einem konventionellen Zeichen gemacht. Das angeführte Argument lässt eine recht eigenartige Dialektik durchscheinen: Der Index wäre ein konventionelles Zeichen, weil man es schon gekannt haben muss, um es zu erkennen. Dabei wird ≥

318

Anmerkungen zum Ikonizitätsbegriff

94 95 96 97

Index ist ein quantitativer Träger der Ähnlichkeit; das Ikon dagegen ist ein qualitativer Träger der Ähnlichkeit. Im ersten Fall ist die compraesentia erforderlich. Peirce nennt das « dynamical connection with the individual object » 94 oder auch « optical connection with an object » 95 oder auch « existential relation to its object » 96 . Im zweiten Fall dagegen kann man auf die compraesentia verzichten. 97

vergessen, dass es weniger darum geht, Dinge zu erkennen, die man nicht kennt – das ist offensichtlich unmöglich –, als vielmehr darum zu wissen, wie man die Dinge erkennt, die man bereits kennt. Die auf den konventionellen Charakter der Zeichen rekurrierende Erklärung genügt nicht. Denn da gibt es noch das « Realitätsprinzip ». Unser Indexbegriff deckt beide Versionen von Peirce. Ein Zeichen ist ein Anzeichen und Kausalzeichen, eben weil es einen Anzeige- und Kausalbezug nicht nur mit sich selbst, sondern auch – und prinzipiell – mit einem realen Gegenstand hat.

94

Peirce ( 1960, Bd. II, S. 170 ).

95

Peirce ( 1960, Bd. IV, S. 359 ).

96

Peirce ( 1960, Bd. IV, S. 462 ).

97

Das Thema der compraesentia kann auf den ersten Blick recht verworren erscheinen, deshalb ist hier eine Klärung angebracht. Unter compraesentia versteht man im Allgemeinen die Eigenschaft, die zwei oder mehreren Entitäten auszeichnet, sich zur selben Zeit am selben Ort zu befinden. Bei Leibniz bildet die compraesentia eine der Voraussetzungen für die quantitative Bestätigung der Ähnlichkeit zwischen zwei oder mehreren Entitäten. In diesem Fall ist beweisen gleich vergleichen. Hervorzuheben ist allerdings, dass der bestätigende Vergleich nur durch eine effektive « Überlagerungsbewegung » ( vgl. K. L. Wolf und R. Wolff 1956, S. 7 ) oder durch eine metrische oder projektive Transformation angestellt werden kann. Im spezifischen Bereich der Beziehung zwischen Zeichen und Gegenstand, auf den sich das Zeichen bezieht, sind diese beiden Arten des Vergleichs nur mit jenen Zeichentypen möglich, die einen vorhandenen Gegenstand reproduzieren ( Peirce: dicisign ) oder die das Ergebnis eines direkten Kontakts mit dem Gegenstand sind ( Peirce: index ). Anders formuliert: Nur Zeichen, die als Spuren betrachtet werden, können für einen derartigen Vergleich herangezogen werden. Ein solches Verfahren lässt sich nicht auf Zeichen anwenden, die diesem Kriterium nicht gehorchen ( Peirce: Rheme ), aus dem einfachen Grunde, weil die compraesentia unmöglich ist. Indessen ist nicht die Möglichkeit auszuschließen, dass diese Zeichen einer anderen Art von bestätigendem Vergleich unterzogen werden. Mit den Worten von Leibniz, einem qualitativen Vergleich. In diesem Fall würden weder Überlagerungsbewegungen noch Transformationen metrischer oder projektiver Art angewendet werden, sondern nur topologische Transformationen. Die damit angedeuteten Fragen sind aber bislang nicht hinreichend untersucht, um eine endgültige Position zu erlauben. U. Volli gebührt das Verdienst ( 1972 ), die Aufmerksamkeit auf dieses Thema gerichtet zu haben.

319

Digitale Welt und Gestaltung

Im Kontext des peirceschen Systems muss die leibnizsche Vorstellung der compraesentia einerseits im generativ-kreativ-produktiven Sinn, andererseits im empirisch-nachprüf baren Sinn verstanden werden. Das bedeutet: Einerseits geht man von der Tatsache aus, dass die Ähnlichkeit immer durch die projektive compraesentia des darstellenden Gegenstands und des dargestellten Gegenstands hergestellt wird. Andererseits muss berücksichtigt werden, dass die Ähnlichkeit zwangsweise dem Nachweis der projektiven compraesentia unterzogen werden muss, wenn man überhaupt eine Entsprechung zwischen darstellendem Gegenstand und dargestelltem Gegenstand nachweisen will. Somit wenden wir uns wieder dem Operationalismus von Peirce zu, der – wie bereits ausgeführt – Bridgman und Piaget verbindet. Wir haben gesehen, wie leicht es fällt, im Diskurs über die Ikonizität der Versuchung des subjektivistischen Idealismus nachzugeben. Gegen diese Schwachstelle der Semiolinguisten haben wir unsere Kritik gerichtet. Unsere Position ist klar: Für uns bildet nach wie vor der kognitive Wert der Ikonizität das Kernstück. Dieser kognitive Wert ist nicht zu trennen von der Beweisbarkeit, also der Möglichkeit, den objektiven Inhalt des ikonischen Zeichens einer empirischen Nachprüfung zu unterziehen. Zwar bieten nicht alle ikonischen Zeichen diese Möglichkeit, doch zumindest jene, die durch eine projektive compraesentia erzeugt, geschaffen oder hergestellt worden sind. Die Entwicklung einer Methodologie, die diese erfolgreiche Beweisführung leiten könnte, sieht sich allerdings noch erheblichen Schwierigkeiten ausgesetzt. Sie sind in erster Linie auf die bedenkliche Tatsache zurückzuführen, dass selbst heute noch eine kritische Geschichte der Techniken der Indexikonizität aussteht. Wir sagen bedenkliche Tatsache, weil dies in einer Zivilisation geschieht, in der – zum Guten oder Schlechten – das außergewöhnlichste Vorhaben der Ikonisierung von Kommunikation abläuft, das je unternommen wurde.

98

320

Weit schwerwiegendere Folgen hat jedoch ein Mangel, den Marx im Kapital beklagte: das Fehlen einer kritischen Geschichte der Technik. Man ginge fehl, wenn man diese Bemerkung nur als eine Willensbekundung ansieht, die Technik zu historisieren: « Eine kritische Geschichte der Technologie », schreibt Marx, « würde überhaupt nachweisen, wie wenig irgendeine Erfindung des 18. Jahrhunderts einem einzelnen Individuum gehört. Bisher existiert kein solches Werk. Darwin hat das Interesse auf die Geschichte der natürlichen Technologie gerichtet, das heißt auf die Bildung der Pf lanzen- und Tierorgane als Produktionsinstrumente für das Leben der Pf lanzen und Tiere. Verdient die Bildungsgeschichte der produktiven Organe des Gesellschaftsmenschen, der materiellen Basis jeder besonderen Gesellschaftsorganisation, nicht gleiche Aufmerksamkeit ? » 98

Anmerkungen zum Ikonizitätsbegriff

99

Aus anderen Texten von Marx 99 wissen wir, dass er unter dem Begriff « produktive Organe des Gesellschaftsmenschen » nicht nur die Reproduktionsorgane der materiellen Wirklichkeit verstand, sondern auch die Reproduktionsorgane der kommunikativen Wirklichkeit. Zu diesen zählen in der Regel die Sprache und die Schrift, die bekanntlich von der Sprachwissenschaft und Grammatologie und nur teilweise von der Literaturwissenschaft untersucht werden. Befremdlicherweise werden die Ikonizitätstechniken im Allgemeinen nicht als vollgültige Reproduktionsorgane der Kommunikation angesehen; noch befremdlicher ist die Annahme, dass für die Untersuchung dieser Techniken ausschließlich die Kunstgeschichte zuständig ist. Die Ikonizitätstechniken sind immer, und heute mehr denn je, grundlegende Organe der kommunikativen Reproduktion gewesen. Offensichtlich kann ihre Untersuchung in Zukunft nicht nur der Kunstgeschichte überlassen bleiben. Im Rahmen des Vorschlags von Marx wird die kritische Geschichte der Ikonizitätstechniken eine Vorrangstellung genießen. Sie wird mit der Untersuchung der Urtechnik, also mit der Untersuchung der Hand als Prägeform und Vorlage, die mit Farbpigmenten umspritzt wird, ansetzen müssen (ein an Wänden und Decken der Höhlen von Gargas oder El Castillo reich dokumentiertes Verfahren). Und sie wird sich der Untersuchung der jüngsten Techniken zuwenden müssen: der Erzeugung holografischer Bilder durch Laserstrahlen. Zwischen diesen beiden Extremen verläuft die historische Entwicklung der Produktionsorgane der Indexikonizität: von den herkömmlichen mechanischen und chemisch-mechanischen Verfahren, über die fotomechanischen Verfahren bis hin zu den radiotechnischen und digitalen Verfahren. Ihr kritische Geschichte wird erkennen lassen, dass in allen Gesellschaften jede dieser Techniken treuer Interpret der jeweils besonderen Art und Weise gewesen ist, der Wirklichkeit zu begegnen, oder der Art und Weise, wie die Menschen sie gezwungen haben, der Wirklichkeit zu begegnen. Auf diesem Wege wird die Semiotik wahrscheinlich ihre idealistisch-subjektive Haltung ablegen können, um sich in eine empirische Wissenschaft zu verwandeln. Deren Forschungsgegenstand werden die subtilsten Aspekte der gesellschaftlichen Reproduktion von Wirklichkeit sein, kurz gesagt, sie wird die Art und Weise erforschen, wie die Reproduktion der materiellen Wirklichkeit zu kommunikativer Wirklichkeit wird und umgekehrt.

98

K. Marx, Das Kapital ( Buchverweis 1957, Bd. I, erstes Buch, S. 389 ).

99

K. Marx und F. Engels ( Buchverweis 1970, V, S. 27 ). Zum gleichen Thema vergleiche auch U. Erckenbrecht, ( 1973 ), F. Rossi-Landi ( 1968 und 1972 ).

321

Digitale Welt und Gestaltung

100

Am Beginn dieser Ausführungen stand ein Zitat von Lichtenberg. Es sei gestattet, sie auch mit einem Zitat desselben Autors abzuschließen: « Der Semiotiker wird doch noch bald gewahr, ob ihn seine Zeichendeutung trügt. Also von der einen Seite unendlich viel mehr Schwierigkeiten als die Naturlehre und von der anderen sehr viel weniger Hilfe. Was kann daraus werden ? »100

100

322

C. Ch. Lichtenberg ( Buchverweis 1967, S. 387 ).

Digitale Welt und Gestaltung

Sprechen, schreiben, lesen

*

*

2. Kapitel aus Memoria e conoscenza . Sulle sorti del sapere nella prospettiva digitale , Feltrinelli, Mailand 2005, S. 49–81.

325

Sprechen, schreiben, lesen

01

02

In den letzten Jahrzehnten haben die Entwicklungen der Digitaltechnologien01, vor allem im Bereich der Produktion von Hypertexten und Multimedien, einen starken und in mancher Hinsicht destabilisierenden Einf luss auf unsere Kommunikationspraktiken ausgeübt; das geht so weit, dass zumindest bei drei dieser Praktiken, und zwar beim Sprechen, Schreiben und Lesen ungemein tief greifende Änderungen zu verzeichnen sind. Unsere Sprech-, Schreib- und Lesegewohnheiten sind heute von einer Zäsur geprägt, die den Zustand vor der Verbreitung von dem nach der Verbreitung der Digitaltechnologien trennt. Damit meine ich nicht nur die von ihnen hervorgerufenen lexikalischen (oder jargonhaften) Neuerungen, sondern vor allem die Art und Weise unseres Umgangs mit Sprache, Schrift und Lesen. Es sei aber sogleich vermerkt, dass diese Verallgemeinerung nicht ganz genau die Wirklichkeit trifft. Denn diese Änderungen spielen sich nur in jenen Gesellschaften (oder Gesellschaftsschichten) ab, in denen der Netzzugang für eine beträchtliche Zahl ihrer Mitglieder garantiert ist; also nur in jenen Gesellschaften (oder Gesellschaftsschichten), die oftmals mit ethnozentrischer Selbstzufriedenheit als entwickelt bezeichnet werden. 02

01

Der hier aus Gründen der Darstellung verwendete Begriff Digitaltechnologien kommt dem in den Medien verbreiteten Gebrauch sehr nah. Es sei aber vermerkt, dass nicht alle so benannten digitalen Technologien ausschließlich digital sind. In der Regel werden digitale und analoge Elemente miteinander verknüpft. Außerdem lässt sich bei vielen der Instrumente, die als Quintessenz der digitalen Revolution angesehen werden – Digitalkameras, Computer und Mobiltelefone –, eine bemerkenswerte Zunahme der analogen Komponenten beobachten.

02

Wenngleich es einleuchtet, dass die Zahl der Netzbenutzer in den Wohlstandsgesellschaften ( oder Wohlstandsschichten ) erheblich größer ist als dort, wo Armut und Elend vorherrschen, ist es nicht immer so einfach, das wahre Ausmaß dieser Entwicklung quantitativ zu erfassen. Das rührt daher, dass wir noch nicht über Verfahren verfügen, mit denen mit hinreichender Verlässlichkeit festgestellt werden kann, wie viel Internetbenutzer es derzeit auf der ganzen Welt ( oder in jedem Land ) gibt. Nach den überschwänglichen ( und nicht immer interesselosen ) Extrapolationen der neunziger Jahre, denen zufolge es im Jahr 2005 fünf Milliarden Internetbenutzer ( MIDS, Austin, Texas ) geben würde, scheint heute die überwiegende Zahl der Forschungsinstitute eine größere Zurückhaltung in der Datenbewertung zu üben. Keine ernst zu nehmende Institution spricht mehr von einem exponentiellen Wachstum der Internetbenutzer, wie es noch bis vor kurzem geschah. Wenn diese seinerzeit gemachten euphorischen Voraussagen zutreffen würden, dann wären auch die restlichen sechs Milliarden der Weltbevölkerung schon längst Netzbenutzer, was bekanntlich nicht der Fall ist. Es bleibt aber das Problem der quantitativen Erfassung. In der jüngsten Zeit wurden entsprechende neue Ansätze unternommen. So hat man zum Beispiel versucht, die Zahl der hostcounts zu ermitteln, also ≥

327

Digitale Welt und Gestaltung

Auch wenn man diese Einschränkung berücksichtigt, scheint mir doch die Hypothese nicht allzu gewagt, dass in diesen Gesellschaften eine radikale Veränderung der Wert-, Glaubens- und Präferenzvorstellungen stattfindet. Dass es dazu kommen kann (oder bereits kommt) – diesem Eindruck kann sich niemand entziehen. Natürlich gehen die Einschätzungen auseinander, welche Folgen dieser Prozess haben wird. Einige nehmen nur die positiven Auswirkungen wahr, während andere nur die negativen Folgen sehen. Wahrscheinlich gehen beide Einstellungen an der Sache vorbei – oder wenn man will, beide Einstellungen treffen zum Teil zu, und zum Teil treffen sie nicht zu. Ich habe oben angemerkt, dass sich der Einf luss der Digitaltechnologien vor allem im Schreiben und Lesen und – dadurch vermittelt – in der Sprache niederschlägt. Es liegt mir fern, die alte Debatte über die Autonomie der Schrift gegenüber der Sprache (oder deren Fehlen) noch einmal zu eröffnen; doch scheint mir klar zu sein, dass zumindest bei der alphabetischen Schrift, die bekanntlich nicht die einzige Schriftform ist, Schreiben und Lesen untrennbar mit dem Sprechen verbunden sind.

Der Erfindung der Schrift und ihre Folgen Ein kurzer Exkurs über die Ursprünge der Schrift (und damit des Lesens) scheint mir den unverzichtbaren Ausgangspunkt für den Versuch zu bilden, die Auswirkungen des elektronischen Schreibens auf die bisher praktizierte Form des Schreibens zu bestimmen, das heißt auf die Art des Schreibens, die in der Vergangenheit eine grundlegende Rolle für die kulturelle Produktion und Reproduktion gespielt hat. Ein wenn auch f lüchtiger Rückblick kann dabei helfen, die hitzige Kontroverse besser zu verstehen, die in einigen Sektoren durch das Auf kommen des elektronischen Schreibens entfacht worden ist.

die in jedem Land und in der Welt bestehenden « festen und aktiven Internetprotokolladressen ». Aus dem Vergleich der von angesehenen Institutionen ( Vereinte Nationen, Europäische Union, Network Wizards, Ripe, Eurostat und Nilsen-Netratings ) erbrachten Daten kann man schließen, dass die Zahl der hostcounts in der Welt im Jahre 2004 nicht größer als ungefähr 240 Millionen sein wird. Das bedeutet nun bekanntlich nicht, dass es ebenso viele Benutzer gibt; denn ein hostcount kann zahlreichen Benutzern dienen, wie auch andererseits eine Person ( oder Gesellschaft ) über mehre hostcounts verfügen kann. Ein anderes, umständlicheres Verfahren besteht in dem Versuch, mit Hilfe besonderer Monitoring-Techniken, die den Erhebungstechniken von Einschaltquoten beim Fernsehen ähneln, weniger die Zahl der hostcounts als vielmehr direkt die Zahl der Internetbenutzer zu ermitteln. Die auf dieser Technik beruhenden Schätzungen belaufen sich auf 700 Millionen ( Computer Industry Almanac ) ≥

328

Sprechen, schreiben, lesen

03

Es besteht weitgehend Einmütigkeit darüber, dass die Erfindung der Schrift eine sozusagen technisch-instrumentelle Antwort auf das Bedürfnis darstellt, das Sammeln, Bewahren, Zugreifen und Ausarbeiten von Daten zu erleichtern, und zwar vor allem jener Daten, die man vor fünftausend Jahren als unerlässlich für einen wirksameren operativen Umgang mit der Welt betrachtete. Dazu gehören zum Beispiel die Daten, die mit dem Zählen, Rechnen und Messen in der alltäglichen Buchführung zu tun haben, weiterhin jene, die für die Aufzeichnung von Handelsoperationen, die Verwaltung der ersten Städte und nicht zuletzt für die Chronik staatlicher und militärischer Ereignisse benötigt wurden. 03 So betrachtet kann man wohl behaupten, dass die Erfindung der Schrift ein Mittel gewesen ist, um das Gedächtnis zu verstärken, insbesondere das « Arbeitsgedächtnis ». Die Schrift entstand aus einer wachsenden individuellen und sozialen Unzufriedenheit mit dem mündlichen Gedächtnis, das als nicht mehr auf der Höhe der Zeit stehend angesehen wurde. Diese praktisch-utilitaristische (und rein ökonomistische) Version vom Ursprung der Schrift, wie sie vor allem P. Amiet (1966) und D. Schmandt-Besserat (1978, 1992 und 1996) vertreten, wird aber nicht von allen Fachleuten geteilt – und wenn, dann nur mit starken Vorbehalten. Ohne die Rolle schmälern zu wollen, die das Zählen, Rechnen und Messen für das Entstehen der Schrift gespielt hat, sind doch

bis 800 Millionen Internetbenutzer ( Vereinte Nationen ) im Jahre 2005, also zwischen 11,3 und 12,9 Prozent der Weltbevölkerung. Das aber sind Gesamtwerte. Sie berücksichtigen nicht die Häufigkeit der Navigation. Nach einigen Untersuchungen beläuft sich die Zahl der aktiven erwachsenen Internetbenutzer auf nur 5 Prozent. Wie dem auch sei, diese Angaben erlauben trotz ihres begrenzten Orientierungswerts die Annahme, dass die Internetbevölkerung keine Mehrheit bildet ( und auch nicht kurz davor steht, eine Mehrheit zu bilden ), wie es die Medien oftmals suggerieren, sondern nur eine kleine Minderheit der Weltbevölkerung.

03

Die Entstehung der schriftlichen Dokumentation markiert einen Wendepunkt im Übergang von der « prähistorischen Bürokratie » ( J. Chadweck, 1959 ) zur « geschichtlichen Bürokratie ». Anders formuliert: von einer willkürlichen und ungenauen, jeglicher quantitativ verlässlicher Bezugswerte ermangelnden Bürokratie zu einer überwiegend auf Sammlung und Verwaltung von Daten beruhenden Bürokratie. Die Sumerer und später die Ägypter haben mit Hilfe der Schrift zum Aufkommen einer rationaleren Sachverwaltung beigetragen. Damit wurde die Bahn zu einer immer effizienteren Verwaltung von Menschen ( M. Foucault, 1975 ) frei. So erklärt sich das Vorhandensein äußerst unterschiedlicher Kategorien, mit denen in Mesopotamien die Schreiber, also die institutionell für die Praxis ( und das Lehren ) des Schreibens Verantwortlichen, eingestuft wurden. Es wurde zwischen dem Buchführungsschreiber, dem Messdatenschreiber und dem Landvermessungsschreiber unterschieden ( L. Bonfante et. al., 1990 ).

329

Digitale Welt und Gestaltung

04

viele Wissenschaftler überzeugt, dass die magisch-rituellen, expressiven und kommunikativen Faktoren ebenso wichtig gewesen sind. 04 Ich bin ebenfalls davon überzeugt. Ich sehe weder eine Notwendigkeit dafür noch eine Nützlichkeit darin, diese beiden Auffassungen gegeneinander auszuspielen; vielmehr glaube ich, dass beide haltbar sind. Alles hängt vom jeweiligen geschichtlich-kulturellen Kontext ab, in dem sich die ersten Schriftsysteme entwickelt haben. Die Ansichten über die Ursprünge der Schrift beiseitelassend, kann man nicht leugnen, dass die Schrift immer eine Erinnerungsfunktion erfüllt hat. Genau diese Funktion hat auf individueller Ebene eine radikale Veränderung im Bereich der diskursiven Rationalität ermöglicht. Die Möglichkeit, das eigene Denken zu speichern, durch das Schreiben zu fixieren und somit erneut darauf zugreifen zu können, hat einen stärker strukturierten, weniger f lüchtigen und weniger prekären Denkstil gefördert. Die Schrift führt ein neues Element im symbolischen Umgang mit den Dingen, mit den anderen und nicht zuletzt mit uns selbst ein. Es handelt sich um eine über die Zeit verblasste Neuigkeit. Es sei daran erinnert, dass der Zugang zur Schrift und somit zum Lesen bis zu Gutenberg ein nur wenigen Personen vorbehaltenes Privileg bildete, das praktisch nur von Monarchen, Priestern, Händlern und einer eingeschränkten Elite von Denkern, Dichtern und Historikern ausgeübt wurde. Dennoch lässt die Erfindung der Schrift, abgesehen von ihrer geringen Verbreitung in der Antike, von Anfang an ein Veränderungspotenzial für eine wesentlich auf Oralität beruhende Gesellschaft erkennen, vor allem für die der epischen, lyrischen und tragischen Dichtung eigene Oralität. Die Schriftpraxis führt zu wesentlichen Veränderungen im Alltagsgebrauch der Sprache. Die herkömmlichen Sprech- und Hörgewohnheiten scheinen unmerklich, aber unvermeidlich von der Praxis des Schreibens und Lesens bedingt zu werden. Der homo scribens ist nicht einfach ein homo oralis plus Schrift. Er ist etwas anderes. Die ersten Nutzer der Schrift beginnen unvermittelt zu sprechen, wie sie schreiben, und zu hören, wie sie lesen. Es bricht sich eine neue Art und Weise des Dialogs Bahn, des Austauschs

04

Diese Auffassung vertreten zum Beispiel G. Février ( 1959 ), I. Gelb ( 1952 ), A. Leroi-Gourhan ( 1964, 1965 und 1982 ), S. J. Lieberman ( 1980 ), G. R. Cardona ( 1985a, 1985b und 1988 ) und J. Goody ( 1986 und 1996a ). J. Goody nimmt eine differenzierte Stellung ein: « Es wäre ein schwerwiegender Irrtum zu glauben, dass die Schrift sich nur aus wirtschaftlichen Motiven entwickelt hätte. In China war sie vor allem und größtenteils mit der Wahrsagerei und rituellen Praktiken verbunden. In Mesopotamien dagegen hat die Buchhaltung eine grundlegende Rolle bei den Schriftanfängen gespielt » ( S. 207 ).

330

Sprechen, schreiben, lesen

von Meinungen, Gedanken und Gefühlen. Man erkennt die Notwendigkeit, zwischen dem Moment des Sprechens und dem Moment des Hörens unterscheiden zu müssen (E. A. Schegloff, 1968).

05

Es entsteht das rationale Gespräch, ein anderer Typ verbaler Interaktion. Die argumentierende Oralität setzt sich gegen die poetisierende Oralität ab. Sprechakte und Hörakte büssen etwas von ihrem f lüssigen, f lüchtigen und unvorhersehbaren Charakter ein. Die der Schrift wesentliche logisch-semantische Ordnung sowie die Beziehung zwischen vorher und nachher, die zwischen Prämisse und Konklusion eingebundene Linearität, machen sich in der Praxis des Sprechens und Hörens bemerkbar. Die Sprache textualisiert sich und büßt so großenteils ihre Autonomie ein, die sie über Jahrtausende hin in einer Welt ohne Schrift genossen hatte. Dies ist die mit einigen ergänzenden Zusätzen versehene bekannte These, wie sie von E. Havelock (1963), W. Ong (1967, 1977 und 1982) und J. Svenbro (1993) vertreten wird. 05 Im sprechenden und hörenden Menschen, im Menschen der Oralität, findet sich in nuce der schreibende und lesende Mensch. Alles in allem bringt die Erfindung der Schrift diese untergründige Verbindung ans Licht. Die Sprech- und Hörtätigkeit musste notwendig ins Schreiben und Lesen einmünden – wie es in der Tat auch geschehen ist. Das geht so weit, dass in den Schriftkulturen das Sprechen, Hören, Schreiben und Lesen nun als Teil eines einzigen Systems betrachtet werden kann. Das bedeutet wohlverstanden nicht, dass mit der Stimme erzeugte Worte dasselbe wie geschriebene Worte seien, ebenso wenig wie das Hören gesprochener Worte dasselbe ist wie das Lesen geschriebener oder gedruckter Worte. In unserem Gehirn werden bei diesen Funktionen verschiedene Zonen involviert.

05

Wenn man die Beziehung zwischen Oralität und Schrift in der Antike diskutiert, wird in der Regel die zweideutige Einstellung von Platon angeführt ( W. J. Ong, 1982 ). Bekanntlich haben Platon, ein privilegierter Zeuge des Entstehens der Alphabetschrift in Griechenland, und später Aristoteles als eifriger Nutzer der Schrift diese Entwicklung gleichzeitig positiv und negativ beurteilt, positiv, weil die Schrift ein für alle Mal die Menschen von den rhetorischen Missbräuchen der Oralität befreien konnte, die seit je ein Hindernis für die rationale Suche nach dem Wahren und Gerechten bildeten ( Republica ). Auf der anderen Seite aber auch negativ, weil Platon zufolge die Schrift mit der Aufgabe, die gesammelten Tatsachen und Erlebnisse zu speichern, früher oder später dazu führen würde, das individuelle Gedächtnis zu schwächen und unseren Gedanken- und Handlungshorizont einzuschränken ( Phaedrus ). Der bekannte italiensche Platonspezialist G. Reale ( 1998 ) hat in einer Polemik vor allem gegen Havelock bestritten, dass Platon zweideutig gewesen sei. Ihm zufolge gäbe es keinen Gegensatz zwischen der von Platon in Phaedrus gegen die Schrift und in Republica gegen die Oralität vorgebrachten Kritik. Vgl. Vegetti ( 1989 ) und C. Sini ( 1994 ).

331

Digitale Welt und Gestaltung

Eine Definition der Schrift In den bislang angestellten Überlegungen habe ich mich auf die Schrift bezogen, so als ob sich die Gelehrten über die Bedeutung dieses Begriffs einig seien. Bedauerlicherweise ist das nicht der Fall. Um eventuelle Missverständnisse zu vermeiden, möchte ich meine Vorstellung von der Schrift kurz darlegen. Ich schlage folgende Definition vor: Die Schrift ist ein grafisches Notationssystem, das im jeweiligen Kontext einer Sprachgemeinschaft als Instrument für die kommunikative Interaktion, für die kulturelle Produktion und nicht zuletzt für das individuelle und kollektive Gedächtnis verwendet wird.

06

07

Meiner Ansicht nach umreißt diese Definition recht genau die Kompetenzbereiche der Schrift. Praktisch wird damit das Spielfeld für die Kontroverse festgelegt, die seit mehr als einem Jahrhundert die Schriftspezialisten beschäftigt hat – Semiotiker, Sprachwissenschaftler, Historiker, Archäologen, Paläografen und Anthropologen. 06 Die wohl wichtigste unter den seit je umstrittenen Fragen betrifft jene Aspekte, die vom Schriftbegriff auszuklammern oder in ihn einzubeziehen wären. Einige Spezialisten halten die Schrift nur für ein System fonogrammatischer Zeichen, also für ein grafisches Zeichensystem, mit dessen Hilfe die Lautdimension der Sprache wiedergegeben wird, kurz, für ein alphabetisches Schriftsystem. 07 Selbstverständlich umfasst diese Kategorie nicht nur das moderne lateinische Alphabet, sondern auch viele andere heute in der Welt verbreitete Alphabete, zum Beispiel das arabische, das hebräische und das kyrillische. Darüber hinaus müssen auch andere Schriftsysteme als vollwertige Alphabete betrachtet werden, zum Beispiel der telegrafische Morsecode, die Brailleschrift für die Blinden und die moderne Stenografie. Für andere Spezialisten dagegen bildet die alphabetische Schrift – unabhängig von ihrer derzeit weltweit führenden Rolle – nicht das einzig mögliche Schriftsystem.

06

Vgl. P. Keraval ( 1897 ), F. de Saussure ( 1955 ), E. Buyssens ( 1943 ), I. Gelb ( 1952 ), A. Moorhouse ( 1953 ), J. G. Février ( 1959 ), T. Maldonado ( 1961, 1974a und 1974b ), L. Prieto ( 1966 ), O. Ducrot und T. Todorov ( 1972 ), W. Haas ( 1976a und 1976b ), A. J. Greimas und J. Courtés ( 1979 ), R. Barthes ( 1953 ), G. Sampson ( 1985 ), R. Harris ( 1986 ), G. R. Cardona ( 1988 ), G. Anceschi ( 1988 ), G. Yule ( 1995 ) und F. Coulmas ( 1999 ).

07

F. de Saussure ( 1916, 1972 ), L. Bloomfield ( 1935 ), J. G. Février ( 1959 ), R. W. Langacker ( 1968 ) und J. Lyons ( 1968 ).

332

Sprechen, schreiben, lesen

08

09

10

Sie behaupten, dass es neben dem fonogrammatischen System auch piktogrammatische und ideogrammatische Systeme gibt sowie zusammengesetzte, die aus der Kombination von Piktogrammen, Ideogrammen und Fonogrammen entstehen.08 Alle nicht alphabetischen Systeme gehören auf die eine oder andere Weise in diese Kate-gorie – zum Beispiel die keilförmige, die hieroglyphische, die chinesische und die japanische Schrift, aber weiterhin auch Zeichensysteme (oder Symbolsysteme) wie die Verkehrszeichen, die Notationssysteme der Musik, der mathematischen Logik, der Chemie, der Kartografie, der Botanik, der Elektronik, der Telekommunikation, der Genetik usw. 09 Schließlich gibt es noch eine Gruppe von Spezialisten, für die der Schriftbegriff (oder zumindest der Begriff der Protoschrift) für jede grafische, gemalte oder auf einer Oberf läche eingeritzte Darstellung aufrechterhalten werden muss. Als Schrift (und Protoschrift) gelten für sie auch die zoomorphischen Darstellungen und bestimmte abstrakte Zeichen, die sich in den Höhlen des späteren Paläolithikums finden. In dieselbe Kategorie ordnen sie bisweilen sogar die bildlichen oder grafischen Darstellungen ein, die geschichtliche, religiöse oder mythologische Ereignisse erzählen, zum Beispiel die Vertragsdokumente der Indianer in Nordamerika, das « Opfer der Isis » in Pompeji oder die « Krönung von Napoleon » von David.10

08

Es herrscht heute eine erhebliche Konfusion im Gebrauch der Begriffe Piktogramm und Ideogramm. Hier wird unter Piktogramm ein grafisches ikonisches Zeichen verstanden, das sich auf einen einzelnen Gegenstand bezieht. Ein Ideogramm stellt dagegen ein grafisches ikonisches ( oder nicht ikonisches ) Zeichen dar, das sich auf einen Begriff oder eine Handlung bezieht. Bei dem Versuch, die Taxonomie der Schriften zu vereinfachen, hat Sampson ( 1985 ), aufbauend auf den Arbeiten von Haas ( 1976b ), den Vorschlag gemacht, die verschiedenen Schrifttypen in nur zwei Kategorien zusammenzufassen: die glottografischen ( alphabetischen ) und die semasiografischen ( nicht alphabetischen ) Systeme. Zu diesen beiden Kategorien könnte man als dritte eine Mischkategorie hinzufügen: die glotto-semasiografischen Systeme. Vgl. Buyssens ( 1943 ), Prieto ( 1966 ), Maldonado ( 1961 ), Harris ( 1986 ) und Cardona ( 1988 ). Der Gedanke, die Schriften in zwei Grundkategorien zu ordnen, stammt von John Wilkins ( 1668 ). Nach der Untersuchung des « common way of writing by the ordinary letters » ( S.12 ) schlägt Wilkins noch einen anderen Schrifttyp vor « that should not signify words, but things and notions » ( S. 13 ).

09

Vergleiche die reichhaltige Dokumentation bei W. Sheperd ( 1971 ), ferner auch F. Specht ( 1909 ) und J. Friedrich ( 1954 ).

10

Bekanntlich kommen die Worte Lesen und Schrift im Lexikon der Kunstgeschichte häufig vor. Bei den ikonologischen und zum Teil auch bei den ikonografischen Untersuchungen geht man von der Voraussetzung aus, dass es sich bei der Malerei um eine Art von Schrift handelt, deren ≥

333

Digitale Welt und Gestaltung

11

Ich akzeptiere die zweite These, nach der der Schriftbegriff in der Tat eine Vielfalt von Subsystemen deckt, von den alphabetischen bis zu den nicht alphabetischen Schriften. Dagegen teile ich nicht die erste mit ihrem allzu einseitigen Schriftbegriff, der in toto mit der alphabetischen Schrift gleichgesetzt wird. Ebenso wenig halte ich die dritte These mit ihrem metaphorisch überzogenen Gebrauch des Schriftbegriffs, der dazu führt, dass alles unter die Kategorie der Schrift subsumiert werden kann, für vertretbar. Ich betrachte es als abwegig, Schrift und bildliche Darstellung, Schrift und grafische Gestaltung zu verwechseln. Ich will selbstverständlich nicht bezweifeln, dass die bildliche und grafische Gestaltung eine bedeutende Rolle im Prozess der symbolischen Aneignung der Welt gespielt haben (und noch spielen). Im Übrigen steht es zweifelsfrei fest, dass ein Schriftsystem eine funktionale Sammlung von visuellen Darstellungen ist, eine Gesamtheit von grafischen Gestalten. Doch dieses Thema birgt noch einige theoretische Fragen, denen man sich schwer entziehen kann. Es erübrigt sich, an die zentrale Rolle zu erinnern, die das Thema Darstellung und Abbildung in Philosophie, Logik, Semiotik und Linguistik gespielt hat (und weiterhin spielt).11

« verborgener Symbolismus » und deren « innere Bedeutung oder Inhalt » mit Hilfe passender « Leseschlüssel » freigelegt werden könnten ( E. Panofsky, 1957, S. 30 ). Dies ist eine diskutable metaphorische Verwendung des Schrift- und LesebegriffS. Vgl. T. Maldonado ( 1992, S. 59–67 ). Höchst aufschlussreich ist in diesem Zusammenhang der Essay von L. Marin ( 1985 ) über den berühmten Brief von Poussin an einen seiner Auftraggeber.

11

In den letzten Jahren hat in der altbekannten anthropologisch-philosophischen Kontroverse das Thema Relevanz gewonnen, woran denn das Spezifische der Spezies Mensch festzumachen sei, worin sich unsere Spezies also von den anderen nicht humanen Spezies unterscheide. I. Hacking ( 1983 ) bemerkt: « Die Menschen sind Darsteller und Bildermacher. Nicht homo faber würde ich sagen, sondern homo depictor. Die Menschen stellen Darstellungen und Bilder her. » Doch Hacking belässt es nicht dabei. Nach seiner Meinung besteht das Spezifische des Menschen auch nicht in der Sprache. Er hypostasiert einen linearen Entwicklungsprozess, der von der Ausprägung unserer bildlichen Darstellungsfähigkeit ( homo depictor ) über den Erwerb der Sprache ( Homo loquens ) und bis zur Herstellung von Werkzeugen als letzte Entwicklungsstufe ( Homo faber ) reicht. Nicht alle Wissenschaftler teilen diese These einer linearen Abfolge, auch nicht die von Hacking der Darstellungsfähigkeit zugeordnete erste Entwicklungsstufe vor der Sprechfähigkeit und der Herstellung von Werkzeugen ( und der Werkzeugnutzung ). Die Meinungen gehen darüber auseinander, ob die in Frage stehenden Fähigkeiten nur drei Fähigkeiten seien. In den seit dem 16. Jahrhundert weit verbreiteten Deutungen über den Ursprung der Sprache wird eine vierte Kategorie in Betracht gezogen: das Vermögen, durch Körperhandlungen, also durch Gestik zu kommunizieren und sich auszudrücken. F. Bacone ( 1986, S. 440 ) hat die enge Verbindung zwischen Gestik und Sprache sowie zwischen Gestik und nicht alphabetischer Protoschrift ( « real characters » ) unterstrichen. Bei der Erklärung der « Ursprünge der Sprachen und der ≥

334

Sprechen, schreiben, lesen

12

Zahlreiche dieser Aspekte erfordern einen Schriftbegriff, mit dem sich viele Themen ästhetischer Natur fassen lassen. Es sei daran erinnert, dass ich in der weiter oben vorgeschlagenen Definition außer der Kommunikation und der Erinnerung auch die nicht zu unterschätzende kulturelle Produktion (und die Rolle für das kulturelle Schaffen) in die Funktionen der Schrift einbezogen habe.12 Auf diesen Punkt werde ich später näher eingehen, wenn ich den Einf luss der neuen Hypertextund multimedialen Technologien im Bereich des literarischen Schaffens untersuchen werde.

Natürlichkeit der Sprache, Künstlichkeit der Schrift Ich möchte nun den vermeintlichen Gegensatz zwischen der Natürlichkeit der Sprache und der Künstlichkeit der Schrift und des Lesens untersuchen, also die Annahme, dass die Sprache das Ergebnis einer natürlichen Entwicklung bilde, wogegen die Schrift und das Lesen das Ergebnis einer künstlichen Errungenschaft

Buchstaben » bemerkt Vico ( 1953, S. 535 und 536 ), wie die « anfänglich stummen Menschen sich durch Handlungen und Körperbewegungen erklären mussten, die in einer natürlichen Beziehung zu ihren Vorstellungen standen ». Nicht zu vergessen ist auch der bedeutende Beitrag von W. Wundt ( 1911, S. 141–257 ) zum Studium der Beziehung zwischen Sprache und Gestik. In den letzten Jahren scheint sich unter den Wissenschaftlern die noch durch Beweise abzusichernde Überzeugung ausgebildet zu haben, dass die folgenden vier menschlichen Grundfähigkeiten sich synchron entwickelt haben: 1 ) grafisch darzustellen; 2 ) durch Gesten und mimischen Ausdruck zu kommunizieren; 3 ) Anfangsformen der Sprache anzunehmen; 4 ) Artefakte herzustellen und zu nutzen ( D. Bickerton, 1990, S. Mithen, 1996, T. W. Deacon, 1997, M. Corballis, 2002 ). Man kann sich schwer vorstellen, dass der Erwerb solcher Fähigkeiten nicht das Ergebnis eines Prozesses gegenseitig funktionaler Bedingungen gewesen ist; also eines koevolutiven Prozesses.

12

Der französische Strukturalismus ( und der Poststrukturalismus ) haben eine beachtliche Rolle bei der Analyse dieser Aspekte der Schrift gespielt. Ich verweise zum Beispiel auf die Texte von J. Derrida, vor allem der sechziger und siebziger Jahre ( 1967a, 1967b, 1967c und 1972 ), also auf die vor dem stark literarischen Abdriften veröffentlichten Beiträge. Zur Unhaltbarkeit der so genannten Grammatologie von Derrida vgl. J. Goody ( 1997 und 2000 ). Erhellend sind auch die Einwände von W. Ong ( 1977 und 1982 ). Obwohl Ong seine Missbilligung des theoretischen Gerüsts von Derrida nicht verheimlicht, würdigt er doch dessen Verdienst, die Aufmerksamkeit auf das Thema der Schrift gelenkt und von dem unter Sprachwissenschaftlern weit verbreiteten Vorurteil befreit zu haben, dass die Schrift bloß ein parasitärer Auswuchs der gesprochenen Sprache sei. In diesem Punkt – und nur in diesem Punkt – kann man zustimmen.

335

Digitale Welt und Gestaltung

seien. Der Neuropsychologe M. S. Gazzaniga (1998) schreibt: « Das Gehirn ist nicht fürs Lesen konstruiert worden. Das Lesen ist eine Erfindung neueren Datums der menschlichen Kultur … Unser Gehirn verfügt nicht über eine dieser neuen Erfindung zugewiesene Zone. »

13

14

Es war wohl Darwin, der als Erster der Sprache einen natürlichen Charakter und der Schrift einen künstlichen Charakter zugeteilt hat (1972, S. 74). Er schreibt: « Die Sprache ist eine Kunst wie das Brotbacken oder Bierbrauen. Sie unterscheidet sich allerdings sehr stark von den Alltagspraktiken, weil der Mensch eine instinktive Neigung zum Sprechen hat, wie wir es im Lallen der Kinder beobachten können; dagegen hat kein Kind eine instinktive Neigung zum Brotbacken, Bierbrauen oder Schreiben. »13 Der Gedanke, dass die Sprache im Gegensatz zur Schrift « Teil der natürlichen Welt » sei, bildet bekanntlich die Grundlage für die Theorie der angeborenen Sprache von N. Chomsky. Er vertritt die Auffassung (1957, 1964, 1965, 1966,1995 und 2002), dass die Menschen mit einem « Sprachorgan », also mit einem « Mechanismus zum Spracherwerb » zur Welt kommen.14 Auch ist die Vorstellung von der Natürlichkeit der Sprache in den letzten Jahrzehnten in der kognitiven Psychologie und der Neurobiologie (D. Loritz, 1999) experimentell untermauert worden, was man von der These des Schreibens als künstlich erworbener Fähigkeit nicht behaupten kann. Es bleiben noch viele Fragen offen. Wie erklärt sich, dass der Prozess des Spracherwerbs Chomsky zufolge von einer angeborenen geistigen Fähigkeit ( J. A. Fodor, 1983 und 1998) gelenkt wird, wogegen der Schrifterwerb zumindest allem Anschein nach über keine entsprechenden Stütze verfügt ? Warum scheint uns die Existenz eines Sprachinstinkts plausibel (S. Pinkter, 1995), wogegen wir uns gegen die Entwicklung eines Schreibinstinkts sträuben ? Warum hat das Kleinkind spontan Zugang zur Sprache, wogegen die Schrift als eine Technik angesehen wird – eine Kunst, wie Darwin sagt –, die das Kind nur durch einen mühseligen Lernprozess zu

13

Was den « natürlichen » Charakter der Sprache angeht, darf der Beitrag von J. Herder ( 2001, S. 25 ) nicht vergessen werden. Für Herder ist « die Entstehung der Sprache dem Menschen so wesentlich … als er ein Mensch ist. »

14

Zum Thema des Nativismus von Chomsky und Fodor, vor allem im Vergleich zum Konstruktivismus von Piaget, vergleiche M. Piattelli Palmarini ( 1980 ), ferner L. M. Antony und N. Hornstein ( 2003 ). Zur konnektionistischen Kritik am Nativismus vgl. J. Elman et al. ( 1996 ).

336

Sprechen, schreiben, lesen

beherrschen lernt ? Stimmt das ? Wenn es so ist, wie erklärt sich dann dieser Unterschied ? Ein häufig angeführtes Argument sistiert auf der zeitlichen Verschiebung zwischen einer vermeintlichen Phase des Spracherwerbs (und hier wird unter Sprache ein System der Oralität mit prädikativer und syntaktischer Struktur verstanden) und einer Phase, in der ein Schriftsystem erfunden wurde. Wenn man dieses Argument weiter ausspinnt, dann scheint es auf der Hand zu liegen, dass der Sprachgebrauch über einen recht langen Zeitraum hin eine Spur in unserem genetischen Code hinterlassen haben muss; nicht dagegen die, phylogenetisch gesprochen, sehr kurze Zeitspanne der Schriftpraxis. P. Zesiger schreibt (1995): « Dieser späte Zeitpunkt (der Schriftbeherrschung) wird oftmals als Beweis dafür angeführt, dass das zentrale Nervensystem des Menschen genetisch nicht für den Umgang mit geschriebener Sprache programmiert ist. Somit scheint die chomskysche These von der Sprachentwicklung … nicht auf die geschriebene Sprache angewendet werden zu können » (S.21). Dennoch ist das eine sehr komplexe Frage. Die durch PET und MRT erbrachten funktionalen Erhebungen zur Lokalisierung der beim Sprechen, Erkennen und Schreiben von Worten involvierten Gehirnzonen haben gezeigt, dass es sich um drei verschiedene kognitive Aktivitäten handelt ( J. Dumit, 2004, S. 64) – verschieden zwar, aber alle drei durch eine Unmenge neuraler Strukturen gesteuert, die direkt oder indirekt mit vielen anderen kognitiven Funktionen verbunden sind, besonders mit den Prozessen der Erinnerung, der visuellen und auditiven Wiedererkennung und der sensomotorischen Koordination (S. E. Petersen et al.,1990, S. Brown und Th. H. Carr,1993, C. J. Price et al., 1994, K. R. Pugh et al., 1997) . Weder das Sprachmodul noch das Schriftmodul lassen sich klar eingrenzen. Deshalb scheint das Theorem einer absolut natürlichen Sprache und einer absolut künstlichen Schrift, gekoppelt mit einem absolut künstlichen Lesen, allzu schematisch. Dass es im Gehirn keine spezifischen Zonen für das Schreiben und für das Lesen gibt, sollte jedoch nicht zu der Annahme verleiten, dass diese beiden Aktivitäten, wenn auch nur über eine kurze Zeitspanne, ablaufen, ohne eine Spur in unserem Zentralnervensystem zu hinterlassen. Neue technische Verfahren im Bereich der Kommunikation (Schreiben und Lesen gehören eindeutig dazu) haben immer erhebliche funktionale und strukturelle Veränderungen des Gehirns mit sich gebracht. Wie die Biologen lehren, sollte die Stabilität der lebenden Organismen, ihre Widerstandsfähigkeit gegen Änderungen, niemals unterschätzt werden, aber auch nicht ihre Plastizität, ihre Offenheit gegenüber dem Lernen und den neuen Anforderungen der Außenwelt.

337

Digitale Welt und Gestaltung

Schreiben und Gedächtnis Anhand des gedrängten historischen Überblicks lässt sich der Weg nachzeichnen, auf dem einige Wissenschaftler die Entstehung der Schrift – zumindest bis zu einem bestimmten Grad – als Antwort auf die Notwendigkeit erklären, das Sammeln, Speichern, Abrufen und Ausarbeiten von Daten zu erleichtern. Die Schrift fungiert also als ein Verfahren, die Effizienz und den Zugriff des Gedächtnisses zu steigern, und zwar nicht des Gedächtnisses allgemein, sondern jene speziell zu Zwecken der Verwaltung von Handelsbeziehungen oder zu Zwecken der Verwaltungspraxis der Institutionen benutzten Gedächtnisregionen. Das scheint mir durchaus plausibel. Dennoch wäre es verfehlt anzunehmen, dass man von der Beteiligung des Gedächtnisses nur dort sprechen kann, wo eine Schrift für derartige Zwecke zur Verfügung steht. In anderen Bereichen der Schrift spielt das Gedächtnis eine nicht minder wichtige Rolle. Dazu gehört an erster Stelle die als Technik verstandene Schrift. Denn die Schrift ist, wie D. Baron (1999) hervorgehoben hat, zunächst eine Technik, die gemeinhin wie alle Techniken Gegenstand des Lernens ist. Anders formuliert: eine unter anderem durch Erlernen erworbene Fertigkeit, in der das Gedächtnis eine wichtige Aufgabe erfüllt. Auch in diesem Fall läuft man Gefahr, aus sicherlich unterschiedlichen Motiven eine ziemlich enge Interpretation der Rolle des Gedächtnisses für das Schreiben zu liefern. Das Gedächtnis kann weder auf die Aufgaben der Datenverwaltung noch auf die Aufgaben des Erlernens der Schreib- und Lesefähigkeit eingeschränkt werden. Bekanntlich sind Schreiben und Gedächtnis in jeder Schreibpraxis miteinander verknüpft.

15

338

Zum besseren Verständnis dieser Verknüpfung lohnt es sich, die Schreibhandlung einmal etwas näher zu betrachten. Die erste Feststellung versteht sich von selbst: Zum Schreiben werden drei Komponenten vorausgesetzt: eine schreibende Person, ein (manuelles oder mechanisches) Schreibgerät und ein (realer oder virtueller) Schriftzeichenträger; also ein komplexes perzeptivmotorisches System, in dem vor allem das Auge, die Hand, das Schreibgerät und nicht zuletzt die kognitiven Prozesse (Wiedererkennen, Darstellen und Abbilden, Kategorisieren, Decodieren usw.) involviert sind. Bei diesen wiederum spielt das Gedächtnis, wie man zu Recht vermutet, eine führende Rolle.15

Sprechen, schreiben, lesen

Technisches Instrument und Erkenntnis Freilich hat sich das Schreiben als komplexes perzeptivmotorisches System im Lauf der Zeit sehr stark verändert. Mit gutem Grund darf man vermuten, dass bei diesen Veränderungen das jeweils benutzte technische Instrument – Rohrfeder, Schilfrohr, Gänsefeder, Stahlfeder oder Bleistift – einen beträchtlichen Einf luss ausübte: sei es auf die Art (bisweilen sogar den Inhalt) des Schriftgegenstands, sei es auf den kognitiven Prozess der schreibenden Person. Das Werkzeug hätte je nach Grad seiner Wendigkeit, Anpassungsfähigkeit und Genauigkeit einen starken Einf luss sowohl auf das Endergebnis des Schreibens, also auf die formale Ausprägung der auf einer Schreibf läche aufgezeichneten Zeichen als auch auf die geistigen und logischen in diesen Prozess einbezogenen Modalitäten ausgeübt. Das bedeutet, dass eine subtile (aber deshalb nicht weniger konkrete) Korrelation zwischen der Werkzeugart und der Denkart besteht; zwischen der Art des Werkzeugs und dem, was man mit gebotener Vorsicht den Denkstil nennen könnte. Diese Auffassung wurde von vielen Gelehrten vertreten – besonders von Leroi-Gourhan (1943–1945). Sie waren davon überzeugt, dass mit der Herstellung und dem Gebrauch bestimmter Artefakte oftmals eine entsprechende symbolische Produktion und somit eine geistige Lebensart einherging. Die Semantisierung des Artefakts, die aus dem Artefakt ein Objekt symbolischen Gebrauchs macht, entspringt aus der interaktiven Beziehung zwischen Artefakt und Benutzer. Aber der Benutzer ist unter anderem ein physisches Subjekt, das einen Körper hat. Es darf also nicht verwundern, dass die Semantisierung des Artefakts untrennbar mit der Ritualisierung des Körpers verknüpft ist. Dies lässt sich daran erkennen, dass die operative Geschicklichkeit des Benutzers im Umgang mit dem Artefakt zum großen Teil von der Anwendung einer Reihe hoch formalisierter und kodifizierter Kunstgriffe abhängt (T. Maldonado, 1994). Der Benutzer nimmt eine Haltung ein, eine « Körpertechnik » wie M. Mauss es nennt (1968). Die Haltung aber betrifft nicht nur einen Teil des Körpers, sondern den gesamten Körper. Auch wenn beim Schreiben überwiegend die Hände und Augen

15

A. R. Damaso ( 1999, S. 319 ) schreibt: « Die von mir benutzten Worte … bilden sich vor allem, wenn auch flüchtig und näherungsweise, als auditive, visuelle oder somatisch-sensitive Bilder von Phonemen und Morphemen, bevor ich sie auf dem Blatt in ihrer geschriebenen Version konkretisiere. »

339

Digitale Welt und Gestaltung

16

17

18

gebraucht werden, wäre es falsch, hier nur eine manuelle Tätigkeit zu sehen, wie es in der Regel geschieht. Vielmehr bezieht diese Tätigkeit den gesamten Körper der schreibenden Person mit ein. Das mag auf den ersten Blick als eine kontraintuitive Behauptung erscheinen, doch bei genauerem Hinsehen lässt sich klar sehen, dass für die Schreibhandlung neben Händen und Augen sehr unterschiedliche funktionale Strukturen in unserem Organismus ins Spiel gebracht werden, und zwar der Tastsinn und das Gehör sowie das Muskel-, Kreislauf-, Atem- und Drüsensystem und schließlich das zentrale und periphere Nervensystem.16 Diese Interpretation gewinnt vor allem dann Glaubwürdigkeit, wenn man nicht die traditionellen Schreibmittel, sondern die modernen Schreibmittel zum Vergleich heranzieht. Alle diese Mittel haben – wie wir später sehen werden – dazu beigetragen, sowohl unseren Schreibstil (im literarischen Sinn) als auch unseren Denkstil zu verändern. Der Übergang von der Federschrift zur Schreibmaschinenschrift und dann zur elektronischen Schrift (Computer, palm book und Mobiltelefon) markiert eine bedeutende Wende in der langen Geschichte des – wie man heute sagt – Interface zwischen Schreiber und Schreibinstrument.17 Es sei nur die umwälzende und die Entwicklung vorantreibende Rolle erwähnt, die im 19. Jahrhundert die Erfindung der Schreibmaschine gespielt hat. Mit ihr beginnt eine völlig neue Phase. Früher waren die Schreibwerkzeuge eine Art Verlängerung der Hand, die ein direktes Einwirken auf die Lehmtafel, auf die Papyrusrolle, auf das Pergament oder auf das Papier erlaubten. Bei der Schreibmaschine, die anfangs nicht aus Zufall daktylografische Maschine genannt wurde, vollzieht sich der Schreibvorgang auf dem Papier über eine Tastatur, also indirekt.18

16

17

Zu den körperlichen Folgen der « Schreibhaltung » vergleiche I. Illich ( 1993 ).

Wenn man von «Interface» spricht, denkt man heute allgemein an die operativen Beziehungen face-to-face mit dem Computer. Doch die Beziehung des Interface beschränkt sich nicht allein auf dieses besondere Instrument. Das Interface bildet seit je eine Konstante in der Geschichte unserer Spezies, zumindest seit wir zum ersten Mal Artefakte gebraucht und hergestellt haben.

18

Die Ursprünge der modernen Tastatur müssen im Bereich der musikalischen Tasteninstrumente gesucht werden, in der Orgel, aber vor allem bei dem im 15. Jahrhundert eingeführten Clavicembalo. Gerade diese Tastatur verdient, als Erstes hervorgehoben zu werden. Im Unterschied zur seitlich angebrachten Tastatur der Ziehharmonika befindet sich die Tastatur des Clavicembalo dem Benutzer frontal gegenüber. In diesem Detail kündigt das Instrument eine Entwicklung an, die später in das Klavier, aber auch in die Schreibmaschine münden wird. Ohne Zweifel diente das Clavicembalo als Modell für die Schreibmaschine. Der Beweis dafür liegt in der Tatsache, dass der ≥

340

Sprechen, schreiben, lesen

Für die ersten Benutzer der noch unausgereiften Schreibmaschine war das mechanische Schreiben eine fesselnde, aber gleichzeitig in gewisser Hinsicht entmutigende Herausforderung. Den Beweis dafür liefert Nietzsche, der als meines Wissens erster Philosoph die Schreibmaschine benutzte. In einer Veröffentlichung jüngeren Datums (F. Nietzsche, 2003), einer Faksimilesammlung aller seiner Schreibmaschinentexte (Texte, Gedichte, Aphorismen), findet sich eine ausgiebige Dokumentation der mühseligen Versuche des Philosophen mit der Schreibmaschine. In mindestens sechs Briefen geht er explizit auf das Thema ein. In einem auf den 10. Februar 1882 datierten Brief schreibt Nietzsche: « Die Schreibmaschine ist zunaechst angreifender als irgendwelches Schreiben. » Einen Monat später kommentiert er in einem anderen Brief selbstironisch: « Ein Bericht des Berliner Tageblattes über meine genueser Existenz hat mir Spaass [sic] gemacht – sogar die Schreibmaschine war nicht vergessen. Diese Maschine ist so delicat [sic] wie ein kleiner Hund und macht viel Noth – , und einige Unerhaltung. Nun müssen meine Freunde noch eine [sic] Vorlese-Maschine erfinden: sonst bleibe ich hinter mir selber zurück und kann mich nicht mehr genügend geistig ernähren. Oder vielmehr: ich brauche einen jungen Menschen in meiner Nähe, der intelligent und unterrichtet genug ist, um mit mir arbeiten zu können. Selbst eine zweijährige Ehe würde ich zu diesem Zwecke eingehen – für welchen Fall freilich ein Paar andere Bedingungen in Betracht zu ziehen wären. » Doch die vielleicht schärfste und berühmteste Beobachtung von Nietzsche zum Thema Schreibmaschine findet sich in seinem Ende Februar 1882 an seinen Freund Köselitz geschriebenen Brief: « Unser Schreibzeug arbeitet mit an unseren Gedanken. » Sogleich aber, vielleicht beim Nachdenken über die Schwierigkeiten, auf die er beim Gebrauch der Schreibmaschine – das krude Modell von Malling Hansen – gestoßen ist, fügt der ein wenig untröstlich hinzu: « Wann werde ich es über meine Finger bringen, einen langen Satz zu drücken! » Jedoch findet sich in der Schwierigkeit eine paradoxe Kehrseite. Auch wenn das Werkzeug nicht mitarbeitet, beeinf lusst die daraus resultierende exzessive Langsamkeit den Rhythmus unserer Gedanken. Anders formuliert: Das Werkzeug arbeitet auf die eine oder andere Weise immer mit unseren Gedanken zusammen. Es kann einerseits wie in diesem Fall dazu beitragen, den Gedankenf luss zu verlangsamen oder, wie beim word processing, den Gedankenf luss zu beschleunigen.

Rechtsanwalt aus Novara, Giuseppe Ravizza, im Jahr 1855 seine Erfindung mit dem vielsagenden Namen « Schreibcembalo » patentiert. Zu einer eingehenderen Analyse der Rolle der Tastatur vergleiche E. Tenner ( 2003, S. 187–212 ) und E. A. Bowles ( 1966 ). Allgemein zum Thema Schreibmaschine vgl. G. Ulrich ( 1953 ), E. Martin ( 1949 ) und M. Adler ( 1973 ).

341

Digitale Welt und Gestaltung

Elektronisches Schreiben und Lesen und Literatur Ich möchte nun, wenn auch nur in groben Zügen, das Thema des elektronischen Schreibens durchgehen. Ich werde mich besonders bei der Rolle auf halten, die diese neue Technik des Schreibens und Lesens im Bereich der kulturellen Produktion heute bereits eingenommen hat oder in Zukunft sicher einnehmen kann. Darüber ist intensiv nachgedacht worden; viele Essays wurden in den vergangenen fünfzehn Jahren über dieses Thema veröffentlicht. Wenngleich es sich allgemein um Essays sehr unterschiedlicher Qualität handelt, muss man anerkennen, dass einige (in Wirklichkeit: nur wenige) dieser Arbeiten anregende Perspektiven für die Analyse geöffnet haben. Ich beziehe mich insbesondere auf die Beiträge von Autoren wie R. A. Lanham (1989), J. D. Bolter (1991), J. Y. Douglas (2001), M. Joyce (1995 und 2000), I. Snyder (1998 und 2002) und N. C. Burbules (1998). Obwohl diese Wissenschaftler in bestimmten Punkten unterschiedliche Auffassungen vertreten – zum Beispiel hinsichtlich des technologischen Determinismus –, sind sie sich doch darin einig, eine Digitalisierung aller Erscheinungsformen des kulturellen Lebens als notwendig zu erachten. In diesem sicherlich sehr anspruchsvollen Programm kommt dem Lesen und Schreiben eine vorrangige Rolle zu. Denn das letzte Ziel jeglicher Schreibpraxis besteht offensichtlich – unabhängig von der eingesetzten Technologie – in der Herstellung von Texten. So darf es nicht verwundern, dass die als Hypothese angenommene (und intendierte) radikale Veränderung sich vorzugsweise auf jene durch die neue Technologie ermöglichten Textformen erstreckt. Wegen ihrer Eigenart müssten diese Texte eine explizite Alternative zu den für die analoge Schreibweise typischen bilden, also zu Texten, mit denen die Menschen seit fünftausend Jahren versucht haben, ihre Gedanken und Erfahrungen schriftlich zu fixieren; zuerst auf der Tontafel, dann auf der Schriftrolle, und schließlich im Codex als direktem Vorläufer des Buches. Deswegen führt der kritische Diskurs über die traditionelle Form der Textherstellung bei einigen Autoren so weit, dass sie sich mit einer extrem kritischen Einstellung gegenüber den kulturellen (und manchmal philosophischen) Voraussetzungen des Buches identifizieren. Aus dieser Sicht wird das Buch nicht zufällig als eine Summe aller negativen Elemente der präelektronischen Schrift betrachtet, ohne bei dieser Aburteilung auch den so genannten Autoritarismus des Autors auszuschließen, insofern er das Haupthindernis für die Umsetzung eines Programms der

34 2

Sprechen, schreiben, lesen

interaktiven Textualität bildet. Diese Position wurde von einem anderen Blickwinkel aus bereits von Roland Barthes (1968) theoretisch ausgelotet. Was sind nun genau die Aspekte der traditionellen Schrift, die von den Theoretikern der elektronischen Schrift am häufigsten als negativ eingestuft werden? Zu ihnen gehören: a) der deskriptive in nur eine Richtung verlaufende Erzählstrom oder Argumentationsf luss; b) die logische Folgerung, die Verbindung zwischen Prämissen und Schluss, zwischen früheren und späteren Zeitebenen, zwischen Subjekt und Prädikat; c) die Geschlossenheit, der Text hat einen Anfang und ein Ende; d) die Vollständigkeit: Der Text ist versiegelt und erlaubt keine Eingriffe des Lesers oder eines anderen Autors; auch ist es nicht möglich, zu anderen vom Autor in der Originalfassung nicht vorgesehenen Texten Bezüge herzustellen. Im Gegensatz dazu werden die positiven Seiten der elektronischen Schrift mit den Begriffen Nicht-Linearität, Nicht-Schlüssigkeit, Nicht-Geschlossenheit und Nicht-Abgeschlossenheit definiert. Reichen diese gegensätzlichen Charakterisierungen aus, um das Thema in vollem Umfang zu verstehen? Sicherlich nicht. Auch wenn man zugesteht, dass sie auf abstrakter Ebene auf durchaus sinnfällige Weise den Unterschied zwischen den beiden Texttypen zusammenfassen, erweisen sie sich als zu weitläufig und bisweilen auch als wenig überzeugend, wenn man sich daran macht, sie konkret zu untersuchen. Zuerst fällt auf, dass die zitierten Wissenschaftler nicht die Vielfalt der Kontexte berücksichtigen, auf die sich die Charakterisierungen beziehen. Es werden zum Beispiel literarische Texte, vor allem Erzähltexte bevorzugt, wogegen Essaytexte (philosophische, historische und wissenschaftliche) nur am Rande untersucht werden. Vielleicht erklärt sich dieser Sachverhalt daraus, dass die Theoretiker der elektronischen Schrift in überwiegender Mehrzahl aus dem Unterrichtsbereich der Sprachen, der Schrift, der Literatur und der Rhetorik kommen. Das tut freilich der Tatsache keinen Abbruch, dass zu den anregendsten Beiträgen dieser Wissenschaftler meiner Ansicht nach gerade jene Beiträge gehören, in denen die Perspektiven der elektronischen Hypertextualität im Bereich der narrativen Texte untersucht werden; also da, wo ein radikal neuer Romantyp theoretisch entfaltet wird – eine Literatur der Interaktivität, der Nicht-Linearität, der Nicht-Schlüssigkeit, der Nicht-Geschlossenheit; eine Literatur, in der Autor und Leser unisono an der Produktion des Textes teilhaben. Es gibt bereits zahlreiche nach diesem Programm konzipierte Romane. Zu den bekanntesten gehören die Arbeiten von Michael Joyce, Shelley Jackson, Carolyn Guyer, Edward Falco, Robert Kendall und Clark Humphrey.

343

Digitale Welt und Gestaltung

Der genealogische Baum Es ist hier darauf hinzuweisen, dass es den Theoretikern der Hypertextliteratur trotz der Radikalität vieler ihrer Behauptungen durchaus gefällt, des Öfteren die Namen von Autoren aufzulisten, die in der Literaturgeschichte Vorläufer dieser neuen Schriftgattung gewesen sind. Es handelt sich in der Regel um Autoren, deren Werke so oder so dazu beigetragen haben, die Grundvoraussetzungen des Romans zur Diskussion zu stellen. Am häufigsten werden Sterne, James Joyce, Kaf ka, Pirandello, Borges, Queneau, Robbe-Grillet, Sarraute, Calvino, Derrida und Cortázar zitiert.

19

20

Nach meiner Ansicht können unter diesen Autoren nur Joyce und Cortázar und vielleicht noch Borges als Vorläufer der Hypertextprosa betrachtet werden.19 Doch glaube ich, dass es vor allem Julio Cortázar (1963) mit seinem Roman Rayuela war, der etliche heute von der elektronischen Schrift eingeforderte Textstrukturen ausgelotet hat, ohne auf die herkömmlichen Mittel der präelektronischen Schrift zu verzichten.20 Obgleich die erzielten Ergebnisse zweifellos von experimentellem Interesse sind, können sie schwerlich als vollgültige Beispiele für Hypertextualität genommen werden. Auf jeden Fall glaube ich, dass Cortázar das Verdienst zukommt, die meiner Ansicht nach unüberwindliche Schwierigkeit klar herausgearbeitet zu haben, eine hypertextuelle Erzählung im Rahmen einer Technologie zu schaffen, die von sich aus nicht jene Freiheit anbietet, die eine so erdachte Geschichte voraussetzt.

19

Borges weist in dieser Hinsicht besondere Eigentümlichkeiten auf. Er hat bewundernswerte Erzählungen verfasst, in denen Dinge und Situationen beschrieben werden, die eine nahe Verwandtschaft mit den programmatischen Postulaten der Hypertextliteratur zeigen ( Nicht-Linearität, Nicht-Schlüssigkeit, Nicht-Geschlossenheit usw. ) Deshalb kann man ihn zu Recht als Vorläufer ansehen. Auf der anderen Seite wäre zuzugeben, dass die Hyptertextualität bei Borges sich vorwiegend in Dingen und Situationen manifestiert, die er – zum Beispiel in seiner Erzählung Sandbuch ( 1980 ) – selten im Rahmen seiner Literatur beschreibt. Darin besteht ein fundamentaler Unterschied zu Joyce und Cortázar. Bei diesen beiden Autoren entfaltet sich die Untersuchung der Hypertextualität vor allem im Bereich der Schrift.

20

In Rayuela legt Cortázar seiner Romanfigur Morelli diese – wie der Autor schreibt – « äußerst pedantische » Anmerkung in den Mund: « Es scheint, dass der traditionelle Roman die Suche dadurch zunichte macht, dass er den Leser auf sein Milieu beschränkt, das um so genauer definiert wird, je besser der Romanschreiber ist. Erzwungenes Verharren auf den verschiedenen Stufen des Dramatischen, Psychologischen, Tragischen, Satirischen oder Politischen. Stattdessen versuchen, einen Text zu schreiben, der den Leser nicht fesselt, ihn aber zwangsläufig dadurch zum Komplizen ≥

34 4

Sprechen, schreiben, lesen

Es gibt einen anderen Autor, den die Autoren der Hypertextschrift nicht zu kennen scheinen, der aber in die engere Suche nach Vorläufern hätte einbezogen werden können. Ich denke an Arno Schmidt (1970). In seinem Werk Zettels Traum realisiert der Schriftsteller mit der grafischen Technik der Montage und der Collage einen Roman (oder besser einen Anti-Roman), in dem etliche der Verfahren angewendet werden, die heute einen Teil des anspruchsvollen Hypertextprogramms darstellen. Wenn man, wie es zurzeit geschieht, davon spricht, die Textproduktion von den Fesseln der Linearität zu befreiten, dann darf man nicht den entsprechenden Beitrag der Parole in libertà von Marinetti, das Gedicht An Anna Blume von Schwitters und den cadavre esquis von Breton und seinen Freunden vergessen. Abgesehen von wirklichen oder vermeintlichen Vorläufern, kann man behaupten, dass die hypertextuelle Schrift sich zumindest prinzipiell als technische Bereicherung des literarischen Schaffens darstellt, sei es in dessen erzählerischer, sei es in dessen lyrischer Variante. Aber einige programmatische Diskurse, die dieser Textproduktion als Gerüst dienen, gehen oftmals erheblich weiter und stellen Fragen ganz anderer Art. Einige dieser Fragen werden nun näher untersucht.

« Der Tod des Buches » und « Der Tod des Autors » Ein sehr häufig auftauchender Topos unter den Befürwortern der Hypertextliteratur oder zumindest unter ihren extremen Vertretern betrifft die Gewissheit vom kurz bevorstehenden « Tod des Autors ». Auch stünde der « Tod des Romans » und sogar der « Tod des Buches » kurz bevor. Freilich besteht immer das Risiko, dass der Totgesagte entgegen aller Voraussicht zu seinem Begräbnis bei guter Gesundheit und voller Vitalität erscheint. Mir scheint, dass etwas Ähnliches mit den düsteren Voraussagen über das Geschick des Autors passiert. Es mag einem nun gefallen oder nicht, der Autor lebt noch und gedeiht prächtig. Gleiches lässt sich vom traditionellen Roman und vom gedruckten Buch sagen.

macht, dass man ihm unter dem Deckmantel einer konventionellen Handlungsführung andere, mehr esoterische Richtungen suggeriert ... Wie alle erwählten Geschöpfe des Abendlands begnügt sich der Roman mit einer geschlossenen Ordnung. In entschlossener Opposition auch hier die Öffnung suchen und zu diesem Zweck jede systematische Konstruktion von Charakteren und Situationen mit der Wurzel ausrotten. Methode: Ironie, unablässige Selbstkritik, Inkongruenz, Fantasie in niemandes Diensten. » (Julio Cortázar, Rayuela Himmel und Hölle, Suhrkamp, Frankfurt am Main, 1987, S. 455.)

345

Digitale Welt und Gestaltung

Die Grenzen (und die Risiken) des gedruckten Buches in unserer Kultur anzuprangern ist eine konstante Verhaltensweise der Adepten einer extremen Cyberkultur. Oftmals neigen sie dazu, mehr oder minder leichtfertig das unabwendbare Aussterben des Buches lauthals zu verkünden. Das Buch, so sagen sie, sei obsolet geworden, und müsste von neuen, wirksameren Kommunikations- und Informationsmitteln ersetzt werden. Darüber hinaus wird zur Stützung dieser Annahme die nach meiner Ansicht nicht nachvollziehbare Einschätzung bemüht, dass das Buch nun zu einer Ware ohne (oder fast ohne) Markt geworden sei. Auch wenn das Buch ein Konsumprodukt ist und somit den Gesetzen des Marktes (Mode, Konkurrenz, Erneuerung des Sortiments usw.) unterworfen ist, lässt sich schwerlich vorstellen, dass es auf Grund irgendeines konjunkturbedingten Rückgangs des Marktes abrupt von der Erdoberf läche verschwinden wird. Zweifelsohne ist das Buch ein Gegenstand und auch eine Ware. Wie alle vom Menschen geschaffenen Dinge (gleich ob es sich um Gegenstände oder Waren handelt) ist es vergänglich. Freilich sind einige Gegenstände und Waren mit Verlaub gesagt sterblicher als andere. Ein Buch zum Beispiel ist weniger vergänglich als eine Vinylplatte. Das Verschwinden der Vinylplatten vom Markt und ihre Ersetzung durch die CD stellt ein umwälzendes Ereignis in der Geschichte der musikalischen (und allgemein der Ton-) Aufzeichnungstechniken dar, doch die wenn auch bedeutenden kulturellen Auswirkungen blieben auf ein besonderes Gebiet beschränkt. Das eventuelle Verschwinden des Buches hätte eine ganz andere Auswirkung. Warum ? Weil es eine privilegierte Stellung in unserer Schriftkultur eingenommen hat. Es entsteht aus einer weit verzweigten Synthese zwischen den verschiedenen Auffassungen über die Herstellung, den Vertrieb und nicht zuletzt über den individuellen und kollektiven Nutzen des Wissens. Wenn man hier unter Buch jeden Schriftträger versteht (die Schriftrolle wäre mit vollem Recht in diese Kategorie einzuordnen), dann leuchtet es ein, dass es das Ergebnis eines komplexen und mit Hindernissen übersäten Weges ist, in dem höchst unterschiedliche gesellschaftliche, kulturelle, wirtschaftliche, organisatorische und technische Einf lussfaktoren zum Trage gekommen sind. Wohl wirken viele dieser Faktoren heute nicht mehr in gleicher Weise wie in der Vergangenheit. Es wäre aber unsinnig zu denken, dass dies genüge, um das Ende des Buches zu sanktionieren. Wohl oder übel üben neben den Faktoren der Veränderung immer auch Faktoren der Kontinuität Einf luss aus, die alles in allem der menschlichen Erfahrung Einzigartigkeit verliehen haben. Das handgeschriebene oder gedruckte Buch ist eines der Mittel, das mehr als andere dazu beigetragen hat, diese Einzigartigkeit über Jahrhunderte hin zu bewahren. Man darf hier nicht die Rolle der monotheistischen Religionen vergessen, die aus dem Buch einen heiligen Gegenstand gemacht haben, indem sie das « Wort

346

Sprechen, schreiben, lesen

Gottes » mit dem Buch (der Schrift) gleichsetzten; ebenfalls nicht, aus anderer Perspektive, die Rolle der auf klärerischen Tradition, in der das Buch als Vehikel der Rationalität, des Laientums und der Demokratie verstanden wurde. Es darf also nicht verwundern, dass es zu einem Fokus der metaphorischen Kontamination, der synonymischen kapillaren Ausstrahlung geworden ist. Viele Metaphern betonen direkt das Buch, zum Beispiel « das Buch der Natur », der « Mensch als Buch », die « Welt als Buch », « das Sein als offenes Buch ». Andere bringen den Vorgang des Lesens zum Ausdruck und rufen indirekt das Bild eines Buches hervor, zum Beispiel « die Wirklichkeit lesen », « die Seele lesen », « die Augen lesen » (siehe dazu H. Blumenberg, 1981). Als Erster hat sich der Kritiker und Philologe E. R. Curtius mit dem metaphorischen Gebrauch und Missbrauch des Buches auseinandergesetzt, und zwar bei zwei Gelegenheiten (1926 und 1948). In Italien hat dann E. Garin (1958, S. 91–102) die Unhaltbarkeit der von Curtius gewählten Beispiele kritisch kommentiert – in einigen Fällen wahre Verdrehungen (wie bei Dante) oder unverzeihliche Auslassungen (wie bei Campanella) oder Unterbewertungen (wie bei Galilei). Abgesehen von den strittigen Aspekten wird der metaphorische Gebrauch des Buches mit größter Aufmerksamkeit verfolgt. Es dürfte nicht gleichgültig sein, dass es einen derart starken Einf luss auf die subtilen Prozesse der Metaphernbildung ausgeübt hat.

Die Dialektik zwischen Autor und Leser In der Beziehung zwischen Autor und Leser sind in den letzten Jahrzehnten einige wichtige Neuerungen zu verzeichnen. Das Auf kommen von netzwerkbasierten Texten hat die Dialektik dieser Beziehung in wesentlichen Punkten verändert. Doch die Deutung (und sachliche Einschätzung) dieser Änderungen ist nicht immer einfach, was sich teilweise daraus erklärt, dass netzwerkbasierte Texte auf unterschiedliche Weisen erzeugt und genutzt werden, wobei jeweils unterschiedliche Auffassungen über die Rolle des Autors und des Lesers herrschen. Allgemein dürfte klar sein, dass zumindest bei netzwerkbasierten Texten die Figur des Autors nicht mehr die gleiche zentrale Stellung genießt, die ihm seit Gutenberg im Bereich der Druckerzeugnisse immer zuerkannt worden ist. Im neuen Bezugsfeld schrumpft die Distanz zwischen Autor und Leser. Schreiben ist nicht mehr das exklusive Vorrecht des Autors. Jetzt muss er sich wohl oder übel damit abfinden, dass das Schreiben im Netz, eben weil es netzbasiert ist, vielen Lesern in Form von vereinbarten oder spontanen Eingriffsmöglichkeiten offen steht, die so am Prozess des Schreibens teilnehmen können. Zwar mag die Hegemonie des Autors zur Diskussion gestellt sein, doch sind sich die Vertreter der Hypertextliteratur nicht

347

Digitale Welt und Gestaltung

über die Rolle einig, die dem Autor in Zukunft zugedacht ist. Die Meinungen weichen da erheblich voneinander ab. Zunächst möchte ich die meiner Ansicht nach radikalste Position erläutern. Ihre Anhänger meinen, dass die archetypische Figur des Autors als einziger Rechtsträger des Schreibens auf lange Sicht verschwinden wird. An die Stelle des individuellen Autors und Lesers hätte das Autoren- und Leserkollektiv zu treten. In ihrem Jargon wären das die « universal wreaders » (die universalen Schreibleser). Kurz: Alle wären Autoren, alle wären Leser. Bislang aber fehlt es an überzeugenden Beweisen für die Machbarkeit eines solchen Programms. Die Vorstellung, dass alle Netzbenutzer ohne Einschränkungen an der kollektiven Schaffung eines Textwerkes ex nihilo mitwirken können (und wollen), zeugt zwar von einer kulturell und gesellschaftlich großzügigen Vision, trotzdem sind etliche Zweifel in Bezug auf ihre Verwirklichung anzumelden. Diese beziehen sich nicht so sehr auf die technischen Voraussetzungen eines solchen Unternehmens, sondern auch und wohl in stärkerem Maße auf die kulturelle Tragfähigkeit des anvisierten Endprodukts. Dieser Punkt sollte nicht unterschätzt werden. Denn es besteht das sehr hohe Risiko, dass am Ende dieses planetarischen interaktiven Kreativitätsvorhabens nichts weiter herauskommt als ein kolossales patchwork, ein willkürliches Sammelsurium sinnloser Textbrocken. Gewiss handelt es sich hier um eine mit einer starken utopischen Komponente durchsetzte Extremposition. Daneben gibt es aber ganz andere Positionen. Die für unser Thema relevanteste nehmen Autoren ein, die sich heute mit dem Schreiben von Hypertextromanen befassen.

Verschiedene multimediale Erzählformen Man muss an dieser Stelle daran erinnern, dass diese Erzählform in verschiedenen Ausprägungen existiert. Ich führe hier die am häufigsten vorzufindende Variante an: Ein einzelner Autor verfasst einen Grundtext mit einer linearen und sinngeladenen Struktur (oder ohne sie). Im Innern dieses Textes setzt der Autor ein engmaschiges System möglicher Verknüpfungen (links) fest, die den Lesern zur Auswahl geboten werden. Auf diese Weise leitet der Zugriff auf eine Verknüpfung zu einem anderen Text über, der seinerseits oft (aber nicht immer) zu einer Vielzahl anderer neuer Verknüpfungen weiterleitet. Wenn dann die Leser auf allen Ebenen verschiedene Verknüpfungen ausgewählt haben, gelangen sie am Ende zu verschiedenen, gleichsam personalisierten Texten, die ihre Präferenzen widerspiegeln. Natür-

348

Sprechen, schreiben, lesen

lich hängt das alles von der Menge der dem Leser angebotenen Verknüpfungen ab. Es versteht sich von selbst: Je kleiner die Zahl der Verknüpfungen, desto geringer ist die Wahrscheinlichkeit, es bis zu personalisierten Texten zu bringen. Dies ist die Struktur des bekanntesten und vielleicht auch erfolgreichsten multimedialen Romans mit dem Titel afternoon von Michael Joyce (1987). Indessen birgt eine solche Erzählstruktur einige Probleme. Vor allem scheint es evident, dass die Nutzung einer derartigen Erzählstruktur in keinerlei Beziehung steht zu dem, was man gemeinhin unter Lesen versteht. Sich einem Werk wie afternoon zu nähern, sein labyrinthisches Netz von Verknüpfungen zu durchstreifen, ähnelt mehr einer Erfahrung mit einem Videogame als einer literarischen Erfahrung. Ich will nicht ausschließen, dass die Vorstellung vom Leser-Spieler von einigen mit Enthusiasmus willkommen geheißen werden mag. Schließlich wurde eine ähnliche Deutung der Literatur als Spiel in der Vergangenheit oftmals, zum Beispiel von Dadaisten und Neodadaisten, vorgetragen. Ohne die Legitimität des Verständnisses von Literatur als Spiel beurteilen zu wollen, glaube ich, dass sie nicht als eine Alternative zur traditionellen Literatur betrachtet werden kann. Wahrscheinlich haben wir es mit zwei sehr unterschiedlichen Formen des plaisir de la lecture zu tun. Hier kann eine Unterscheidung der russischen Formalisten zwischen Handlung und Fabel weiterhelfen. In der Hypertextliteratur wird das plaisir de la lecture überwiegend mit der Handlung gleichgesetzt, in der traditionellen Literatur überwiegend mit der Fabel. Eine weiterer Punkt betrifft die weit verbreitete Vorstellung, dass der Hypertext die Macht des Autors schwächen wird (oder glattweg zum Verschwinden des Autors führen wird). Da hege ich arge Zweifel. Solange der Autor als einziger Regisseur der Navigation in Hypertexten fungiert, als verborgener (oder sichtbarer) Wegführer der Pfade, die der Leser durchlaufen muss, wird am Ende nichts anderes herauskommen, als dass die klassische Rolle des Autors als Einzelperson gestärkt wird, mit anderen Worten eine Zunahme des berüchtigten « Autoritarismus des Autors ». Dieses Ergebnis steht in offensichtlichem Widerspruch zu der oft, auch von Michael Joyce selbst verkündeten Absicht, sich der Hypertextualität zu bedienen, um den « Autoritarismus des Autors » zu unterlaufen. Hier stoßen wir auf einen entscheidenden Punkt. Denn es stellt sich von neuem die gewiss nicht nebensächliche Frage nach der subjektiven Autonomie des Lesers gegenüber dem Autor. Es genügt nicht, dem Leser die Wahlfreiheit zwischen einer vorgefertigten Liste möglicher Lesepfade zu gewähren. Denn es handelt sich immer um Pfade, die der Leser unter Bedingungen einer sozusagen unter Kuratel gestellten Freiheit wählt, einer Freiheit unter Aufsicht des Autors.

349

Digitale Welt und Gestaltung

Ich erlaube mir, die Hypothese vorzutragen, dass die Hypertextnavigation entgegen der allgemeinen Ansicht nicht dazu beisteuert, einen Erzähltext offener zu gestalten, sondern eher die in jedem von uns eingeborene Neigung blockiert, spontan und frei innerhalb eines Textes und um einen Text herum zu navigieren. Mit provokatorischer Spitze kann man sagen, dass ein Hypertext weniger offen ist als ein traditioneller Text (T. Maldonado, 2005). Der Hypertext afternoon von Michael Joyce ist trotz seiner beeindruckenden Megamaschine an Verknüpfungen weniger offen als zum Beispiel La cognizione del dolore von Gadda – ein Werk, das mit seinem f ließenden, erratischen und ausufernden Grundplan uns fortwährend dazu anhält, auf imaginärer Ebene unsere eigenen Verknüpfungen zu schaffen. Wie dem auch sei, wir werden hier ohne unsere diesbezüglichen Wertungen die beiden wichtigsten Strategien exemplifizieren, um das zu erreichen, was Raymond Queneau (1950) den « Roman nach eurer Art » genannt hat, also den zum großen Teil von den Lesern erzeugten Roman.

Der Begriff der Offenheit Was den Gebrauch und gelegentlichen Missbrauch des Begriffs der Offenheit angeht, muss an diesem Punkt der bedeutende Beitrag von Umberto Eco erwähnt werden. Bekanntlich war Eco einer der Ersten, der sich – auf den Spuren seines Mentors Luigi Pareyson – der Dialektik von Offenheit und Geschlossenheit bedient hat, um einige neue Phänomene im Bereich der zeitgenössischen Kunst und Literatur zu deuten. In seinem Buch Opera aperta (1962) hat Eco die wesentlichen Grundzüge seiner Theorie umrissen. Dazu gehört die Vorstellung, dass « sich das Werk absichtlich der freien Reaktion des Betrachters öffnet ». Gleichzeitig hat er den unerschöpf lichen Charakter des Kunstwerks betont. Doch in späteren Texten (1979 und 1992) führt er schrittweise viele Präzisierungen, Abwandlungen und Korrekturen seiner ursprünglichen Idee ein, bis er sich unmissverständlich von jenen « unverantwortlichen Dekonstruktivisten » distanziert, die davon überzeugt sind, dass « man mit einem Text alles machen kann » (1996). Persönlich bin ich nicht mit Eco einverstanden, wenn er daran festhält, dass gegenüber den derzeit so häufigen Missbräuchen der literarischen Exegese die Grenzen der Interpretation von Grund auf geklärt werden müssten. Praktisch müsste das, wenn auch nicht auf einen Dauerfrieden, so doch zumindest auf einen vernünftigen Nicht-

350

Sprechen, schreiben, lesen

angriffspakt zwischen Leser, Werk und Autor abzielen; mit den Kategorien Ecos formuliert: zwischen intentio autoris, intentio operis und intentio lectoris. Selbstverständlich muss dieser Pakt wie jeder Pakt, der ernst genommen werden will, ein Gleichgewicht zwischen den drei involvierten Partien garantieren, also vermeiden, dass eine der Partien sich die Vorherrschaft über die anderen anmaßt. Es steht wesentlich mehr als eine rein theoretische Frage auf dem Spiel. Bis heute wurde der Standpunkt der intentio lectoris privilegiert. Mit der intentio lectoris wird in dem hier kommentierten Fall weniger an die normale intentio des Lesers gedacht als vielmehr an die intentio des Lesers als Kritiker oder an die des Lesers als Interpret. Wenn man nicht die Irrtümer der Vergangenheit wiederholen will, muss zwischen dem Text als Gegenstand der Interpretation und dem Text als Gegenstand der Produktion unterschieden werden. Der Ausdeutung eines Textes vernünftige Grenzen setzen zu wollen ist nicht dasselbe – und sollte nicht dasselbe sein – wie der Textproduktion unvernünftige Grenzen setzen zu wollen. Es ist eine Sache, im Namen des gesunden Menschenverstands die fatalen Auswirkungen einer gewissen interpretativen Libido anzuklagen; eine andere Sache ist es, die Entscheidungen eines Autors bei der Herstellung seines Werks bestimmten Bedingungen unterwerfen und eventuell reglementieren zu wollen. Es ist vollauf berechtigt, im Bereich der Textexegese jenen Einhalt zu gebieten, die glauben, « dass man mit einem Text machen kann, was man will »; aber es wäre abwegig – wie es einige tun –, die kulturelle Berechtigung eines Hypertextromans mit dem Argument in Frage zu stellen, dass man auch hier « mit einem Text machen kann, was man will ».

Hypertextualität und Essayistik Dies ist ein besonders heikles Thema. Ich frage mich: Sind wir sicher, dass der Vorschlag, die erzählerische Prosa – meiner Ansicht nach zu Recht – von Verknüpfungen (links) aussparen zu müssen, auch auf die Essayistik übertragen werden kann ? Diese Frage verlangt eine differenzierte Antwort. Es gibt gute Gründe für die Annahme, dass einige Bereiche der Essayistik von Verknüpfungen ausgenommen werden können, andere Bereiche dagegen weniger und wiederum andere gar nicht. Ich glaube, dass im Bereich der Essayistik eine Art Rangfolge aufgestellt werden muss, was man unter bestimmten Umständen tun kann und was man besser sein lässt. Ich muss hier etwas weiter ausholen. Unter den von den Theoretikern der Hypertexterzählung gegen die traditionelle analoge Erzählung vorgebrachten Argumenten stand an erster Stelle die Ablehnung strukturierender Verknüpfungen

351

Digitale Welt und Gestaltung

beim Auf bau der Erzählung. Nicht zufällig gaben alle die als Vorläufer der Hypertexterzählung angesehenen Autoren – von Sterne bis Cortázar – auf die eine oder andere Weise ihrer Unzufriedenheit mit der Linearität und Abfolge der Texte Ausdruck.

21

Jetzt wäre herauszufinden, ob sich diese Unzufriedenheit auch bei Autoren von Essays, also bei Philosophen, Historikern und Wissenschaftlern findet. Die Verfasser von Essays fühlen sich in der Regel von Verknüpfungen angetan, die ihren Überlegungen eine partielle oder komplette Kohäsion sichern. Es gibt aber, besonders unter den Philosophen, berühmte Ausnahmen. Zuerst kommt mir Nietzsche in den Sinn, aber auch Wittgenstein (1977), beide Liebhaber eines fragmentarischen und aphoristischen Denkens.21 Wittgenstein schreibt: « Wenn ich für mich denke, ohne ein Buch schreiben zu wollen, so springe ich um das Thema herum; das ist die einzige mir natürliche Denkweise. In einer Reihe gezwungen, fortzudenken, ist mir eine Qual. Soll ich es nun überhaupt probieren ? [sic] Ich verschwende unsägliche Mühe auf ein Anordnen der Gedanken, das vielleicht gar keinen Wert hat » (Wittgenstein 1977, Seite 60). Auf der untersten Ebene des Missbehagens Wittgensteins, seiner Qual, verbirgt sich die implizite Ablehnung aller jener Bindungen, die den – mit den Worten von Locke – free f lux of thought behindern. Was Wittgenstein in dem zitierten Absatz fordert, ist tief im philosophischen okzidentalen Denken verwurzelt – und nicht nur dort. Seit je haben die Philosophen für sich das Recht auf die Freiheit reklamiert, den unendlichen assoziativen Verläufen nachzugehen, ihnen schöpferisch zu folgen, also « um ein Thema herumzuspringen », wie es Wittgenstein vorschlägt. Dagegen ist nichts einzuwenden. Weniger überzeugend scheint mir die Vorstellung, die von

21

Bekanntlich unterscheiden sich Nietzsche und Wittgenstein als Denker ganz erheblich voneinander, aber sie haben eins miteinander gemein: den Gebrauch des Aphorismus als Ausweichmanöver gegenüber einer Denkweise, die explizit, unwiderlegbar und erschöpfend sein will. Aber nicht nur das. Bisweilen gewinnt man den Eindruck, dass Wittgenstein, zumindest bei einer Gelegenheit, einen imaginären Dialog mit Nietzsche aufnimmt. Eine geistige Verwandtschaft besteht zwischen Nietzsches berühmtem Aphorismus am Anfang des zweiten Bandes von Menschliches, Allzumenschliches ( 1886 ), « Man soll nur reden, wo man nicht schweigen darf », und dem gleichfalls berühmten Passus am Ende von Wittgensteins Tractatus Logico-Philosophicus ( 1951 ), « Wovon man nicht sprechen kann, darüber muss man schweigen ». Obwohl Wittgenstein bei mehreren Gelegenheiten den Einfluss von Lichtenberg, Schopenhauer und Karl Kraus auf sein Denken und besonders auf seine Aphoristik ausdrücklich eingesteht, sollte nicht übersehen werden, dass er wie alle jungen Deutschen und Wiener seiner Generation auch ein Leser von Nietzsches Werken gewesen ist. Das zeigt sich nicht zufällig an seinem Zitat von Menschliches, Allzumenschliches ( Wittgenstein, 1977, S. 113 ).

352

Sprechen, schreiben, lesen

den Vertretern der vermeintlich creative non-fiction befürwortet wird, dass die Freiheit des Erforschens eines Themas einzig und allein mit dem fragmentarischen und aphoristischen Stil gleichgesetzt werden muss und nicht zum Beispiel mit stärker strukturierten, gegliederten und kontinuierlichen Denkformen. Wenn die Freiheit des Erforschens für die Entwicklung des Denkens – selbst mit dem Risiko des Irrtums – von grundlegender Bedeutung ist, dann gilt das ebenso für die Möglichkeit, sich lange bei einem Gegenstand der Ref lexion aufzuhalten. Der fragmentarische und aphoristische Stil liefert dieser Möglichkeit zumindest prinzipiell keinerlei Vorschub. Denn der Aphoristiker neigt überwiegend dazu, nur kurz bei einem Gegenstand der Ref lexion zu verweilen; denn fortwährend ist er auf der Flucht zum nächsten Gegenstand der Ref lexion. Es wurde bereits die Notwendigkeit herausgestellt, zwischen erzählerischer Prosa einerseits und philosophischer, geschichtlicher und wissenschaftlicher Prosa andererseits zu unterscheiden. Wenn man die Bindungen der Linearität und der logischen Folgerichtigkeit relativieren oder sogar auf heben will, dann hat solch ein Vorhaben im Fall eines narrativen Textes nicht dieselbe Bedeutung wie in einem Essay und kann sie auch gar nicht haben. Im Fall beispielsweise eines Hypertextromans bleiben die Auswirkungen auf den Bereich des literarischen Experiments beschränkt; dagegen sind wir im Falle eines philosophischen oder wissenschaftlichen Essays gezwungen, es mit der Wahrheit (oder Falschheit) der darin geäußerten Behauptungen genau zu nehmen.

22

Doch dieser Unterschied, den man mit gutem Grund immer im Hinterkopf behalten sollte, wird oftmals verwischt. Auch werden beide Bereiche nicht zufällig als ein einziger angesehen, und das geht so weit, dass (teilweise waghalsige) Argumente aus einem Bereich in den anderen übernommen werden. Die Verfechter der erzählerischen Hypertextprosa greifen bei ihrer Kritik an der traditionellen analogen Erzählweise auf das Argument zurück, dass deren wesentliche Linearität und Folgerichtigkeit gleichsam einer Ursünde der okzidentalen Kultur zuzuschreiben sei: der logisch-syllogistischen Argumentation, wie sie vor 2.500 Jahren von Aristoteles entwickelt worden ist.22

22

Man macht es sich ein wenig zu einfach mit der Behauptung, dass die durch die Entwicklung der modernen Logik aufgedeckten zahlreichen Mängel der aristotelischen Logik dazu berechtigen, das Ende jeglicher Form logischen Denkens zu sanktionieren. Darüber hinaus darf man nicht verkennen, dass hinter der Logik des Computers Persönlichkeiten wie Leibniz, De Morgan, Boole, Frege, Russell, von Neumann, Turing, aber eben auch Aristoteles stehen.

353

Digitale Welt und Gestaltung

Anders formuliert: All das, was aus ihrer Sicht die Romane von Defoe, Swift, Manzoni, Balzac, Dumas, Dickens, James, Pérez Galdós, Dostojevskij oder Tolstoj zu literarischen Unleistungen macht, wäre eben die Tatsache, dass sie dem Erbe der aristotelischen Logik allzu treu geblieben seien – einem Erbe, dem die historische Verantwortung aller Gebrechen der okzidentalen Kultur vor dem Erscheinen des Computers aufgehalst wird. Dahinter verbirgt sich, wie man wohl erraten kann, die verschwommene Ideologie des Anti-Logos, eine Ideologie, die bereits seit etlichen Jahrzehnten in der diskursiven Kohärenz ein verheerendes, mit allen Mitteln zu bekämpfendes Übel sieht.

Hypertextualität in der traditionellen Essayistik Aus den hier vorgetragenen Überlegungen ist nicht zu schließen – das möchte ich betonen –, dass die Essayistik den durch die neuen Hypertexttechnologien eröffneten Möglichkeiten fremd bleiben muss. Es besteht nämlich keine wesentliche Unvereinbarkeit zwischen Schreiben, Text und Hypertexttechnologien. Die Texte der modernen Essayistik sind ihrerseits immer hypertextuell gewesen, gleichsam hypertextuell avant la lettre.

23

Es möge genügen, zum Beispiel an den Gebrauch der Fußnoten in der Essayistik zu denken, die es dem Autor erlauben, außerhalb des Haupttextes Detailüberlegungen, Quellenangaben, Verweise auf andere Texte oder auf andere Autoren einzufügen.23 Dies ist ein Verfahren, auf das oftmals, zum Guten wie zum Schlechten, auch in diesem Buch zurückgegriffen wird. Doch wozu dienen Fußnoten? Entgegen allem Anschein geht es nicht darum (und sollte es auch nicht), die reale oder vermeintliche Bildung des Autors zur Schau zu stellen, sondern darum, den im Text entfalteten Diskurs zu klären, zu vertiefen oder zu dokumentieren. Auch wenn man sich über dieses Ziel einig ist, bleiben doch einige Fragen offen. Warum muss man notwendigerweise auf äußere Stützen zurückgreifen, um einen Diskurs zu klären, zu vertiefen oder zu dokumentieren ? Warum hängt die wissenschaftliche Qualität (oder einfach die argumentative Qualität) eines Diskurses zumindest zu einem großen Teil von der Fähigkeit ab, Hilfstexte zu erzeugen ? Warum vertritt man die Ansicht, dass ein Text andere Texte braucht ? Warum genügt ein Text nicht sich selbst ? Warum muss er immer Legitimität und Glaubwürdigkeit außerhalb seiner selbst suchen ?

23

Zu einer eingehenden Analyse der Rolle von Fußnoten in der europäischen Bildungstradition ( insbesondere in Deutschland ) vergleiche A. Grafton ( 1999 ).

354

Sprechen, schreiben, lesen

Mir scheint es ratsam, kurz auf diese Fragen einzugehen. Vor allem spielt bei ihnen die Überzeugung mit, dass ein Text eine Beziehung der Kovarianz mit einer unendlichen Zahl anderer Texte eingehen kann, dass ein Text immer und somit potenziell in ein Netzwerk von Texten eingefügt werden kann. Alle Texte wären demnach prinzipiell vernetzbar. Diese Betrachtungsweise umschließt zwei weitere Überzeugungen: 1) dass jeder Text von sich aus instabil, veränderbar und erratisch ist und nur durch äußere Auf lagen verfestigt, strukturiert und eingehegt wird; 2) dass es außerhalb eines bestimmten Textes eine unendliche Anzahl anderer Texte gibt, die uns zur Verfügung stehen und deren wir uns nach Gutdünken bedienen können, um unsere Hypertextpraktiken umzusetzen. Meiner Ansicht nach ist beiden Überzeugungen durchaus zuzustimmen. Was die zweite These angeht, ist allerdings ein Zusatz erforderlich. Man muss berücksichtigen, dass der riesige Überf luss an Texten in unserer Epoche ein geschichtliches Phänomen ohne Beispiel darstellt. Diesem Phänomen ging eine mehrtausendjährige Epoche der Textarmut voraus. Das Ausloten der Hypertextualität, wie wir sie heute verstehen, wäre in der Vergangenheit aus dem einfachen Grunde undenkbar gewesen, weil das Gesamtvolumen der Texte ungemein beschränkt war. Über die Ursachen dieser Mangelsituation bestehen keine Zweifel mehr. Sie war das Ergebnis einer bewussten Wahl der säkularen oder kirchlichen Statthalter der Macht, nur die Vertiefung und die Verbreitung einiger weniger Texte zu fördern und die Herstellung und Verbreitung anderer Texte zu verbieten. Zu den ersten, noch ängstlichen und unbeholfenen Versuchen zur Änderung dieser Sachlage kommt es erst im Augenblick der Geburt (und der Festigung) der modernen laizistischen Kultur. Ich beziehe mich auf den Zeitpunkt in der europäischen Geschichte zwischen dem 12. und 13. Jahrhundert, an dem sich zum ersten Mal Anzeichen bemerkbar machen, das handgeschriebene Buch auf andere Weise zu verstehen und herzustellen, eine Änderung, die auch den Endpunkt der Periode absoluter monastischer Vorherrschaft und gleichzeitig den Beginn eines langsamen, aber unauf haltbaren Prozesses des wachsenden laizistischen Einf lusses markiert (L. Febvre und H.-J. Martin, 1971, S.17; H.-J. Martin, 1988). An diesem Punkt konnte das Manuskriptbuch, wie es in den Klöstern konzipiert und realisiert wurde, nicht länger abgeschirmt bleiben, verschlossen in seiner erhabenen (und sterilen) Heiligkeit. Dessen sind sich als Erste die Exponenten der Kirchenwelt selbst bewusst. Sie erkennen die Notwendigkeit, irgendeine Form der Konvergenz (oder besser: bedachter Vermittlung) zwischen religiöser Kultur und weltlicher Kultur finden zu müssen. Da ist zum Beispiel Ugo di San Vittore, der mit seinem Didascalion versucht, Elemente der Synthese zwischen

355

Digitale Welt und Gestaltung

beiden Wirklichkeiten einzuführen ( J. Taylor, 1961, Ch. H. Buttimer, 1939, V. Liccaro, 1969, Ugo di San Vittore, 1987, I. Illich, 1993, P. Sicard, 1996). Man versucht, das « klösterliche Modell » für die Anregungen aufnahmefähiger zu machen, die vom « scholastischen (universitären) Modell » ausgehen ( J. Le Goff, 1964). Die Auswirkungen dieser neuen Einstellung lassen nicht auf sich warten. Schlagartig scheint die Praxis des Lesens und Schreibens ihre traditionelle Starrheit und Sprödigkeit zu verlieren. Gleichzeitig aber machen sich Anzeichen einer tief reichenden Instabilität im Plan des Manuskripttextes bemerkbar. In die Ränder und sogar in die Zeilenzwischenräume dringen die Anmerkungen ein, die Kommentare, Exkurse, Korrekturen und Unterstreichungen, die von den Lesern (und sehr oft auch vom Autor selbst) eingefügt werden. Obgleich das nichts Neues ist, so ist es doch ein stürmisches Anwachsen. Daran wird die Unruhe, das Unbehagen, die Unsicherheit und sogar die Frustration jener sichtbar, die als Agenten des Wandels wirken. Daneben besteht auch noch das ganz und gar nicht nebensächliche Problem der Textauswahl. Denn die alten und immer dieselben Texte zu behandeln reicht nicht mehr aus, ganz so, als ob eine dringende Notwendigkeit bestünde, andere, sogar bisweilen unreine, vom unnachgiebigen theologischen Diktat verbotene Texte zu Hilfe zu rufen – mit all den Risiken, die derlei Vorgehen mit sich bringt. Es wird versucht, von der auf wenige Texte konzentrierten exegetischen Lektüre – überwiegend das corpus biblicum, das corpus iuris und die Werke der Kirchenväter – zu einer anderen Lektüre überzugehen, die sich an den neuen, gerade entdeckten Texten der antiken, arabischen und hebräischen Philosophen misst, wie es in den Universitäten bereits geschah. Es verbreitet sich die Praxis, Texte verschiedener Autoren (auch mit entgegengesetzten theoretischen Positionen) und verschiedener Epochen zu kompilieren – etwas Ähnliches wie die modernen readings –, der wohl erste Schritt zu einer enzyklopädischen Vision des Wissens (P. Sicard, 1996). Auf diese Weise wird die in der vorhergehenden Phase vorherrschende intensive Lektüre durch die Verbreitung einer extensiven Lektüre, wenn auch nicht ersetzt, so doch gewiss umgewälzt (G. Cavallo und R. Charter, 1998, S. xxxi-xxxii). Was für das Lesen gilt, das gilt auch für das Schreiben. Zweifelsohne kann das Schreiben intensiv oder extensiv sein. Intensiv ist jener traditionelle klösterliche Schreibmodus, der selbstgenügsam und selbstreferenziell sein will. Extensiv dagegen ist der laizistische oder auf dessen Vorstufe stehende Schreibmodus, der sich in Abhängigkeit eines reichen Netzes von Verweisen entwickelt und der die Herausforderung anderer Texte und anderer Ideen annimmt. Zwar gab es zahlreiche Gründe, die zur Erfindung des Buchdrucks beigetragen haben, doch war es auch die allmähliche Verbreitung des extensiven Lesens und Schreibens, die diese Erfindung ermöglicht und unumgänglich gemacht hat.

356

Sprechen, schreiben, lesen

Zu einer Konvergenz der Oralität und der Schrift

24

Bekanntlich formulierte Ong (1982) den Unterschied zwischen der Primäroralität, also der vor der Erfindung der Schrift bestehenden Oralität, und der sekundären Oralität, also der gegenwärtig von den elektronischen Medien der ersten Generation bevorzugten Oralität (Telefon, Tonbandgerät, Radio, Fernsehen, Film usw.).24 Auf der anderen Seite hat Ong selbst eine Periode der Primärschrift ermittelt, die den Zeitraum zwischen der Erfindung der Schrift (handschriftliche Phase) und der Erfindung des Drucks mit beweglichen Lettern (typografische Phase) umspannt. Eigenartigerweise hat Ong nicht in Betracht gezogen, dass es neben der Sekundäroralität heute gleichzeitig auch eine Sekundärschrift gibt – eine Schrift als Ergebnis der elektronischen Medien der zweiten Generation (Videotext, Internet, E-Mail, PDA s [ personal digital assistants], Mobiltelefon usw.). Ich möchte einen Augenblick auf die E-Mail eingehen, die meiner Ansicht nach eines der markantesten Beispiele für diese Entwicklung liefert. Nach dem Aufkommen der elektronischen Medien der ersten Generation, die eine absolute Vorherrschaft der Oralität und des Bildes (man denke nur an das Fernsehen) festschrieben, gerieten viele, die über die Zukunft der Schrift nachdachten, in Verzweif lung. Alles aber änderte sich radikal mit der Verbreitung der Medien der zweiten Generation und besonders der E-Mail, die auf breiter Ebene und mit voller Wucht die Schreibpraxis von neuem mobilisiert.

25

Bekanntlich wird heutzutage die E-Mail am intensivsten vom Führungspersonal und von den Angestellten des öffentlichen Dienstes und der Privatunternehmen, des Handels, der Industrie, der Rechtsvertreter und politischen Vertreter und nicht zuletzt von den Liebhabern des traditionellen Briefverkehrs zwischen Einzelpersonen benutzt.25 Zu dieser Liste sind aber auch die Vertreter aus den Bereichen

24

Jedermann kann sehen, dass die Oralität in eine Phase starker Verbreitung eingetreten ist. Doch die von Ong getroffene Unterscheidung zwischen Primär- und Sekundäroralität – zwischen Homer und Fernsehen, wie er sagt – lässt vermuten, dass es für ihn nach dem Entstehen der Schrift und vor allem deren Stärkung durch den Druck eine Art Grauzone gegeben hat, in der die Oralität eine nahezu irrelevante Rolle gespielt hat. Doch diese Grauzone hat es nie gegeben, wie die französische Historikerin F. Waquet ( 2003 ) mit ihrer brillanten geschichtlichen Rekonstruktion gezeigt hat, die die ungeminderte Präsenz der Oralität in der okzidentalen Kultur nachgewiesen hat.

25

Hier meine ich nicht die Praxis der Minimalepisteln, die wir zum Beispiel im Irc ( Internet relay chat ) finden, sondern den per E-Mail geführten traditionellen Briefverkehr. Zu diesem Thema vergleiche T. Maldonado ( 1997, S. 53 ff. ).

357

Digitale Welt und Gestaltung

der Wissenschaft, der Hochschulen und der Kultur hinzuzufügen. In der langen Geschichte der Kommunikationsmittel, vor allem der zum Gedankenaustausch eingesetzten Mittel, stellt die Verbreitung von E-Mail eine nach meiner Ansicht umwälzende Neuigkeit dar. Vorher gab es nichts Vergleichbares, um quantitativ und qualitativ Kommunikationsleistungen mit einer derartigen Effizienz, also mit einer derartigen hohen Zugangsmöglichkeit, Schnelligkeit und Zuverlässigkeit anzubieten. Man darf getrost annehmen, dass in naher Zukunft der verallgemeinerte Gebrauch der E-Mail zumindest theoretisch eine wichtige Rolle im Wissensmanagement sowohl bei der Wissensverbreitung wie auch bei der Wissensvertiefung unserer Gesellschaft spielen wird.

26

27

Es sei daran erinnert, dass in der Antike bis zum Spätmittelalter die Kontakte unter den Gelehrten, sei es per Brief oder durch Manuskripte, in der Regel auf erhebliche logistische Schwierigkeiten stießen. Schlimmer noch erging es jenen, die versuchten, außerhalb ihres eigenen geografischen Umfeldes direkten persönlichen Kontakt aufzunehmen. Die Erfindung des Buchdrucks in der Renaissance ändert radikal die Möglichkeiten der intellektuellen Eliten, sich auszutauschen. Die Bücher zirkulieren unter besseren Bedingungen, gleichzeitig setzt unter den Mitgliedern der wissenschaftlichen Gemeinschaft eine Periode wahrer Manie des Briefeschreibens ein, die bis zum 19. Jahrhundert anhält.26 Vom 16. bis 18. Jahrhundert nimmt die Zahl der Brief kontakte exponentiell zu. Galilei schreibt an Kepler; Descartes an Huyghens; Newton an Locke und Leibniz; Hume an Montesquieu; Voltaire an Hume, Rousseau an Adam Smith. Doch wirklich große Liebhaber des Briefschreibens waren Erasmus (1976, 1992), dessen Briefsammlung 12 Bände umfasst, und Voltaire (1978, 1992), der in seinem Leben 22.000 Briefe verfasste. Erasmus hat als Erster die Verbreitung des Wissens in einem Netz konzipiert, das den Wissensf luss regeln kann.27

26

Vgl. L. Febvre und H.-J. Martin ( 1971 ); R. Chartier ( 1996 ) und B. Richardson ( 1999 ).

27

Doch war am Ende des 15. Jahrhunderts und am Anfang des 16. Jahrhunderts die Vorstellung eines Netzes zum Austausch von Wissen ein wenig verfrüht. Trotz der mühevollen Streifzüge durch ganz Europa und trotz seines intensiven Briefverkehrs findet der von Erasmus vertretene Vorschlag eines grenzüberschreitenden Wissensflusses in der Wirklichkeit seiner Zeit keinen Widerhall. Er bleibt ein antizipatorischer Akt. Erst heute sind ( vielleicht ) die technischen Voraussetzungen für seine Umsetzung geschaffen. Erasmus verkörpert in seiner Person einen neuen Archetyp des Intellektuellen, weltoffen, von einem unstillbaren Wissensdrang motiviert, ein unermüdlicher Verfechter seiner Ideen ( J. Jardine, 1993 ). Auch hierin ist er seiner Zeit voraus; doch ob dieser Archetyp des Intellektuellen heute noch einen prägenden Einfluss ausüben könnte, das sei dahingestellt ( T. Maldonado, 1995, S. 82–87 ).

358

Sprechen, schreiben, lesen

In der derzeitigen Debatte, ob unsere Epoche primär eine Bildepoche sei oder nicht, wird oftmals übersehen, dass in unserer Kommunikationskultur die Multimedialität (also die gleichzeitige Verwendung von Stimme, Text und Bild in einer Botschaft) überwiegt. Doch quantitativ gesehen ist die bei Text und Bild implizite visuelle Einbeziehung alles in allem häufiger anzutreffen als die bei der Stimme implizite auditive Einbeziehung. Gewiss könnte man einwenden, dass die exponentielle Zunahme der Mobiltelefonnutzer diese Bilanz verändern könnte. Zurzeit kann man kaum ein verlässliches abschließendes Urteil fällen, und zwar aus einem einfachen Grunde: Das derzeitige Bestreben, aus dem Mobiltelefon ein Multimedia-Instrument zu machen, macht die Angelegenheit noch schwieriger. Wenn diesem Vorhaben Erfolg beschieden ist (was nicht von vornherein auszuschließen ist), dann würde nicht nur die Präsenz der Stimme, sondern erneut auch die Präsenz des Textes und des Bildes verstärkt werden. Abgesehen von der Frage der Multimedialität ist zu berücksichtigen, dass die Oralität auf der einen Seite sowie die Schrift und das Bild auf der anderen Seite sich nicht als zwei getrennte Bereiche konstituieren. In unserer Epoche existiert ein enger Bezug gegenseitiger Einf lussnahme zwischen Oralität, Text und Bild. Hinzu kommt die Rolle, die auf kognitiver Ebene von den Bildern ausgeübt wird, und zwar wesentlich eine semantische Vermittlerrolle zwischen verbalem Diskurs und geschriebenem Diskurs. Und schließlich seien die viel versprechenden Forschungs- und Entwicklungsbeiträge im Bereich des Diktierens, der Übersetzung und der automatischen Berichtabfassung erwähnt. Wenn die Beziehung von Stimme zu Text und Bild als ein System zu betrachten ist, müssen auch die jeweiligen Eigentümlichkeiten jedes Teils dieses Systems berücksichtigt werden. Es gibt in der Tat Phänomene, die zwar im Bereich der Bilder zum Tragen kommen, nicht aber im Bereich der Oralität und der Schrift. Während im Bereich der Bilder alle zur Verfügung stehenden technischen Register gezogen werden, um eine Beherrschung der Ausdrucksmittel und der kreativen und innovativen Möglichkeiten zur Schau zu stellen, lässt sich dagegen im Bereich der Oralität und der Schrift eine starke Vorliebe für Kärglichkeit, Ausdrucksarmut und Konformismus feststellen. Es ist klar ersichtlich, dass in den Medien oftmals die Bilder mit aller Pracht eingesetzt werden, wogegen Stimme und Texte fast immer glanzlos und düster erscheinen. Außerdem lässt sich sowohl bei Stimmen wie bei Texten ein weiterer Gegensatz feststellen. Auf der einen Seite ist eine überaus starke, geradezu maniatische Vorliebe für eine begrenzte Anzahl von Themen gegeben; auf der anderen Seite herrscht ein diskursiver Lakonismus, eine Banalisierung von durch den Einsatz einer beschränkten Zahl vorfabrizierten Phrasen. Auf der einen Seite werden

359

Digitale Welt und Gestaltung

28

endlos dieselben Dinge wiederholt, um sich nicht mit anderen, für den Durchschnittsnutzer als allzu komplex (oder allzu langweilig) angesehenen Dingen beschäftigen zu müssen. Auf der anderen Seite wird auf schlagwortartige Formulierungen gesetzt, um glauben zu machen, dass man mit einem Minimalaufwand an Zeit (und Energie) wirkliche Deutungsinstrumente für das Weltgeschehen liefern kann.28

Schlussfolgerung Ich hatte am Anfang versichert, in diesem Kapitel einen Überblick über die Situation des Sprechens, Schreibens und Lesens in einer hoch digitalisierten Gesellschaft zu liefern. Das von mir gesteckte Ziel war sicher vermessen. Ich glaube aber, dass sich für die Ref lexion zumindest einige wichtige Punkte herauskristallisiert haben. Mir scheint unter anderem klar geworden zu sein, wie und inwieweit der Prozess der Digitalisierung die Formen und Inhalte einiger Bereiche der kulturellen Produktion positiv beeinf lussen kann. Ich habe indessen von jeglichem Hochjubeln abgeraten. Vielmehr ist Vorsicht angeraten. Ich bin überzeugt, dass im Prozess der Digitalisierung, in seinen verborgensten Winkeln sich auch Faktoren finden, die der kulturellen Produktion abträgliche Auswirkungen zeitigen (oder zeitigen können). Darüber sollte man nicht erstaunen. Oftmals spiegelt die kulturelle Produktion die bisweilen eklatante Ambivalenz der Informationstechnologien wider. Es braucht kaum daran erinnert zu werden, dass viele der gegenwärtigen Fortschritte im Bereich der Biomedizin, mit all ihren heilsamen Auswirkungen auf die Gesundheit, zum großen Teil den Informationstechnologien zu verdanken sind. Auf der anderen

28

Eigenartigerweise wird zur Rechtfertigung dieses Zustandes die Notwendigkeit ins Feld geführt, den Publikumsanforderungen nach – wie es heißt – Kürze und Klarheit entgegenkommen zu müssen. Doch welche Kürze und Klarheit sind denn gemeint ? Sicher nicht jene, die wir in den Regeln des richtigen Denkens von Descartes finden oder in den ( übrigens sehr cartesianischen ) Regeln des richtigen Sprechens von H. Paul Grice, sondern jene, die sich in einem Bündel von Kunstgriffen erschöpft, die darauf abzielen, jegliche Möglichkeit der Vertiefung eines untersuchten Themas von vornherein auszuschalten. Dafür wird dann der angebliche oder wirkliche Zeitmangel ins Feld geführt oder das Risiko, mit allzu geschliffenen Beschreibungen zu langweilen, oder die Unfähigkeit, anhand konkreter, wenn möglich lustiger Beispiele die eigenen Thesen zu veranschaulichen. Es genügt, die talk shows, die politischen Veranstaltungen und Fernsehinterviews zu erwähnen.

360

Sprechen, schreiben, lesen

Seite aber sind ihr auch die immer intelligenteren, das heißt immer zerstörerischen, immer tödlicheren kriegerischen Interventionen zum Schaden der Zivilbevölkerung zu verdanken. Dies ist die Ambivalenz der kulturellen Produktion: Auf der einen Seite ermöglichen die neuen Technologien eine erhebliche Steigerung an Kommunikationsmöglichkeiten zwischen Personen, Völkern und Kulturen; auf der anderen Seite erlauben sie auch eine immer umfassendere und weiterreichendere Kontrolle über Personen, Völker und Kulturen.

361

Digitale Welt und Gestaltung

« Design », Gestaltung, Entwurf – neue Inhalte *

*

Am 14. September 2003 hielt Tomás Maldonado den Festvortrag zum 50. Jahrestag der Gründung der hochschule für gestaltung, ulm, der hier wiedergegeben wird.

363

«Design», Gestaltung, Entwurf – neue Inhalte

Erlauben Sie mir, von Anbeginn an klarzustellen, dass mein Festvortrag vom üblichen Kanon einer Festrede abweicht. Wer eingeladen wird, um den Jahrestag einer Institution zu feiern, wählt in der Regel einen feierlich-würdigenden Ton, oder er wählt im Falle, dass er selbst ein Protagonist der Institution gewesen ist, einen Ton nostalgischen Schwelgens in der Erinnerung an die guten alten Zeiten. In meinem Beitrag möchte ich sowohl den feierlich-würdigenden Ton wie auch den nostalgisch geprägten Ton meiden. Nichts wäre abwegiger, als aus der Hochschule für Gestaltung ein verstaubtes Kultobjekt oder einen Treffpunkt zu machen, an dem man Erinnerungen über gemeinsam gemachte Erfahrungen austauscht. Um also dieses Risiko zu umgehen, habe ich mich entschieden – möglicherweise entgegen den Erwartungen vieler der hier Anwesenden –, die Hochschule für Gestaltung nicht zum Hauptthema meines Vortrages zu machen. Ich werde also weder die « Ulmer Modelle » noch die « Modelle nach Ulm » einer Prüfung unterwerfen. Mit anderen Worten, ich werde nicht eine kritische Bilanz der Erfolge und Misserfolge des so genannten Ulmer Experiments ziehen. Ich glaube, dass derlei Vorhaben nicht die Aufgabe derer sein können, die wie ich zu den Protagonisten dieser Institution gehörten, sondern dass solche Vorhaben eher denen zustehen, die sich der alles andere als bequemen Verantwortung unterzogen haben, die Geschichte dieser Institution zu schreiben. Nach meiner Auffassung dürfen die Protagonisten niemals den Historikern ins Handwerk pfuschen, denn normalerweise sind die Protagonisten wenig vertrauenswürdig, wenn sie die Funktion der Historiker usurpieren. Aus diesem Grunde, gehe ich nicht auf die Fragen ein, die man in den fünfziger und sechziger Jahren in Ulm zu beantworten suchte. Dagegen werde ich mich jenen Fragen zuwenden, die heute, im dritten Jahrtausend, eine immer größere Bedeutung für unsere Gegenwart und für unsere Zukunft gewinnen. Ich wähle also statt eines retrospektiven Ansatzes einen prospektiven Ansatz. Leicht lassen sich die Fragestellungen ausmachen, auf die ich mich beziehe. Es handelt sich um solche, die direkt oder indirekt mit dem Auf kommen der digitalen Technologien zu tun haben, Fragen, die direkt auf die Beziehung zwischen dem Natürlichen und dem Artifiziellen eingehen, auf die zwischen Materiellem und Immateriellem, zwischen Digitalwelt und Lebenswelt, zwischen Informationsf lut und effektivem Wissen, zwischen individueller Freiheit und sozialer Kontrolle, zwischen den Reichen, die immer reicher, und den Armen, die immer ärmer werden, zwischen der gewaltigen Ausweitung der Güterproduktion und dem Schrumpfen der Umweltreserven.

365

Digitale Welt und Gestaltung

Es dürfte kein Zweifel daran bestehen, dass die Möglichkeit, die hier nur aufgelisteten Fragen zu lösen oder deren Auswirkungen zu mildern, theoretisch zumindest von der Fähigkeit abhängt, alternative Systeme zu entwerfen. Trotzdem wäre es ein Zeichen von Naivität, die allzu evidente Tatsache zu übergehen, dass in unserer Gesellschaft Kräfte am Werk sind, die jeden Versuch durchkreuzen, alternative Systeme zu entwerfen und neue Entwurfsaufgaben zu finden. Diese Kräfte sind eher darauf ausgerichtet, die uns heute bedrängenden Probleme zu überspitzen, als sie zu überwinden. Damit stellt sich implizit eine Frage: Gibt es denn, über die traditionellen Aufgaben hinaus, neue Entwurfsaufgaben ? Und wenn es sie denn gibt, um welche handelt es sich konkret ? Und wenn diese Entwurfsaufgaben – wie vielerorts behauptet wird – Ausdruck tief greifender Veränderungen in unserer Gesellschaft sind, können wir dann sicher sein, dass alle diese Veränderungen und somit alle die daraus erwachsenden Aufgaben ebenso wünschenswert und begrüßenswert sind ? Es geht darum, bei der Wertung der neuen Entwurfsanforderungen eine aufmerksame Prüfung der neuen Technologien (Informatik, Robotik sowie Bio- und Gentechnologie) nicht zu übergehen – also der Technologien, die heute gleichzeitig grandiose Erwartungen wie auch quälende Sorgen wecken. Die Argumente des Für und Wider sind anscheinend gleichermaßen plausibel. Es ist hier nicht der Ort, den Sinn dieser bedrängenden Ambivalenz aufzuschlüsseln. Bei dieser Gelegenheit ist es mir wichtig, hervorzuheben, dass, gleichgültig, um welchen Diskurs über die eventuellen Entwurfsaufgaben im heutigen Kontext es sich handeln mag, man von der Tatsache ausgehen muss, dass in unserer Welt ein Wandlungsprozess ungeahnten Ausmaßes im Gange ist, angesichts dessen wir weder indifferent noch neutral bleiben können. Freilich ist das keine Neuigkeit, denn immer hat es in der Vergangenheit Wandlungsprozesse gegeben, denen gegenüber wir Haltungen zwischen Akzeptanz und Ablehnung einnehmen mussten. Das Neue ist vielmehr in der Tatsache zu sehen, dass sich diesmal die Änderungen in einem derart Schwindel erregenden Rhythmus vollziehen und derart weite Bereiche berühren, dass die Analyse oftmals Gefahr läuft, hinter dem Lauf der Ereignisse zurückzufallen. Wir sind also gehalten, uns an einer Welt in Transformation zu messen, wobei wir aber selten in der Lage sind, die Bewegungsrichtung zu erfassen, und noch weniger, auf sie eine wirksame Kontrolle auszuüben. Die Schwierigkeit des Problems wächst obendrein durch die Faszination, die von den heraufziehenden Wirklichkeiten auf viele Zeitgenossen (und ich schließe mich da ein) ausgeht. Es wäre einfältig, das zu leugnen. Zwischen der Versuchung aber, sich von der

366

«Design», Gestaltung, Entwurf – neue Inhalte

betäubenden Euphorie angesichts all dieser Veränderungen mitreißen zu lassen, und der hier eingenommenen Position liegen Welten. Unter den zahlreichen « post-Gesellschaften », die heute ausgemacht werden, gibt es auch die « postkritische Gesellschaft ». Kurz gesagt: eine Gesellschaft, in der es nichts zu kritisieren gibt, in der alles widerstandslos hinzunehmen ist. Angesichts der erstaunlichen Errungenschaften der Computerrevolution, so sagt man, darf man also nur staunen. Jede andere Haltung wäre Beweis einer verstockten Technophobie. Diese Haltung entstammt der gleichen Logik wie jene, die in jeder Kritik an der Globalisierung nur einen Beweis rückwärtsgewandter Sehnsucht nach small is beautiful und in der Verurteilung neo-imperialistischer Präventivkriege nur einen Beweis für einen spätherbstlichen Pazifismus der schönen Seelen sieht. Es dürfte klar sein, dass man mit dieser Logik jede Form abwägender Rationalität in uns zu trüben sucht, dass man uns zwingen will, auf eines der Hauptmerkmale freien und autonomen Denkens zu verzichten, also auf die Fähigkeit (und auf das Recht), Vorbehalte, Zweifel und Ratlosigkeit zu äußern, was darauf hinausläuft, dass man uns den Gebrauch der einschränkenden Bindeworte « aber », « jedoch », « obwohl », « trotzdem » verbieten möchte. Was man uns schließlich abverlangt, ist das passive Sich-Abfinden mit gesellschaftlichen und kulturellen Szenarien, die tagtäglich von den Medien und den multinationalen Nachrichtenkonzernen verbreitet werden, ein Sich-Abfinden en bloc, das alle Nuancen ausklammert, eben ein Abfinden ohne einschränkende Bindeworte. Es sei darauf hingewiesen, dass sich hinter meinem Nachdruck auf größere und weniger kapitulationsbereite Wachsamkeit gegenüber den neuen Technologien keinerlei Form von Pessimismus in Bezug auf die Rolle ebendieser Technologien verbirgt. Im Pessimismus, so hat man gesagt, steckt eine große Dosis an Faulheit. Das stimmt. Zweifelsohne entspringt der Pessimismus dem Umstand, dass wir uns aus Faulheit oder Trägheit weigern, die fast immer schwierige Aufgabe auf uns zu nehmen, der Komplexität eines Arguments bis auf den Grund nachzugehen. Doch auch der Optimismus ist als eine Art von Faulheit zu erklären, in diesem Fall aber beziehen sich Faulheit und Trägheit auf unsere Abneigung, das eigene etablierte, bequemere Weltbild in Frage zu stellen. Jedenfalls deutet alles darauf hin, dass heute die Stunde gekommen ist, sich von der während der ersten Phase der Industriellen Revolution weit verbreiteten Denkweise zu verabschieden, die technischen Neuerungen immer auf Basis der reduktionistischen Gegenüberstellung von Pessimismus und Optimismus zu beurteilen.

367

Digitale Welt und Gestaltung

Auf der einen Seite Émile Zola, der das Auf kommen der Lokomotiven verdammte, auf der anderen Seite Walt Whitman, der sie feierte. Dichotomien dieser Art mögen einst vielleicht gerechtfertigt gewesen sein, heute aber helfen sie uns nicht weiter, das Ausmaß und die hoch differenzierten Folgen des neuen technischen Horizonts zu erfassen. Somit verhindern sie jede sachliche Einschätzung ihrer positiven wie auch negativen Aspekte. Angesichts einer Welt wie der gegenwärtigen, die von einem umwälzenden Eindringen neuer Technologien in unsere Lebenspraxis beherrscht wird, darf unser Verhalten sich nicht mehr darin erschöpfen, subjektive Allgemeinurteile ethischer oder ästhetischer Natur zu formulieren. Vielmehr sollten wir versuchen, jene Aspekte objektiv zu beurteilen, die nach unserer Meinung eingeschränkt oder gestrichen werden sollten, aber auch jene, die gefördert werden sollten. Um die Beziehung zu untersuchen, die zwischen Entwerfen und den neuen Technologien besteht (oder bestehen sollte), dürfte eine derartige Einstellung sicherlich förderlich sein, ganz besonders dann, wenn wir unter Entwerfen eine auf keinen Fall selbstgenügsame und selbstbezügliche Tätigkeit verstehen, sondern eine Tätigkeit, die im Innersten mit der gesellschaftlichen, wirtschaftlichen und politischen Dynamik unserer Gesellschaft verknüpft ist. Ich möchte mich jetzt einigen der zentralen Aspekte dieser Beziehung zuwenden, insofern sie die Möglichkeit eines rigorosen Diskurses über die Zukunft des Entwerfens beinhalten. Freilich muss heute jedem Diskurs, der rigoros zu sein beansprucht, die Wahl bestimmter Begriff lichkeiten vorgeschaltet werden. Die erste Wahl besteht in diesem Zusammenhang darin, die Verwendung bestimmter Worte zu meiden, die dazu beigetragen haben, die Transparenz des hier zur Verhandlung stehenden Themas zu vermindern. Ich beziehe mich auf das englische Wort « design », doch auch in gewisser Hinsicht auf das deutsche Wort « Gestaltung ». Obwohl heute diese Begriffe weit verbreitet sind, oder eben deswegen, haftet ihnen eine immer stärker werdende Verschwommenheit an. Insofern sie den programmatischen Anforderungen recht unterschiedlicher Aktivitäten Genüge leisten wollen – des Architekten, des Ingenieurs, des Modeschöpfers, des Wissenschaftlers, des Philosophen, des Managers, des Politikers, des Journalisten –, haben sie ihre Eigenheit eingebüßt. Mit dieser Feststellung möchte ich nicht vorschlagen, den Gebrauch dieser Termini aus unserem Wortschatz zu streichen, sondern vielmehr, sie sparsamer und differenzierter zu verwenden und eventuell auf sie zu verzichten. Deshalb ziehe ich es vor, vom Entwerfer und nicht vom « Designer » und « Gestalter » zu sprechen.

368

«Design», Gestaltung, Entwurf – neue Inhalte

Doch wenn man von der Rolle des Entwerfers spricht – und das gilt auch für den Designer und Gestalter –, tendiert man oftmals dazu, ihm eine übertriebene Rolle in der Gesellschaft zuzuschreiben, eine – wenn man will – nahezu epische Rolle. Ich meine damit die Vorstellung vom Entwerfer als einer Person, die dazu auserkoren ist, gleichsam als einziger Antriebsfaktor des Wandels zu fungieren – also eine ebenso verlockende wie unglaubhafte Vorstellung. Das Risiko besteht darin, dass eine derart faustische Vision von der Rolle des Entwerfers darin endet, im Treibsand einer dunstigen Poetik der « Welt der nächsten Zukunft » zu versacken – eine Neuauf lage der Figur des Entwerfers als eines Demiurgen utopischer Wiedergeburten. Wenn wir diese Gefahr eindämmen wollen, müssen wir auf den Boden der Wirklichkeit zurückfinden und begreifen, dass Entwerfen für den Wandel Klarheit darüber voraussetzt, welche Gegenstände – oder welche Produkte und Prozesse – es denn sind, die über kurz oder lang als Agenten des Wandels fungieren können. Obgleich wir uns jetzt schon des Charakters der auf uns zu kommenden Änderungen insbesondere im Bereich der Produktion und der Kommunikation durchaus bewusst sein können, so sind wir doch nicht immer in der Lage, genau zu bestimmen, welche Dinge es denn sind, die neue und bislang unbekannte Eingriffsmöglichkeiten für einen innovativen Entwurf eröffnen. Zudem sind die Probleme, an denen sich der Entwerfer zu messen hat, unterschiedlicher Natur. Sie beziehen sich sicher auf die Struktur oder Form des zu entwerfenden Produkts, aber auch auf seine funktionellen Leistungsangebote. Was den alten, heute überholten Disput der Architekten angeht, ob die Form der Funktion oder ob nicht umgekehrt die Funktion der Form folgt, so wissen wir, dass beide Thesen stimmen. Die jüngsten Entwicklungen der biologischen Wissenschaften, aber auch der Kognitionswissenschaften, haben uns gezeigt, dass allein dieser Ansatz es erlaubt, das Thema vernünftig zu erörtern. Doch wenn das Entwerfen unlöslich mit der Dialektik von Form und Funktion verknüpft ist, darf nicht vergessen werden, dass diese Dialektik sich auf Information stützt, die ihrerseits untrennbar ist vom Begriff der Form. Auf empirischer Ebene betrachtet, meint Entwerfen « formen ». René Thom hat die enge Beziehung zwischen Formen (Formieren im Sinne von « In-FormBringen ») und Informieren deutlich gemacht. Ihm zufolge formt, wer informiert, und informiert, wer formt. Auf diese Weise erklärt sich – so René Thom –, dass die formlosen Formen in der Regel jene sind, die wenig informieren. In diesem Zusammenhang dürfte es offenbar sein, dass das Herstellen einer Beziehung zwischen Form, Funktion und Information seit je die unbestreitbare Aufgabe des Entwerfens gewesen ist. Dies hat in der Praxis dazu geführt, dass der Ent-

369

Digitale Welt und Gestaltung

werfer nach einer optimalen Lösung dieser Beziehung gesucht hat. Doch bei der Suche nach der optimalen Lösung hat er niemals die Frage der Dialektik zwischen Einfachheit und Komplexität umgehen können. Wenn man der Sache auf den Grund geht, dann wird klar, dass Entwerfen seit je die Wahl zwischen Einfachheit und Komplexität impliziert oder eine Komplexität meint, die man durch Einfachheit erreicht. Viele Entwerfer haben in der Vergangenheit die Meinung vertreten, dass die Einfachheit der Form die beste Garantie dafür bietet, Funktion und Information zu optimieren. Dies ist eine Auffassung, für die ich zugegebenermaßen noch eine starke Sympathie hege. Ich muss allerdings gestehen, dass diese Auffassung auf einer etwas simplen Vorstellung von Einfachheit beruht. Der Form eines Gegenstandes Einfachheit zu bescheinigen – und hier wird unter Einfachheit eine auf das Wesentliche reduzierte, also von allem Überf luss bereinigte Form verstanden –, beweist an und für sich nicht, dass sie vom Standpunkt der Funktion und Information aus betrachtet optimal ist. Vielleicht darf man vermuten, dass die formale Einfachheit sehr oft nur den Zweck verfolgt, die einer Funktion und Information inhärente Komplexität zu verbergen, und somit schlimmstenfalls zu ihrem Anwachsen beisteuert. An dieser Stelle stellt sich das theoretische und praktische Problem der Formen mit komplexer Ausprägung, die aber als komplexe Formen dazu beitragen können, die Komplexität der Leistungen hinsichtlich Funktion und Information abzubauen. Friedrich Schiller hat in drei berühmte Verszeilen die intuitive Gewissheit zum Ausdruck gebracht, dass die Komplexität auch Erzeugerin von Einfachheit sein kann: «Nur die Fülle führt zum Ziel /Nur die Fülle führt zur Klarheit /Und im Abgrund wohnt die Wahrheit.» Diese eindrucksvollen Zeilen Schillers wurden im Sinne eines persönlichen Leitaphorismus von Niels Bohr angenommen. Bohr sah hier eine auf poetischer Ebene im Voraus erfolgende Bestätigung seiner Thesen in der klassischen Physik und der Quantenphysik. Am Anfang des 20. Jahrhunderts hat ein anderer Wissenschaftler, und zwar Henri Poincaré, auf die Unhaltbarkeit einer dogmatischen Gegenüberstellung von Einfachheit und Komplexität hingewiesen. «Vielleicht», so schreibt Poincaré, «ist es die Einfachheit, die sich hinter komplexen Erscheinungen verbirgt; manchmal dagegen ist es eine extreme Einfachheit, die äußerst komplexe Wirklichkeiten verdeckt». Zurückkehrend zu Schiller und seiner Idee der Fülle als Weg zur Klarheit, ist es aufschlussreich, festzustellen, dass diese Frage nicht nur die Form der Gegenstände betrifft, sondern auch die Form der Botschaften. In der Tat behaupten einige

370

«Design», Gestaltung, Entwurf – neue Inhalte

Exponenten der Cyberkultur, dass es nicht die Einfachheit der Botschaften sei, die informative Klarheit verschafft, vielmehr ihre Komplexität – in Schillers Worten: dass die Fülle zur Klarheit führt. Im Gegensatz zur funktionalen Grafik des « weniger ist mehr » wird uns hier eine Grafik des « mehr ist weniger » anempfohlen, das heißt eine Grafik – sie ist in Mode im Umfeld der kalifornischen Gegenkultur –, in der die barocke Fülle der Mittel das Erschließen der wahrscheinlichen Inhalte der Botschaften vereitelt. Anders formuliert: Eine Grafik derartigen Zuschnitts verlässt wegen ihres radikalen Selbstbezugs die Sphäre des kommunikativen Handelns. Aus dem Gesagten ist aber nicht zu folgern, dass die Grafik des « weniger ist mehr », die funktionale, analogische Grafik, heute unproblematisch ist. Viele ihrer verbürgten Gewissheiten und sogar ihrer dogmatischen Kategorien werden nun von der digitalen Grafik in Frage gestellt. Ein Beispiel dafür ist die Vorstellung, dass das Endprodukt eines Entwurfsprozesses in toto determiniert und kontrolliert sein könnte. Wie man weiß, hält die digitale Grafik heute Freiheits- und Variationsgrade und somit Komplexitätsgrade bereit, die der analogen Grafik unbekannt waren. Aus dieser Tatsache entstammt der so häufig begangene Fehler, anzunehmen, dass die Schemata der analogen Grafik einfach auf die digitale Grafik übertragen werden können. Nach meiner Meinung zeigt sich am Beispiel der Grafik, dass es hinsichtlich der Beziehung von Fülle zu Klarheit noch zahlreiche offene Fragen gibt. Diese legen die Notwendigkeit nahe, äußerste Vorsicht bei der Art und Weise walten zu lassen, wie wir den Problemen der Einfachheit und Komplexität begegnen. Diese Vorsicht empfiehlt Alfred N. Whitehead: «Strebt nach Einfachheit, aber misstraut ihr.» Doch ein ebensolches Misstrauen wäre der Komplexität entgegenzubringen. Jedes Mal, wenn beim Entwurf von Gegenständen Einfachheit und Klarheit als absolute Kategorien gesetzt wurden, haben sich negative Folgen ergeben. Zum Beispiel hat die Tendenz, in der formalen Einfachheit das Hauptkriterium für die Beurteilung der Qualität von Gegenstände zu sehen, nicht selten zu einem formalistischen Manierismus geführt. Auf theoretischer Ebene hat dieser Ansatz einer summarischen, apodiktischen Art und Weise Vorschub geleistet, die Beziehung mit dem gesellschaftlichen Kontext zu ref lektieren. Dazu gehört auch die wohl größte Illusion, dass man nur und bereits mit Hilfe « gut formierter » Gegenstände eine « gut formierte » Gesellschaft erreichen könne.

371

Digitale Welt und Gestaltung

Bislang habe ich die Folgen, vor allem die theoretischen Folgen, der Dialektik zwischen Einfachheit und Komplexität untersucht. Doch gibt es auch praktische Folgen. Diese Dialektik ist seit je – von Descartes bis Herbert Simon – mit der durch und durch praktischen Frage der « Problemlösung » verknüpft, die ihrerseits zu der nicht weniger praktischen Frage führt, welche Methoden, also welche Instrumente sich am besten eignen, um Entwurfsprobleme mittlerer und größerer Komplexität mit Erfolg anzugehen. Kurz: Es geht um die berüchtigte Frage der Entwurfsmethodologie. Ohne Zweifel befinden wir uns heute, was diese betrifft, in einer neuen Ära – und das dank der hochgradig wirksamen heuristischen Instrumente, die in den vergangenen zehn Jahren im Bereich der Informatik entwickelt worden sind. Ich denke hier konkret an die Software, die heute eingesetzt wird, um die Abwicklung des technischen Entwurfs zu rationalisieren und besser zu steuern. Diese besteht wie bekannt aus Expertensystemen mit spezialisierten Leistungen für jede Phase des Entwurfsprozesses – Werkzeuge, die dazu dienen, den Entwerfer in den verschiedenen Etappen seiner Arbeit zu unterstützen, und zwar während der ersten provisorischen Konzept- und Vorbereitungsphase der Suche und Sammlung von Daten; während der ersten provisorischen Konzept- und Vorschlagsphase; während der Phase der technisch-konstruktiven sowie produktionstechnischen Umsetzung und schließlich während der Phase der Entwurfspräsentation unter Einsatz von dreidimensionalen Verfahren. Nun wäre es aber irreführend zu behaupten, dass mit diesen neuen Instrumenten der Beitrag der individuellen Kreativität im Entwurfsprozess definitiv überf lüssig wird. Im Gegenteil glaube ich, dass, je größer die Verfeinerung und Differenzierung der Methoden ist, desto größer auch der dem Entwerfer eingeräumte Kreativitätsraum ist. Jetzt möchte ich mich einem Phänomen zuwenden, das oftmals als eine der größten Herausforderungen des Entwerfens betrachtet wird, und zwar der gegenwärtigen Tendenz, dass die materielle Präsenz der Dinge zunehmend geschwächt wird– eine Frage, die letztendlich nichts weniger als das Geschick des materiellen Charakters in der uns umgebenden Welt betrifft. In der Tat wird vielfach behauptet, dass in der Zukunft das Entwerfen überwiegend ein Entwerfen von Botschaften, ein Manipulieren von Symbolen sein werde. Doch dabei handelt es sich um eine aus bestimmten Gründen wenig haltbare Hypothese – ganz besonders deshalb, weil sie eine Welt voraussieht, die über kurz oder lang zu einer Welt unfassbarer Dinge mutiert. Doch der Verlust der konkreten Fassbarkeit der Dinge wäre für das Entwerfen nicht auf die leichte Schulter zu nehmen. Auf der anderen Seite finden sich unter der Schar jener, die sich an der Idee des « Entwerfens ohne Dinge » erwärmen – glücklicherweise sind sie nicht sehr zahlreich –, Vertreter einer Rückkehr zu einem groben subjektiven Idealismus. Denen,

372

«Design», Gestaltung, Entwurf – neue Inhalte

die heute wie gestern solche Thesen vertreten, sei empfohlen, sich die folgende Maxime von Willard V. O. Quine zu vergegenwärtigen: «Die materiellen Alltagsgegenstände mögen nicht alles sein, was Wirklichkeit konstituiert, doch sie sind bewundernswerte Beispiele.» Ich bin überzeugt, dass es neben der Aufgabe, Botschaften zu entwerfen, weiterhin eine grundlegende Aufgabe bleiben wird, diese « bewundernswerten Beispiele» zu entwerfen, die nun einmal die materiellen Gegenstände sind. Somit dürfte klar sein, dass die Aufgabe des Entwerfens von materiellen Gegenständen heute nicht die Gleiche sein kann wie früher. Wir müssen zur Kenntnis nehmen, dass die neuen Technologien, insbesondere die Informations- und Kommunikationstechnologien, die Produktwelt unserer Gesellschaft grundlegend verändern. Diese Tendenz scheint heute durch eine Reihe weiterer Faktoren verstärkt zu werden, unter denen auch der meiner Ansicht nach wohl bedeutendste Faktor ist, nämlich die unausweichliche Notwendigkeit einer drastischen Änderung in der Beziehung zwischen Produkt und Umwelt. Von Beginn der Industriellen Revolution an bis fast auf den heutigen Tag hat sich die kapitalistische Wirtschaft entwickelt, ohne im Mindesten die misslichen Auswirkungen der Produkte auf die Umwelt in Betracht zu ziehen. Das Resultat ist, wie allgemein bekannt, niederschmetternd. Was den Zustand der Umwelt angeht, bekunden viele Menschen eine tief greifende Besorgnis über unser Schicksal auf der Erde. Sie fürchten – mit Recht –, dass unsere Zukunft grundsätzlich in Frage gestellt wird, wenn die aktuelle Tendenz zur systematischen, rücksichtslosen Umweltzerstörung weitergeht. Aber diese Art von Umweltschmerz darf nicht mit einer Wiederbelebung des alten Weltschmerzes romantischer Prägung gleichgesetzt werden. Mit anderen Worten: Er darf sich nicht in Form eines passiven, resignierten Jammergeschreis über den Weltuntergang äußern, sondern muss als Bekenntnis eines unwiderruf lichen Willens, sich mit den Umweltproblemen praktisch auseinanderzusetzen, formuliert sein. Also: Gefragt ist nicht ein gefühlsträchtiges Verhalten, sondern ein ref lektierendes, entwurfsorientiertes Verhalten. Gerade hier tritt das neue Wirkungsfeld des Entwerfens klar zum Vorschein. Ich denke an die Notwendigkeit einer weit reichenden Überprüfung der heute auf dem Markt angebotenen Produkte in Bezug auf ihre ökologische Nachhaltigkeit. Diese Überprüfung müsste für Produkte, deren Nachhaltigkeit bislang nicht thematisiert worden ist, zu einer entwurfsmäßigen Neuüberarbeitung führen, und wenn das nicht möglich ist, zum Entwurf neuer alternativer Produkte. Auf der anderen Seite glaube ich, dass die Frage der Nachhaltigkeit im Zusammenhang mit einem anderen, erheblich anspruchsvollerem Thema erörtert werden muss, und zwar mit dem Thema der sozialen Nachhaltigkeit. In der Tat gibt es Produkte, deren ökologische Nachhaltigkeit erwiesen ist, ohne dass aber daraus deren soziale Nachhaltigkeit folgt.

373

Digitale Welt und Gestaltung

An diesem Punkt stellt sich eine unausweichliche Frage: Was ist unter sozialer Nachhaltigkeit der Produkte zu verstehen ? Nach meiner Meinung bezieht sich die Vorstellung der sozialen Nachhaltigkeit auf den Grad der Entsprechung zwischen Produkten und den strategischen Prioritäten, die jede demokratische Gesellschaft sich als Ziel stellt (oder stellen müsste), um ihre dringendsten gesellschaftlichen Probleme zu lösen. Es könnte der Verdacht auf kommen, ich wolle hier eine Neuauf lage der von mir bereits kritisierten Vorstellung vorschlagen, dass dem Entwerfer eine epische Rolle zuzuschreiben sei. Dem ist nicht so. Meine Absicht ist weniger ambitiös: Es handelt sich schlicht um die Empfehlung, dass die Entwerfer mit allen zur Verfügung stehenden Mitteln den Horizont ihrer gesellschaftlichen und kulturellen Verantwortung erweitern sollten; dass sie sich von den engen, bisweilen erstickenden Grenzen einer aufs Professionelle beschränkten Sichtweise befreiten sollten; dass sie den Folgen ihres Handelns für die konkrete Lebenswelt der Menschen eine immer größere Aufmerksamkeit widmen sollten. Um nicht mehr und nicht weniger.

374

Digitale Welt und Gestaltung

Bibliograe und Biograen

377

Arterton, Christopher F., Teledemocracy: Can

Bibliograe

Technology Protect Democracy ?, Sage, Newburry Park ( Ca. ) 1987. Austin, John L., How to Do Things with Words, Oxford University Press, Oxford 1962 ( dt.: Austin,

Cyberspace – ein demokratischer Space ? A

John L., Zur Theorie der Sprechakte, Reclam, Stuttgart 1972 ).

B Abramson, Jeffrey B. et al., The Electronic Common-

Bachtin, Michail, L’autore e l’eroe. Teoria letteraria

wealth: The Impact of New Media Technologies on

e scienze umane, Einaudi, Turin 1988 ( dt.: Bachtin,

Democratic Politics, Basic Books, New York 1988.

Michail, Autor und Held in der ästhetischen

Abruzzese, Alberto, Lo splendore della Tv. Origini e

Tätigkeit, in: « Kunst und Literatur », Nr. 6 / 1979,

destino del linguaggio televisivo, Costa e Nolan,

S. 590 – 601, Nr. 7 / 1979, S. 760 – 781 ).

Genua 1995.

Bacon, Francis, « On negotiating », in: The Essays

Ders., « Media del potere e potere dei media. Viaggi

or Conseils Civil and Moral, Dutton, London –

sparsi a partire da Rosebud», in : Media Philosophy,

Toronto 1932 .

I : 0 ( Frühling – Sommer 1996 ), S. 35 – 69.

Barber, Benjamin, « Justifying justice: Problems

Adorno, Theodor W., « Prolog zum Fernsehen »

of psychology, politics, and measurement in Rawls »,

( 1953 ), in: Eingriffe. Neun kritische Modelle, Suhr-

in: N. Daniels ( Hrsg. ), Reading Rawls, Blackwell,

kamp, Frankfurt am Main 1963.

Oxford 1975.

Ders., « Fernsehen als Ideologie » ( 1953 ), in: Eingriffe

Barbrook, Richard und Andy Cameron, The Californi-

Neun kritische Modelle, Suhrkamp, Frankfurt am

an Ideology, 1996 [ http : / / actlab.rtf.utexas.edu / ].

Main 1963.

Barry, Brian, The Liberal Theory of Justice: A Critical

Ders., Jargon der Eigentlichkeit. Zur deutschen

Examination of a Theory of Justice by John Ralws,

Ideologie, Suhrkamp, Frankfurt am Main 1964.

Oxford University Press, Oxford 1973.

Anceschi, Giovanni, Monogrammi e figure, La casa

Baudrillard, Jean, Simulacres et simulation,

Usher, Firenze – Milano 1981.

Galilée, Paris 1981.

Anders, Günther, « The phantom world of TV », in:

Bauman, Zigmunt, Postmodern Ethics, Blackwell,

B. Rosenberg und D. M. White ( Hrsg. ), Mass Culture.

Oxford 1993 ( dt.: Bauman, Zygmunt, Postmoderne

The Popular Art in America, The Free Press,

Ethik, Hamburger Edition, Hamburg 1995 ).

Glencoe ( Ill. ) 1957.

Beck, Ulrich, Risikogesellschaft, Suhrkamp, Frank-

Ardesi, Luciano, Il mito del villaggio globale. La

furt am Main 1986.

comunicazione nord-sud, Molisv, Capodarco di

Ders., Die Erfindung des Politischen. Zu einer Theo-

Fermo 1992.

rie reflexiver Modernisierung, Suhrkamp, Frankfurt

Arendt, Hannah, The Human Condition. A Study of

am Main 1993.

Central Dilemmas Facing Modern Man, Doubleday,

Beck Ulrich, Antony Giddens und Scott Lash,

Garden City ( N.Y. ) 1959 ( dt.: Arendt, Hannah,

Reflexive Modernisierung, Suhrkamp, Frankfurt am

Vita activa oder Vom tätigen Leben, Kohlhammer,

Main 1993.

Stuttgart 1960 ).

Bell, Jeffrey, Populism and Elitism. Politics in the Age of Equality, Regnery Gateway, Washington 1992.

379

Bentham, Jeremy, The Works of Jeremy Bentham,

Branscomb, Anne W., Who Owns Information ?, Basic

Tait, Edinburg 1838 – 1843, 11 Bde. ( Nachdruck:

Books, New York 1994.

Russel and Russel, New York 1971 ).

Brecher, Jeremy und Tim Costello, Global Village

Ders., The Panopticon Writings ( 1787, 1790 und

or Global Pillage. Economic Reconstruction from the

1791 ), Verso, London 1995.

Bottom up, South End Press, Boston ( Mass. ) 1994.

Ders., Panopticon ovvero la casa d’ispezione, hrsg.

Breton, Philippe, L’utopie de la communication.

v. M. Foucault und M. Perrot, Marsilio, Venedig 1983.

Le mythe du « village planétaire », La Découverte,

Berger, Peter L., Brigitte Berger und Hansfried

Paris 1995.

Kellner, The Homeless Mind: Modernization and

Bronson, Po, « George Gilder », in: Wired, März 1996,

Consciousness, Random House, New York 1973

S. 122 – 195.

( dt.: Berger, Peter L., Brigitte Berger und Hansfried

Bühler, Karl, Sprachtheorie, Gustav Fischer,

Kellner, Das Unbehagen in der Modernität,

Jena 1934.

Campus, Frankfurt am Main 1973 ).

Burstein, Daniel und David Kline, Road Warriors,

Berlin, Isaiah, Four Essays on Liberty, Oxford

Dreams and Nightmares. Along the Information

University Press, Oxford 1969 ( dt.: Berlin, Isaiah,

Highway, Dutton, New York 1995.

Freiheit: vier Versuche, Fischer, Frankfurt am Main 1995 ). Berlyne, Daniel E., Conflict, Arousal, and Curiosity,

380

C Caillois, Roger, Le jeux et les hommes. La masque

McGraw Hill, New York 1960 ( dt.: Berlyne, Daniel E.,

et la vertige, Gallimard, Paris 1967 ( dt.: Caillois,

Konflikt, Erregung, Neugier: Zur Psychologie der

Roger, Die Spiele und die Menschen. Maske und

kognitiven Motivation, Klett, Stuttgart 1974 ).

Rausch, Schwab, Stuttgart 1960 ).

Bobbio, Norberto, Il futuro della democrazia, Einau-

Calvo, Marco et al., Internet ‘96, Laterza, Rom –

di, Turin 1995 ( dt.: Bobbio, Norberto, Die Zukunft der

Bari 1996.

Demokratie, Rotbuch, Berlin 1988 ).

Campana, Domenico, Il voto corre sul filo. Democra-

Boorstin, Daniel, The Americans, Random House,

zia diretta, democrazia indiretta, Seat, Turin 1994.

New York 1958, 3 Bde. ( I: The Colonial Experience

Canfora, Luciano, Le vie del classicismo, Laterza,

[ 1958 ]; II: The National Experience [ 1965 ]; III: The

Rom – Bari 1989 ( dt.: Canfora, Luciano, Altertums-

Democratic Experience [ 1973 ] ).

wissenschaften und moderne Staatsideologien,

Borges, Jorge Luis, Obras completas, Emecé, Bue-

Klett-Cotta, Stuttgart 1995 ).

nos Aires 1974 ( dt.: Borges, Jorge Luis, Gesammelte

Cardona, Giorgio Raimondo, Antropologia della

Werke, hrsg. v. Gisbert Haefs und Fritz Arnold,

scrittura, Loescher, Turin 1987.

Hanser, München – Wien 1999 ).

Cesareo, Giovanni, « Towards electronic democra-

Bottomore, Thomas B., Elites and Society, Watts,

cy ? », in: V. Mosco und J. Wasko ( Hrsg. ), The Critical

London 1964 ( dt.: Bottomore, Thomas B., Elite und

Communications Review, Bd. II, Ablex, Norwood

Gesellschaft: Eine Übersicht über die Entwicklung

( N.J. ) 1984.

des Eliteproblems, Beck, München 1966 ).

Chandler, Alfred D., Strategy and Structure –

Božovicˇ, Miran, « An Utterly Dark Spot », Einleitung zu

Chapters in the History of the Industrial Enterprise,

J. Bentham, The Panopticon Writings, Verso,

The MIT Press, Cambridge ( Mass. ) 1968.

London 1995 ( dt.: Božovicˇ, Miran, ... was du nicht

Chesnaux, Jean, Modernité-monde, Brave Modern

siehst: Blick und Körper 1700 / 1800, hrsg. von Anne

World, La Découverte, Paris 1989.

von der Heiden, Diaphanes, Zürich – Berlin 2006 ).

Chiapponi, Medardo, Ambiente: gestione e strategia.

Un contributo alla teoria della progettazione

Diderot, Denis, « Paradoxe sur le comédien », in: Oeu-

ambientale, Feltrinelli, Mailand 1989.

vres esthétiques, Garnier, Paris 1959 ( dt.: Diderot,

Claessens, Dieter, Rolle und Macht, Juventa,

Denis, Das Paradox über den Schauspieler, Insel,

München 1970.

Frankfurt am Main 1964 ).

Cohen, Marcel, L’écriture, Éditions sociales,

Dunn, John ( Hrsg. ), Democracy: the Unfinished

Paris 1953.

Journey, Oxford University Press, Oxford 1992.

Colombo, Furio, Confucio nel computer. Memoria

Duvignaud, Jean, L’acteur. Esquisse d’une sociologie

accidentale del futuro, Rizzoli, Mailand 1995.

du comédien, Gallimard, Paris 1965. Dworkin, Roland, «The original position», in: N. Daniels ( Hrsg. ), Reading Rawls, Blackwell, Oxford 1975.

D Dahl, Robert A., A Preface to Democratic Theory, University of Chicago Press, Chicago 1956 ( dt.: Dahl,

E

Robert A., Vorstufen zur Demokratie-Theorie,

Eagleton, Terry, Ideology: an Introduction, Verso,

Mohr, Tübingen 1976 ).

London 1991 ( dt.: Eagleton, Terry, Ideologie: eine

Ders., Dilemmas of Pluralist Democracy, Yale

Einführung, Metzler, Stuttgart – Weimar 1993 ).

University Press, New Haven 1982.

Eco, Umberto, « Einleitung », in: P. Santarcangeli, Il

Ders., Democracy and its Critics, Yale University

libro dei labirinti, Frassinelli, Mailand 1984.

Press, New Haven 1989.

Ellul, Jacques, Le bluff technologique, Hachette,

Dahrendorf, Ralf, Homo Sociologicus, Westdeutscher

Paris 1988.

Verlag, Opladen 1958.

Elster, Jon, The Multiple Self, Cambridge University

Danzinger, Kurt, La socializzazione, Il Mulino,

Press, London 1986.

Bologna 1972.

Emoticon, [ http : //www.cnet.com / Resources / Info /

De la Cruz, Juan, Les dits de lumière et d’amour /

Glossary / Terms / emoticon.html ] ( 1996 ).

Dichos de luz y amor, Iberiques – José Corti, Paris

Engels, Friedrich, « Brief an Franz Mehring » ( 14. Juli

1990, zweisprachige Ausgabe.

1893 ), in: K. Marx und F. Engels, Werke, Bd. XXXIX,

Delahaie, Henri und Félix Paoletti, Informatique et li-

Dietz Verlag, Berlin 1968.

bertés, La Découverte, Paris 1987.

Enzensberger, Hans Magnus, « Reminiszenzen an

Deleuze, Gilles und Félix Guattari, Rhizoma, Minuit,

den Überfluss. Der alte und der neue Luxus », in: Der

Paris 1976 ( dt.: Deleuze, Gilles und Félix Guattari,

Spiegel, 51 ( 16. Dezember ), 1996, S. 108 – 118.

Rhizom, Merve, Berlin 1977 ). Dies., Mille plateaux. Capitalisme et schizophrénie,

F

Minuit, Paris 1980 ( dt.: Deleuze, Gilles und Félix

Farrar, Cynthia, « La teoria politica nell’antica Grecia

Guattari, Tausend Plateaus, Merve, Berlin 1992 ).

come risposta alla democrazia », in: J. Dunn ( Hrsg. ),

De Mauro, Tullio, « Troppe notizie, troppe parole,

La democrazia, Marsilio, Venedig 1995.

troppe informazioni. Bisogna distinguere e diffida-

Fellmann, Ferdinand, Gelebte Philosophie in

re », in: Telèma, II ( Herbst 1996 ), S. 113.

Deutschland, Alber, München 1983.

De Michelis, Giorgio, « Il possibile dell’informatica

Foucault, Michel, Surveiller et punir. Naissance de la

e i processi democratici », in: Amministrare, XX : 2 – 3

prison, Gallimard, Paris 1975 ( dt.: Foucault,

( August – Dezember 1990 ), S. 203 – 228.

Michel, Überwachen und Strafen: die Geburt des

Ders., A che gioco giochiamo ? Linguaggio, organizza-

Gefängnisses, Suhrkamp, Frankfurt am Main 1994 ).

zione, informatica, Guerini, Mailand 1995.

381

Frege, Gottlob, « Über Sinn und Bedeutung », in:

Ders., Form of Talk, University of Pennsylvania

Zeitschrift für Philosophie und philosophische Kritik,

Press, Philadelphia 1981.

100 ( 1892 ), S. 25 – 100, enthalten in: Funktion,

Green, Giorgia M., Pragmatics and Natural Language

Begriff, Bedeutung. Fünf logische Studien, Vander-

Understanding, Erlbaum, 1989.

hoeck-Ruprecht, Göttingen 1962.

Grice, Paul H., « Logic and conversation », in: P.

Ders., « Ausführungen über Sinn und Bedeutung »

Cole und J. L. Morgan ( Hrsg. ), Syntax and Semantic

( 1892 – 1895 ), in: Nachgelassene Schriften, Felix

Speech Acts, Academic Press, New York 1975.

Meiner Verlag, Hamburg 1969.

Grossman, Lawrence K., The Electronic Republic.

Ders., « Der Gedanke. Eine logische Untersuchung »,

Reshaping Democracy in the Information Age,

in: Beiträge zur Philosophie des deutschen Idealis-

Viking, New York 1995.

mus, I ( 1918 – 1919 ), S. 58 – 77.

Guisnel, Jean, Guerres dans le cyberspace. Services

Freud, Sigmund, « Massenpsychologie und Ich-

secrets et Internet, La Découverte, Paris 1995.

Analyse » ( 1921 ), in: Gesammelte Werke, Bd. XIII, S. Fischer, Frankfurt am Main 1940.

H Habermas, Jürgen, « Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompetenz », in:

G

382

Garfinkel, Harold, « Remarks on ethnomethodologys,

J. Habermas, Theorie der Gesellschaft oder Sozial-

in: J. J. Gumpertz und D. Hymes ( Hrsg. ), Direction

technologie, Suhrkamp, Frankfurt am Main 1971.

in Sociolinguistics, Holt, Rinehart and Winston, New

Ders., « Was heißt Universalpragmatik ? », in: K.-O.

York 1972.

Apel ( Hrsg. ), Sprachpragmatik und Philosophie,

Gergen, Kenneth J., The Satured Self. Dilemmas of

Suhrkamp, Frankfurt am Main 1976.

Identity in Contemporary Life, Basic Books, New

Ders., « Diskursethik. Notizen zu einem Begrün-

York 1991 ( dt.: Gergen, Kenneth J., Das übersättigte

dungsprogramm », in: Moralbewusstsein und

Selbst: Identitätsprobleme im heutigen Leben,

kommunikatives Handeln, Suhrkamp, Frankfurt am

Carl-Auer-Systeme, Heidelberg 1996 ).

Main 1983.

Gerhardt, Uta, Rollenanalyse als kritische Soziologie,

Ders., « Notizen zur Entwicklung der Interaktions-

Luchterhand, Neuwied 1971.

kompetenz » ( 1974 ), in: Vorstudien und Ergänzungen

Giddens, Anthony, The Consequences of Modernity,

des kommunikativen Handelns, Suhrkamp,

Stanford University Press, Stanford ( Ca. ) 1990

Frankfurt am Main 1984.

( dt.: Giddens, Anthony, Konsequenzen der Moderne,

Ders., Moralbewusstsein und kommunikatives Han-

Suhrkamp, Frankfurt am Main 1996 ).

deln, Suhrkamp, Frankfurt am Main 1985.

Gilder, George, Life After Television. The Coming

Ders., Theorie des kommunikativen Handelns,

Transformation Media and American Life, Norton,

Suhrkamp, Frankfurt am Main 1981, 2 Bde.

New York 1992.

Ders., Erläuterung zur Diskursethik, Suhrkamp,

Giorello, Giulio, « Incommensurabilità e confrontabi-

Frankfurt am Main 1991.

lità », in: Id., Introduzione alla filosofia della scienza,

Ders., Faktizität und Geltung, Suhrkamp, Frankfurt

Bompiani, Mailand 1994.

am Main 1992.

Glossary of Internet Terms [ http : //www.lainet.com/

Ders., « The European nation state. Its achievements

cdi / glossary.htm ] ( 1996 ).

and its limitations. On the past and future of

Goffman, Erwing, Relation on Public, Harper and

sovereignty and citizenship », in: Ratio Juris, IX : 2

Row, New York 1971.

( Juni 1996 ), S. 125 – 137.

Hansen, Mogens Herman, Demography and Demo-

wissenschaftlicher Erklärung, De Gruyter, Berlin –

cracy. The Number of Athenian Citizen in the Fourth

New York 1977 ).

Century B.C. », Systime, Herning 1985.

Hjelmslev, Louis Trolle, Prolegomena to a Theory of

Ders., The Athenian Assembly in the Age of Demos-

Language, University of Wisconsin, Wisconsin

thenes, Basil Blackwell, Oxford 1987 ( dt.: Hansen,

1961 ( dt.: Hjelmslev, Louis Trolle, Prolegomena zu

Mogens Herman, Die athenische Volksversammlung

einer Sprachtheorie, Hueber, München 1974 ).

im Zeitalter des Demosthenes, Universitätsverlag,

Hofstadter, Richard, « North America », in: G. Ionesco

Konstanz 1984 ).

und E. Gellener ( Hrsg. ), Populism. Its Meanings and

Ders., The Athenian Assembly in the Age of Demos-

National Characteristics, Weidenfeld and Nicholson,

thenes. Structure, Principles, and Ideology, Basil

London 1969.

Blackwell, Oxford 1991.

Holmes, Stephen, The Anatomy of Antiliberalism,

Harsanyi, John C., Essays on Ethics, Social Behavior

President and Fellows of Harvard College, Harvard

and Scientific Explanation, Reidel Publ. Co.,

1993 ( dt.: Holmes, Stephen, Die Anatomie des

Dordrecht 1976.

Antiliberalismus, Rotbuch, Hamburg 1995 ).

Ders., L’utilitarismo, Il Saggiatore, Mailand 1988.

Hornblower, Simon, « Creazione e sviluppo delle isti-

Harter, Peter F., Representative Democracy or

tuzioni democratiche nell’antica Grecia », in: J. Dunn

Remote Control: A Constitutional Analisys and Cri-

( Hrsg. ), La democrazia, Marsilio, Venedig 1995.

tique of Ross Perot’s Electronic Town Hall, 1993

Huberman, Bernardo A., « The social mind », in:

[ http ://law.vill.edu/chron / articles / anal_elect_town_

J.-P. Changeux und J. Chavaillon ( Hrsg. ), Origins of

halls.html ] ( 1996 ).

the Human Mind, Clarendon Press, Oxford 1996.

Haug, Frigga, Kritik der Rollentheorie, S. Fischer, Frankfurt am Main 1972.

J

Hausknecht, Murray, « The Mike in the bosom », in:

Jay, Martin, Downcast Eyes. The Denigration of

B. Rosenberg und D. M. White, Mass Culture. The

Vision in Twentieth-Century French Thought, Univer-

Popular Art in America, The Free Press, Glencoe ( Ill. )

sity of California Press, Berkeley – Los Angeles –

1959, S. 375 – 378.

London, 1993.

Hayek, Friedrich August von, The Constitution of

Johnson, William R., « Anything, anywhere, anytime:

Liberty, Chicago University Press, Chicago 1960 ( dt.:

The future of networking », in: D. Leebaert ( Hrsg. ),

Hayek, Friedrich August von, Die Verfassung der

Technology 2001: The Future of Computing and Com-

Freiheit, Mohr, Tübingen 1971 ).

munications, The Mit Press, Cambridge ( Mass. ) 1991.

Hegel, Georg W. F., Phänomenologie des Geistes, Sämtliche Werke, Bd. II, F. Frommann Verlag,

K

Stuttgart-Bad Cannstatt 1964.

Kant, Immanuel, « Beantwortung der Frage: Was ist

Ders., System der Philosophie, Bd. X, Die Philoso-

Aufklärung ? », in: Schriften zur Anthropologie,

phie des Geistes, Frommann Verlag, Stuttgart-Bad

Geschichtsphilosophie, Politik und Pädagogik, Bd.

Cannstatt 1965.

XI, Suhrkamp, Frankfurt am Main 1968a.

Hempel, Carl G., «The logic of functional analysis», in:

Ders. « Grundlegung zur Metaphysik der Sitten »

L. Gross ( Hrsg. ), Symposium on Sociological Theory,

( 1785 ), in: Theorie-Werkausgabe Immanuel Kant, Bd.

Harper and Row, New York 1959, auch in: C. G.

VII, Suhrkamp, Frankfurt am Main 1968b.

Hempel, Aspects of Scientific Explanation, The Free

Ders., « Die Metaphysik der Sitten » ( 1797 ), in:

Press, New York 1965 ( dt.: Hempel, Carl G., Aspekte

383

Theorie-Werkausgabe Immanuel Kant, Bd. VIII, Suhr-

I, Grasset, Paris 1947 ( dt.: Lefebvre, Henri, Kritik des

kamp, Frankfurt am Main 1968c.

Alltagslebens: Grundrisse einer Soziologie der

Kapor, Mitchell, « Where is the digital highway

Alltäglichkeit, Fischer, Frankfurt am Main 1987 ).

really heading. The case of jeffersonian policy », in:

Leibniz, G. W., « Lettre à A. T. Burnett »( 18. Juli 1701 ),

Wired ( 1993 ), S. 3.

in: Le droit de la raison, Vrin, Paris 1994.

Kern, Hermann, Labirinti: forme e interpretazio-

Levy, Michael, Electronic Monitoring in the Workplace:

ni. 5000 anni di presenza di un archetipo, Feltrinel-

Power Trough the Panopticon, 1994, [http: //bliss.ber-

li, Mailand 1981 ( dt.: Kern, Hermann, Labyrinthe:

keley.edu / inpact / students / mike-paper.html ] ( 1996 ).

Erscheinungsformen und Deutungen. 5000 Jahre

Lifton, Robert Jay, The Protean Self. Human

Gegenwart eines Urbilds, Prestel, München 1982 ).

Resilience in an Age of Fragmentation, Basic Books,

Kline, David und Daniel Burstein, « Is government

New York 1993.

obsolete ? », in: Electrosphere, Hot Wired Ventures

Linton, Ralph, The Study of Man, Appleton-Century-

LLC, WWW 1996.

Crofs, New York 1936 ( dt.: Linton, Ralph, Mensch,

Kroker, Arthur und Michael A. Weinstein, Data Trash.

Kultur, Gesellschaft, Hippokrates, Stuttgart 1979 ).

The Theory of the Virtual Class, St. Martin’s Press,

Lippmann, Walter, Public Opinion, Macmillan, New

New York 1994 ( dt.: Kroker, Arthur und Michael

York 1922 ( dt.: Lippmann, Walter, Die öffentliche

A. Weinstein, Datenmüll: die Theorie der virtuellen

Meinung, Rütten & Loening, München 1964 ).

Klasse, Passagen, Wien 1997 ).

Locke, John, « Two treatises of government », in: The

Krueger, Lester E., « Effect of stimulus frequency on

Works of John Locke, Bd. V, Johnson et al., London

speed of ‹same›-‹different› judgement », in:

1801 ( dt.: Locke, John, Zwei Abhandlungen über die

S. Kornblum ( Hrsg. ), Attention and Performance,

Regierung, hrsg. von Walter Euchner, Europäische

Academic Press, New York 1973.

Verlags-Anstalt, Wien, Europa Verlag, Frankfurt am Main 1967 ). London, Scott, Electronic Democracy, 1994 [ http : //

L

384

Lacan, Jacques, « Le Moi dans la théorie de Freud et

www.west.net/~ insight / london / ed.htm ] ( 1996 ).

dans la technique de la psychanalyse » ( 1954 – 55 ),

Ders., « Teledemocracy vs. deliberative: A compara-

in: Le séminaire, Bd. II, Seuil, Paris 1978 ( dt.: Lacan,

tive look at two models of public talk », in: Journal of

Jacques, Das Ich in der Theorie Freuds und in der

Interpersonal Computing and Technology, III : 2

Technik der Psychoanalyse, in: Das Seminar

( April 1995 ), S. 33 – 55.

von Jacques Lacan, hrsg. von Norbert Haas, teilw.

Longo, Giuseppe, « Reti e cultura », in: Pluriverso, 2

Verlag Walter, Olten – Freiburg im Breisgau, teilw.

( März 1996 ), S. 80 – 89.

Turia + Kant, Wien 1978 ).

Luciano, Menippo e la negromanzia, in: Dialoghi, Bd.

Laing, R. D., The Divised Self, Tavistock, London 1959

I, Utet, Turin 1992.

( dt.: Laing, R. D., Das geteilte Selbst: eine existen-

Ders., « Timone e il misantropo », in: Dialoghi, Bd. II,

zielle Studie über geistige Gesundheit und Wahnsinn,

Utet, Turin 1992.

Kiepenheuer und Witsch, Köln 1994 ).

Luhmann, Niklas, Soziologische Aufklärung, Bd. I,

Latour, Bruno, Nous n’avons jamais été modernes, La

Westdeutscher Verlag, Opladen 1970.

Découverte, Paris 1991 ( dt.: Latour, Bruno, Wir sind

Ders., Die Realität der Massenmedien, Westdeut-

nie modern gewesen: Versuch einer symmetrischen

scher Verlag, Opladen 1996.

Anthropologie, Akademie Verlag, Berlin 1995 ).

Lukács, György, Geschichte und Klassenbewusst-

Lefebvre, Henri, Critique de la vie quotidienne, Bd.

sein, Luchterhand, Neuwied und Berlin 1970.

Lyon, David, The Electronic Eye. The Rise of

Wired ( April 1996 ), S. 106 – 165.

Surveillance Society, Polity Press-Blackwell, Cam-

McQuail, Denis, Mass Communication Theory. An

bridge – Oxford 1994.

Introduction, Sage, London 1987. Mead, George H., Mind, Self, and Society. From the Standpoint of a Social Behaviorist, The University of

M Machlup, Fritz, The Production and Distribution of

Chicago Press, Chicago 1934 ( dt.: Mead, George H.,

Knowledge, Princeton University Press, Princeton

Geist, Identität und Gesellschaft: aus der Sicht des

( N. J. ) 1962.

Sozialbehaviorismus, hrsg. von Charles W. Morris,

Maffesoli, Michel, Les temps de tribus. Le déclin de

Suhrkamp, Frankfurt am Main 1968 ).

l’individualisme dans les sociétés de masse,

Meier, Christian, Die Entstehung des Politischen bei

Méridiens, Klincksick, Paris 1988.

den Griechen, Suhrkamp, Frankfurt am Main 1983.

Ders., La transfiguration du politique. La tribalisation

Meiksins Wood, Ellen, Peasant-Citizen and Slave.

du monde, Grasset et Fasquelle, Paris 1992.

The Foundations of Athenian Democracy, Verso,

Maldonado, Tomás, Il futuro della modernità,

London 1988.

Feltrinelli, Mailand 1987.

Merton, Robert K., Social Theory and Social

Ders., « Is architecture a text ? », in: Intersight. Jour-

Structure, The Free Press, New York 1949, 1957 und

nal of the School of Architecture and Planning, 1990,

1968, 2 Bde. ( dt.: Merton, Robert K., Soziologische

S. 10 – 14.

Theorie und soziale Struktur, hrsg. von Volker Meja

Ders. Che cos’è un intellettuale ? Avventure e disav-

und Nico Stehr [ Teilausgabe ], De Gruyter, Berlin –

venture di un ruolo, Feltrinelli, Mailand 1995.

New York 1995).

Manacorda, Paola M., « Le nuove tecnologie della

Meyersohn, Rolf B., «Social research in televisio », in:

comunicazione per la democrazia locale », in:

B. Rosenberg und D. M. White, Mass Culture. The Po-

Amministrare, XX : 2 – 3 ( August – Dezember 1990 ),

pular Art in America, The Free Press, Glencoe ( Ill. )

S. 229 – 253.

1957, S. 345 – 357.

Martinotti, Guido, Informazione e sapere, Anabasi,

Miller, Jacques-Alain, « Le dispotisme de l’utile: la

Mailand 1992.

machine panoptique de Jeremy Bentham », in:

Marx, Gary T., « Privacy and technology », in: The

Ornicar ?, 3 ( Mai 1975 ), S. 5.

World and I, ( September 1990 ), S. 523 – 581.

Miyakawa, H., « The socio-economic role of the new

Ders., « Computer in the Workplace. Elysium or Pan-

electronic media », in: M. McLean ( Hrsg. ), The

opticon ? », Beitrag zur Tagung « Computers,

Information Explosion, Frances Printer, London 1985.

Freedom, and Privacy », Washington 1992, [ http : //

Moles, Abraham A., « Design und Immaterialität », in:

www.cfp.org/cfp92 / westin ] ( 1996 ).

F. Rötzer ( Hrsg. ), Digitaler Schein. Ästhetik der

Marx, Karl, Das Kapital, Bd. I, Cotta Verlag,

elektronischen Medien, Suhrkamp, Frankfurt am

Stuttgart 1962.

Main 1991.

Matteucci, Nicola, « Dell’eguaglianza degli antichi

Moreno, Jacob Levy, Who Shall Survive ?, Beacon

paragonata a quella dei moderni », in: Intersezioni,

House, New York 1953 ( dt.: Moreno, Jacob Levy, Die

IX : 2 ( August 1989 ), S. 203 – 230.

Grundlagen der Soziometrie: Wege zur Neuordnung

Matthiesen, Ulf, Das Dickicht der Lebenswelt und

der Gesellschaft, Opladen, Westdeutscher Verlag,

die Theorie des kommunikativen Handelns,

Köln 1954. ).

Fink Verlag, München 1985.

Musti, Domenico, Demokratia. Origini di un’idea,

McCorduch, Pamela, « Sex, lies, and avatars », in:

Laterza, Rom – Bari 1995.

385

P

N Naisbitt, John, Megatrends, Warner Books, New

Passerini, Luisa, Enrica Capussoti und Peter

York 1982 ( dt.: Naisbitt, John, Megatrends, 10 Pers-

Braunstein, « La conversazione on-line tra oralità e

pektiven, die unser Leben verändern werden,

scrittura », in: C. Ottaviano ( Hrsg. ), Lo strabismo

Hestia, Bayreuth 1984 ).

telematico, Utet, Turin 1996.

Naisbitt, John und Patricia Aburdene, Mega-

Petrucco, Corrado, Internet. Guida per i comuni mor-

trends 2000, William Morrow, New York 1990 ( dt.:

tali, Il Cardo, Venedig 1995.

Naisbitt, John und Patricia Aburdene, Megatrends

Polanyi, Karl, The Livelihood of Man, Academic

2000: zehn Perspektiven für den Weg ins

Press, New York 1977.

nächste Jahrtausend, Econ-Taschenbuch-Verlag,

Pool, Ithiel De Sola, Technologies of Freedom. On

Düsseldorf 1991 ).

Free Speech in an Electronic Age, The Belknap

Nanz, Patrizia, « Zum Konzept der ‹Redegenres› in

Press, Cambridge ( Mass. ) 1983.

der Sprachtheorie Michail Bachtins », Vortrag am

Ders., Technologies Without Boundaries: On Tele-

Institut für Philosophie der Universität Frankfurt,

communications in a Global Age, Harvard University

Juli 1993, Typoskript.

Press, Cambridge ( Mass. ) 1990.

Negroponte, Nicholas P., Being Digital, Alfred A.

Popitz, Heinrich, Der Begriff der sozialen Rolle als

Knopf, New York 1995 ( dt.: Negroponte, Nicholas P.,

Element der soziologischen Theorie, Mohr,

Total digital: die Welt zwischen 0 und 1 oder:

Tübingen 1968.

Die Zukunft der Kommunikation [ überarb. Taschen-

Postman, Neil, Technology: The Surrender of Culture

buchausg. ], Goldmann, München 1997 ).

to Technology, Alfred Knopf, New York 1992.

Nozick, Robert, Philosophical Explanations, Harvard University Press, Cambridge ( Mass. ) 1981.

R

Ders., The Nature of Rationality, Princeton Universi-

Rabassière, Henry, « In defense of television », in: B.

ty Press, Princeton ( N.J. ) 1983.

Rosenberg und D. M. White, Mass Culture. The Popular Art in America, The Free Press, Glencoe ( Ill. ) 1959, S. 368 – 374.

O Odgen, C. K., Bentham’s Theory of Fictions, Kegan

Rauch, Jonathan, Demosclerosis. The Silent Killer

Paul, London 1932.

of American Government, Random House, New York

OECD, Information Technology Outlook 1995, OECD,

1995.

Paris 1996.

Rawls, John, A Theory of Justice, The Belknap Press

Orletti, Franca, « L’analisi conversazionale negli anni

of Harvard University Press, Cambridge ( Mass. ) 1971

Novanta », in: F. Orletti ( Hrsg. ), Fra conversazione

( dt.: Rawls, John, Eine Theorie der Gerechtigkeit,

e discorso, La Nuova Italia Scientifica, Rom 1994.

Suhrkamp, Frankfurt am Main 1975 ).

Osborne, David und Ted Gaebler, Reinventing Go-

Ders., Political Liberalism, Columbia University Press,

vernment: How the Entrepreneurial Spirit is Trans-

New York 1993 ( dt.: Rawls, John, Politischer

forming the Public Sector, Penguin, New York 1993

Liberalismus, Suhrkamp, Frankfurt am Main 1998 ).

( dt.: Osborne, David und Ted Gaebler, Der innovative

Rheingold, Howard, The Virtual Community. Home-

Staat: mit Unternehmergeist zur Verwaltung der

steading on the Electronic Frontier, Addison-Wesley,

Zukunft, Gabler, Wiesbaden 1997 ).

Reading ( Mass. ) 1993 ( dt.: Rheingold, Howard, Virtuelle Gemeinschaft: soziale Beziehungen im

386

Zeitalter des Computers, Addison-Wesley,

taking for conversation », in: Language, 50 : 4 ( 1974 ),

Bonn – Paris 1994 ).

S. 696 – 735.

Richards, Ivor Armstrong, The Philosophy of

Salin, Edgar, « Vorwort », in: J. A. Schumpeter, Kapi-

Rhetoric, Oxford University Press, New York 1936.

talismus, Sozialismus und Demokratie, A. Francke

Rifkin, Jeremy, Time Wars: The Primary Conflict

Verlag, Bern 1950.

in Human History, Simon and Schuster, New York

Salmon, Wesley C., Four Decades of Scientific

1989 ( dt.: Rifkin, Jeremy, Uhrwerk Universum:

Explanation, Regents of the University of Minnesota,

die Zeit als Grundkonflikt des Menschen, Kindler,

Minnesota 1990.

München 1988 ).

Sandel, Michael J., Liberalism and the Limits of Ju-

Ders., The End of Work. The Decline of the Global La-

stice, Cambridge University Press, Cambridge 1982.

bor Force and the Dawn of the Post-Market

Santarcangeli, Paolo, Il libro dei laberinti,

Era, G. P. Putnam and Sons, New York 1995 ( dt.: Rif-

Frassinelli, Mailand 1984.

kin, Jeremy, Das Ende der Arbeit und ihre Zukunft:

Sartori, Giovanni, « Videopolitica », in: Rivista italiana

neue Konzepte für das 21. Jahrhundert [ aktual. und

di scienza politica, XIX : 2 ( August 1989 ), S. 185 – 198.

erw. Neuausg. ], Fischer, Frankfurt am Main 2005 ).

Ders., Elementi di teoria politica, Il Mulino,

Rodotà, Stefano, Repertorio di fine secolo, Laterza,

Bologna 1995.

Rom – Bari 1992.

Sartori, Giovanni und Ralf Dahrendorf, Il cittadino

Ders., Tecnologie e diritti, Il Mulino, Bologna 1995.

totale, Biblioteca della libertà, Turin 1997.

Ronfeldt, David, Cyberocracy, Cyberspace and

Saussure, Ferdinand De, Cours de linguistique géné-

Cyberology: Political Effects of Information Revolu-

rale, Payot, Paris 1955 ( dt.: Saussure, Ferdinand de,

tion, P-7745 Rand, Santa Monica 1991, auch

Grundfragen der allgemeinen Sprachwissenschaft,

veröffentlicht in: « Cyberocracy is Coming », in:

hrsg. von Charles Bally, De Gruyter, Berlin 1931 ).

Gopher.well.sf.ca.us ( 1996 ).

Sbisà, Marina, Linguaggio, ragione, interazione. Per

Rorty, Richard, Objectivity, Relativism, and Truth,

una teoria pragmatica degli atti linguistici, Il

Cambridge University Press, Cambridge 1991.

Mulino, Bologna 1989.

Rosenberg, Bernard und David Manning White,

Dies. ( Hrsg. ), Gli atti linguistici, Feltrinelli,

Mass Culture. The Popular Arts in America, The Free

Mailand 1978.

Press, Glencoll ( Ill. ) 1957.

Scanlon, T. M., « Contractualism and utilitarianism »,

Roszak, Theodore, The Cult of Information. The

in: B. Williams und A. Sen ( Hrsg. ), Utilitarianism and

Folklore of Computers and the True Art of Thinking,

Beyond, Cambridge University Press,

Pantheon Books, New York 1986 ( dt.: Roszak,

Cambridge 1982.

Theodore, Der Verlust des Denkens: über die Mythen

Schegloff, Emanuel und Harrey Sacks, « Opening up

des Computer-Zeitalters, Droemer Knaur,

closing », in: Semiotica, 8 ( 1973 ), S. 297 – 298.

München 1986 ).

Schiller, Herbert I., « The global information highway:

Roy, Jean-Hugues, « Way new leftists », in: Wired,

Project for an ungovernable world », in: J. Brook

Februar 1996, S. 108 – 109.

und I. A. Boal ( Hrsg. ), Resisting the Virtual Life. The Culture and Politics of Information, City Lights, San Francisco 1995.

S Sacks, Harrey, Emanuel Schegloff und G. Jefferson,

Schumpeter, Joseph A., Capitalism, Socialism and

« A implest systematics for the organization of turn

Democracy, George Allen and Unwin, London 1954

387

( dt.: Schumpeter, Joseph A., Kapitalismus, Sozialis-

Srubar, Ilja, Kosmion, Suhrkamp, Frankfurt am

mus und Demokratie, Francke, Bern 1946 ).

Main 1988.

Schütz, Alfred, « Strukturen der Lebenswelt », in:

Starobinski, Jean, L’œil vivant, Gallimard, Paris 1961

Gesammelte Aufsätze, Bd. III, M. Nijhoff,

( dt.: Starobinski, Jean, Das Leben der Augen,

Den Haag 1971.

Ullstein, Frankfurt am Main-Berlin-Wien 1984 ).

Schütz, Alfred und Thomas Luckmann, Strukturen

Stefik, Mark, Internet Dreams. Archetypes,

der Lebenswelt, Bd. I, Suhrkamp, Frankfurt am

Miths, and Metaphors, The MIT Press, Cambridge

Main 1979.

( Mass. ) 1996.

Searle, John R., Intentionality, Cambridge University

Stockton, David, The Classical Athenian Democracy,

Press, Cambridge, 1983 ( dt.: Searle, John R.,

Oxford University Press, Oxford 1990.

Intentionalität: eine Abhandlung zur Philosophie des

Stoll, Clifford, Silicon Snake Oil. Second Thoughts on

Geistes, Suhrkamp, Frankfurt am Main 1991 ).

the Information Highway, Doubleday, New York

Sen, Amartya K., « Behaviour and the concept of

1995 ( dt.: Stoll, Clifford, Die Wüste Internet: Geister-

preference », in: Choice, Welfare, and Measurement,

fahrten auf der Datenautobahn, Fischer, Frankfurt

Basil Blackwell, Oxford 1982.

am Main 1996 ).

Ders., Inequality Reexamined, Oxford University

Surman, Mark, From Vtr to Cyberspace. Jefferson,

Press, Oxford 1992.

Gramsci and the Electronic Commons, 1994

Sen, Amartya und Bernard Williams ( Hrsg. ),

[ http : //www.web.apc.org/ _msurman / ecommons.

Utilitarianism and Beyond, Cambridge University

html ] ( 1996 ).

Press, Cambridge 1982. Shakespeare, William, Le commedie romantiche,

Talbott Stephen L., The Future Does Not Compu-

Die Komödie der Irrungen [ Nachdr. ], Reclam,

te. Transcending the Machines in Our Midst, O’Reilly,

Stuttgart 1995 ).

Sebastopol ( Ca. ) 1995.

Simmel, George, « How is society possible ? », in:

Tapscott, Don, The Digital Economy. Promise and

American Journal of Sociology, XVI (1910), S.372 – 391,

Peril in the Age of Network Intelligence, McGraw Hill,

auch in: Soziologie. Untersuchungen über die

New York 1995 ( dt.: Tapscott, Don, Die digitale Revo-

Formen der Vergesellschaftung, Duncker & Humblot,

lution: Verheißungen einer vernetzten Welt – die Fol-

Leipzig 1908.

gen für Wirtschaft, Management und Gesellschaft,

Sinclair, Thomas A., A History of Greak Political

Gabler, Wiesbaden 1996 ).

Thought, Routledge and Kegan Paul, London 1951.

Taylor, Charles, Sources of the Self. The Making of

Smiley Dictionary [ http : //gwis2.circ.gwundedu /

the Modern Identity, Harvard University Press,

�phreak / smiley.html ] ( 1996 ).

Cambridge ( Mass. ) 1989

Sowell, Thomas, Knowledge and Decision, Basic

Taylor, Mark C. und Esa Saarinen, Imagologies. Media

Books, New York 1980.

Philosophy, Routledge, London 1994 ( dt.: Taylor,

Spears, Russell und Martin Lea, « Pancea o

Charles, Quellen des Selbst: die Entstehung der

‹Panopticon› ? Il potere nascosto nella comunicazi-

neuzeitlichen Identität, Suhrkamp, Frankfurt

one mediata dal computer », in: Sistemi intelligenti,

am Main 1994 ).

VII : 3 ( Dezember 1995 ), S. 339 – 371.

Thukydides, La guerra del Peloponneso, Bd. I,

Spitz, Jean-Fabien, La liberté politique, Presses

Rizzoli, Mailand 1989 (dt: Thukydides, Der Pele-

Universitaires de France, Paris 1995.

388

T

Mondadori, Mailand 1982 ( dt.: Shakespeare, William,

ponnesische Krieg, Reclam, Stuttgart 2000, versch.

V

andere Ausgaben).

Various net.artist, The Whole Smiley Face Catalog

Tocqueville, Alexis de, De la démocratie en Amerique,

[http://manes.vse.cz/ _ xdoup03/smiley.html] (1996).

Garnier-Flammarion, Paris 1981, 2 Bde. ( dt.: Toc-

Veca, Salvatore, La società giusta. Argomenti per il

queville, Alexis de, Über die Demokratie in Amerika,

contrattualismo, Il Saggiatore, Mailand 1982.

Deutscher Taschenbuch-Verlag, München, 1976).

Ders., Questioni di giustizia, Pratiche, Mailand 1985.

Toffler Alvin, Future Shock, Bentam Books, New York

Ders., Cittadinanza. Riflessioni filosofiche sull’idea

1971 ( dt.: Toffler, Alvin, Der Zukunftsschock, Scherz,

di emancipazione, Feltrinelli, Mailand 1990.

Bern [ u.a. ] 1970 ).

Ders., L’idea di equità, Antrittsvorlesung zur Eröff-

Ders., The Third Wave, Collins, London 1980 ( dt.:

nung des Studienjahrs 1996 – 97, Università degli

Toffler, Alvin, Die dritte Welle: Zukunfts-Chance, Per-

Studi di Pavia, Pavia, 2. Dezember 1996, Typoskript.

spektiven für die Gesellschaft des 21. Jahrhunderts,

Vicari, Serena, Esperienze di teledemocrazia,

Goldmann, München 1980 ).

Vortrag an der Tagung « Telecomunicazioni, parteci-

Toffler, Alvin und Heidy Toffler, Creating a New

pazione e democrazia », Bologna, 21. Mai 1993,

Civilization. The Politics of the Third Wave, Vorwort

Manuskript.

von Newt Gingrich, Turner Publishing, Atlanta 1995.

Virilio, Paul, L’horizon négatif, Galilé, Paris 1984

Toraldo di Francia, Giuliano, « La formation d’une

( dt.: Virilio, Paul, Der negative Horizont: Bewegung,

conscience scientifique: que veut dire aujourd’hui

Geschwindigkeit, Beschleunigung, Hanser,

‹divulgation scientifique› », in: V. Mathieu und P.

München 1989 ).

Rossi ( Hrsg. ), La culture scientifique dans le monde

Ders., Cybermonde. La politique du pire, Textuel,

contemporain, Sonderausgabe von Scientia ( 1979 ),

Paris 1996.

S. 329 – 338.

Voltaire, « Traité de métaphysique », in: Mélanges,

Touraine, Alain, Critique de la modernité, Librairie

Gallimard, Paris 1961.

Arthème Fayard, Paris 1992. Ders., Pourrons-nous vivre ensemble ? Egaux et

W

différents, Fayard, Paris 1997.

Welter, Rüdiger, Der Begriff der Lebenswelt, W. Fink

Turkle, Sherry, Psychoanalitic Politics: Jacques

Verlag, München 1986.

Lacan and Freud’s French Revolution, The Guilford

Westin, Alan F., Computer in the Workplace.

Press, New York 1992.

Elysium or Panopticon ?, Einleitungsvortrag an der

Dies., Life on the Screen. Identity in the Age of the

Tagung « Computers, Freedom, and Privacy »,

Internet, Simon and Schuster, New York 1995 ( dt.:

Washington 1992 [ http : //www.cfp.org / cfp92 /

Turkle, Sherry, Leben im Netz: Identität in Zeiten des

westin ] ( 1996 ).

Internet, Rowohlt, Reinbek bei Hamburg 1998 ).

Williams, Bernard, Problems of the Self, Cambridge

Dies., Ich bin viele, Interview, in: Der Spiegel, 23

University Press, Cambridge 1973 ( dt.: Williams,

Dezember 1976, S. 70.

Bernard, Probleme des Selbst: philosophische Auf-

Turner, Frederick J., The Frontier in American History,

sätze 1956 – 1972, Reclam, Stuttgart 1978 ).

Henry Holt & Co., New York 1953 ( dt.: Turner,

Winner, Langdon, The Whale and the Reactor:

Frederick J., Die Grenze: ihre Bedeutung in der ame-

A Search for Limits in the Age of High Technology,

rikanischen Geschichte, Dorn, Bremen-Horn 1947 ).

University of Chicago Press, Chicago 1986.

389

Wittgenstein, Ludwig, Philosophical Investigations,

Antonucci, Francesco, « Apprendere con gli

Basil Blackwell, Oxford 1953 ( dt.: Wittgenstein,

ipermedia a scuola », in: If, IV : 3 ( 1996 ), S. 58–65.

Ludwig, Philosophische Untersuchungen, Suhrkamp,

Arendt, Hannah, Was ist Politik ?, Piper,

Frankfurt am Main 1971 ).

München 1993.

Ders., « Das Blaue Buch. Eine philosophische

Aroldi, Piermarco et al., « Conoscere i new media »,

Betrachtung », in: Schriften, Bd. 5, Suhrkamp,

in: G. Bettetini und F. Colombo, Le nuove tecnologie

Frankfurt am Main 1970.

della comunicazione, Bompiani, Mailand 1993.

Wolff, Robert Paul, Understanding Rawls, Princeton University Press, Princeton ( N. J. ) 1977. Worsley, Peter, « The concept of populism », in:

B Bertuglia, Cristoforo S. und La Bella Agostino ( Hrsg. ),

G. Ionesco und E. Gellener ( Hrsg. ), Populism. Its Me-

I sistemi urbani, Bd. I, Franco Angeli, Mailand 1991.

anings and National Characteristics, Weidenfeld and

Bianco, Maria Luisa, « Sentieri di innovazione orga-

Nicholson, London 1969.

nizzativa: come è stato progettato un esperimento di telelavoro », in: Rassegna italiana di sociologia, 1 ( Januar–März 1990 ), S. 97–113.

Z Zolo, Danilo, Il principato democratico. Per una

Bonfiglioli, Sandra, L’architettura del tempo. La città

teoria realista della democrazia, Feltrinelli, Mailand

multimediale, Liguori, Neapel 1990.

1992 ( dt.: Zolo, Danilo, Die demokratische

Bonsiepe, Gui, Dall’oggetto all’interfaccia. Mutazioni

Fürstenherrschaft: für eine realistische Theorie der

del design, Feltrinelli, Mailand 1995.

Politik, Steidl, Göttingen 1997 ).

Borgna, Paola, Paolo Ceri und Angelo Failla,

Zuboff, Shohana, In the Age of the Smart Machine.

Telelavoro in movimento, Etaslibri, Mailand 1996.

The Future of Work and Power, Basic Books,

Borthagaray, Juan Manuel, « Metropolis: Population

New York 1984.

and Exclusion », Vortrag auf der Tagung « 18th Session of the Planetary Emergencies Seminars », Centro Ettore Majorana, Erice, 19.–24. August 1993. Bracchi, Giampio, « Fattori organizzativi, sociali,

Telematik und neue urbane Szenarien

economici e tecnici nel telelavoro», in: Centro europeo informazione, informatica e lavoro und O. Group ( Hrsg. ), Telelavoro: i miti, le prospettive concrete per l’Italia, Franco Angeli, Mailand 1989, S. 28–33.

A Abrams, Philip, « Towns and economic growth: some

Bracchi, Giampo und Sergio Campodall‘Orto ( Hrsg. ),

theories and problems », in: Ph. Abrams und F. A.

Telelavoro oggi. Esperienze, opportunità e

Wrigley ( Hrsg. ), Towns in Societies. Essays in Eco-

possibilità di applicazione, AIM, Mailand 1994.

nomic History and Historical Sociology, Cambridge

Branscomb, Lewis M. und James Keller ( Hrsg. ),

University Press, Cambridge 1978.

Converging Infrastructure, The MIT Press, Cambridge

Allard, Guy-H., « Présentation », in: G.-H. Allard

( Mass. ) 1996.

( Hrsg. ), Aspects de la marginalité au Moyen Age,

Breton, Thierry, Le télétravail en France. Situation

L’aurore, Montréal 1975.

actuelle, perspectives de dévelopment et aspects

Allen, Sheila und Carol Wolkowitz, Homeworking:

juridiques, La Documentation française, Paris 1994.

Myths and Reality, MacMillan, London 1987.

Butera, Federico, « Telematica e lavoro: contesti virtuali, organizzazioni vitali, persone reali »,

390

in: Notiziario del Lavoro, XIII : 75 ( November 1995 ),

und C. Ottaviano ( Hrsg. ), Lo strabismo telematico.

S. 53–59.

Contraddizioni e tendenze della società dell’ informazione, Utet, Turin 1996. Choay, Françoise, L’urbanisme. Utopie et réalité.

C Camagni, Roberto, Roberta Capello und Marco

Une anthologie , Seuil, Paris 1965.

Scarpinato, « Scenari di sviluppo del mercato delle

Ders., La règle et le modèle. Sur la théorie de

telecomunicazioni in Italia », in: R. Camagni

l’architecture et de l’urbanisme, Seuil, Paris 1980.

( Hrsg. ), Computer Network, Etaslibri, Mailand 1991.

Cook, Peter, Architecture: Action and Plan, Studio

Campodall’Orto, Sergio und C. Roveda, « Teleworking

Vista, London 1967.

in Italy: some cases », in: Condition of Work Digest

Ders., Experimental Architecture, Studio Vista,

on Telework, International Labour Office, Genf 1991.

London 1970.

Camporesi, Piero, Il libro dei vagabondi, Einaudi,

Ders., ( Hrsg. ), Archigram, Praeger, New York 1973.

Turin 1973.

County of Los Angeles Telecommuting Program

Capitani, Ovidio, La concezione della povertà nel

[www.dpa.ca.dov/jobsnpay/telework/] ( 1996 ).

Medioevo, Patron, Bologna 1983.

Cowan, Peter et al., The Office: A Fact of Urban

Carboni, Carlo, Lavoro informale ed economia

Growth, Heineman, London 1969.

diffusa. Costanti e trasformazioni recenti, Edizioni

Cross, Thomas B. und Marjorie Raizman,

Lavoro, Rom 1990.

Telecommuting. The Future Technology of Work, Don

Castel, Robert, « Les marginaux dans l’histoire », in:

Jones-Irwin, Homewood ( Ill. ) 1986.

S. Paugam ( Hrsg. ), L’exclusion: l’état des savoirs, La Découverte, Paris 1996.

D

Castells, Manuel, La question urbaine, Maspero,

Deutsch, J. C. und Laterasse, J., « Gestion des

Paris 1972 (dt: Castells, Manuel, Die kapitalistische

réseaux, techniques urbaines et nouvelles

Stadt: Ökonomie und Politik der Stadtentwicklung,

technologies de l’information », in: A. Polistina

VSA, Hamburg 1977).

( Hrsg. ), La città interattiva, Tiemme, Mailand 1991.

Ders., Luttes urbaines, Maspero, Paris 1973 (dt:

Doheny-Farina, Stephen, The Wired Neighborhood,

Castells, Manuel, Kampf in den Städten: gesell-

Yale University Press, New Haven 1996.

schaftliche Widersprüche und politische Macht,

Dupuy, Gabriel, L‘informatisation des villes, Presses

Verlag für das Studium der Arbeiterbewegung,

Universitaires de France, Paris 1992.

Berlin 1975). Ders., The Informational City. Information Technology, Economic Restructuring, and the Urban-

E Elias, Norbert, Die höfische Gesellschaft,

Regional Process, Basil Blackwell, Oxford 1989.

Luchterhand, Neuwied 1969.

Centro europeo informazione, informatica e lavoro

Ders., Was ist Soziologie, Juventa, Weinheim 1986.

und O. Group ( Hrsg. ), Telelavoro: i miti e le prospetti-

Empirica, Association d’études et d’aide pour le

ve concrete per l’Italia, Franco Angeli, Mailand 1989.

dévelopement rural und The Tavinstock Institute of

Cepollaro, Giancarlo, « Il turno in vestaglia. La

Human Relation, Distance Working Project in the

prospettiva del telelavoro tra mito, problemi e real-

Federal Republic of Germany, France and the UNDK,

tà», in: Sociologia del lavoro, 28 ( 1986 ), S. 135–159.

Internal Paper, Bonn, März 1985.

Cesareo, Giovanni, « Trent’anni di pronostici sul futu-

European Telework Development 1996

ro della comunicazione », in: F. Di Spirito, P. Ortoleva

[http : //www. eto.org.uk/etd/etd-what.htm] ( 1996 ).

391

Ders. « Tecnologia/occupazione: la rottura del circolo

F Fanning T. und B. Raphael, Computer Teleconfe-

virtuoso », in: Quaderni di sociologia,

rencing: Experience at Hewlett-Packard, « Conference

XXXVIII–XXXIX : 7 ( 1994–95 ), S. 5–15.

on Computer-Supported Cooperative Work », The

Giannotti, José Arthur, Origines de la dialectique du

Association Computer Machinery, New York 1986.

travail, Aubier Montaigne, Paris 1971.

Fehl, Gerhard, « Information ist alles ... Anmerkun-

Ginzburg, Carlo, Il formaggio e i vermi. Il cosmo

gen zu staatlich-kommunalen Informations-Ver-

di un mugnaio del ‘500, Einaudi, Turin 1976 (dt.:

bund-Systemen in der BRD », in: G. Fehl, M. Fester

Ginzburg, Carlo, Der Käse und die Würmer, die Welt

und N. Kuhnert ( Hrsg. ), Planung und Information.

eines Müllers um 1600, Syndikat, Frankfurt am

Materialien zur Planungsforschung, Bertelsmann

Main 1983).

Fachverlag, Gütersloh 1972.

Gökalp, Iskender, « On the analysis of large technical

Fleischer, Aaron, « Is it possible to describe general

systems », in: Science, Technology and Human

problem-solving processes ? », in: G. T. Moore ( Hrsg. ),

Values, XVII : 1 ( Winter 1992 ), S. 57–78.

Emerging Methods in Environmental Design and Plan-

Goldfinger, Charles, L’utile e le futile. L’economie de

ning, The MIT Press, Cambridge ( Mass. ) 1970.

l’immateriel, Odile Jacob, Paris 1994.

Forester, Tom ( Hrsg. ), The Information Technology

Goldstein, Fred R., Isdn in Perspective, Addison

Revolution, The MIT Press, Cambridge ( Mass. ) 1985.

Wesley, Reading ( Mass. ) 1992.

Ders., « The Myth of Electronic Cottage », in: T.

Gottmann, Jean, Megalopolis. The Urbanizated

Forester ( Hrsg. ), Computers in the Human Context.

Northeastern Seabord of the United States, The MIT

Information Technology, productivity, and

Press, New York 1961.

People, The MIT Press, Cambridge ( Mass. ) 1991.

Ders., « Why the Skyscraper », in: Geographic Review,

Foucault, Michel, Histoire de la folie à l’age

LVI : 2 ( 1966 ), S. 190–212.

classique, Gallimard, Paris 1972 (dt.: Foucault,

Ders., Megalopolis and Antipolis: The Telephone, The

Michel, Wahnsinn und Gesellschaft, Suhrkamp,

MIT Press, Cambridge ( Mass. ) 1977.

Frankfurt am Main 1969).

Ders., La città invincibile. Una confutazione dell’

Franz, Peter, Soziologie der räumlichen Mobilität,

urbanistica negativa, Franco Angeli, Mailand 1983.

Campus, Frankfurt 1984.

Grafmeyer, Yves, « La ségrégation spatiale », in:

Fraser, Derek und Anthony Sutcliffe ( Hrsg. ), The Pur-

S. Paugam ( Hrsg. ), L’éxclusion. L’état des savoirs, La

suit of Urban History, Edward Arnold, London 1983.

Découverte, Paris 1996.

Frey, Luigi, « Il mercato del lavoro sommerso: aspetti

Gray, Mike, Noel Hodson und Gil Gordon, Teleworking

di continuità e nuove tendenze », in: Quaderni

Explained, John Wiley & Sons, Chichester 1993.

di economia del lavoro, 41–42 ( 1990 ), S. 157–166.

Gude, Sigmar, « Wirtschaftsentwicklung, Infrastruk-

Ders., Beitrag zur Tagung « Le ragioni della fanta-

turpolitik und Stadtplanung », in: H. Korte et al.

sia », Istituto Banfi, Reggio Emilia 26.–30. April 1994.

( Hrsg. ), Soziologie der Stadt, Juventa, München 1974.

G

392

H Gaeta, Lorenzo, Lavoro a distanza e subordinazione,

Haddon, Leslie und Roger Silverstone, « Telework

Edizioni scientifiche italiane, Neapel 1993.

and the changing relationship of home and work», in:

Galliani, Luciano, « Ambiente multimediale di

N. Heap et al. ( Hrsg. ), Information Technology and

apprendimento: processo di integrazione e processi

Society, Sage, London 1995.

di interazione », in: P. Ghislandi ( Hrsg. ), Oltre il

Hamblin, Heather, « Employees’ perspectives on one

multimedia, Franco Angeli, Mailand 1995.

dimension of labour flexibility: working at a

Jochimsen, Reimut und Knut Gustafsson, Theorie der

distance », in: Work, Employment & Society, IX : 3 ( September 1995 ), S. 473–498.

Infrastruktur. Grundlagen der marktwirtschaflichen

Harries, Steve, «The potential of information net-

Entwicklung, Mohr, Tübingen 1966.

works for library and information science education», in: On-line and Cd-rom Review, XIX : 1 ( Februar 1995 ),

K

S. 13–16.

Kinsman, Francis, The Telecommuters, Biddles,

Harris, Briton, « The city of the future: the problem

Guilford 1987.

of optimal design », in: Regional Science Association

Korte, Hermann et al. ( Hrsg. ), Soziologie der Stadt,

Papers, XIX ( 1967 ), S. 185–198.

Juventa Verlag, München 1974.

Heap, Nick et al. ( Hrsg. ), Information Technology and

Korte, Werner et al. ( Hrsg. ), « Telework: opening

Society, Sage – The Open University Press,

remarks on an open debate », in: Telework: Present

London 1995.

Situation and Future Development of a New Form

Held, R. und N. Durlack, « Telepresence, spotlight

of Work Organisation, Elsevier Science Publishers,

on: the concept of telepresence », in: Presence , I : 1

Amsterdam 1988, S. 7–19.

( 1991 ), S. 109–112. Huber, Joseph, Telearbeit, Westdeutscher Verlag,

L

Opladen 1987.

La Bella, Agostino und Maria A., « Silvestrelli,

Hughes, Thomas P., « The electrification of America:

Telecomunicazioni e trasporti nella città del futuro »,

the system builders », in: Technology and Culture,

in: C. S. Bertuglia und A. La Bella ( Hrsg. ), I sistemi

XX : 1 ( Januar 1979 ), S. 124–161.

urbani, Bd. II, Franco Angeli, Mailand 1991.

Ders., Networks of Power. Electrification in Western

Large, Andrew und Jamshid Beheshti, « Multimedia

Society, 1880 – 1930, The John Hopkins University

and comprehension: the relationship among text,

Press, Baltimore 1983.

animation, and captions », in: Journal of the

Ders., « The evolution of large technological

American Society for Information Science, XXXXVI : 5

systems », in: W. E. Bijker, T. P. Hughes und T. F. Pinch

( Juni 1995 ), S. 340–347.

( Hrsg. ), The Social Construction of Technological

Laurillard, D., Rethinking University Teaching: A Fra-

Systems. New Directions in the Sociology and

mework for Effective Use of Educational Technology,

History of Technology, The MIT Press, Cambridge

Routledge, London 1993. Le Goff, Jacques, « Propos de syntèse », in: J. Le Goff

( Mass. ) 1987.

und L. Guiesse ( Hrsg. ), Crise de l’urbaine. Future de la ville, Economica, Paris 1985.

I Ichino, Pietro, « Telelavoro e normativa: quali pros-

Lumsdaine, A. A. und Robert Glaser ( Hrsg. ), Teaching

pettive di adeguamento », in: Centro europeo

Machine and Programmed Learning, National

informazione, informatica e lavoro und O. Group

Education Association, Washington ( DC ) 1960.

( Hrsg. ), Telelavoro: i miti, le prospettive concrete per l’Italia, Franco Angeli, Mailand 1989, S. 99–108.

M Maldonado, Tomás, Il futuro della modernità, Feltrinelli, Mailand 1987.

J Jenkins, Reese V. et al., « The making of an inven-

Ders., Reale e virtuale, Feltrinelli, Mailand 1992.

tion », in: The Paper of Thomas A. Edison, Bd. I, The

Ders., « Progettare oggi », Beitrag zu « Seminari

John Hopkins University Press, Baltimore 1989.

di cultura del disegno industriale », Politecnico di Milano, 4. März 1996a, Typoskript.

393

Ders., « Tecnica e società: i nuovi scenari », Einfüh-

zione: effetti economici e politiche pubbliche », in: A.

rungsvortrag zum Studienjahr 1996–1997, Politecni-

Ruberti ( Hrsg. ), Tecnologia domani, Laterza,

co di Milano, 21. Oktober 1996b, Typoskript.

Rom–Bari 1985.

Management Technology Associates, Telework

Momigliano, Franco und Domenico Siniscalco, « Note

& Telecommuting: Common Terms and Definitions

su terziarizzazione e deindustrializzazione », in:

[http : //www.intanet.co.uk/] ( 1996 ).

Moneta e credito, XXXV : 138 ( 1982 ).

Mandeville, Thomas, « The spatial effects of

Moyer, Alan J., « Urban growth and the development

information technology », in: Futures, XV : 1 ( Februar

of the telephone: some relationships at the turn

1983 ), S. 65–72.

of the century », in: I. de S. Pool ( Hrsg. ), The Social

Manheim, Marvin L., « A design process model:

Impact of the Telephone, The MIT Press, Cambridge

theory and applications to transportation planning »,

( Mass. ) 1977.

in: G. T. Moore ( Hrsg. ), Emerging Methods in Environmental Design and Planning, The Mit Press,

N

Cambridge ( Mass. ) 1970.

Niles, John S., Beyond Telecommuting: A New Para-

Manzini, Ezio, Dal prodotto al servizio. Le imprese

digm for the Effect of Telecommunications on Tra-

nella prospettiva della sostenibilità, gennaio

vel, UNDS. Department of Energy, Washington 1993

1995, Typoskript.

[http : //www.lbl.gov/ICSD/Niles/index.html] ( 1996 ).

Marazzi, Christian et al., Stato e diritti nel postfor-

Nilles, Jack, »Teleworking from home », in: T. Fores-

dismo, Manifestolibri, Rom 1996.

ter ( Hrsg. ), The Information Technology Revolution,

Martin, Henri-Jean, Histoire et pouvoirs de l’écrit,

The Mit Press, Cambridge ( Mass. ) 1985.

Albin Michel, Paris 1996.

Ders., Making Telecommuting Happen. A Guide

Martinotti, Guido, Metropoli. La nuova morfologia

for Telemanagers and Telecommuters, Van Nostrand

sociale della città, Il Mulino, Bologna 1993.

Reinhold, New York 1994.

Mattelart, Armand, La communication-monde.

Nilles Jack et al., The Telecommunications-Trans-

Histoire des idées et des stratégies, La Découverte,

portation Trade-Off. Options for Tomorrow, Wiley,

Paris 1991 (dt: Mattelart, Armand, Kommunikation

New York 1976.

ohne Grenzen: Geschichte der Ideen und Strategien globaler Vernetzung, Avinus, Rodenbach 1999).

O Ocde ( Organisation de coopération et de développe-

Ders., L’invention de la communication, La Découverte, Paris 1994.

ment économiques), Les éditions de l’Ocde, Paris

Mayntz, Renate und Thomas P. Hughes ( Hrsg. ), The

1994.

Development of Large Technical Systems, Campus,

Olsen, Donald J., « The city as a work of art », in: D.

Frankfurt am Main 1988.

Fraser und A. Sutcliffe ( Hrsg. ), The Pursuit of Urban

McCall, Andrew, The Medieval Underworld, Hamish

History, Edward Arnold, London 1983.

Hamilton, Garden House, London 1979.

Ovi, Alessandro, « Per le telecomunicazioni globali

Meadows, Jack, «The future of research informati-

un modello a ragnatela », in: L’impresa, 6 ( 1994 ),

on », in: On-line and Cd-rom Review, XVIII : 5 ( Oktober

S. 22–30.

1994 ), S. 301–303. Meier, Richard L., A Communication’s Theory of Ur-

394

P

ban Growth, The Mit Press, Cambridge ( Mass. ) 1962.

Paglia, Vincenzo, Storia dei poveri in Occidente,

Momigliano, Franco, « Le tecnologie dell’ informa-

Rizzoli, Mailand 1994.

Papert, Seymour, The Children’s Machine, Harper

the complexity of metropolitan interdependence »,

Collins, New York 1993 (dt.: Papert, Seymour, Revo-

in: L. S. Bourne und J. W. Williams ( Hrsg. ), Systems of

lution des Lernens: Kinder, Computer, Schule in einer

Cities, Oxford University Press, New York 1978.

digitalen Welt, Heise, Hannover 1994). Peek, Robin P. und Gregory B. Newby ( Hrsg. ),

Q

Scholarly Publishing. The Electronic Frontier, The

Queiroz, Jean-Manuel de, « Exclusion, identité et

MIT Press, Cambridge ( Mass. ) 1996.

disaffection », in: S. Paugam ( Hrsg. ), L’exclusion: l’état

Peled, Abraham, « The next computer revolution », in:

des savoirs, La Découverte, Paris 1996.

Scientific American, 257 : 4 ( Oktober 1987 ), S. 35–42. Piattelli Palmarini, Massimo, « Nove raccomandazio-

R

ni e mezzo », in: If, IV : 3 ( 1996 ), S. 76–83.

Ramsower, Reagan M., Telecommuting. The Orga-

Pinch Trevor F. und Wiebe E. Bijker, « The social

nizational and Behavioral Effects of Working Home,

construction of facts and artifacts: or how the socio-

Umi Research Press, Ann Arbor ( Mich. ) 1985.

logy of science and the sociology of technology

Renfro, William L., « Second thoughts on moving the

might benefit each other », in: W. E. Bijker, T. P.

office home », in: T. Forester ( Hrsg. ), The Information

Hughes und T. F. Pinch ( Hrsg. ), The Social Construc-

Technology Revolution, The Mit Press, Cambridge

tion of Technological Systems. New Directions

( Mass. ) 1985.

in the Sociology and History of Technology, The MIT

Rosenberg, Nathan, Inside the Black Box: Technology

Press, Cambridge ( Mass. ) 1989.

and Economics, Cambridge University Press,

Pool, Ithiel de Sola, « Forsight and hinsight. The

Cambridge 1982.

case of the telephone », in: I. de S. Pool ( Hrsg. ), The

Ders., «Telecommunications: complex, uncertain,

Social Impact of the Telephone, The Mit Press,

and path-dependent », in: Exploring the Black Box.

Cambridge ( Mass. ) 1978.

Technology, Economics, and History, Cambridge

Ders., Technologies of Freedom. On Free Speech

University Press, Cambridge 1994.

in an Electronic Age, The Belknap Press, Cambridge

Rossi, Pietro, « La città come istituzione politica:

( Mass. ) 1983.

l’impostazione della ricerca », in: P. Rossi ( Hrsg. ),

Ders., Technologies without Boundaries. On Tele-

Modelli di città. Strutture e funzioni politiche,

communication in a Global Age, Harvard University

Einaudi, Turin 1987.

Press, Cambridge ( Mass. ) 1990.

Rousenau, Helen, The Ideal City. Its Architectural

Pred, Allan R., The Spatial Dynamic of UNDS. Urban

Evolution, Studio Vista, London 1974.

Industrial Growth 1800 – 1914: Interpretative

Rousseau, Philippe-Olivier, « La modernité à marche

and Theoretical Essays, The MIT Press, Cambridge

force », in: Géopolitique, 48 ( Winter 1994–1995 ),

( Mass. ) 1966.

S. 24–32.

Ders., Urban Growth and the Circulation of Information: The United States System of Cities,

S

1790 – 1840, Harvard University Press, Cambridge

Salomon, Ilan, « Telecommunications and travel.

( Mass. ) 1973.

Substitution or modified mobility ? », in: Journal of

Ders., « Diffusion, organizational spatial structure,

Transport Economics and Policy, ( September

and city-system development », in: Economic

1985 ), S. 219–235.

Geography, LI ( 1975 ), S. 252–268.

Sassen, Saskia, The Mobility of Labor and Capital.

Ders., « On the spatial structure of organizations and

A study in international investment and labor flow,

395

Cambridge University Press, Cambridge 1988.

T Telecom Italia – Osservatorio Telelavoro, « Caratteri

Dies., The Global City. New York, London, Tokyo, Princeton University Press, Princeton ( N. J. ) 1991.

e dimensioni del telelavoro. Dalla sperimentazione

Dies., Cities in a World Economy, Pine Forge

al mercato », Abschlussbericht, Dezember 1994,

Press, Thousand Oaks ( Ca. ), 1994a (dt.: Sassen,

Typoskript.

Saskia, Metropolen des Weltmarkts: die neue Rolle der Global Cities, Campus, Frankfurt am Main 1996).

W Weber, Max, « Die nichtlegitime Herrschaft ( Typo-

Dies., « Economy and culture in the global city », in: B. Meurer ( Hrsg. ), Die Zukunft des Raums, Campus,

logie der Städte ) », in: Wirtschaft und Gesellschaft,

Frankfurt am Main 1994b.

Mohr, Tübingen 1980.

Dies., « La nuova centralità: l’impatto della telemati-

Wilson, A. G., « Models in urban planning: a synoptic

ca e la globalizzazione », Vortrag auf der Tagung

review of recent literature », in: Abstract in Urban

« Comunicare nella metropoli: innovazione tecnolo-

Studies, I : 3 ( 1968 ), S. 249–276.

gica e strategia urbana », Palermo 12. Oktober

Ders., « Mathematical models in planning », in: Arena

1994c, Typoskript.

Journal, ( April 1976 ), S. 260–265.

Scarpitti, Giovanna und Delia Zingarelli, Il telelavoro.

Worlock, David, « The death of reading », in: On-line

Teorie e applicazioni. La destrutturazione del

and Cd-rom Review, XVIII : 2 ( April 1994 ), S. 107–108.

tempo e dello spazio nel lavoro post-industriale,

dismo, Manifestolibri, Rom 1996.

Franco Angeli, Mailand 1993. Sennet, Richard, The Conscience of the Eye. The Design and Social Life of Cities, Knopf, New York

Der menschliche Körper in der digitalen Welt

1990 (dt.: Sennet, Richard, Civitas, die Großstadt und die Kultur des Unterschieds, Fischer, Frankfurt am Main 1991). Simmel, Georg, « Die Großstädte und das Geistes-

A

leben », in: Jahrbuch der Goethestiftung, IX ( 1903 ).

Ackerman, Diane, A Natural History of the Senses,

Ders., « Die Fremde », in: Das individuelle Gesetz.

Random House, New York 1990.

Philosophische Exkurse, Suhrkamp, Frankfurt am

Dies., A Natural History of Love, Random House, New

Main 1968.

York 1994 ( dt.: Ackerman, Diane, Die schöne

Simonis, Udo Ernst ( Hrsg. ), Infrastruktur. Theorie

Macht der Sinne: eine Kulturgeschichte, Kindler,

und Politik, Kiepenheuer & Witsch, Köln 1977.

München 1991 ).

Skinner, Burrhus F., «Teaching machines», in: Science,

Allport, A., « Visual Attention », in: M. I. Posner

CXXVIII : 969–997 ( 24. Oktober 1958 ), S. 137–158.

( Hrsg. ), Foundations of Cognitive Science, The MIT

Ders., Beyond Freedom and Dignity, Knopf, New York

Press, Cambridge ( Mass. ) 1990.

1971 (dt.: Skinner, Burrhus F., Jenseits von Freiheit

Amato, I., « In search of the human touch », in: Sci-

und Würde, Rowohlt, Reinbek bei Hamburg 1973)

ence, CCLVIII ( November 1992 ), S. 1436–1437.

Solomon, Arthur P. ( Hrsg. ), The Prospective City.

Andrieu, B., Le corps dispersé. Une histoire du corps

Economic, Population, Energy, and Environmental

au XXe siècle, L‘Harmattan, Paris 1993.

Developments, The Mit Press, Cambridge

Angeletti, Luciana R., Storia della medicina e bioetica,

( Mass. ) 1980.

Etaslibri, Mailand 1992. Arnheim, Rudolf, Art and Visual Perception, Univer-

396

sity of California Press, Berkeley 1954 ( dt.: Arnheim, Rudolf, Kunst und Sehen: eine Psychologie des schöpferischen Auges, De Gruyter, Berlin 1965 ).

C Campbell, Bernard G., Human Evolution: An Introduction to Man‘s Adaptations, Aldine, Chicago 1966 ( dt.: Campbell, Bernard G., Entwicklung zum Menschen: Voraussetzungen und Grundlagen seiner

B Battisti, Eugenio, «L’illustrazione scientifica in Italia»,

physischen Adaptationen und seiner Verhaltens-

in: E. Battisti, L’anti-Rinascimento, Bd. I, Garzanti,

anpassungen, Fischer, Stuttgart 1972 ).

Mailand 1989.

Camporesi, Piero, Le officine dei sensi, Garzanti,

Bellina, C. R. und O. Salvetti, « Metodiche di indagine

Mailand 1985.

per immagini nelle discipline mediche », in: E. Albino,

Canguilhelm, Georges, La connaissance de la vie,

D. Martini und L. Monteldo ( Hrsg. ), Conoscenza

Vrin, Paris 1971.

per immagini, Il Rostro, Rom 1989.

Capucci, Pier Luigi ( Hrsg. ), Il corpo tecnologico.

Belloni, Luigi, Per la storia della medicina, Arnaldo

L’influenza delle tecnologie sul corpo e sulle sue

Forni Editore, Sala Bolognese, 1990.

facoltà, Baskerville, Bologna 1994.

Bergamasco, Massimo, « Problemi di interazione con

Carlino, Andrea, La fabbrica del corpo. Libri e disse-

ambienti virtuali », in: Atti del IV Congresso di infor-

zione nel Rinascimento, Einaudi, Turin 1994.

matica e neuroscienze, Bari 1983, Anins, Bari 1993.

Césarini, Jean-Pierre, La peau, Presses Universi-

Berthoz, Alain, Le sens du mouvement, Odile Jacob,

taires de France, Paris 1981.

Paris 1997.

Changeux, J.-P., « De la science vers l’art », in: J. Clair

Böhme, Gernot ( Hrsg. ), Klassiker der Natur-Philoso-

( Hrsg. ), L’âme au corps: arts e sciences. 1793-

phie, Beck, München 1989.

1993, Ausstellungskatalog, Paris 19. Oktober 1993–

Borel, France, Le vêtement incarné. Les métamorpho-

24. Januar 1994, Gallimard-Electa, Paris 1993.

ses du corps, Calmann-Lévy, Paris 1992.

Chaumont, Jean-Michel, « Le corps du concentra-

Brinkmann, D. und E. J. Walter, « Aus der Geschichte

tionnaire: la honte et le regard », in: J.-Chr. Goddard

der Farbenlehre », in: E. Boller und D. Brinkmann

und M. Labrune ( Hrsg. ), Le corps, Vrin, Paris 1992.

( Hrsg. ), Einführung in die Farbenlehre, A. Francke,

Chiarelli, Brunetto, L’origine dell’uomo, Laterza,

Bern 1947.

Bari 1978.

Brohm, Jean-Marie, Catherine Larrère und Pierre

Churchland, Patrizia S. und Terrence J. Sejnowski,

Lascoumes, Corps. 1. Sociétés, sciences, politiques,

The Computational Brain, The Mit Press, Cambridge

imaginaires, Berlin, Paris 1992.

( Mass. ) 1993 ( dt.: Churchland, Patricia S. und Ter-

Brusatin, Manlio, Storia dei colori, Einaudi, Turin

rence J. Sejnowski, Grundlagen zur Neuroinformatik

1983 ( dt.: Brusatin, Manlio, Geschichte der Farben,

und Neurobiologie, Vieweg, Braunschweig–

Diaphanes, Berlin 2003 ).

Wiesbaden 1997 ).

Butler, Judith, Bodies that Matter. On the Discursive

Cittadini, Giorgio, Manuale di diagnostica per imma-

Limits of « Sex », Routledge, New York und London

gini e radiologia, ECIG, Genua 1993.

1993 ( dt.: Butler, Judith, Körper von Gewicht:

Comar, Philippe, Les images du corps, Gallimard,

die diskursiven Grenzen des Geschlechts, Suhrkamp,

Paris 1993.

Frankfurt am Main 1997 ).

Cossu, R. O., O. Martinolli und S. Valerga, « Images as

Bynum, W. F. und Roy Porter ( Hrsg. ), Medicine

tool for knowledge and representation in bioscien-

and the Five Senses, Cambridge University Press,

ces », in: E. Albino, D. Marini und L. Monteldo ( Hrsg. ),

Cambridge 1993.

Conoscenza per immagini, Il Rostro, Rom 1989.

397

Freddi, Alberto, « La realtà virtuale in riabilitazione:

D Dagognet, François, Le vivant, Bordas, Paris 1988.

il progetto Vetir », in: Neurofisiologia e riabilitazione,

Ders., Rematérialiser, Vrin, Paris 1989.

9. Tagungsbericht des « meeting nazionale in riabi-

Ders., Corps réfléchis, Odile Jacob, Paris 1990.

litazione neuromotoria » ( 13.–18. Juni 1994 ), Istituto

Ders., Le corps multiple et un, Synthélabo, Le

nazionale di medicina sociale, Rom 1995.

Plessis-Robinson 1992. Ders., La peau découvert, Synthélabo, Le Plessis-

G

Robinson 1993.

Galiana, H. L., « Oculomotor control », in: D. N.

De Kerckhove, Derrick, « Remapping sensoriale nella

Osherson, S. M. Kosslyn und J. M. Hollerbach

realtà virtuale e nelle altre tecnologie ciberattive »,

( Hrsg. ), Visual Cognition and Action, Bd. II, The MIT

in: P. L. Capucci ( Hrsg. ), Il corpo tecnologico. L’influ-

Press, Cambridge ( Mass. ) 1992.

enza delle tecnologie sul corpo e sulle sue facoltà,

Galimberti, Umberto, Il corpo, Feltrinelli,

Baskerville, Bologna 1994.

Mailand 1987.

Descartes, « La dioptrique », in: Oeuvres et lettres,

Ganguilhelm, Georges, La connaissance de la vie,

Gallimard, Paris 1953.

Vrin, Paris 1971.

De Valois, Karen K. und Frank L. Kooi, « The role of

Gehlen, Arnold, Der Mensch. Seine Natur und seine

color in spatial vision », in: L. Harris und M. Jenkin

Stellung in der Welt, Athenäum Verlag, Bonn 1950.

( Hrsg. ), Spatial Vision in Humans and Robots,

Genzling, Claude ( Hrsg. ), Le corps surnaturé.

Cambridge University Press, Cambridge 1993.

Les sports entre science et conscience, Autrement,

Dolto, Françoise, L’image inconsciente du corps,

Paris 1992.

Seuil, Paris 1984 ( dt.: Dolto, Françoise, Das

Gibson, J. J., The Perception of the Visual World,

unbewusste Bild des Körpers, Weinheim [u.a.] 1987 ).

Houghton Mifflin, Boston 1950 ( dt.: Gibson, J. J.,

Dufrenne, M., L’oeil et l’oreille, Jean-Michel Place,

Die Wahrnehmung der visuellen Welt, Beltz,

Paris 1991.

Weinheim [u.a.] 1973 ). Ders., The Senses Considered as Perceptual Systems, Allen & Unwin, London 1966 ( dt.: Gibson,

E Ehrard, Jean, L’idée de nature en France à l‘aube des

J.J., Die Sinne und der Prozess der Wahrnehmung,

lumières, Flammarion, Paris 1963.

hrsg. von Ivo Kohler, Huber, Bern–Wien 1973 ). Goddard, Jean-Christophe e Monique Labrune ( Hrsg. ), Les corps, Vrin, Paris 1992.

F Fermüller, Cornelia und Yiannis Aloimonos, « The

398

Goethe, J. Wolfgang, « Zur Farbenlehre », in:

synthesis of vision and action », in: M. S. Landy,

Sämtliche Werke, Bd. XXIII-1, Deutscher Klassiker

L. T. Maloney und M. Pavel ( Hrsg. ), Exploratory Vision

Verlag, Frankfurt am Main 1993.

The Active Eye, Springer, New York 1996.

Goodman, Nelson, The Structure of Appearance,

Fisher, Helen, « Histoire naturelle de l’amour »,

Bobbs-Merrill, Indianapolis 1966.

Robert Laffont, Paris 1994.

Gore, M. J., « Computers bring medicine’s images to

Foley, J. D. et al., Computer Graphics. Principles and

light: digital imaging makes inroads », in: Clinical

Practice, Addison-Wesley, Reading ( Mass. ) 1990.

Laboratory Science, V : 2 ( März–April 1992 ), S. 72–77.

Ford, Kenneth M., Glimour Clark und Patrick J.

Gregory, R. L., Concepts and Mechanisms of Percep-

Hayes ( Hrsg. ), Android Epistemology, The Mit Press,

tion, Duckworth, London 1974.

Cambridge ( Mass. ) 1995.

Greitz, Torgny, « Brain Imaging. The Past, the Pre-

Hubel, David H., Eye, Brain, and Vision, Scientific

sent and the Future », in: Th. Newton und D. Gordon ( Hrsg. ), Advanced Imaging Techniques, Chavadel

American Books, New York 1988 ( dt.: Hubel, David

Press, San Anselmo ( Cal. ) 1983.

H., Auge und Gehirn: Neurobiologie des Sehens,

Gros, François, L’ingénierie du vivant, Odile Jacob,

Spektrum der Wissenschaft, Heidelberg 1989 ).

Paris 1990.

Huisman, Bruno und François Ribes ( Hrsg. ), Les philosophes et la nature, Bordas, Paris 1990. Dies., Les philosophes et le corps, Dunod, Paris

H Haralick, Robert H. und Linda G. Shapiro, Computer

1992.

and Robot Vision, Addison-Wesley, Reading ( Mass. ) 1993.

I

Haraway, Donna J., Simians, Cyborgs, and Women:

Iwata, H., « Pen-based haptic virtual environement »,

The Reinvention of Nature, Routledge, New York 1991

in: Ieee Vrais ‘93 ( Seattle, Washington ), Piscataway

( dt.: Haraway, Donna J., Die Neuerfindung der

( N.J. ) 1993.

Natur: Primaten, Cyborgs und Frauen, hrsg. von Carmen Hammer und Immanuel Stieß, Campus,

J Jay, Martin, Downcast Eyes. The Denigration of

Frankfurt am Main 1995 ). Hardin, C. L., Color for Philosophers, Hackett,

Vision in Twentieth-Century French Thought,

Indianapolis 1988.

University of California Press, Berkeley and Los

Harris, Lawrence und Michael Jenkin ( Hrsg. ), Spatial

Angeles ( Ca. ) 1993.

Vision in Humans and Robots, Cambridge University

Jolly, Luciano, Éloge de la main. Le livre du contact,

Press, Cambridge 1993.

Les Voix du Corps, Toulouse 1991.

Harris, Loats L., « Biomedical image analysis

Jordan, Michael I. und David A. Rosenbaum, « Ac-

applications », in: E. Swenberg und J. J.

tion », in: M. I. Posner ( Hrsg. ), Foundations of Cogniti-

Conklin Hrsg.), Imaging Techniques in Biology and

ve Science, The Mit Press, Cambridge ( Mass. ) 1990.

Medicine, Academic Press, New York 1988. Hebb, D. O., The Organization of Behavior, Wiley,

K

New York 1949.

Kandel, E. R. und J. H. Schwartz, Principles of Neural

Heisenberg, Werner, « Die Goethesche und die

Science, Elsevier, New York 1985.

Newtonische Farbenlehre im Lichte der modernen

Kemp, M., « The mark of truth: looking and learning in

Physik », in: Wandlungen in den Grundlagen der

some anatomical illustrations from the Renais-

Naturwissenschaft, Hirzel, Stuttgart 1959.

sance and Eighteenth Century », in: W. F. Bynum und

Hempel, C. G., Aspects of Scientific Explanation, The

Roy Porter ( Hrsg. ), Medicine and the Five Senses,

Free Press, New York 1965 ( dt.: Hempel, C. G.,

Cambridge University Press, Cambridge 1993.

Aspekte wissenschaftlicher Erklärung, De Gruyter,

Klein, Stanley A., « Will robots see ? », in: L. Harris und

Berlin–New York 1977 ).

M. Jenkin ( Hrsg. ), Spatial Vision in Humans and Ro-

Hirose, M., K. Yokoyama und S. Sato, « Transmission

bots, Cambridge University Press, Cambridge 1993.

of realistic sensation: development of a virtual

Kosslyn, S. M. und O. Koenig, Wet Mind. The New

dome », in: IEEE Vrais ‘93 ( Seattle, Washington ),

Cognitive Neuroscience, The Free Press, New York

Piscataway ( N.J. ) 1993.

1992.

Höhne, K. H. et al., « A 3D anatomical atlas based

Krüger, Wolfgang, « Die Rolle von Virtual Reality in

on a volume model », in: IEEE Comput. Graphics Appl.,

der Visualisierung von Daten aus Wissenschaft und

XII : 4 ( 1992 ), S. 72–78.

399

Medizin », in: H. J. Warnecke und H. J. Bullinger

dibattito tedesco fra Bismarck e Weimar, Feltrinelli,

( Hrsg. ), Virtual Reality. Anwendungen und Trends,

Mailand 1979.

Springer-Verlag, Berlin 1993.

Ders., Il futuro della modernità, Feltrinelli, Mailand 1987. Ders., Reale e virtuale, Feltrinelli, Mailand 1992.

L Laor, Nathaniel und Joseph Agassi, « The computer

Mangili, F. und G. Musso, La sensorialità delle mac-

as a diagnostic tool in medicine », in: C. Mitcham

chine, McGraw-Hill, Mailand 1992.

und A. Huning ( Hrsg. ), Philosophy and Technology, D.

Marini, Daniele, « Dallo schermo al cervello », in:

Reidel, Dordrecht 1986.

Stileindustria, I : 2 ( Mai 1995 ), S. 19–21.

Le Breton, David, Anthropologie du corps et moder-

Ders., « La percezione del colore eidomatico e

nité, Presses Universitaires de France, Paris 1990.

l’interazione con l’elaboratore », in: Colori della vita,

Ders., Corps et sociétés, Méridiens Klincksieck,

Tagungsbericht, Turin 27.–28. August 1995.

Paris 1991.

Ders., « I misteri del colore », in: Ottagono, XXX

Ders., La sociologie du corps, Presses Universitaires

( Dezember 1995–Februar 1996 ), S. 34–41.

de France, Paris 1992.

Marr, David, Vision, Freeman, New York 1982.

Leclercq, Gérard, « La vision chrétienne du corps »,

Marx, Ellen, Couleur optique, Dessain et Tolra, Paris

in: F. Lemaire, S. Rameix und J.-P. Ghanassia ( Hrsg. ),

1983 ( dt.: Marx, Ellen, Farbintegration und

Le corps à qui appartient-il ?, Flammarion, Paris 1996.

Simultankontrast, Muster-Schmidt, Göttingen

Le Goff, Jacques, L’imaginaire médiéval, Gallimard,

[u.a.] 1989 ).

Paris 1985 ( dt.: Le Goff, Jacques, Fantasie und Rea-

Mauss, Marcel, Sociologie et anthropologie, Presses

lität des Mittelalters, Klett-Cotta, Stuttgart 1990 ).

Universitaires de France, Paris 1968 ( dt.: Mauss,

Lenoble, Robert, Histoire de l’idée de nature, Michel,

Marcel, Soziologie und Anthropologie, Hanser,

Paris, 1969.

München 1974 ).

Levin, David M. ( Hrsg. ), Modernity and the

McLeod, John und John Osborn, « Physiological si-

Hegemony of Vision, University of California Press,

mulation in general, and in particular », in: H. H.

Berkeley and Los Angeles ( Ca. ) 1993.

Patee et al. ( Hrsg. ), Natural Automata and Useful

Lewis, Edwin R., « Some Biological Modelers of

Simulations, Spartan, Washington 1966.

the Past », in: H. H. Pattee et al. ( Hrsg. ), Natural Au-

Mehler, Jacques, « Panorama delle scienze cogni-

tomata and Useful Simulations, Spartan,

tive », in: Sissa, Neuroscienze e scienze cognitive,

Washington 1966.

Cuen, Neapel 1994.

Lowen, Alexander, Physical Dynamics of Charac-

Mehrabian, Albert, Nonverbal Communication,

ter Structure ( The Language of the Body ), Grune and

Aldine Artherton, Chicago ( Ill. ) 1972.

Stratton, New York 1958.

Merleau-Ponty, Maurice, Le visible et l’invisible, Gallimard, Paris 1964 ( dt.: Merleau-Ponty, Maurice, Das Sichtbare und das Unsichtbare, hrsg. von

M

400

Mach, Ernst, Die Analyse der Empfindungen und das

Claude Lefort, Fink, München 1986 ).

Verhältnis des Physischen zum Psychischen ( 1885 ),

Milne, Eric N. C. ( Hrsg. ), Models and Techniques in

Gustav Fischer, Jena 1922.

Medical Imaging Research, Praeger, New York 1983.

Mahowald, Misha A. und Carver Mead, « The silicon

Misrahi, Robert, Le corps et l’esprit dans la philoso-

retina», in: Scientific American, ( Mai 1991 ), S. 40–46.

phie de Spinoza, Delagrange-Synthélabo,

Maldonado, Tomás ( Hrsg. ), Tecnica e cultura. Il

Paris 1992.

Moscovici, Serge, Essai sur l’histoire humaine de la

Plas, F., Viel, E. und Blanc Y., La marche humaine.

nature, Flammarion, Paris 1968 ( dt.: Moscovici,

Kinésiologie dynamique, biomécanique et pathomé-

Serge, Versuch über die menschliche Geschichte der

canique, Masson, Paris 1989. Poggio, Tommaso, « Visione: l’altra faccia dell’ intelli-

Natur, Suhrkamp, Frankfurt am Main 1982 ).

genza artificiale », in: R. Viale ( Hrsg.