Internetökonomie und Ethik: Wirtschaftsethische und moralökonomische Perspektiven des Internets [1 ed.] 9783428530458, 9783428130450

Auch wenn nicht wenige Techniker das aktuelle Entwicklungsstadium der digital vernetzten Ökonomie - oder kurz: der Inter

141 94 2MB

German Pages 270 Year 2009

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Internetökonomie und Ethik: Wirtschaftsethische und moralökonomische Perspektiven des Internets [1 ed.]
 9783428530458, 9783428130450

Citation preview

Volkswirtschaftliche Schriften Heft 556

Internetökonomie und Ethik Wirtschaftsethische und moralökonomische Perspektiven des Internets

Herausgegeben von

Detlef Aufderheide und Martin Dabrowski

asdfghjk Duncker & Humblot · Berlin

DETLEF AUFDERHEIDE / MARTIN DABROWSKI (Hrsg.)

Internetökonomie und Ethik

Volkswirtschaftliche Schriften Begründet von Prof. Dr. Dr. h. c. J. Broermann {

Heft 556

Anschriften der Herausgeber: Priv.-Doz. Dr. Detlef Aufderheide

Dr. Martin Dabrowski

Institut für Anlagen und Systemtechnologien Westfälische Wilhelms-Universität Münster Am Stadtgraben 13 – 15 D-48143 Münster

Akademie Franz Hitze Haus Fachbereich Wirtschaft, Sozialethik, Umwelt Kardinal-von-Galen-Ring 50 D-48149 Münster

Die Tagungsreihe „Wirtschaftsethik und Moralökonomik. Normen, soziale Ordnung und der Beitrag der Ökonomik“ wird in Kooperation zwischen der Katholisch-sozialen Akademie FRANZ HITZE HAUS und der Wirtschaftswissenschaftlichen Fakultät der Universität Münster durchgeführt. Die Tagung „Internetökonomie und Ethik“ ist auf Seiten der Wirtschaftswissenschaftlichen Fakultät der Universität Münster aus einem Forschungsprojekt zum Thema Internetökonomie und Hybridität hervorgegangen, das im Rahmen der Förderausschreibung zur Internetökonomie durch das Bundesministerium für Bildung und Forschung ermöglicht wurde; Projektträger war das DLR. Den Förderern des Forschungsvorhabens sind wir sehr zu Dank verpflichtet.

Internetökonomie und Ethik Wirtschaftsethische und moralökonomische Perspektiven des Internets

Herausgegeben von

Detlef Aufderheide und Martin Dabrowski

asdfghjk Duncker & Humblot · Berlin

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten # 2009 Duncker & Humblot GmbH, Berlin Fotoprint: Berliner Buchdruckerei Union GmbH, Berlin Printed in Germany ISSN 0505-9372 ISBN 978-3-428-13045-0 Gedruckt auf alterungsbeständigem (säurefreiem) Papier ∞ entsprechend ISO 9706 *

Internet: http://www.duncker-humblot.de

Vorwort Auch wenn nicht wenige Techniker das aktuelle Entwicklungsstadium der digital vernetzten Ökonomie – oder kurz: der Internetökonomie – mit der Frühzeit des Automobilbaus vergleichen, ist die Entwicklung bereits sehr rasch und sehr weit fortgeschritten. Es gibt kaum eine Branche oder einen Wirtschaftsbereich – und möglicherweise kaum einen Bereich der Gesellschaft insgesamt –, in dem das Internet nicht weitreichende technische und organisatorische Änderungen ausgelöst hätte. Die Erbringung von Leistungen wandelt sich überall dort besonders rasch, wo diese Leistungen zum Teil oder vollständig in digitaler Form erbracht werden können. Daten, Texte und Bilder können in zuvor ungeahnter Zahl und Qualität gesammelt, transportiert und ohne örtliche Bindung oder zeitlichen Verzug auf Knopfdruck oder per Mausklick abgerufen werden. Insbesondere fällt auf, dass die neuen Möglichkeiten der Information und Kommunikation im öffentlichen wie im privaten Leben häufig ebenso intensiv wie anhaltend unreflektiert genutzt werden. Dies ist einerseits gut nachvollziehbar: Die dramatische Entwicklung des Internets eröffnet mit hoher Geschwindigkeit neue Geschäftsfelder, erhöht (für unterschiedliche Beteiligte in unterschiedlichem Maße) die Transparenz und gibt beispielsweise nicht nur Ansätzen zur Kostensenkung, sondern auch neuen Geschäftsmethoden Raum, und zwar keineswegs nur in Marketing und Vertrieb, sondern entlang der gesamten Wertschöpfungskette. Andererseits fördert das Internet allem Anschein nach eine Reihe von Praktiken, die sich als ethisch höchst fragwürdig – und über kurz oder lang für Wirtschaft und Gesellschaft gleichermaßen schädlich – erweisen können. Die enormen Herausforderungen an die normativen Grundlagen unserer Wirtschaft und Gesellschaft liegen auf der Hand. Sie reichen von den Möglichkeiten und Grenzen politischer Gestaltungsfähigkeit auf nationaler und supranationaler Ebene über eine fragliche Neuorientierung des Wettbewerbs bis zu Grundfragen vertrauensvoller menschlicher Kommunikation und des individuellen Datenschutzes, die regelmäßig in Interessenkonflikte zwischen Marktakteuren münden. Dieser Band greift zentrale ethisch relevante Fragen aktueller Entwicklungen des Internets auf und spiegelt sie, im Dialog mit Vertreterinnen und Vertretern anderer Disziplinen, an aktuellen Erkenntnissen ökonomischer Theorie. Den technischen wie ökonomischen Eigenheiten des Gegenstands Internet ist dabei

6

Vorwort

ein Problem moderner wissenschaftlicher Arbeitsteilung in besonderer Weise geschuldet: Komplexe, jeweils fachbezogene Detailinformationen müssen für den Transport über die Grenzen von Disziplinen hinweg verständlich aufbereitet werden, um Vertretern von Ethik und Informatik, von Ökonomik und Jurisprudenz sowie weiteren Interessierten jeweils dringend benötigtes Orientierungswissen für ihre eigenen, fachbezogenen Fragen gezielt zur Verfügung zu stellen. In den unvermeidlich gesetzten Grenzen soll der vorliegende Sammelband auch diesem Anliegen dienen. In diesem Buch sind die Ergebnisse einer disziplinenübergreifenden Tagung zusammengefasst, die im Dezember 2007 in der Akademie Franz Hitze Haus in Münster stattfand. In sechs Beiträgen werden zu ausgewählten Bereichen aktuelle Forschungsergebnisse präsentiert und stets von je zwei Korreferaten, nicht zuletzt mit Blick auf ihre praktische Anwendbarkeit, diskutiert. Dabei steht vor allem die Leistungsfähigkeit moderner ökonomischer Lösungsvorschläge im Dialog mit Praktikern aus der (Internet-)Wirtschaft sowie mit Forschern aus Informatik und Wirtschaftsinformatik, Juristen, Philosophen und Theologen auf dem Prüfstand. Mit den nunmehr vorliegenden Arbeiten wird eine Reihe fortgesetzt, die unter dem Rubrum „Normen, soziale Ordnung und der Beitrag der Ökonomik“ im Jahre 1996 begann. Die fünf vorangegangenen Sammelbände tragen die folgenden Titel und Untertitel: „Wirtschaftsethik und Moralökonomik. Normen, soziale Ordnung und der Beitrag der Ökonomik“ (VWS 478); „Internationaler Wettbewerb – nationale Sozialpolitik? Wirtschaftsethische und moralökonomische Perspektiven der Globalisierung“ (VWS 500); „Gesundheit – Ethik – Ökonomik. Wirtschaftsethische und moralökonomische Perspektiven des Gesundheitswesens“ (VWS 524); „Corporate Governance und Korruption. Wirtschaftsethische und moralökonomische Perspektiven der Bestechung und ihrer Bekämpfung“ (VWS 544); „Markt und Wettbewerb in der Sozialwirtschaft. Wirtschaftsethische und moralökonomische Perspektiven für den Pflegesektor“ (VWS 551). Sie sind in den „Volkswirtschaftlichen Schriften“ (VWS) unter den jeweils in Klammern angegebenen Nummern im selben Verlag erschienen. Ausgangspunkt und Basis dieser Reihe ist eine Kooperation zwischen der Katholisch-sozialen Akademie Franz Hitze Haus und der Wirtschaftswissenschaftlichen Fakultät der Universität Münster. Deren vorrangiges Ziel liegt darin, dem Diskurs zwischen Ethik und Ökonomik, zwischen Ökonomen und Theologen bzw. Moralphilosophen sowie Vertretern anderer Disziplinen ein Forum zu bieten, um sich über aktuelle Forschungsergebnisse ebenso wie über die sich ergebenden Implikationen für die Praxis auszutauschen.

Vorwort

7

Dabei werden, wie der Untertitel jeweils anzeigt, vorrangig zwei besondere Perspektiven eingenommen. Es geht einerseits – Stichwort Wirtschaftsethik – nicht vorrangig um allgemeine Fragen der Angewandten Ethik; vielmehr erfolgt jeweils eine Engführung auf wirtschaftlich relevante Aspekte. Im vorliegenden Band geht es also nicht oder nur am Rande um allgemeine Fragen der Internetethik, sondern um wirtschaftsethisch relevante Aspekte des Internets. Andererseits – Stichwort Moralökonomik – geht es in der vorliegenden Reihe immer wieder um die Frage, wie mit den Methoden der Ökonomik auch und gerade moralische Probleme besser erklärt und vertiefend analysiert werden können: Moralökonomik kann in Langfassung auch verstanden werden als die Gesamtheit aller wissenschaftlichen Untersuchungen, die durch die Anwendung bewährter und neuerer ökonomischer Methoden zu einem besseren Verständnis moralisch relevanter Fragen und Probleme beitragen (können). Dabei ist uns bewusst, dass es „den“ ökonomischen Ansatz nicht gibt: Es geht auch innerhalb der Ökonomik um einen fruchtbaren Wettbewerb um die besten Analysemethoden. Wenn aber, diesen Fragen vorgelagert, die Ökonomik als Forschungsprogramm – und als solches vermeintlich fokussiert auf den Eigennutz und andere moralisch höchst ambivalente Phänomene – gezielt auf Fragen der Moral angesetzt wird, so führt dies bisweilen noch zu Irritationen, und zwar bemerkenswerterweise nicht nur bei Fachfremden, sondern bisweilen noch unter Ökonomen. Die vorliegende Buchreihe ist angetreten, diesen Irritationen mit inhaltlicher Überzeugungsarbeit entgegenzutreten. Dass dabei auch die bestehenden Grenzen einer ökonomischen Analyse der Moral im Dialog auszuloten sind, versteht sich von selbst. Hervorragende Voraussetzungen zum Gelingen des letztlich auf wechselseitiges Lernen angelegten Vorhabens bietet in unvergleichlicher Weise die Akademie Franz Hitze Haus in Münster. Wir sind dem Leiter des Hauses, Herrn Prof. DDr. Thomas Sternberg, für die wieder außerordentlich harmonische Zusammenarbeit und großzügige Unterstützung bei der Durchführung der Tagung sehr dankbar. Auf Seiten der Wirtschaftswissenschaftlichen Fakultät der Universität Münster ist das aktuelle Vorhaben aus einem Forschungsprojekt zum Thema Internetökonomie und Hybridität hervorgegangen, das im Rahmen der Förderausschreibung zur Internetökonomie durch das Bundesministerium für Bildung und Forschung ermöglicht wurde; Projektträger war das DLR. Beiden Institutionen gilt ebenfalls unser Dank. In der inhaltlichen Vor- und Nachbereitung konnten wir – in projektbezogenen Einzelgesprächen, durch weitergehende Hinweise und auf vielfältige andere Weise – je nach fachbezogener Fragstellung immer wieder auf guten Rat aus dem disziplinenübergreifend besetzten Beraterkreis zurückgreifen: Den Herren

8

Vorwort

Prof. Dr. Dr. Karl Homann, Prof. Dr. Dr. Christian Kirchner, LLM., Prof. Dr. Michael Schramm, Prof. Dr. Dr. h.c. Jochen Schumann, Prof. Dr. Viktor Vanberg und Prof. Dr. Josef Wieland danken wir an dieser Stelle sehr herzlich für die inzwischen langjährige Unterstützung. Münster, im Januar 2009

Detlef Aufderheide und Martin Dabrowski

Inhaltsverzeichnis Karsten Weber Anything goes? Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft ........................................................................................

11

Alexander Filipoviü Die Informationsfreiheit und der Zusammenhang von Abwehrund Anspruchsrechten (Korreferat) .......................................................................................................

35

Eric Christian Meyer Informationsfreiheit – eine ökonomische Analyse (Korreferat) .......................................................................................................

45

Aloys Prinz Software-Patente ...............................................................................................

57

Florian Bien Patentschutz für Computerprogramme – Aktuelle Rechtslage und Reformüberlegungen (Korreferat) .......................................................................................................

79

Stefan Kooths Patentschutz: Sonderregeln für die Softwareindustrie (Korreferat) .......................................................................................................

89

Christoph Lütge Schattenseiten des Internets? Zensur und Kontrolle ..........................................

97

Karsten Giese Kontrolle, Zensur und Ethik unter den Bedingungen von Balkanisierung und Nationalisierung (Korreferat) ....................................................................................................... 117 Jürgen Pelzer InterNET Governance: Zensur, Demokratie und Kontrolle des Internets (Korreferat) ....................................................................................................... 137

10

Inhaltsverzeichnis

Stefan Klein Der gläserne Mensch. RFID-Technik, Cookies etc. als Chance für die Wirtschaft und Gefahr für den Menschen? .................................................. 145 Frank Pallas 4 Thesen zu RFID, Cookies & Co (Korreferat) ....................................................................................................... 167 Klaus Wiegerling Zur Wirkung der RFID-Technologie im Rahmen der „Vermessung und Vernetzung der Welt“ (Korreferat) ....................................................................................................... 179 Hansueli Stamm Entstehung von Vertrauen beim elektronischen Handel .................................... 187 Mathias Erlei Vertrauensbildung in elektronischen Märkten (Korreferat) ....................................................................................................... 209 Michael Florian Vertrauen im elektronischen Handel (Korreferat) ....................................................................................................... 217 Johannes J. Frühbauer Soziale Ungleichheiten überwinden und Partizipationschancen eröffnen – der Digital Divide als ethische Herausforderung ............................. 227 Thorsten Ricke Der Digital Divide aus medienrechtlicher Sicht: Informationelle Grundversorgung durch Medienkompetenzförderung (Korreferat) ....................................................................................................... 247 Balthas Seibold Die globale digitale Kluft ist eine Lern- und Innovationskluft. Ethische Herausforderungen und Lösungsansätze durch Fokus auf Aus- und Weiterbildungschancen (Korreferat) ....................................................................................................... 255 Autorenverzeichnis .................................................................................................. 269

Anything goes? Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft Von Karsten Weber

I. Vorbemerkungen Liest man den Titel, so legt dieser eine Assoziation nahe, die zunächst nichts mit dem Internet oder der Informationsgesellschaft zu tun hat, sondern mit Paul K. Feyerabends wissenschaftstheoretischer Streitschrift „Against Method“, in der er dafür plädierte, dass jede Methode des Erkenntnisgewinns eine Berechtigung habe, dass also Pluralität der Erkenntnismethoden einen Wert an sich darstelle. In der Folge und wohl gegen die Intentionen Feyerabends wurde das „anything goes“ aber meist als Schlachtruf eines unhintergehbaren ethischen Relativismus verwendet. Dies nun stellt die Verbindung zur Ethik in Informationsgesellschaften her, denn viele Texte gerade der euphorischen Frühzeit des Internet traten als Beschreibung und Plädoyer eines moralisch pluralen Informationskosmos auf. Doch inzwischen haben sich sowohl die damals geäußerten Hoffnungen als auch die Befürchtungen als völlig überzogen erwiesen: Das Internet als Paradigma der vernetzten Welt ist weder unreguliert noch unregulierbar, wie es 1996 John Perry Barlow in seiner „Unabhängigkeitserklärung des Cyberspace“ noch behauptete.1 Im Gegenteil: Es hat sich erwiesen, dass „die Regierungen der industriellen Welt, diese müden Giganten aus Fleisch und Stahl“, durchaus ihre Macht in das Internet ausdehnen konnten und können – von den global tätigen Unternehmen einmal ganz abgesehen. Tatsächlich ist heute eher zu befürchten, dass die dem Internet zugrunde liegende Informations- und Kommunikationstechnologie das Herrschaftsinstrument schlechthin darstellen könnte. Mit ihr können Rechte und Freiheiten auch in liberalen, demokratisch regierten Rechtsstaaten effektiv unter Druck gesetzt oder faktisch gar zum Verschwinden gebracht werden. In welchem Sinne dies geschehen könnte, soll daher im Folgenden an drei Varianten dessen, was hier Informationsfreiheit genannt wird, aufgezeigt werden.

___________ 1 Siehe bspw. http://www.heise.de/tp/r4/artikel/1/1028/1.html, zuletzt besucht am 13.12.2007.

12

Karsten Weber

II. Dystopien und was wir daraus lernen könnten Insbesondere in der Science Fiction-Literatur, populärer aber sicher im Bereich des entsprechenden Film-Genres, wurde und wird die totale Durchdringung der menschlichen Lebenswelt durch Informations- und Kommunikationstechnologie (IuK) immer wieder thematisiert. Solche Zukunftsentwürfe sind oft dystopisch angelegt, denn die beschriebenen Welten erscheinen menschenfeindlich, die Technik dient der totalen Überwachung und Kontrolle, die Menschen sind der Technik hilflos ausgeliefert und können sich deren Einfluss nicht entziehen. George Orwells „1984“ stellt hierfür das Paradebeispiel dar, ebenso wäre „Brave New World“ von Aldous Huxley zu nennen. Aus den 1960er Jahren sind wahrscheinlich die Zukunftsromane von Philip K. Dick am bekanntesten, doch deren Popularisierung fand vor allem durch Kinoadaptionen statt; um ein Massenpublikum erreichen zu können, wurden die düsteren Grundaussagen der literarischen Vorbilder zuweilen so modifiziert, dass die Filme ein glückliches Ende finden: Die Menschen, oft angeführt durch eine einzelne charismatische Figur, befreien sich aus dem Joch der Technik und streben einer schönen neuen Welt entgegen – Freiheit, Gleichheit, Wohlstand und Sicherheit für alle. Doch in der realen Welt sind Helden ebenso wie Happyends Mangelware. Ein Beispiel für eine literarische Dystopie mit ambivalenten Ende ist John Brunners „Shockwave Rider“: Dort kann die totale Überwachung durch Technologie nur durch Verweigerung gegenüber derselben erreicht werden. Ähnlich aufgebaut ist die Kurzgeschichte „Press Enter“ von John Varley – der Protagonist muss, um der totalen Überwachung zu entkommen, jeglicher Technologie entsagen. Stanisáaw Lems Buch „Kongres futurologiczny“ (deutsch: „Der futurologische Kongress“) wiederum zeigt, dass es im Prinzip keine Möglichkeit gibt, die reale Welt von einer künstlich erzeugten virtuellen Welt zu unterscheiden und dass diese fehlende Unterscheidungsmöglichkeit der Schlüssel zur totalen Kontrolle und Steuerung der Menschen wäre – ein Thema, das Lem bereits in seiner „Summa Technologiae“ diskutiert hatte. In einem weiteren Buch, „Pokój na ziemi“ (deutsch: „Frieden auf Erden“), zieht Lem eine ähnliche Konsequenz, wie wir sie in „Shockwave Rider“ oder in „Press Enter“ finden, denn auch Lem ist der Ansicht, dass wir der totalen Kontrolle und Überwachung, vor allem aber der gänzlichen Vernichtung durch hoch technisierte Waffen, nur durch den völligen Verzicht auf den Gebrauch der Technik entkommen könnten. Lem gibt allerdings seiner Lösung insofern eine überraschende Wendung, als dass in „Frieden auf Erden“ die Technik, die eine Form der Intelligenz entwickelt hat, diese Schlussfolgerung selbst zieht und sich eigenständig komplett zerstört. Zunächst sieht es kaum so aus, als ob man aus solchen Geschichten etwas für das reale Leben lernen könnte. Denn weder möchten wir – aus guten Gründen – auf einen charismatischen Führer vertrauen, der uns ins gelobte Land führt. Noch ist es eine wählbare Option, ganz dem Gebrauch der Technik zu

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

13

entsagen – diese Alternative zöge großen Schaden nach sich, denn unzählige Menschen sind heute in ihrem Leben und Überleben vollständig abhängig von Technik. Dass sich schließlich die Technik selbst dazu entschlösse, sich komplett zu zerstören, ist im schlechten Sinne bloße Fiktion. Die Lösungsangebote der genannten Geschichten sind also weder praktikabel noch auch nur annähernd realistisch. Doch wenn wir schon keine Lösungen kennenlernen, können diese Geschichten vielleicht dafür sensibilisieren, welche Konsequenzen der unreflektierte Gebrauch von Technik im Extremfall nach sich ziehen könnte.2 Zudem zeigen sie auf, was passieren mag, wenn staatlichen Institutionen keine rechtsstaatlichen Grenzen für den Gebrauch von Technik zur Überwachung und Kontrolle der Bürger gesetzt würden, wenn es keinen ordnungspolitischen Rahmen für den Gebrauch solcher Technik im kommerziellen Kontext gäbe und wenn Bürger um ihrer Bequemlichkeit, der Unterhaltung oder aus welchen Motiven auch immer unbedacht auf persönliche Freiräume verzichteten. Im Kontext moderner Informationsgesellschaften besitzen nun viele Themen aus (informations-)ethischer Sicht hohe Dringlichkeit: Die digitale Spaltung ist nach wie vor nicht nur in den Entwicklungs- und Schwellenländern ein Problem,3 der möglichst ungehinderte Zugang zu Informationen, bspw. im Zusammenhang mit dem Urheberrecht, ist gerade für Wissenschaftler von hoher Bedeutung, die Tendenz, alle Lebensbereiche der technisch gestützten Überwachung und Kontrolle zu unterwerfen, ist unübersehbar.4 Die beiden erstgenannten Themen finden aber beileibe nicht so viel öffentliche Aufmerksamkeit wie der Datenschutz und der Schutz der Privatsphäre – wobei öffentlich hier vor allem medienöffentlich zu bedeuten scheint, da ganz anders als 1983 kein breiter Widerstand gegen die Aufweichung der Privatsphäre in der Bevölkerung zu verzeichnen ist. In den Medien und in der politischen Szene der Bundesrepublik Deutschland wird das Thema allerdings sehr kontrovers diskutiert; zurzeit entzündet sich der Streit insbesondere an den so genannten Onlinedurchsuchungen, also dem Vorhaben, Computer gezielt durch Nutzung von Software ohne Wissen der Nutzer untersuchen zu können. Tatsächlich ist dieses Vorhaben aber nur ein – allerdings besonders eingängiges – Beispiel für die Begehrlichkeiten, die Informationen wecken. Denn Informationszugang verspricht, so könnte man viele öffentliche Debatten deuten, die Lösung aller gesellschaftlichen Probleme. Dies sieht man selbst an den weiter oben genannten Beispielen für andere wichtige Themen der Informationsgesellschaft. So wird die Schlie___________ 2

Science Fiction könnte als Variante der Szenariotechnik in der Technikfolgenabschätzung angesehen werden. 3 Vgl. Weber (2006c). 4 Ausführlich in Weber (2005).

14

Karsten Weber

ßung der digitalen Spaltung als Lösung vieler sozialen Ungleichheiten angesehen.5 Schutz vor Informationseingriffen, Zugriff auf Informationen: Diese Stichwörter deuten an, dass es in der Informationsethik, zumindest in der der hier vertretenen Konzeption, um bestimmte Freiheiten geht – und Freiheit im Sinne der politischen Freiheit ist Gegenstand der politischen Philosophie. Konträr zu anderen Konzeptionen wird im folgenden Text davon ausgegangen, dass Informationsethik an die Konzepte der politischen Philosophie andocken muss, um Fundierungen für Regeln des richtigen Umgangs mit Informationen aufzeigen zu können. Dazu wird am Schluss noch einmal etwas mehr gesagt; nun muss noch kurz darauf eingegangen werden, warum hier von Informationsethik und nicht von Internetethik die Rede ist.

III. Informationsethik statt Internetethik Jener Zweig der angewandten Ethik, der sich mit IuK-Technologie beschäftigt, wird unterschiedlich benannt: Verbreitet sind bspw. die Bezeichnungen Computerethik6, Cyberethik7, Netzethik oder Internetethik8, in neueren Texten wird zunehmend von Informationsethik9 gesprochen. Systematisch gesehen wurde das Feld zuweilen der Medienethik10 zugeschlagen. Themen, mit denen sich Informationsethik auseinandersetzt, sind bspw. digitale Spaltung und soziale Teilhabe durch IuK-Technologie, elektronische Demokratie und Empowerment durch IuK-Technologie, Urheberrechtsfragen und freier Informationszugang, der Schutz der Privatsphäre, Datenschutz und dazu entgegengesetzt Überwachung und Kontrolle, die Veränderungen persönlicher und gesellschaftlicher Beziehungen sowie Probleme der technischen Modifikation und der Erweiterung des menschlichen Körpers durch IuK-Technologie: Es geht ganz offensichtlich nicht nur um das Internet, sondern um mehr. Grundsätzlich beschäftigt sich Informationsethik damit, wie die jeweiligen bereichspezifischen Handlungsmöglichkeiten moralisch gestaltet werden können und welche moralischen Grundsätze, Werte, Normen oder Ansprüche dabei in Anschlag gebracht werden sollen. ___________ 5

Vgl. Weber (2006c). Bspw. Johnson (2001). 7 Bspw. Spinello (2003). 8 Bspw. Hausmanninger/Capurro (2002). 9 Bspw. Spinner/Nagenborg/Weber (2001). 10 Vgl. Wiegerling/Capurro (1999). 6

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

15

Dass es in der Informationsethik um mehr als das Internet geht, macht folgendes Beispiel deutlich. Die Selbstmodifikation der Menschen durch technische Artefakte stellt die Frage, ob es ein verbindliches Wesen des Menschen gibt, das unter allen Umständen zu erhalten wäre. Diese Frage ist keine spezifisch informationsethische, sondern wird seit geraumer Zeit in der Bio- und Medizinethik diskutiert. Im deutschsprachigen Bereich hat hier die Kontroverse um Peter Sloterdijks Vortrag und Text über die „Regeln für den Menschenpark“ hohe Wellen geschlagen.11 Er sieht eine Modifikation des Menschen als unvermeidlich an, weil gerade darin das Wesen der Menschen läge. Jürgen Habermas wiederum hat in seinem Essay über „Die Zukunft der menschlichen Natur“ eine biokonservative Position eingenommen, da er Solidarität nur in einer einheitlichen Gattung für möglich hält.12 Je nach dem, welcher Position man sich nun zurechnet, fällt die Frage nach der moralischen Legitimität der technischen Selbstmodifikation durch IuK-Implantate sehr unterschiedlich aus. Eine extreme Ansicht vertritt hier bspw. Kevin Warwick, der es als notwendig und unvermeidlich ansieht, dass sich Menschen zu Cyborgs entwickeln.13 Der mit dieser Sichtweise verknüpfte Technikdeterminismus taucht allerdings nicht nur im Zusammenhang mit dem informationstechnischen Enhancement auf, sondern oft genug auch in der Diskussion um die Schließung der digitalen Spaltung.14 Die Diskussionen um DRM-Systeme, Urheberrecht, Zensur, freie Meinungsäußerung im Netz, digitale Spaltung, ebenso wie viele andere Debatten, die hier nicht ausführlich angesprochen werden können, drehen sich letztlich um die Frage, welche Rechte Individuen beim Zugriff und bei der Verbreitung von Informationen haben sollen; Lawrence Lessig drückt diesen Zusammenhang so aus: „[…], the problems of privacy and copyright are exactly the same. With both, there’s a bit of ‚our‘ data that ‚we’ve‘ lost control over. In the case of copyright, it is the data constituting a copy of our copyrighted work; in the case of privacy, it is the data representing some fact about us.“15

So ist Informationsethik wesentlich auf Fragen nach Umfang und Reichweite von Menschen- und Bürgerrechten im Kontext der Nutzung von IuKTechnologie bezogen;16 die aktuellen Diskussionen um Onlinedurchsuchungen, über das Abkommen zwischen den USA und der EU hinsichtlich der Übergabe ___________ 11

Sloterdijk (1999). Habermas (2001). 13 Warwick (2002). 14 Dies war zumindest in den Vorträgen, die Basis der Beiträge im vorliegenden Sammelband sind, offenkundig. Als Kritik zu dieser Sicht siehe Weber (2006c). 15 Lessig (2006), S. 200. 16 Vgl. Kuhlen (2004). 12

16

Karsten Weber

von Flugpassagierdaten, über die Speicherdauer von Verbindungsdaten oder über die mögliche Nutzung von Mautdaten zur Verbrechensbekämpfung machen dies ebenfalls deutlich und gehören mit in das Themenfeld der Informationsethik. Die Geburtsstunde des Themenfeldes und der damit beschäftigten angewandten Ethik liegt nicht allzu weit zurück – sie fällt mit den Anfängen der kommerziellen Verwertung von Computern zusammen. In der einschlägigen Literatur werden die Problembereiche der Informationsethik zusammengefasst mit „property, access, privacy, and accuracy“,17 abgekürzt „PAPA“. Richard O. Mason nannte diese Themen bereits in den 1980er Jahren,18 als das Internet in der Öffentlichkeit noch kaum eine Rolle spielte oder das Problem der Eigentumsverletzung durch IuK-Technologie außerhalb spezifischer Fachdiskussionen unbekannt war, weitere Vorläufer finden sich schon in den 1970er Jahren, als Privatsphäre und Datenschutz im Kontext staatlicher Überwachungsmaßnahmen diskutiert und dabei vor allem „privacy“ und „accuracy“ thematisiert wurden.19 Alan F. Westin publizierte sein nach wie vor oft zitiertes Buch „Privacy and Freedom“ sogar schon 1967.20 Wichtig zu beachten ist jedoch, dass die massive Vernetzung von Computern, wie sie heute existiert, in diesen Diskussionen keine Rolle spielt und in erster Linie der Staat als Bedrohung für Datenschutz und Privatsphäre angesehen wird. In der Bundesrepublik Deutschland wurde das Themenfeld spätestens mit dem so genannten „Volkszählungsurteil“ des Bundesverfassungsgerichts vom 15.12.1983 öffentlich sichtbar.21 Das Gericht stellte fest, dass IuK-Technologie starken Einfluss auf die Wahrung persönlicher verfassungsmäßig garantierter Rechte haben könne und dass bereits existierende Grundgesetzartikel gegen die technisch realisierten Möglichkeiten der Verarbeitung personenbezogener Daten Schutz böten und ein so genanntes „informationelles Selbstbestimmungsrecht“ konstituierten. Gleichzeitig wurde aber auch betont, dass dieses Recht dort ende, wo ein „überwiegendes Allgemeininteresse“ vorläge. Diesen Konflikt zwischen individuellen Rechten und Allgemeinwohl spricht bspw. Amitai Etzioni an, wenn er dafür plädiert, Privatsphäre zugunsten des Allgemeinwohls einzuschränken.22

___________ 17

Britz (1999), S. 25. Mason (1986), vgl. Eining/Lee (1997). 19 Bspw. Hoffman (1973), Martin (1973). 20 Westin (1967). 21 BVG (1983) 22 Etzioni (1999). 18

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

17

IV. Informationsfreiheit als Problemfeld der Informationsethik Da nicht alle oben genannten Themen der Informationsethik hier diskutiert werden können, wird der Fokus auf der Informationsfreiheit liegen, die hier in drei Aspekte oder Dimensionen aufgespaltet werden soll. Der erste Aspekt der Informationsfreiheit ist darin zu sehen, was das Bundesverfassungsgericht 1983 „informationelle Selbstbestimmung“ bezeichnet hatte: Die Bürger der bundesdeutschen Gesellschaft sollen frei von Eingriffen in ihre Privatsphäre leben können. Dabei liegt das Spezifische der Informationsfreiheit eben darin, dass der Zugriff auf personenbezogene Informationen oder Daten grundsätzlich nicht erlaubt ist oder nur in sehr begrenztem Maße. Gerade dies gerät aktuell ganz besonders unter Druck: Im Anschluss an verschiedene Terroranschläge werden Eingriffe in die Privatsphäre und den Datenschutz mit der Notwendigkeit von Sicherheitsmaßnahmen gegen weitere Anschläge begründet. Zu nennen sind dabei die Einführung von Ausweisdokumenten mit biometrischen Daten, die Vorratsspeicherung von Verbindungsdaten für Telefon, Mobilfunk und Internet, die Ausstattung von Ausweispapieren mit RFIDs und sehr aktuell die Diskussion um die so genannten Onlinedurchsuchungen. Informationsfreiheit, insbesondere im privaten Konsumalltag, kann nun in seiner zweiten Dimension so begriffen werden, dass jede Person selbst mit ihren Daten und Informationen tun und lassen können soll, was sie will. So ist denkbar, dass Menschen bereit sind, sehr tiefe Einblicke in ihr Leben zu bieten, um ökonomische Vorteile zu bekommen, bspw. preisreduzierte Internetzugänge oder Mobilfunkverträge, Rabattpunkte – allgemein gesprochen ist Informationsfreiheit nun ein handelbares Gut, für das man etwas eintauschen kann.23 Der dritte Aspekt der Informationsfreiheit bezieht sich auf den möglichst restriktionsfreien Zugang zu Informationen. Im Zuge der Diskussion um Open Source, Open Content, Open Access, aber auch um Softwarepatente und Urheberrecht wurde und wird dies sehr kontrovers diskutiert. Informationsfreiheit so verstanden fragt, wie der Zugang zu Informationen gesteuert werden soll. Sollen bspw. künstliche Bepreisungen und Zugangsbeschränkungen möglich sein, um Informationen in marktgängige Güter zu verwandeln? Oder gibt es ein Menschenrecht auf freien Zugang zu jeglichen Informationen?24 Dies sind nur zwei Fragen, die man in diesem Zusammenhang stellen kann. Will man in allen drei Bedeutungsfeldern von Informationsfreiheit den Aspekt der Freiheit des Einzelnen tatsächlich stärken, so wird dies weitreichende Konsequenzen haben. Die These des vorliegenden Beitrags, die mit theoretischen Überlegungen aus dem Bereich der liberalen bzw. libertären politischen ___________ 23 24

Vgl. hierzu Drüeke/Haug/Keller/Weber (2007). Vgl. Kuhlen (2004), S. 211ff.

18

Karsten Weber

Philosophie gestützt werden soll, ist, dass Informationsfreiheit wie jede andere Freiheit auch einen Preis hat: den weitgehenden Rückzug des Staates aus dem Leben der Bürger einer Gesellschaft. Folge hieraus ist jedoch, dass Menschen wesentlich deutlicher die Konsequenzen ihres je eigenen Handelns tragen und sich staatliche Institutionen darauf beschränken werden (müssen), einen rechtlichen Rahmen für das individuelle Leben zu bieten. Dies wird alle Bereiche des Lebens betreffen, insbesondere aber auch alle sozialstaatlichen Maßnahmen in einer Gesellschaft, denn Informationsfreiheit ist inkompatibel mit einem Verteilungsstaat, der individuelle Leistungen ausschüttet.

V. Drei Formen der Informationsfreiheit In den folgenden Abschnitten wird es nicht darum gehen, Vorschläge für konkrete Gesetzgebungsverfahren oder konkrete politische Maßnahmen zu entwickeln. Es wird auch nicht darum gehen, konkrete Maßnahmen vorzuschlagen, um Informationsfreiheit – in welchem Sinne auch immer – herzustellen. Im Vordergrund steht der Versuch, deutlicher zu machen, was die Bedeutung des Ausdrucks der Informationsfreiheit ausmachen könnte. Diese Analyse soll aufzeigen, dass bestimmte Auffassungen darüber, was unter Informationsfreiheit verstanden werden kann, Konsequenzen für mögliche politische Gestaltungsmaßnahmen implizieren. Allerdings wird sich auch die Betrachtung dieser Konsequenzen eher auf einem allgemeinen Niveau bewegen. Der Bezug zu aktuellen Debatten wird daher eher schwach sein; stattdessen sollen allgemeine gesellschaftliche Konsequenzen davon, was man unter Informationsfreiheit verstehen möchte, aufgezeigt werden. Eine weitere wichtige Vorbemerkung ist, dass es hier darum zu tun ist, Grundsatzpositionen zu identifizieren. Ob diese in konkreten Gesetzen und/ oder Maßnahmen tatsächlich umsetzbar wären, ist eine andere Frage, die hier weder gestellt noch beantwortet werden soll. Dies mag sehr defensiv klingen, stellt aber in erster Linie eine Abgrenzung des Vorhabens dar – eine Relativierung oder Abschwächung der hier vertretenen Position geht damit nicht einher. Wenn es auch den Schlussbemerkungen etwas vorgreift: Freiheit, auch Informationsfreiheit, gibt es nicht umsonst. Um aufzuzeigen, was der Ausdruck der Informationsfreiheit bedeuten kann und welche Konsequenzen aus den jeweiligen Bedeutungsbestimmungen entspringen, wird nun folgendermaßen vorgegangen: Zunächst wird sehr kurz etwas über das Konzept der negativen und positiven Rechte und Freiheiten gesagt werden, um die danach verwendeten Begriffe zu klären. Danach werden die drei oben genannten Dimensionen der Informationsfreiheit, nämlich

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

1.

die Freiheit vor Informationseingriffen,

2.

die Freiheit zur Verwendung eigener Informationen und

19

3. die Freiheit beim Zugriff auf Informationen genauer untersucht. Es wäre denkbar, dass noch weitere Dimensionen der Informationsfreiheit existieren; auch wäre es möglich, auf konkrete Fragen und Probleme einzugehen, die durch diese drei Formen der Informationsfreiheit unter Umständen nicht abgedeckt werden. Dies würde aber einerseits wohl zu umfangreich werden; andererseits spricht viel dafür, dass die drei Aspekte, die angesprochen werden sollen, wesentliche Fragen der Informationsethik abdecken können.

1. Rechte und Freiheiten In der politischen Philosophie wird begrifflich zwischen Rechten und Freiheiten unterschieden. Beide, Rechte und Freiheiten, werden wiederum unterteilt in –

negative und positive Rechte25 sowie



negative und positive Freiheiten.26

Ohne allzu große Verrenkungen kann man sagen, dass die Rede von negativen Rechten und negativen Freiheiten das jeweils gleiche meint. Negative Rechte bzw. Freiheiten sind bspw. das Recht auf Meinungsäußerung bzw. Meinungsfreiheit, in der Bundesrepublik Deutschland im Art. 5 GG kodifiziert, sowie das Recht auf ungehinderte Religionsausübung oder auch Religionsfreiheit, in der Bundesrepublik Deutschland im Art. 4 GG kodifiziert. Beide Rechte bzw. Freiheiten stellen klassische und zentrale liberale Rechte bzw. Freiheiten dar. Sie tauchen in vielen Verfassungen auf, standen im Zentrum des liberalen Denkens der Aufklärung und werden bspw. auch in der Allgemeinen Deklaration der Menschenrechte genannt, hier als Artikel 18 für Religions- und Artikel 19 für die Meinungsfreiheit. Solche negativen Rechte bzw. Freiheiten werden oft auch mit dem Ausdruck Abwehrrechte bezeichnet. Sie stellen Rechte bzw. Freiheiten dar, die ausschließlich Personen zukommen;27 sie verbieten Eingriffe ___________ 25

Siehe bspw. Narveson (2001), S. 42ff. Siehe bspw. Berlin (2002). 27 Im Rahmen der politischen Philosophie wird eine ausführliche Debatte darüber geführt, wer Träger von Rechten sein kann. Grob gesprochen stehen sich zwei Lager gegenüber: Auf der einen Seite stehen jene Autoren, die dafür plädieren, dass nur Personen Rechte haben können, so bspw. Barry (2001), S. 146ff., auf der anderen Seite finden sich jene Autoren, die durchaus akzeptieren, dass auch Gruppen genuin Rechte haben können, bspw. Raz (1994), S. 29. Hier kann auf diese Debatte nicht eingegangen wer26

20

Karsten Weber

in und Übergriffe auf die jeweilige Person – sie sollen solche Ein- und Übergriffe abwehren. Dabei adressieren sie sowohl den Staat bzw. staatliche Institutionen als mögliche Ausübende eines Ein- oder Übergriffs als auch andere Personen, Personengruppen und die Gesellschaft als Ganzes. Nach liberaler Auffassung sollen Abwehrrechte es den einzelnen Menschen ermöglichen, ein freies und autonomes Leben zu führen, eigene Lebenspläne und -ziele zu entwickeln und diese ungehindert zu verfolgen – natürlich nur so lange, wie dies wiederum nicht in die Rechte anderer eingreift.28 Die Idee der negativen Rechte bzw. Freiheiten ist im Wesentlichen das Ergebnis der Aufklärung und der bürgerlichen Emanzipation des 17. bis 19. Jahrhunderts. Diese Rechte und Freiheiten stellen den Kern liberalen Denkens dar, wobei „liberal“ hier auf philosophische Strömungen und Ideen rekurriert und mit Namen wie John Locke und John Stuart Mill verbunden ist oder in neuerer Zeit mit Menschen wie Friedrich August von Hayek oder John Rawls. Die begriffliche Übereinstimmung von negativen Rechten und Freiheiten gilt für positive Rechte und positive Freiheit nicht. Orientiert man sich an der klassischen Unterscheidung von negativer und positiver Freiheit bei Isaiah Berlin in seinem 1958 erschienenen Text Two Concepts of Liberty,29 kann positive Freiheit kurz gesagt und sicherlich etwas vergröbert mit politischer Selbstbestimmung übersetzt werden. Positive Freiheit ist das, was bspw. im Denken JeanJacques Rousseaus einen zentralen Stellenwert besaß: die Freiheit, selbst an der Gestaltung des gesellschaftlichen Lebens und der darin herrschenden Regeln teilhaben zu können.30 Positive Rechte jedoch stellen etwas anderes dar. Man kann dies sehr gut an einem Beispiel verdeutlichen: Das Recht auf ungehinderte Religionsausübung kann – wie die meisten anderen Rechte – sowohl im negativen als auch im positiven Sinne verstanden werden: ___________ den, der Text basiert jedoch auf der Voraussetzung, dass Rechte nur Personen zukommen. 28 Richard A. Epstein (2000) nennt folgende sechs Aspekte von Rechten: (1) Autonomie und Selbstbesitz: Keine Person kann einer anderen gehören; (2) Eigentumsrechte: Personen sind berechtigt, besitzerlose Güter als Eigentum in Anspruch zu nehmen; (3) Recht auf den Schutz von Verträgen. Personen haben das Recht, Güter, die ihnen gehören, nach eigenen Maßgaben an andere Personen zu übertragen; (4) Schutz vor Gewalt und Betrug. Der Gütertransfer zwischen Personen muss freiwillig sein; (5) Das Recht, in der Not Güter anderer Personen ohne deren ausdrückliche Erlaubnis zu nutzen. Durch Kompensation der geschädigten Person kann dieses Recht in Einklang mit Punkt 4 gebracht werden; (6) Das Recht gesellschaftlicher Institutionen, Güter in Privatbesitz zur Herstellung öffentlicher Güter zu enteignen. Enthalten ist das Recht auf Kompensation der enteigneten Person. Wichtig ist bei allen diesen Rechten, dass a) alle Personen einer Gesellschaft gleich behandelt werden; Einschränkungen der Rechte müssen alle Personen auf die gleiche Weise betreffen; b) Rechte sind reziprok zu verstehen: Niemand darf seine Rechte dazu nutzen, die Rechte anderer zu verletzen. 29 Berlin (2002). 30 Rousseau (1986).

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

21

Negativ: Niemand darf mich daran hindern, meine Religion auszuüben, solange ich damit nicht in die Rechte Dritter eingreife. Positiv: Alle Mitglieder einer Gemeinschaft haben mir gegenüber die Pflicht, mich aktiv in der Ausübung meines Rechts auf ungehinderte Religionsausübung zu unterstützen und gegebenenfalls Ressourcen dafür zur Verfügung zu stellen. Positive Rechte kann man daher auch als Unterstützungsrechte bezeichnen, weil sie Dritte verpflichten, aktiv den Rechtehaltern zur Seite zu stehen. Es stellt sich nun die Frage, ob Informationsfreiheit im Sinne eines negativen Rechts bzw. einer negativen Freiheit, im Sinne eines positiven Rechts oder aber einer positiven Freiheit verstanden werden muss. Die hier gegebene Antwort ist, dass wir zwar von Informationsfreiheit sprechen, aber eigentlich immer Rechte meinen bzw. einfordern. Wir fordern dabei Informationsabwehrrechte: Bestimmte Dinge im Zusammenhang des Umgangs mit Informationen dürfen uns nicht angetan werden bzw. wir dürfen nicht an der Ausübung von bestimmten Handlungen gehindert werden. Wir fordern möglicherweise außerdem Informationsunterstützungsrechte: Die Mitglieder der Gemeinschaft, in der wir leben, haben die Pflicht, uns beim Umgang mit Informationen aktiv zu helfen und gegebenenfalls Ressourcen bereitzustellen. Wir rekurrieren also bei der Rede von Informationsfreiheit sowohl auf negative als auch positive Rechte. Eingebürgert hat sich zwar die Rede von der Informationsfreiheit, aber sie ist eigentlich missverständlich. Oder etwa doch nicht? Wie schon weiter oben angedeutet, soll hier die These begründet werden, dass Informationsfreiheit letztlich immer nur im Sinne einer negativen Freiheit verstanden werden kann und sollte. So verstanden ist die Rede von Freiheit und Recht synonym. Weitergehender und sicher auch kontroverser ist jedoch die These, dass gar nicht auf positive Rechte rekurriert werden kann, wenn von Informationsfreiheit die Rede ist: Positive Rechte in Bezug auf Informationen schränken elementare negative Rechte zu stark ein und stellen somit illegitime Eingriffe in das Leben der Betroffenen dar.31 Diese These gilt es in den folgenden Abschnitten plausibler zu machen. ___________ 31

Allerdings – obwohl darauf hier nicht näher eingegangen werden kann – gibt es hierzu eine wichtige Ausnahme, die den Bereich der elementaren Bildung betrifft. Es gibt Gründe, das Recht auf Schulbildung als positives Recht zu verstehen. Das bedeutet letztlich nichts anderes, als dass der Besuch der Schule für jeden jungen Menschen kostenfrei sein und durch die Gesellschaft ermöglicht werden muss (dies jedoch auszuweiten auf die universitäre Bildung scheint problematisch). Ein positives Recht auf Bildung könnte dadurch legitimiert werden, dass sie Bedingung zur Wahrnehmung der eigenen negativen Rechte sei und ebenso Voraussetzung für die Erkenntnis der Schranken dieser Rechte.

22

Karsten Weber

2. Freiheit vor Informationseingriffen Diese Form der Informationsfreiheit hat insbesondere seit den Terroranschlägen von 2001 und den folgenden Jahren erhebliche Einschränkungen erfahren. Seit dieser Zeit wurden und werden in sehr vielen Ländern – auch in der Bundesrepublik Deutschland – mit Hinweis auf die erhöhte Gefährdung der inneren Sicherheit Maßnahmen eingeleitet, um der vermeintlichen oder auch tatsächlichen Gefährdung zu begegnen. Als wesentlich wird dabei die Sammlung personenbezogener Informationen bzw. Daten gesehen sowie die Schaffung einer Informationsinfrastruktur, die die schnelle und sichere Identifikation von Personen ermöglichen soll. Außerdem soll durch die präventive Sammlung von vielfältigen Informationen möglich werden, schon im Vorfeld die Planung von Verbrechen und terroristischen Akten zu erkennen und somit diese verhindern zu können. Die Maßnahmen, die dabei ergriffen werden, sehen ganz verschieden aus und sollen hier auch nicht im Detail – insbesondere nicht in Bezug auf die Technik – angesprochen werden. Zentral jedoch sind wohl derzeit Maßnahmen der Nutzung biometrischer Daten: So existieren internationale Vereinbarungen darüber, Ausweisdokumente mit biometrischen Daten zu versehen, um eine sichere Identifikation der Ausweisträger sicherstellen zu können.32 Solche biometrischen Daten können bspw. digitalisierte Irisbilder sein, ebenso digitalisierte Fingerabdrücke, Stimmmuster oder auch entsprechend aufbereitete und digitalisierte Daten zur Gesichtserkennung. Werden diese Daten zentral gespeichert, so kann dies zur Folge haben, dass bei der Einreise Abfragen in zentralen Datenbanken eingeleitet werden, um festzustellen, ob nach der betreffenden Person gefahndet wird. Wenn dies nicht der Fall, kann sie ungehindert einreisen, wenn doch, wird sie wohl verhaftet. Dies könnte nun noch dahingehend erweitert werden, dass jede solche Abfrage mit Angabe bspw. von Ort und Zeit in einer zentralen Datenbank vermerkt wird. Nun wird es möglich, so genannte Bewegungsbilder von jeder kontrollierten Person zu erstellen. Genau hierin liegt die Problematik: Die unzweifelhaft positiven Auswirkungen der Nutzung entsprechender technischer Möglichkeiten ziehen Kollateralschäden nach sich, die erhebliche Bedenken wecken müssen. Verglichen mit den Möglichkeiten von 1983, als das Bundesverfassungsgericht im so genannten Volkszählungsurteil das Konzept der informationellen Selbstbestimmung entwickelte, sind die technischen Möglichkeiten der Gewinnung, Verarbeitung, Übertragung und Speicherung von Daten immens gewachsen. So ist es heute durchaus denkbar, dass das Auslesen entsprechender Daten aus Ausweisdokumenten und der gleichzeitige Abgleich mit der realen Person ___________ 32

Siehe Weber (2006a), Weber (2006b).

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

23

weitgehend bis völlig unbemerkt von dieser Person durchgeführt werden kann. Insbesondere heißt dies auch, dass entsprechende Abfragen und Abgleiche im Prinzip jederzeit und überall durchgeführt werden können. Kombiniert mit der zunehmend verbreiteten Videoüberwachung könnten die Menschen in einem Land flächendeckend registriert und kontrolliert werden. Doch sind es beileibe nicht mehr nur staatliche Institutionen, die sich durch solche Datensammelwut auszeichnen. Gerade auch Unternehmen versuchten immer schon und versuchen immer mehr, durch den Einsatz von Rabattsystemen wie Payback oder durch die Markierung von Produkten mit RFIDs das Konsumverhalten ihrer Kunden möglichst lückenlos zu erfassen, um auf diese Weise evaluieren zu können, wie sie ihre Produkte noch effektiver auf dem Markt positionieren können. Die Probleme, die daraus erwachsen, liegen auf verschiedenen Ebenen und müssen sicherlich auch unterschiedlich eingeschätzt werden. In Bezug auf staatliche Institutionen ist zu befürchten, dass diese Datensammlungen bzw. ihre Verwendung oder sogar schon allein ihre bloße Existenz zur Erosion zentraler Bürgerrechte führen. Denn, wie bspw. Michel Foucault in seinem Konzept des Panoptikums dargestellt hat,33 kann die bloße Möglichkeit, überwacht zu werden, zu massiven Verhaltensänderungen beitragen. Gerade diesen Aspekt betont im Übrigen das Bundesverfassungsgericht: „Wer nicht mit hinreichender Sicherheit überschauen kann, welche ihn betreffenden Informationen in bestimmten Bereichen seiner sozialen Umwelt bekannt sind, und wer das Wissen möglicher Kommunikationspartner nicht einigermaßen abzuschätzen vermag, kann in seiner Freiheit wesentlich gehemmt werden, aus eigener Selbstbestimmung zu planen oder zu entscheiden.“34

Meinungsfreiheit, Versammlungsfreiheit und andere Bürgerrechte, die zentral für die Entfaltung einer Person sind und gleichzeitig essentiell für das Bestehen einer Demokratie, könnten unter Druck geraten, weil die Menschen in einem Land das Gefühl entwickeln, dass die allgegenwärtige Überwachung nicht nur ihrer Sicherheit dient, sondern ein tiefes Misstrauen der staatlichen Institutionen den Bürgern gegenüber zum Ausdruck bringt und dass entsprechende Aktivitäten und die Wahrnehmung solcher Rechte gegen die Interessen der entsprechenden Menschen gedeutet werden. Informationsfreiheit in ihrer ersten Dimension soll also verhindern, dass entsprechende Datensammlungen zur Erosion anderer zentraler Abwehrrechte oder eben negativer Rechte beitragen. Informationsfreiheit so verstanden ist selbst ein negatives Recht und soll

___________ 33 34

Foucault (1975). BVG (1983).

24

Karsten Weber

dazu dienen, unsere Privatsphäre zu schützen, wobei darunter nicht allein nur die eigenen vier Wände gemeint werden.35 Ein zweites Problem solcher Datensammlungen besteht darin, dass auf der Basis jener Daten ein Bild der jeweiligen Person konstruiert wird, ohne dass sichergestellt werden könnte, dass dieses Bild der tatsächlichen Person gerecht wird. Außerdem ist zu befürchten, dass die Betroffenen gar nicht mehr in der Lage sind, dieses Bild zu korrigieren. Zwar kann das Recht, Datensammlungen einzusehen und gegebenenfalls auch zu korrigieren, hier etwas Abhilfe schaffen, doch die Wahrnehmung dieses Rechts setzt voraus, dass die betroffenen Menschen wissen, was wer wo über sie gespeichert hat. Angesichts der allgegenwärtigen Überwachung und Datensammlung ist hier aber der Ein- und Überblick kaum mehr zu erreichen. Dies gilt nicht zuletzt für den kommerziellen Bereich. Es ist kaum noch überschaubar, welches Unternehmen welche Daten zu welchen Zwecken erhebt und auswertet. In einer globalisierten Welt, in der viele Menschen häufig staatliche Grenzen überschreiten, spielt zudem eine große Rolle, dass man dabei in unterschiedlich gestaltete Rechtsräume eintritt und vollends den Überblick verlieren kann, wer welche Daten sammelt und verwendet.

3. Freiheit zur Verwendung eigener Informationen Während es aus liberaler Sicht eine conditio sine qua non für das Bestehen eines freiheitlichen und demokratischen Gemeinwesens ist, dass sich staatliche Institutionen enge Grenzen in Bezug auf Eingriffe in die Rechte der Bürger setzen, hier also ihrer Datensammelwut eben nicht frönen, gilt ebenso, dass im privaten Umgang von Personen diesen größtmögliche Freiheiten eingeräumt werden muss. Damit kommen wir zum zweiten Aspekt der Informationsfreiheit, dem Recht nämlich, die eigenen Informationen nach Gutdünken zu verwenden. Den Wunsch von Unternehmen, möglichst viel über die eigenen Kunden zu wissen, können Konsumenten gegebenenfalls zu ihrem eigenen Vorteil nutzen. Denn nun bekommen persönliche Informationen einen Preis, sie sind etwas wert und stellen ein handelbares Gut dar. Dies kann man an verschiedenen Beispielen sehr gut verdeutlichen. Elektronische Rabattsysteme versprechen, dass die Kunden Rückzahlungen oder Prämien erhalten, wenn sie ihre Waren unter Verwendung des Systems einkaufen. Es ist nun die Frage, ob die Incentives, die die Kunden erhalten können, objektiv einen fairen Preis für die Entäu___________ 35 Für die englischsprachige Debatte siehe bspw. Whitaker (1999) oder Regan (1995); als Überblick kann Weber (2005) dienen.

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

25

ßerung persönlicher Informationen darstellen. Eine mögliche Antwort ist: Der Preis ist aus der Sicht der Konsumenten dadurch fair, dass sie ja freiwillig den entsprechenden Vereinbarungen zugestimmt haben und durchaus Alternativen gehabt hätten. Noch anders formuliert: Es gibt keinen objektiven Preis, sondern dieser wird durch Angebot und Nachfrage auf dem Markt gebildet. Tatsächlich ist es aus liberaler Perspektive auch erstrebenswert und geradezu ein Zeichen von Freiheit, ungehindert Verträge abschließen zu können. Natürlich ist dies an die Erfüllung einiger wichtiger Bedingungen geknüpft, vor allem eben an die Freiwilligkeit und auch an das, was im Englischen als informed consent bezeichnet wird – beide Seiten müssen über die jeweils gültigen terms of trade informiert sein. Es soll hier allerdings nicht Gegenstand der Untersuchung sein, ob dies immer der Fall ist – es geht um grundsätzliche Erwägungen. Würden sich hier nun staatliche Institutionen einmischen und den Möglichkeiten der Menschen, über ihre eigenen Informationen zu bestimmen, Grenzen setzen, so wäre dies nach liberaler Lesart ein illegitimer Eingriff in das Eigentum dieser Menschen. Denn zumindest in der angelsächsisch geprägten Debatte – aber nicht nur dort – wird über den Umgang mit Informationen mit so genannten property rights, also Eigentumsrechten, argumentiert.36 Personenbezogene Daten, so die Argumentation, gehören der Person, sie gehören zum Selbsteigentum der jeweiligen Person – hier wird an Ideen angeknüpft, die bei John Locke in seinen „Two Treatises of Government“ angelegt sind und in neuerer Zeit bspw. Robert Nozick vertreten hat.37 In dieser Tradition darf jede Person mit ihrem Eigentum tun und lassen, was sie will, sofern damit nicht in die negativen Rechte Dritter eingegriffen wird. Informationsfreiheit in diesem zweiten Sinne ist also erneut als negatives Recht zu verstehen und entspricht im Grunde dem Recht auf Eigentum – ebenfalls ein für das liberale Denken zentrales und klassisches Recht. Wichtig hierbei ist, dass der Umgang mit dem jeweiligen Eigentum völlig im Belieben der entsprechenden Person liegt, aber diese infolgedessen auch alle daraus erwachsenden Folgen und Konsequenzen selbst zu tragen hat.38 Hieran wird nun zum ersten Mal explizit, dass Informationsfreiheit einen Preis hat. Autonomie, verstanden als die Selbstbestimmung dessen, was eine Person tut und wie sie handelt, bedeutet eben auch, dass sie für ihre Handlungen und die daraus entstehenden Folgen selbst verantwortlich ist. Ein Abwälzen auf das jeweilige Gemeinwesen ist dann nicht möglich bzw. illegitim. Etwas salopp formuliert: Freiheit kann anstrengend sein und zuweilen sogar gefährlich. Es mag ein moralisches Gebot sein, dann zu helfen. Aber aus liberaler ___________ 36

Bspw. Lessig (2002). Nozick (1974). 38 Siehe hierzu bspw. Gaus (1994), Gibbard (1976), Ryan (1994). 37

26

Karsten Weber

Sicht gibt es weder ein positives Recht auf solche Hilfe noch eine Pflicht, sie zu leisten und schon gar nicht eine Legitimation für staatliche Institutionen, diese Hilfe zu erzwingen.

4. Freiheit beim Zugriff auf Informationen Bei der Erörterung der ersten beiden Dimensionen der Informationsfreiheit wurde deutlich, dass diese als Ausprägungen negativer Rechte begriffen werden müssen. Im Falle der Freiheit beim Zugriff auf Informationen ist dies jedoch weniger klar; Ursache hierfür ist ein prinzipieller Unterschied: Bei der Freiheit vor Informationseingriffen sollte der Zugriff Dritter auf personenbezogene Daten strengen Limitierungen unterworfen werden. Bei der Freiheit, mit eigenen Informationen nach Gutdünken umgehen zu dürfen, waren ebenfalls nur auf die je eigene Person bezogene Informationen involviert. Doch bei der Freiheit beim Zugriff auf Informationen macht dies keinen Sinn, denn es ist wenig hilfreich, das Recht auf Zugriff auf eigene Informationen zu besitzen, denn diese Informationen hat man ja bereits. Es kann also nur um Informationen gehen, die anderen Menschen gehören – und damit kommen unweigerlich diese anderen Personen und deren Rechte in den Blick. Zur Erinnerung: Ein positives Recht impliziert die Pflicht anderer Menschen, dieses Recht aktiv zu realisieren. Sie müssen bspw. eigene Ressourcen bereitstellen, um ihre Pflicht zu erfüllen. Ein positives Recht auf Informationszugang würde nun bedeuten, dass andere Menschen die Pflicht hätten, diesen Zugang zu realisieren. Das stellt aber unweigerlich die prinzipielle Frage nach dem Eigentum an Informationen oder doch zumindest danach, ob es Eigentum an Informationen nur eingeschränkt geben kann. Hier finden sich grob gesprochen zwei Denkrichtungen: Im dem einen Fall wird argumentiert, dass Eigentum an Informationen letztlich keinen Sinn mache, denn Eigentum in seiner ursprünglichen Orientierung an materiellen Dingen bedeute einfach nur die alleinige Verfügungsgewalt über jene materiellen Dinge. Eigentum an diesen ist exklusiv, da materielle Dinge zu einer Zeit nur an einem Ort sein könnten und ihr Ge- oder Verbrauch engen Restriktionen unterliege. Für Informationen, so wird nun argumentiert, gelte dies jedoch nicht. Denn man könne Informationen an andere weitergeben und sie gleichzeitig selbst doch behalten – es entstünden dadurch weder Verluste noch Nachteile. Dem kann und muss jedoch entgegengehalten werden, dass dies beileibe nicht für alle Informationen gilt. Geheimnisse bspw. verlieren in der Regel ihren Wert, wenn man sie anderen mitteilt; das Teilen bspw. eines Rezepts zur Herstellung eines Rotweins, dessen Genuss keinerlei negative physiologische Folgen hat, vermindert die Möglichkeit, dieses Rezept ökonomisch zu verwer-

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

27

ten, denn als alleiniger Anbieter ist es möglich, bei entsprechender Nachfrage ganz andere Preise zu verlangen, als wenn es Wettbewerber gibt. In solchen Fällen impliziert also die Weitergabe von Informationen durchaus einen individuellen Verlust – zwar nicht den Verlust der Information selbst, aber doch der Möglichkeiten, daraus Gewinn zu ziehen oder auch nur die eigenen Unkosten zu decken. Daher wird argumentiert, dass es Maßnahmen geben müsse, um Informationen genauso wie materielle Dinge zu schützen – daraus entwickelte sich das Verständnis vom geistigen Eigentum: Durch Urheber- und Patentrecht wurde nun dafür gesorgt, dass auch Informationen Gegenstand von Eigentumsrechten sein konnten. Losgelöst von den derzeitigen Auseinandersetzungen um die Patentierbarkeit von Software kann man nun fragen, ob es angemessen ist, Informationen so zu behandeln, als ob sie materielle Güter wären. Dies scheint letztlich auch den Kern der Ideen rund um Free Software und Open Source Software – kurz: non-proprietärer Software – zu sein.39 Richard Stallman als Gründer der Free Software Foundation vertritt den Standpunkt, dass „information wants to be free“, doch betont er gleichzeitig immer wieder, dass free nicht im Sinne von free beer, sondern im Sinne von free speech verstanden werden sollte.40 Der Unterschied ist eklatant, denn er läuft auf den Unterschied von negativen und positiven Rechten hinaus. Freie Rede impliziert, dass niemand daran gehindert werden darf, seine Meinung frei zu äußern, aber auch nicht mehr – freie Rede ist ein negatives Recht bzw. ein Abwehrrecht. Freibier impliziert hingegen, dass jeder Mensch das Recht auf den Zugang zu einem Gut hat, das letztlich von anderen Menschen zur Verfügung gestellt werden muss – dies läuft auf ein positives bzw. Unterstützungsrecht hinaus; es impliziert die Pflicht aller anderen Menschen, es zu realisieren. Stallman bezeichnet sich jedoch ausdrücklich als „libertarian“ – er verortet sich politisch damit in einer radikalen Variante des liberalen Denkens; er lehnt daher Eingriffe zur durch staatliche Institutionen oder andere Instanzen erzwungenen Umverteilung von Gütern ab. Jeder sozialistische Gedanke ist ihm völlig fremd, seine Idee ist eine andere: Er ist der Überzeugung, dass die freie Kooperation von Softwareproduzenten und das Teilen von Informationen, Ideen, Know-how und Software allen Menschen einer Gemeinschaft zugute kämen und eine Verbesserung der gesellschaftlichen Bedingungen nach sich zögen. Er sieht es daher als moralische Forderung an jeden einzelnen Menschen, hier einen Beitrag zu leisten. Aber als Libertärer muss er es gleichzeitig strikt ablehnen, dass staatliche Institutionen ihre Zwangsmittel dazu nutzen, solch eine Kooperation zu erzwingen. Für Libertäre ebenso wie für Liberale ist Moral etwas, bei dem sich staatliche Institutionen tunlichst heraushalten müssen – der Staat und seine ___________ 39 Einen Überblick hierzu gibt die frei zugängliche Open Source Jahrbuch-Reihe unter http://www.opensourcejahrbuch.de/download, zuletzt besucht am 22.10.2007. 40 Siehe bspw. Williams (2002).

28

Karsten Weber

Institutionen müssen moralisch neutral bleiben. Umgekehrt gilt jedoch, dass staatliche Institutionen Kooperationen der Bürger auch nicht verhindern dürfen, indem sie bspw. Hürden wie die Patentierung von Software errichten. Hier ist also die Informationsfreiheit ebenfalls kein Unterstützungsrecht, sondern eine negative Freiheit bzw. ein negatives Recht. Eric S. Raymond geht allerdings noch einen Schritt weiter.41 Er als einer der Protagonisten der Open SourceCommunity ist der Ansicht, dass Informationen, Ideen, Know-how und Software durchaus proprietär sein dürfen, weil es nun einmal das Recht einer jeden Person sei, mit dem eigenen Eigentum so umzugehen, wie es dieser Person genehm ist. Findet also jemand Abnehmer für eigene Informationsprodukte unter Vertragsbedingungen, die bspw. die Weitergabe verbieten oder auch die Einsicht in den und die Veränderung des Quellcodes, so sei das absolut legitim, da ja niemand gezwungen sei, solche Bedingungen zu akzeptieren – auch Raymond positioniert sich im libertären Lager. Allerdings ist er der Ansicht, dass es aus Klugheitsgründen besser sei, non-proprietäre Software zu benutzen, also Informationen zu teilen, lehnt es jedoch strikt ab, dies moralisch zu überhöhen oder gar durch staatliche Institutionen erzwingen zu lassen.

VI. Schlussfolgerungen Eine Schlussfolgerung aus dem bisher Gesagten muss sein, dass sich Informationsfreiheit als negatives Recht verstehen lässt bzw. sich nur so verstehen lässt. Daraus folgt, dass es Aufgabe staatlicher Institutionen sein muss, dieses negative Recht durch entsprechende Maßnahmen zu schützen – ein wirklich konsequentes und nicht durch zahllose Ausnahmen durchlöchertes Informationsfreiheitsgesetz auf Bundesebene wäre bspw. eine solche Maßnahme – bzw. alles zu unterlassen, was dieses Recht verletzen könnte. Es folgt aber auch, dass es nicht die Aufgabe staatlicher Institutionen sein kann und darf, zu Umverteilungsmaßnahmen zu greifen, um ein irgendwie geartetes positives Recht im Zusammenhang mit Informationen zu realisieren. Zumindest in Bezug auf den Umgang mit Informationen ist die Konsequenz daraus, dass sich staatliche Institutionen soweit als nur irgendwie möglich aus dem Leben der Menschen zurückziehen. Geschähe dies nämlich nicht, bedeutete dies in Bezug auf die erste Informationsfreiheit nichts anderes als die Schaffung eines Überwachungsstaates, in Bezug auf die zweite Informationsfreiheit einen im besten Falle benevolent paternalistischen, im schlechtesten Fall jedoch einen bevormundenden autoritären Staat. Welche Konsequenzen die Stärkung oder Schwächung der dritten Informationsfreiheit haben wird, muss an dieser Stelle offen bleiben. Hier wird es viel deutlicher auf eine Balance zwischen Informationsei___________ 41

Raymond (2001).

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

29

gentümern und -nutzern ankommen und auf die Balance zwischen privatwirtschaftlicher Verwertung und dem Interesse aller Menschen, Ideen, Know-how und Informationen in fairer Kooperation zu teilen. Freiheit, auch Informationsfreiheit, hat einen Preis – Freiheit und ein autonomes Leben bedeuten eben auch, die Konsequenzen eigener Handlungen und die Verantwortung für das eigene Leben nicht auf andere abzuwälzen. Es gibt keinen Staat, der uns dies abnehmen könnte, sondern nur eine Gesellschaft von Individuen, die dies in freier und nicht in erzwungener Kooperation tun. In diesem Sinne hat Freiheit und auch Informationsfreiheit etwas mit Lebenskunst zu tun. Nun wurde weiter oben eine noch viel weitergehende These angedeutet. Denn dort ist formuliert, dass Informationsfreiheit auch impliziere, dass diese inkompatibel mit einem Verteilungsstaat sei. Diese These gilt es noch zu begründen. Die Umverteilung von Gütern zur Herstellung materieller Gleichheit bzw. Verringerung von Ungleichheit muss, da es um die Verteilung knapper Güter geht, anhand von Kriterien erfolgen: Güter sollen schließlich nur an jene und nur insoweit umverteilt werden, wie dies aus Bedürftigkeitsgründen angemessen ist. Das macht es notwendig, diese Bedürftigkeit sehr genau zu prüfen, denn sonst ist Missbrauch durch so genanntes Free Riding möglich.42 Da Umverteilung außerdem immer bedeutet, auf der einen Seite Menschen etwas zu nehmen, um es auf der anderen Seite anderen Menschen zu geben, ist dies gerechtigkeitstheoretisch grundsätzlich problematisch. Denn das Nehmen bedeutet immer einen Eingriff in negative Rechte – sie zu legitimieren ist durchaus schwierig, da jeder Eingriff die Handlungsmöglichkeiten der betroffenen Person schmälert – aber jede Person hat nur ein Leben und muss nach liberaler Auffassung die Möglichkeit haben, dieses Leben nach eigenen Plänen und nach eigenem Gutdünken zu gestalten, solange dies nicht in die negativen Rechte Dritter eingreift. Es mag zwar wünschenswert und moralisch auch gefordert sein, dass jene, die materiell viel besitzen, sich solidarisch verhalten gegenüber jenen, die nicht in dieser glücklichen Lage sind. Es ist aber schwer zu begründen, warum staatliche Institutionen legitimiert seien, moralische Überzeugungen eines Teils der Bürger durchzusetzen. Haben sich aber die Bürger einer Gesellschaft dennoch durch entsprechende demokratische Entscheidungsprozesse dazu entschlossen, staatliche Zwangsmittel zu benutzen, um Umverteilung herbeizuführen, müssen trotzdem die Eingriffe so klein als möglich gehalten werden, da ansonsten von Freiheit schlicht nicht mehr gesprochen werden kann – dies gilt im Übrigen sowohl für jene, die Güter abgeben, als auch für jene, die Güter empfangen. Um also in jedem einzelnen Fall der Situation und der jeweiligen Person gerecht zu werden, müssten die verteilenden Instanzen notwendigerweise so viele Informationen über die Situation ___________ 42

Vgl. Etzioni (1990), S. 59f., Olson (1968).

30

Karsten Weber

und die jeweilige Person wie nur möglich erheben. Nicht umsonst gehören die Datenbestände der Sozialversicherungen zu den größten überhaupt existierenden. Diese Datenbestände wiederum widersprechen in jeder Hinsicht der Informationsfreiheit im hier als erstes skizzierten Sinne.43 Die Konsequenz daraus ist offensichtlich und unvermeidlich: Wer Informationsfreiheit haben will, muss bereit sein, den Preis dafür zu bezahlen – das bedeutet letztlich die Absage an den Verteilungsstaat.

VII. Eine letzte Bemerkung Informationsethik als angewandte Ethik, die versucht, Anleitungen zum moralisch richtigen Gebrauch von Informations- und Kommunikationstechnologie bzw. zum richtigen Umgang mit Informationen zu geben, kann nicht als Tugendethik betrieben werden – auch dies sollte der vorliegende Text aufweisen. Tugendethik versucht, grob gesprochen, Tugenden, bspw. Ehrlichkeit, Verlässlichkeit, Neidlosigkeit oder Großzügigkeit, zu identifizieren, die das jeweilige individuelle Handeln leiten sollen und so zu einem moralischen Leben beitragen. Sicherlich kann die Orientierung des Handelns an Tugenden das Zusammenleben von Menschen erleichtern und einen Beitrag zu einer wohlgeordneten Gesellschaft leisten – man denke nur an den oft genug rücksichtslosen Gebrauch von Mobiltelefonen, Laptops oder Musikabspielgeräten in öffentlichen Verkehrmitteln: Hier wäre die Tugend der Rücksichtnahme auf andere durchaus hilfreich. In komplexen, extrem arbeitsteiligen und vor allem in jeder Hinsicht pluralen Großgesellschaften, wie sie heute der Normalfall sind, ist der Verlass auf Tugenden aber gefährlich, denn sie taugen allenfalls für den Nahbereich sozialer Beziehungen: für die Familie, die Freunde, den Verein, die Kirchengemeinde o. Ä. – dort eben, wo die sozialen Beziehungen noch überschaubar sind, die Arbeitsteilung gering und die Zusammensetzung der jeweiligen Gruppe von Menschen vergleichsweise homogen. In plural zusammengesetzten Gesellschaften mit unterschiedlichen Religionen, Weltanschauungen, Ideologien, Lebensentwürfen, Sprachen, Ethnien, Kulturen usf. wäre das Vertrauen in Tugenden geradezu fahrlässig, denn dort existieren ganz unterschiedliche Sets von Tugenden, die nicht selten inkommensurabel und inkompatibel sind und so mehr soziale Spannungen erzeugen als auflösen. Die Forderung nach Rücksichtnahme ist nur dann sicher durchsetzbar, wenn man sich nicht auf die Tugend des Gegenübers verlassen muss, sondern ein erzwingbares Recht besitzt. Gegenüber Institutionen oder Unternehmen wäre die Hoffnung auf Tugend jedoch vollends verfehlt. In modernen Gesellschaften müssen die sozialen Be___________ 43 Vgl. Hayek (1991), Kap. 7; zum Aspekt der Demütigung der Betroffenen durch ihre vollständige Bewertung durch eine Verteilungsinstanz siehe Anderson (2000), S. 137ff.

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

31

ziehungen von Menschen daher rechtsförmig abgesichert werden – Bürger einer Gesellschaft müssen Rechte gegenüber ihren Mitmenschen und gegenüber dem Staat haben, um ein freies Leben führen zu können. Natürlich entspringen diesen Rechten auch Pflichten, doch die Betonung liegt auf den Rechten – sie zu schützen ist Aufgabe der staatlichen Institutionen in einem demokratischen Rechtsstaat. Entsprechend kann Informationsethik nicht eine auf Informations- und Kommunikationstechnologie angewandte Tugendethik sein, sondern kann nur Sozial- bzw. politische Philosophie sein – sie muss einen overlapping consensus44 zur Fundierung von Bürgerrechten im Umgang mit Informationen suchen.

Literatur Anderson, Elisabeth S. (2000): Warum eigentlich Gleichheit? In: Krebs, Angelika (Hrsg.) (2000): Gleichheit oder Gerechtigkeit, Frankfurt am Main, S. 117–171. Barry, Brian (2001): Culture & Equality. An Egalitarian Critique of Multiculturalism, Cambridge/Massachusetts. Berlin, Isaiah (2002): Two Concepts of Liberty. In: Berlin, Isaiah (edited by Henry Hardy/2002): Liberty. Oxford, S. 166–217. Britz, Johannes J. (1999): Access to Information: Ethical Guidelines for Meeting the Challenges of the Information Age, in: Pourciau, Lester J. (ed./1999): Ethics and Electronic Information in the Twenty-First Century. West Lafayette/Indiana, S. 9–28. BVG (1983): Urteil des Ersten Senats des Bundesverfassungsgerichts vom 15.12.1983 auf die mündliche Verhandlung vom 18. und 19.10.1983 – 1 BvR 209, 269, 362, 420, 440, 484/83 in den Verfahren über die Verfassungsbeschwerden (http://www.daten schutz-berlin.de/gesetze/sonstige/volksz.htm), zuletzt besucht am 27.07.2007). Drüeke, Ricarda / Haug, Sonja / Keller, Wolfgang / Weber, Karsten (2007): „Vertrauen ist gut, Kontrolle ist besser?“ – Privatsphäre und die Nutzung digitaler mobiler Endgeräte in interpersonalen Beziehungen, in: Merz Medien + Erziehung, Zeitschrift für Medienpädagogik 6, im Druck. Eining, Martha M. / Lee, Grace M. (1997): Information ethics: An exploratory study from an international perspective, in: Journal of Information Systems 11 (1), S. 1–17. Epstein, Richard A. (2000): Deconstructing Privacy: And Putting it back together again, in: Social Philosophy and Policy 17 (2), S. 1–24. Etzioni, Amitai (1990): The Moral Dimension. New York, London. – (1999): The Limits of Privacy. New York. Foucault, Michel (1975): Surveiller et punir. La naissance de la prison. Paris. Gaus, Gerald F. (1974): Property, Rights, and Freedom, in: Social Philosophy and Policy 11 (2), S. 209–240.

___________ 44

Rawls (1987).

32

Karsten Weber

Gibbard, Alan (1976): Natural Property Rights, in: Noûs 10 (1), S. 77–86. Habermas, Jürgen (2001): Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? Frankfurt am Main. Hausmanninger, Thomas / Capurro, Rafael (Hrsg.) (2002): Netzethik. Grundlegungsfragen der Internetethik. München. Hayek, Friedrich A. von (1991): Der Weg zur Knechtschaft. München, Neuauflage. Hoffman, Lance J. (ed./1973): Security and privacy in computer systems. Los Angeles. Johnson, Deborah (2001): Computer Ethics. Upper Saddle River/New Jersey, 3. printing. Kuhlen, Rainer (2004): Informationsethik. Umgang mit Wissen und Informationen in elektronischen Räumen. Konstanz. Lessig, Lawrence (2002): Privacy as Property, in: Social Research 69 (1), S. 247–269. Martin, James (1973): Security, accuracy, and privacy in computer systems. Englewood Cliffs/New Jersey. Mason, Richard O. (1986): Four ethical issues of the information age, in: MIS Quarterly 10 (1), S. 4–12. Michelfelder, Diane P. (2001): The moral value of informational privacy in cyberspace, in: Ethics and Information Technology 3, S. 129–135. Narveson, Jan (2001): The Libertarian Idea. Toronto, first published 1988. Nozick, Robert (1974): Anarchy, State, and Utopia. New York. Olson, Mancur (1968): Die Logik kollektiven Handelns. Kollektivgüter und die Theorie der Gruppen. Tübingen. Rawls, John (1987): The Idea of an Overlapping Consensus, in: Oxford Journal of Legal Studies 7 (1), S. 1–25. – (1999): A Theory of Justice. Cambridge/Massachusetts, revised edition (Erstveröffentlichung 1971). Raymond, Eric S. (2001): The Cathedral & The Bazaar. Sebastopol et al.. Raz, Joseph (1994): Ethics in the Public Domain. Oxford. Regan, Priscilla M. (1995): Legislating Privacy. Chapel Hill, London. Rousseau, Jean-Jacques (1986): Vom Gesellschaftsvertrag. Stuttgart. Ryan, Alan (1994): Self-Ownership, Autonomy, and Property Rights, in: Social Philosophy and Policy 11 (2), S. 240–258. Sloterdijk, Peter (1999): Regeln für den Menschenpark. Frankfurt am Main. Spinello, Richard A. (2003): Cyber Ethics. Morality and Law in Cyberspace. Sudbury / Massachusetts, 2. printing. Spinner, Helmut / Nagenborg, Michael / Weber, Karsten (2001): Bausteine zu einer neuen Informationsethik. Berlin, Wien. Warwick, Kevin (2002): I, Cyborg. London. Weber, Karsten (2005): Das Recht auf Informationszugang. Berlin.

Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft

33

– (2006a): The Next Step: Privacy Invasions by Biometrics and ICT Implants, in: Ubiquity. An ACM IT Magazine and Forum 7 (45), (http://www.acm.org/ubiquity/ views/pf/v7i45_weber.pdf, zuletzt besucht am 31.07.2007). – (2006b): Privacy invasions, in: EMBO Reports, Science and Society, Special Issue „Science and Security“ 7, S. S36–S39. – (2006c): Entwicklung und digitale Spaltung – Zusammenhänge und Prioritäten, in: PROKLA 145 Zeitschrift für kritische Sozialwissenschaft, Heft „Ökonomie der Technik“, 36 (4), S. 533–547. Westin, Alan F. (1967): Privacy and Freedom. New York. Whitaker, Reg (1999): The End of Privacy. New York. Wiegerling, Klaus / Capurro, Rafael (1999): Ethik für Informationsspezialisten, in: Holderegger, A. (Hrsg.) (1999): Kommunikations- und Medienethik. Freiburg im Breisgau, S. 253–276. Williams, Sam (2002): Free as in freedom. Sebastopol et al.

Die Informationsfreiheit und der Zusammenhang von Abwehr- und Anspruchsrechten – Korreferat zu Karsten Weber – Von Alexander Filipoviü

I. Einleitung Das Vorgehen Karsten Webers, moralisch relevante Probleme der Informations- und Kommunikationstechnologien durch einen Rekurs auf die politische Philosophie zu identifizieren und zu sortieren, verdient Beachtung. Denn gerade erst durch ein solches Vorgehen werden die politisch relevanten Problemfelder skizziert, auf denen moralische Probleme bearbeitet werden können, und zugleich werden damit Vorschläge eingebracht, welche normativen Orientierungen für eine solche Bearbeitung zum Zuge kommen sollen. Die moralökonomischen Überlegungen zu einer digitalisierten Wirtschaft werden von dieser Art der Grundvergewisserung sicherlich profitieren. Im Prinzip folge ich daher den Schwerpunktsetzungen Webers. Die politische Philosophie ist aber nicht homogen in dem Sinne, dass die grundlegenden Orientierungen für Fragen der Gestaltung des Zusammenlebens schon klar wären, bloß weil sie aus dem Bereich der politischen Philosophie stammen. Vertritt Karsten Weber in seinem Text einen liberalen bzw. libertären Ansatz politischer Philosophie, so kommt hier ein skizzierter Ansatz zum Zuge, der die Kontexte sozialer Integration und Teilhabe in den Mittelpunkt stellt. Das soll weniger im Modus der Kritik an Webers Ansatz als vielmehr in der Präsentation eines alternativen Gedankengangs geschehen, der aus ausgewählten christlich-sozialethischen Quellen schöpft.1 ___________ 1 Für eine knappe Erläuterung von „Sozialethik“ vgl. z.B. Mieth (2002). Der Begriff ist vor allem in der christlich-theologischen Ethik beheimatet und kann übersetzt werden mit „christliche“ politische Philosophie, insofern der Gegenstand des Faches ebenfalls in Fragen der Gestaltung des Zusammenlebens besteht. Sozialethik ist nicht ein „Appendix einer verallgemeinerungsfähigen Individualethik“ (ebd.: 503), sondern bemüht sich eigens um einen Beitrag zur ethischen Theoriebildung. Vgl. für eine vertiefte aktuelle Skizze, die auch problematisiert, was an einer Sozialethik „christlich“ sein kann und ist:

36

Alexander Filipoviü

II. Christlich-sozialethische Anmerkungen zum Verhältnis von negativen und positiven Freiheiten Wenn es einer politischen Philosophie vor allem um die Freiheit von Individuen und die damit zusammenhängenden Gestaltungsfragen geht (wie organisieren wir „Freiheit“?), beginnt die ethische Analyse zunächst mit der Bestimmung von moralischen Freiheitsrechten. Identifiziert man als moralisches Recht zunächst die individuelle Freiheit im Sinne der Abwesenheit von Eingriffen und Hindernissen („negative Freiheit“), so ergänzt eine christliche Anthropologie, die die „anthropologisch angelegten Formen der menschlichen Vergesellschaftung“2 in Rechnung stellt, diese Sichtweise um ein positives Freiheitsverständnis. Abgeleitet vom christlichen relationalen Verständnis des Menschen als Person erscheint Freiheit als Beziehungsgeschehen und verwirklicht sich immer nur konkret-kommunikativ und in Gemeinschaft.3 Es handelt sich dabei nicht so sehr um eine Kritik an der liberalen bzw. libertären Fokussierung auf individuelle Abwehrrechte, sondern um eine Kritik an der Dichotomie negativer und positiver Freiheit.4 Deutlich wird dieses integrative Freiheitsverständnis beispielhaft in der Menschenrechts-Rezeption der Katholische Kirche: In der Enzyklika Pacem in terris (J OH A NN E S XXIII., 1963, Nr. 11), der „Menschenrechtscharta“ kirchlicher Soziallehre, wird (im Unterschied zu der allgemeine Erklärung der Menschenrechte) auch in der Darstellung eine streng miteinander verknüpfende Zuordnung von negativen und positiven Freiheiten vorgenommen. Anschluss findet diese Systematik an die heute in Menschenrechtsphilosophie und völkerrechtlicher Entfaltung aktuelle Rede von der Untrennbarkeit der Menschenrechte.5 ___________ Bohmeyer (2006), Hübenthal (2006) und Filipoviü (2007b), S. 137–167. Für hilfreiche Bemerkungen zu einem Entwurf des vorliegenden Textes danke ich Axel Bernd Kunze. 2 Vogt (1999), S. 285; diese moralphilosophische Denkfigur ist nicht ganz unproblematisch, wenn man eine strenge Dichotomie von Sein und Sollen für logisch zwingend hält und anthropologische Aussagen als Seins-Aussagen verstehen will. Eine solch strenge Dichotomie ist aber erkenntnistheoretisch nicht alternativlos, vgl. Filipoviü (2008). 3 Vgl. zum relationalen Verständnis menschlicher Individualität Pannenberg (1979), S. 411 und zum Konzept „kommunikativer Freiheit“ Bedford-Strohm (1999), S. 364– 369 (hier entwickelt im Horizont reformatorischer Theologie). 4 Pauer-Studer (2000), S. 19f. weist darauf hin, dass auch trotz der Einheit des Freiheitsbegriffs die Betonung einer Seite des Freiheitsbegriffs ihren Sinn behält. Dem kann hier zugestimmt werden: Eine christlich-sozialethische Kritik an der Dichotomie von negativer und positiver Freiheit muss nicht bedeuten, dass man die Betonung einer Seite für unmöglich hält. In diesem Sinne betont der hier gewählte Ansatz die positive Seite der Freiheit. 5 Vgl. dazu Heimbach-Steins (2007), S. 20–22 mit weiteren Angaben.

Der Zusammenhang von Abwehr- und Anspruchsrechten

37

In dieser dichotomie-kritischen Perspektive ist es unzulässig zu behaupten, die negative Seite der Freiheit wäre wichtiger als die andere (und anders herum). Negative und positive Freiheit müssen sich nicht zwingend ausschließen in dem Sinne, dass bei einer Steigerung positiver Freiheit gleichzeitig die negativen Freiheiten unter Druck geraten oder gar minimiert werden. Aber auch die Unterscheidung an sich erscheint in bestimmter Perspektive als zu artifiziell6, wobei ihr Wert dann immer noch darin gesehen werden kann, zu einem Brückenschlag zwischen beiden Konzepten herauszufordern.7 Die christlich-sozialethische Ablehnung einer strikt trennenden Unterscheidung von positiver und negativer Freiheit (unter Betonung der Berücksichtigung der positiven Seite des einen Freiheitsbegriffes) kann an dieser Stelle nicht weiter entfaltet werden. Das trifft ebenfalls auf die Problematik zu, die entsteht, wenn man die diesen Rechten korrespondierenden Pflichten einbezieht.8 Stattdessen kann dies zusammengefasst werden mit zwei politischmoralischen und zwei politisch-institutionellen Grundoptionen christlichsozialethischen Denkens, die für die hier zur Debatte stehende Problematik anschlussfähig sind.9 Als politisch-moralische Grundoptionen sind in vielen Entwürfen der christlichen Sozialethik die sozialen Grundrechte und der soziale Ausgleich zu nennen. (1) Die „Option für soziale Grundrechte“ basiert auf der Anerkennung der unantastbaren Menschenwürde und gesteht jedem Bürger neben liberalen Abwehrrechten und politischen Teilnahmerechten Rechtsansprüche auf soziale Sicherung, Wohnung und Bildung zu. Die Betonung des Rechtscharakters auch dieser zuletzt genannten sozialen Teilhabeansprüche findet dabei Anschluss an die normative Grundbedingung moderner Staaten, in denen sich die Mitglieder als freie und gleiche Rechtssubjekte begegnen können sollen. (2) Die „Option für sozialen Ausgleich“ ist grundgelegt in dem „Wissen um die unhintergehbaren Solidaritäten“10. Dieser Solidarismus versteht die hoch differenzierte moderne Welt mit ihren Zusammenhängen als Aufforderung, die Gestaltung des Zusammenlebens weder nach dem Modell einer individualistischen Marktwirtschaft noch nach dem einer kollektivistischen Zentralverwaltungswirtschaft vorzunehmen. Stattdessen verfolgt die Anwendung der Kriterien Freiheit und ___________ 6

Vgl. z.B. MacCallum (1967), der zeigt, dass bei „Freiheit“ immer eine positive und eine negative Seiten identifiziert werden kann. 7 Einen lesenswerten Versuch bietet Bienfait (1999). 8 Vgl. für Überlegungen, ob einem bestimmten positiven Recht (hier das Recht auf Bildung) auch Pflichten entsprechen Mandry (2007). 9 Vgl. dazu im Folgenden Große Kracht (2007), S. 45–50 und allgemein dazu die grundlegende Entwicklung eines Begriffs von Wohlfahrtsverantwortung bei HeimbachSteins 2007. 10 Große Kracht (2007), S. 47.

38

Alexander Filipoviü

Gleichheit, soziale Gerechtigkeit und Demokratie eine Mehrung von Gleichheit, ohne dass dabei die Gleichheit als isoliertes Abstraktum selbst ein normatives Ziel darstellt. Davon ausgehend lassen sich drei politisch-institutionelle Grundüberzeugungen christlicher Sozialethik beschreiben: (1) Nicht der Einzelne und nicht der Markt sind für eine Realisierung sozialer Grundrechte ausschließlich heranzuziehen, sondern der Staat ist zunächst verantwortlich für eine entsprechende Wirtschafts- und Sozialpolitik. (2) Die Erfüllung von sozialen Anspruchsrechten darf „nicht nach der Logik mildtätiger Staatsversorgung“11 funktionieren, sondern muss durch entsprechende Vorleistungen und Anreizsysteme Eigenverantwortung ermöglichen. Diese Grundoptionen bilden den normativen Unterbau der folgenden Überlegungen, die sich am gegebenen Schema Freiheit vor Informationseingriffen (III.), Freiheit zur Verwendung eigener Informationen (IV.) und Freiheit beim Zugriff auf Informationen (V.) orientieren.

III. Informationseingriffe und das Gemeinwohl Die individuelle Freiheit vor Informationseingriffen ist bedroht durch staatliche Übergriffe. Karsten Weber benennt die bekannten Beispiele als Gefahrenpotentiale. Im Kern geht es wohl in demokratischen Rechtsstaaten um eine Güterabwägung: Rechtfertigt die Erreichung z. B. des Gutes „Sicherheit“ die Vernachlässigung des Gutes „Informationelle Selbstbestimmung“ und der damit verbundenen individuellen Freiheiten? Wohl nur dann, wenn es beim Gut „Sicherheit“ selber eigentlich um den Schutz basaler Freiheitsrechte geht. Das Eingreifen des Staates in die informationellen Selbstbestimmungsrechte der Bürger kann nicht willkürlich und auf bloßen abstrakten Verdacht hin geschehen, sondern muss legitimiert sein. Die einzige Legitimation dafür kann aber allein in der Schaffung von Freiheitsmöglichkeiten selbst liegen, die unter Umständen nur durch eine vorsorgliche Datenerhebung gewährleistet werden kann, die z.B. Terroristen abschreckt. Mehr Sicherheit erscheint in diesem Sinne als Freiheitsermöglichung. Damit soll nicht gesagt werden, dass Sicherheitsinteressen, wenn sie freiheitlich begründet werden, schon für sich hinreichende Bedingungen für einen Eingriff in die informationelle Selbstbestimmung darstellen. Berücksichtigt werden müssten z. B. auch alternative Möglichkeiten, die mit gleichem Erfolg weniger negative Freiheitsrechte einschränken usw.

___________ 11

Große Kracht (2007), S. 49.

Der Zusammenhang von Abwehr- und Anspruchsrechten

39

Festzuhalten bleibt aber, dass auch und gerade eine (oben skizzierte) Sichtweise, die Abwehrrechte und Anspruchsrechte nicht in Konkurrenz denkt, davor warnen muss, dass erstere Rechte zu Gunsten der zweiten schleichend aufgeweicht werden. Wenn für die These der Aufweichung informationeller Selbstbestimmungsrechte momentan einige gewichtige Gründe genannt werden können, dann darf dies aber nicht wiederum dazu führen, dass positive Freiheitsrechte und korrespondierende Ansprüche ihrerseits aufgeweicht werden und, so Karsten Weber in seinem Beitrag, die sozialstaatliche Idee als solche gleich mitverabschiedet wird. Genauso aber wie der Eingriff in die informationelle Selbstbestimmung des Einzelnen gerechtfertigt sein kann, wäre auch der Missbrauch dieser Daten möglich. Ein Missbrauch liegt meines Erachtens auf jeden Fall dann vor, wenn kein gemeinwohlorientierter Versuch ausgemacht werden kann, die Freiheitspotentiale von Bürgerinnen und Bürgern zu vergrößern. Die Möglichkeit des Missbrauchs von Datenerhebungen alleine stellt ihre moralische Rechtmäßigkeit aber noch nicht in Frage. Denn das Argument, dass die bloße Möglichkeit der Überwachung schon individuelle Freiheit einschränken kann, lässt sich mit dem Argument, dass die Möglichkeit der Überwachung individuelle Freiheit erst realisiert, abschwächen: In Großbritannien ist das PrivatsphärenBewusstsein stark ausgeprägt und dennoch trifft die nahezu flächendeckende Video-Überwachung (CCTV) auf eine extrem breite Zustimmung in der Bevölkerung, da sie als „gemeinnützig“ interpretiert wird.12

IV. Kompetente und verantwortliche Verwendung eigener Informationen Wenn staatliche Institutionen den Möglichkeiten der Menschen, ihre eigenen Informationen zu verwenden, sie also z. B. zu verkaufen (Kundenkarten) oder für Zugänge zu sozialen Netzwerken einzutauschen, Grenzen setzen, so überschreitet der Staat damit seine Kompetenzen (wenn man von Fällen absieht, in denen der Staat seiner Schutzpflicht nachkommen muss). So richtig dies ist, so sehr fällt auf, dass in dieser Aussage schlichtweg vorausgesetzt wird, dass Menschen diese Möglichkeit der autonomen Verwendung eigener Informationen tatsächlich haben. Der Umgang mit eigenen Informationen hängt nämlich von Bedingungen ab. Eine dieser Bedingungen ist ein Vermögen, mit anderen Worten: eine Kompetenz zur Verwendung eigener Informationen, die Menschen nicht automatisch schon mitbringen, sondern für die neben der Eigentätigkeit des Subjekts ___________ 12

Vgl. Menden (2007).

40

Alexander Filipoviü

Sozialisations- und Erziehungsprozesse positiv wirken müssen.13 Gerade hier sind gesellschaftliche Anstrengungen zu unternehmen. Das stellt sich immer auch als eine Aufgabe für den Sozialstaat dar, insofern Kompetenzvermittlung in Kindergarten, Schule, durch Sozialarbeit in und an Brennpunkten und Integrationsmaßnahmen Geld kostet. Und wenn es um eine besonders moralisch qualifizierte Kompetenz geht, ist auf die Bildung von Verantwortungsbewusstsein hinzuweisen, die unter anderem als gesellschaftliche Aufgabe zu begreifen ist. An dieser Stelle spielt in der Tat, Karsten Weber deutet dies nur ganz kurz an, das Recht auf Bildung eine Rolle und ist in die Reflexion einzubeziehen.14 Diese Argumentation kann sich auch in Zeiten des Social Web bewähren. Das Social Web (auch „Web 2.0“) wird genutzt als Instrument des Identitäts-, Informations- und Beziehungsmanagements15. Facebook, StudiVZ, Xing, MySpace und andere Angebote bedienen ein sehr ausgeprägtes Bedürfnis nach alternativen Formen vor allem der Identitäts- und Beziehungspflege und verlangen als Voraussetzung dafür die Preisgabe eigener Informationen. Der verantwortungsvolle Umgang mit persönlichen Daten muss auch in diesen Sozialen Netzwerken und für diese Angebote erst erlernt werden. Das Web 2.0 stellt damit nicht nur eine Herausforderung für die Medien-, sondern auch für die Bildungsethik dar.16

V. Geistiges Eigentum und die Verfügung über Informationen Die oben skizzierte Argumentation, dass negative Freiheit von bestimmten Bedingungen abhängig ist, verweist auf die tatsächlichen Möglichkeiten, auf Informationen und Wissen als freiheitsrelevante soziale Ressource zugreifen zu können; mit anderen Worten: über Wissen verfügen zu können. Damit steht hier in der Tat die Frage nach dem geistigen Eigentum zur Debatte.

___________ 13

Ausgeführt ist dieser Gedanke anhand der Begrifflichkeit „Literalität und Beteiligungsgerechtigkeit“ in Filipoviü (2007b), besonders S. 252–256. Literalität wird dort gefasst als eine allgemeine kommunikative Teilnahme- und Teilnahmemöglichkeit im Kontext bestimmter gesellschaftlicher Herausforderungen, z. B. der Entwicklungen des Internet und der Zunahme der Bedeutung von „Informationen“. 14 „Das Recht auf Bildung ist […] zu lesen als ein Recht auf qualitätvolle Bildungsvollzüge, die dem Einzelnen die Chance bieten, sich die sachlichen Anforderungen, die tatsächlich notwendigen Inhalte und Kompetenzen in einem solchen Maß anzueignen, wie er diese für ein selbstbestimmtes und selbstverantwortliches Leben in einem ganz bestimmten sozialen und kulturellen Kontext benötigt.“ Kunze (2007), S. 166. 15 Vgl. Schmidt (2007), S. 252 und ausführlicher, aber vor allem auf die Weblogs bezogen, Schmidt (2006), S. 172f. 16 Vgl. Filipoviü (2007a).

Der Zusammenhang von Abwehr- und Anspruchsrechten

41

Zugriffsrechte auf Bedingungen realer Freiheit werden auch unter dem Stichwort des Eigentums thematisiert. In dieser Perspektive ist reales Eigentum (und nicht die Möglichkeit, Eigentum zu haben) notwendig für die Wahrnehmung von Freiheitsrechten. So ist Eigentum z.B. für die Beteiligung an wirtschaftlichen Prozessen die notwendige Voraussetzung. Im Rahmen der sozialen Frage zur Zeit der Industrialisierung ist dementsprechend die Forderung nach der Beteiligung an Produktionsmitteln aufgetaucht. Erweist sich heute nicht in ähnlicher Weise gerade angesichts der wissensgesellschaftlichen Entwicklung der „Besitz“ von Wissen (im Sinne eines Verfügungsrechts) als neue Forderung nach einem Zugriffsrecht auf die Bedingungen realer Freiheit?17 Ein in diesem Zusammenhang interessanter Vergleich materieller und immaterieller Güter in kritischer Absicht ist in einem Text Johannes Pauls II. zu finden: „[…] für die Armen kam zum Mangel an materiellen Gütern noch der Mangel an Wissen und Bildung hinzu, der es ihnen unmöglich macht, sich aus ihrer Lage erniedrigender Unterwerfung zu befreien.“ (Centesimus annus 1991: Nr. 33)18 Spricht man also von einer Sozialpflichtigkeit des Eigentums, so könnte auch von einer Sozialpflichtigkeit des Wissens gesprochen werden. Christian Spieß hält dazu fest: Man „könnte […] argumentieren, dass letztlich entscheidend ist, dass jeder Mensch im Besitz jener Güter ist, die für seinen Lebensunterhalt notwendig sind und die Befriedigung der grundlegenden Bedürfnisse ermöglichen. […] [Es kann dann] an die Stelle des Eigentums eine bestimmte Form des Besitzes treten, im Sinne einer zuverlässigen Verfügbarkeit eines Gutes bzw. eines gesicherten Zugangs zu bestimmten Gütern.“19 Die zuverlässige Verfügbarkeit von Informationen und Wissen wäre hier einzubeziehen. Für die Eigentumsfrage im Zusammenhang mit Informationen und Wissen könnte also die normative Orientierung „Sozialpflichtigkeit des Wissens“ tatsächlich sinnvoll sein.

VI. Fazit Die Überlegungen haben gezeigt, dass eine strikt liberale bzw. libertäre Argumentation zum Thema der Informationsfreiheit nicht alternativlos ist. In jeder Dimension der Informationsfreiheit konnten Stellen entdeckt werden, an denen eine Betonung der positiven Freiheiten (in der Annahme der Untrennbarkeit von negativen und positiven Freiheiten) anknüpfen konnte. Eine politisch-philosophische normative Reflexion zur Informationsfreiheit muss keineswegs zu dem Schluss kommen, dass der Verteilungsstaat überhaupt ausge___________ 17

Filipoviü (2007b), S. 185–191. Johannes Paul II. (1992), Nr. 33. 19 Spieß (2004), S. 192. 18

42

Alexander Filipoviü

dient hätte. Eher sind größere Anstrengungen zu unternehmen, dass moderne Wohlfahrtsstaaten sich auf die Herausforderungen einlassen, die das Internet in Zukunft noch mit sich bringt.

Literatur Bedford-Strohm, Heinrich (1999): Gemeinschaft aus kommunikativer Freiheit. Sozialer Zusammenhalt in der modernen Gesellschaft. Ein theologischer Beitrag. Gütersloh. Bienfait, Agathe (1999): Freiheit, Verantwortung, Solidarität. Zur Rekonstruktion des politischen Liberalismus. Frankfurt a. M. Bohmeyer, Axel (2006): Jenseits der Diskursethik. Christliche Sozialethik und Axel Honneths Theorie sozialer Anerkennung. Münster, Westf. (Forum Sozialethik, 2). Filipoviü, Alexander (2007a): Neue Medienkompetenz und Beteiligungsgerechtigkeit. Herausforderungen für die Medien- und Kommunikationsethik. In: Communicatio Socialis 37, S. 233–245. – (2007b): Öffentliche Kommunikation in der Wissensgesellschaft. Sozialethische Analysen. Bielefeld (Forum Bildungsethik, 2). – (2008): Die Kritik an der Unterscheidung von Sein und Sollen im Pragmatismus. Über den Zusammenhang von Erkenntnistheorie, Ethik und Pädagogik. In: Pädagogische Rundschau 62, S. 107–114 (im Druck). Große Kracht, Hermann-Josef (2007): Wohlfahrtsverantwortung zwischen Sozialstaat und Bürgergesellschaft. Korreferat zu Marianne Heimbach-Steins. In: Dabrowski, Martin / Wolf, Judith (Hrsg.): Aufgaben und Grenzen des Sozialstaates. Paderborn, München, Wien, Zürich, S. 43–51. Heimbach-Steins, Marianne (2007): Wohlfahrtsverantwortung. Ansätze zu einer sozialethischen Kriteriologie für die Verhältnisbestimmung von Sozialstaat und freier Wohlfahrtspflege. In: Dabrowski, Martin / Wolf, Judith (Hrsg.): Aufgaben und Grenzen des Sozialstaates. Paderborn, München, Wien, Zürich, S. 9–42. Hübenthal, Christoph (2006): Grundlegung der christlichen Sozialethik. Versuch eines freiheitsanalytisch-handlungsreflexiven Ansatzes. Münster, Westf. (Forum Sozialethik, 3). Johannes Paul II. (1992): Centesimus annus. In: Bundesverband der Katholischen Arbeitnehmer-Bewegung Deutschlands, K.A.B. (Hrsg.): Texte zur katholischen Soziallehre. Die sozialen Rundschreiben der Päpste und andere kirchliche Dokumente. Mit Einf. von Oswald von Nell-Breuning, Johannes Müller. 8., erw. Aufl. Bornheim, S. 689–764. Kunze, Axel Bernd (2007): Beteiligung bedarf der Befähigung. Zur Frage nach einer Pflicht zur Bildung. In: Eckstein, Christiane / Filipoviü, Alexander / Oostenryck, Klaus (Hrsg.): Beteiligung, Inklusion, Integration. Sozialethische Konzepte für die moderne Gesellschaft. Münster, Westf. (Forum Sozialethik, 5), S. 157–170. MacCallum, Gerald C., JR. (1967): Negative and Positive Freedom. In: Philosophical Review 76, S. 312–334.

Der Zusammenhang von Abwehr- und Anspruchsrechten

43

Mandry, Christof (2007): Recht auf Bildung und soziale Beteiligung. Korrespondiert dem Recht auf Bildung eine Pflicht zur Bildung? In: Eckstein, Christiane / Filipoviü, Alexander / Oostenryck, Klaus (Hrsg.): Beteiligung, Inklusion, Integration. Sozialethische Konzepte für die moderne Gesellschaft. Münster, Westf. (Forum Sozialethik, 5), S. 141–155. Menden, Alexander (2007): Unter Dauerüberwachung lebt sich's freier. In: Süddeutsche Zeitung, Ausgabe 279, 4.12.2007, S. 14. Mieth, Dietmar (2002): Art. Sozialethik. In: Düwell, Marcus / Hübenthal, Christoph / Werner, Micha H. (Hrsg.): Handbuch Ethik. Stuttgart, Weimar, S. 500–504. Pannenberg, Wolfhart (1979): Person und Subjekt. In: Marquard, Odo / Stierle, Karlheinz (Hrsg.): Identität. München (Poetik und Hermeneutik. Arbeitsergebnisse einer Forschungsgruppe VIII), S. 406–422. Pauer-Studer, Herlinde (2000): Autonom leben. Reflexionen über Freiheit und Gleichheit. Frankfurt a. M. Schmidt, Jan (2006): Weblogs. Eine kommunikationssoziologische Studie. Konstanz. – (2007): Social Software als Gegenstand und Werkzeug der Online-Forschung. In: Welker, Martin (Hrsg.): Online-Forschung 2007. Grundlagen und Fallstudien. Köln, S. 251–272. Spieß, Christian (2004): Sozialethik des Eigentums. Philosophische Grundlagen – kirchliche Sozialverkündigung – systematische Differenzierung. Münster (Schriften des Instituts für Christliche Sozialwissenschaften der Westfälischen Wilhelms-Universität Münster, 51). Vogt, Markus (1999): Soziale Interaktion und Gerechtigkeit. In: Korff, Wilhelm u. a. (Hrsg.): Handbuch der Wirtschaftsethik. Band 1–4 / hrsg. im Auftr. der GörresGesellschaft. Bd. 1. Verhältnisbestimmung von Wirtschaft und Ethik. Gütersloh, S. 284–309.

Informationsfreiheit – eine ökonomische Analyse – Korreferat zu Karsten Weber – Von Eric Christian Meyer

I. Einleitung Wenn durch die rasante Entwicklung des Internet eine neue Informationsethik gefordert wird, so bedeutet dieses zunächst die Entwicklung eines Regelkanons, wie mit Informationen umgegangen werden soll. Weber (2008) versucht dieses, indem er Regeln für die Verwendung und den Zugang zu Informationen entwirft. Dabei identifiziert er drei Informationsfreiheiten, die es zu gewährleisten gilt: –

die Freiheit vor Informationseingriffen,



die Freiheit zur Verwendung der eigenen Informationen und



die Freiheit beim Zugriff auf Informationen.

Auch wenn diese Freiheiten prima facie plausibel erscheinen, so sind sie doch begründungspflichtig. Dass dieses nicht ganz einfach sein kann, deutet schon der offenkundige Widerspruch zwischen der ersten und der dritten von Weber angeführten Informationsfreiheit an. Die Freiheit auf den Zugriff auf Informationen bedeutet natürlich, dass ein anderer diesen Zugriff nicht abwehren kann. Obwohl konzediert werden muss, dass Weber in seiner Argumentation bei diesen Freiheiten auf unterschiedliche Informationsarten (persönliche Daten einerseits, Ideen bzw. Erfindungen andererseits) abzielt, zeigt sich gerade hier, dass eine Informationsethik einer erheblichen Abwägungsproblematik unterliegt, der Weber ausweicht.1 Dieser Beitrag versucht aus einer ökonomischen Perspektive, die Problematik der Informationsfreiheit zu beleuchten und hieraus bestimmte Regeln abzuleiten. Weiterhin soll auf diesem Fundament dargelegt werden, welche Herausforderungen sich hierbei durch das Internet und die neuen Informations- und Kommunikationstechnologien ergeben. ___________ 1

Vgl. Weber (2008), S. 18f., wo er diesen Ansatz begründet.

46

Eric Christian Meyer

II. Informationen aus ökonomischer Perspektive 1. Informationsasymmetrien Informationen spielen in der Ökonomik eine herausragende Rolle, da alles Handeln auf der Basis der den Individuen zur Verfügung stehenden Informationen geschieht. In der neoklassischen Welt wurden die Probleme einer unterschiedlichen Informiertheit der Menschen durch den modelltheoretischen Kunstgriff der vollkommenen Information umgangen, wonach die Individuen über alle Informationen verfügen, die für eine Entscheidung nötig sind, oder diese ohne Kosten und unverzüglich beschaffen können. Erst später beschäftigte sich die Industrieökonomik mit dem Phänomen der asymmetrischen Informationsverteilungen und ihren Implikationen für die Funktionsweise von Märkten. Maßgeblich ist das von Akerlof beschriebene „Lemons“-Phänomen, bei dem aufgrund von Informationsasymmetrien Märkte zusammenbrechen, was natürlich eine nicht wünschenswerte Schlechterstellung der Konsumenten zur Folge hat.2 Informationsasymmetrien führen allgemein zu Fehlallokationen von Gütern, da diese nicht in ihrer besten Verwendung landen, die Zielgenauigkeit der Verwendung von Gütern leidet also. Aus dieser Sicht heraus ist eine Beschränkung im Zugang zu Informationen also ökonomisch nachteilig und allgemein wohlfahrtsmindernd. Dieses hat zur Konsequenz, dass eine Beschränkung im Informationszugang, wie sie durch die „informationelle Selbstbestimmung“ vorgegeben ist, ebenso wohlfahrtsmindernd ist. Man könnte einwenden, dass Informationen über Güter (wie z.B. Autos) nicht mit Informationen über Menschen verglichen werden dürfen. Jedoch gelten die identischen Mechanismen. Dieses kann leicht an drei Beispielen illustriert werden. Wenn ein Arbeitgeber eine Einstellungsentscheidung treffen muss, so kann er auch nur näherungsweise die Fähigkeiten und Qualitäten des neuen Mitarbeiters beurteilen. Jede Beschränkung seiner Freiheit sich Informationen über den Bewerber zu beschaffen, führt notwendigerweise zu schlechteren Entscheidungen. Beim Abschluss einer Krankenversicherung benötigt der Versicherer Informationen über den Gesundheitszustand des Versicherten, je besser er dieses einschätzen kann, desto besser kann er den Tarif kalkulieren. Gelingt des dem Versicherten, Krankheiten oder Gefährdungen zu verheimlichen, so erhält er zwar einen für ihn günstigeren Tarif, dieses jedoch auf Kosten der Gemeinschaft der Versicherten. Schließlich benötigt eine Bank bei der Kreditvergabe Informationen über die Bonität des Kreditnehmers. Auch hier kann ___________ 2 Vgl. Akerlof (1970). Akerlof betrachtet den Markt für Gebrauchtwagen, wo es Autos mit guter und schlechter Qualität („Lemons“) gibt. Diese Unterschiede kennt jedoch nur der Verkäufer. Da dieser die Autos zu einem einheitlichen Preis anbietet, werden die guten Qualitäten , deren Wert oberhalb des Preises liegt, nicht gehandelt werden, so dass der Markt für die guten Qualitäten zusammenbricht.

Informationsfreiheit – eine ökonomische Analyse

47

der Zinssatz umso besser angepasst werden, je mehr Informationen die Bank über den Kreditnehmer erhalten kann. Wenige bzw. falsche Informationen oder eine schlechte Verarbeitung der Informationen führen zu suboptimalen Allokationen der Kredite und damit zu gesamtwirtschaftlich höheren Kosten. Bei nicht-personalen Charakteristiken von Gütern ist diese Offenlegung nahezu selbstverständlich, da man sonst eine Betrugsabsicht unterstellen würde.3 Folglich kennt das Verbraucherrecht auch eine entsprechende Haftung bei Mängeln, die einem Verkäufer zum Verkaufszeitpunkt bekannt sind.4 Wesentlich ist es, den Unterschied zwischen den einzel- und den gesamtwirtschaftlichen Interessen in der Frage des Informationszugangs zu erkennen. Während der einzelne wenig Neigung hat, seine ihn charakterisierenden Informationen preiszugeben, um für sich – im Falle schlechter Charakteristiken – bessere Konditionen zu erlangen, ist es aus gesamtwirtschaftlicher Perspektive besser, möglichst weite Informationsrechte einzuräumen, da sonst alle anderen Individuen vergleichsweise schlechter gestellt werden. Gesamtwirtschaftlich und damit auch aus der Perspektive der richtigen Regeln und Gesetze sind also weitgehende Informationsrechte und nur geringe Möglichkeiten zur Verheimlichung die optimale Wahl.

2. Netzeffekte Informationen können auch Netzeffekte aufweisen. Unter (positiven) Netzeffekten versteht man, dass der Nutzen aller Teilnehmer eines Netzes durch einen weiteren Netzteilnehmer gesteigert wird.5 Dieses ist eine Externalität, die so vom Einzelnen nicht wahrgenommen wird, so dass es zu einer Unterversorgung kommt, die wirtschaftspolitische Eingriffe rechtfertigt. Informationen haben häufig die Eigenschaft, dass sie erst in Verbindung mit anderen Informationen (als quasi Komplementen) an Wert gewinnen. So ist die Information, welche Produkte jemand einkauft, für sich genommen recht belang- und wertlos. Erst in der Kombinationen mit vielen Millionen anderen Kaufmustern, wird diese eine Information werthaltig, und zwar in zwei Richtungen. Erstens kann der Informationssammler durch bestimmte Datenbearbeitungsverfahren, dem Individuen Produkte anbieten, die mit einer sehr hohen Wahrscheinlichkeit seinen Geschmack treffen werden, wodurch er seinen Umsatz erhöhen kann. Zweitens verbessert sich durch diese bessere Zielorientie___________ 3 Vgl. Posner (1978), S. 398 und Posner (1981), S. 406, der diese Nicht-Offenlegung als Betrug kennzeichnet. 4 Das Recht geht hier streng genommen sogar noch weiter, da diese Mängel nur vorhanden, nicht aber bekannt sein müssen. 5 Vgl. z.B. Fritsch/Wein/Ewers (2007), S. 259.

48

Eric Christian Meyer

rung von Angeboten der Nutzen für den Informationsgeber, der überhaupt erstmalig von bestimmten Produkten erfährt bzw. nicht mehr mit unpräzisen Massenangeboten überhäuft wird. Beispiele für diese Nutzung von Netzeffekten durch entsprechende Datensammlung und -aufbereitung sind die Produktempfehlungen bei amazon.com, die auf einer sehr einfachen Ähnlichkeitsbeziehung beruhen aber auch das Bonitätsscoring, wo mit steigender Zahl von Informationen über Charakteristika der Individuen und dem Zusammenhang zu deren Bonität eine bessere Einordnung der Kreditwürdigkeit und damit auch eine Erweiterung der Kreditvergabe möglich wird. Allerdings sind es gerade diese Netzeffekte durch Kombination von Datensätzen, die hochgradig zwar einerseits sehr wertschöpfend sind, andererseits jedoch sehr kritisch betrachtet werden.

3. Innovation Es gibt auch Situationen, in denen es aus ökonomischer Sicht angezeigt ist, den Zugang zu Informationen zu beschränken. Dieses ist immer dann der Fall, wenn Innovationen hervorgebracht bzw. innovative Prozesse betrachtet werden. Innovationen, also z.B. neue Produkten oder Dienstleistungen, sind immer mit einem Investitionsaufwand verbunden. Diese Kosten müssen mit den so geschaffenen neuen Produkten erst verdient werden. Dieses misslingt natürlich, wenn die Informationen, die zur Fertigung dieses Produktes nötig sind, nicht geschützt werden können. Damit bestünden keinerlei Innovationsanreize, wenn ein Schutz der Informationen nicht möglich ist, weshalb hier eine Beschränkung der Informationsfreiheit nötig ist. Bei Gütern und Dienstleistungen geschieht dieses im allgemeinen durch Patente und andere Schutzrechte. Auf diese muss die Idee des Innovationsschutzes jedoch nicht beschränkt bleiben. Dieses gilt auch in jeder anderen Situation, in der sich Neues ergibt bzw. in der neues probiert werden muss. Ein weiteres Argument zielt eher auf den Prozess der Ideenfindung. Es zeigt sich, dass Individuen sich unter Beobachtung anders verhalten, als wenn sie in einem abgeschlossenen und vertrauensvollen Umfeld agieren können. Ihr Verhalten wird formaler und weniger frei.6 Dieses geänderte Verhalten hat auch unmittelbar ökonomische Konsequenzen. Denn diese höhere Formalität verhindert auch eine freie Diskussion neuer Ideen, was den Innovationsprozess verteuert.7 In diesem Sinne hat Privatheit also auch einen unmittelbaren ökonomi___________ 6 Vgl. Posner (1981), S. 401 f. Auch Weber (2008), S. 23 f. weist auf diese Problematik hin. 7 Vgl. Posner (1981), S. 401, der auf eine dadurch verursachte Verteuerung der Kommunikationskosten verweist, die den Gedankenaustausch weniger effektiv macht.

Informationsfreiheit – eine ökonomische Analyse

49

schen Wert, da sie das Ausprobieren von neuen Ideen, Varianten und Gedanken ermöglicht, ohne dass hierfür gleich Konsequenzen befürchtet werden müssen oder – im Fall einer guten Idee – deren Raub erwartet werden muss.

4. Zwischenfazit Auf Basis der ökonomischen Effekte für die Gesellschaft aber auch für den einzelnen konnten unterschiedliche Effekte der Informationsfreiheit aufgezeigt werden. Eine Beschränkung der Informationsfreiheit wird nur im Zusammenhang mit Innovationen und den zu ihrer Entstehung führenden Prozessen als sinnvoll betrachtet. Hingegen sind Beschränkungen der Informationsfreiheit nicht anzuraten, wenn es eine Abschwächung von Informationsasymmetrien erreicht werden kann oder wenn durch das Zusammenwirken von Informationen positive Netzeffekte erreicht werden können.8 Dieses macht ein Dilemma deutlich. Die ökonomische Rationalität legt einerseits eine weitgehende Offenlegung von Informationen nahe (sofern es sich eben nicht um Innovationsprozesse handelt), andererseits haben die meisten Menschen das Gefühl, relativ viele Informationen für sich behalten zu wollen. Diesen Widerspruch gilt es noch zu klären

III. Eigentumsrechte an Informationen Um die genannten Probleme im Zusammenhang mit Informationen und dem Zugang zu ihnen zu lösen, müssen Eigentumsrechte an Informationen definiert und zugewiesen werden. Dem Coase-Theorem folgend ist in Abwesenheit von Transaktionskosten die Verteilung der Eigentumsrechte irrelevant für das wirtschaftliche Ergebnis und insbesondere werden nach der Zuteilung der entsprechenden Rechte alle Externalitäten korrekt internalisiert.9 Abgesehen von den Netzexternalitäten liegen in der obigen Analyse keine weiteren externen Effekte vor. Wesentlich ist jedoch die Einschränkung der Abwesenheit von Transaktionskosten, die die Zuweisung von Eigentumsrechten beeinflusst. Diese liegen bei Informationen sehr wohl vor und sind für die Zuweisung von Eigentumsrechten entscheidend.10 ___________ 8 Vgl. ähnlich Posner (1981), S. 404. Ausführlich zur Zuteilung von Infomationsrechten Posner (1983), S. 231 ff. 9 Vgl. Coase (1960). Bemerkenswerterweise wird dem institutionell wichtigeren Teil des Coase-Theorems, nämlich die Betrachtung in einer Welt mit Transaktionskosten im allgemeinen weniger Beachtung geschenkt, ist hier in diesem Fall jedoch besonders wichtig, vgl. Coase (1960), S. 15 ff. 10 Vgl. Posner (1981), S. 397.

50

Eric Christian Meyer

Im vorangehenden Abschnitt wurde bereits darauf hingewiesen, dass die Individuen charakterisierenden Informationen zum Abbau von Informationsasymmetrien genutzt werden können, ein Eigentum für diese Informationen also nicht automatisch den Individuen zusteht. So spräche zunächst einmal nichts dagegen, das Einkommen der Individuen z.B. im Telefonbuch zu veröffentlichen, was zielgenaue Finanzinformationen an die Individuen ermöglichen würde. Gleichzeitig würden diese Informationen aber auch von Dieben wohlwollend aufgenommen, da diese ebenso zielgerichtet ihre Diebeszüge planen könnten, was natürlich nicht willkommen ist. Der Grund für eine entsprechende Nicht-Veröffentlichung von Einkommensdaten liegt also nicht in den Informationen selbst, sondern in der Tatsache, dass die Folge der Veröffentlichung sehr viel kostspieliger ist, denn der Staat müsste sein Anstrengungen in der Diebstahlsbekämpfung entsprechend erhöhen. Ähnliches gilt für das aktuelle Beispiel des Handels mit Bankdaten. Auch hier spricht zunächst wenig gegen eine entsprechende Bekanntgabe der Daten. In einem vertrauensintensiven, dafür aber transaktionskostenarmen Verfahren der Lastschrift wird damit ein sehr günstiges Instrument im Zahlungsverkehr ermöglicht. Wieder ist es der sehr aufwendige Schutz des Missbrauchs der Daten, die zu einer Beschränkung im Zugang führen. Die Zuweisung von Eigentumsrechten an Informationen ist jedoch nicht einfach, da es nicht immer klar ist, wer eigentlich ein Eigentum an diesen Informationen für sich reklamieren darf. Im Fall der Bankdaten könnte dieses der Kontoinhaber, jedoch genauso gut auch die Bank sein, die diese Kontonummer schließlich an den Kontoinhaber vergeben hat. Neben der Frage, wem die Informationsrechte zuzuweisen sind, ist also zunächst zu klären, ob dieses überhaupt technisch und widerspruchsfrei möglich ist und außerdem, ob solche Eigentumsrechte dann überhaupt durchsetzbar wären, wenn sie sich denn zuweisen ließen. Um die Zuordenbarkeit von Informationen zu beurteilen, sollen folgende Arten von persönlichen Informationen unterschieden werden: –

Identitätsinformationen: Diese Informationen sind unmittelbar und untrennbar mit der Person verbunden. Beispiele sind Fingerabdrücke, Iris, DNA, Bild.



Charakterisierungsinformationen: Sie beschreiben eine Person in allen möglichen Ausprägungen und Eigenschaften. Beispiele sind Gesundheitszustand, Präferenzen, Kontonummer.



Verhaltensinformationen: Sie resultieren aus dem Verhalten der Individuen und sind häufig eng mit Charakterisierungsinformationen verbunden. So resultiert aus bestimmten Geschmacksvorlieben natürlich ein bestimmtes Kaufverhalten und aus Einkommenseigenschaften folgt die Nachfrage

Informationsfreiheit – eine ökonomische Analyse

51

nach bestimmten Finanzprodukten, so dass auch aus Verhaltensdaten auf Charakterisierungsdaten statistisch zurückgeschlossen werden kann. Beispiele sind die Bewegung von Individuen, ihr Kaufverhalten. Wenn Coase von der Zuweisung von Eigentumsrechten spricht, geht er davon aus, dass dieses unstrittig möglich ist. Dieses Eigentumsrecht ist in der Tat unstrittig zuweisbar im Falle der Identitätsinformationen, da man mit diesen Informationen geboren wird. Dieses heißt nicht, dass solche Informationen z.B. über bestimmte DNA-Abschnitte nicht zum Zwecke der Genforschung veräußert werden können und anderen damit ein Nutzungsrecht zugebilligt wird. In den meisten anderen Fällen ist eine Veräußerung dieser Informationen jedoch nicht möglich oder sogar zu verbieten, da sie eine Personenidentifikation erschweren würde. Schwieriger erweist sich die rein technische Zuweisung von Charakterisierungsinformationen, da Charakterisierungsdaten mehrrelational sein können.11 Solche Informationen haben üblicherweise nicht nur eine Person als Ursprung sondern mindestens zwei. Die Kontonummer wird von der Bank dem Kunden zugewiesen und das Finanzamt ordnet jedem Bürger eine Steueridentifikationsnummer zu. Wem gehört diese Information? Dem Herausgeber oder dem, dem sie zugewiesen wurde. Genauso wird der Lohn vom Arbeitgeber an den Arbeitnehmer überwiesen, aber wem gehört die Information über die Lohnhöhe? Ähnliches gilt auch – wenngleich abgeschwächt – für Hausadressen. Der Straßenname und die Nummer wird von der Kommune vergeben kann aber natürlich von jedem genutzt werden, der in einem solchen Haus wohnen. Und selbst wenn ein Eigentumsrecht an dieser Information über den Wohnort beim Bewohner bestünde, so ließe sie sich leicht über andere Wege die Information über den Wohnort in Erfahrung bringen, und damit weiter nutzen.12 Manche Informationen, wie z.B. die Tatsache der Eheschließung können sogar nur gemeinschaftlich zustande kommen.13 Einfacher ist die Zuweisung von Informationsrechten bei Charakterisierungsdaten, die aus den Individuen heraus entstehen, was typischerweise bei Präferenzen der Fall ist. Hier wäre eine Zuweisung des Eigentumsrechts zumindest der Entstehung nach technisch möglich. Auf andere Weise problematisch ist die Zuweisung der Eigentumsrechte bei Verhaltensinformationen. Diese Informationen werden von den Individuen hinterlassen und können/müssen von anderen Individuen entsprechend aufgenommen werden. Solche Verhaltensinformationen sind schon die Fußspuren ___________ 11

Vgl. Roßnagel/Pfitzmann/Garstka (2001), S. 37 und Kilian (2002), S. 923 f. Man bräuchte nur im Einwohnermeldeamt nachfragen oder, wenn dieser Weg verschlossen wäre, der betreffenden Person nur bis zur Wohnung nachgehen. Die Verfahren unterscheiden sich nur in ihren Kosten, nicht in ihrem Ergebnis. 13 Kilian (2002), S. 924. 12

52

Eric Christian Meyer

des Neandertalers gewesen und finden ihre moderne Entsprechung in den Daten, die man beim Einkauf hinterlässt oder in den Einlogdaten eines Mobiltelefons. Jedoch stellt sich auch hier die Frage des Eigentumsrechts. Gehört es dem Informationssender, der diese Daten aussendet (unwillkürlich und häufig unvermeidbar) oder sind sie dem Empfänger zuzuordnen, der diese Daten auflesen muss. Problematisch ist zudem, dass häufig nicht einmal identifizierbar ist, woher solche Verhaltensdaten kommen, da sie über unterschiedliche Wege erfasst worden sein können. Selbst wenn das Problem der Zuordnung der Eigentumsrechte an Informationen zweifelsfrei und eindeutig gelöst werden könnte, so stellt sich als nächstes die Frage der Durchsetzbarkeit dieser Rechte. Wenn die Informationsrechte „mehrrelational“ sind, so sind die entsprechenden Informationen folglich stets mehrfach (im günstigsten Fall nur zweifach) vorhanden. Dieses macht eine Beweisführung, woher bestimmte Informationen kommen, schwierig. Ähnliches gilt auch bei Verhaltensdaten, auf deren Basis Rückschlüsse auf Charakterisierungsdaten gezogen werden. In diesem Fall ist schon unklar, ob die Charakterisierungsdaten direkt beobachtet worden sind oder ob sie aus Verhaltensdaten abgeleitet wurde. Unterstellt man letzteres, so folgt jedoch, dass auch die Beobachtung von Verhaltensdaten nicht problemlos eingeschränkt werden kann. Angenommen es würden die Verwertung von Einkaufsdaten auf Basis von RFID-Chips verboten werden, d.h. ein Eigentumsrecht an Verhaltensdaten dem Sender zugesprochen werden, so könnte man dennoch als Ersatz Einkaufsdaten auf der Basis von „Kassiererdaten“ nutzen. Sprich: Die Kassierer werden angewiesen bestimmte Kunden, die häufig einkaufen und deren Profil sie sukzessive kennenlernen mit bestimmten Empfehlungen zu versorgen. Die Treffsicherheit der Empfehlung und Versorgung würde dadurch reduziert. Schließlich würde man die neuronalen Netze, die solche Analysen in Computern durchführen, in den Kopf der Menschen zwangsweise zurückführen, wo dann vergleichbare Ähnlichkeitsanalysen ablaufen. Für einen Beobachter ist nun aber nur schwer feststellbar, ob die Basis für die Kaufempfehlung eine verbotene Auswertung von RFID-Chips war oder eine erlaubte Auswertung des Kassiererwissens, was die Durchsetzbarkeit des Eigentums an Informationen sehr schwierig und kostenintensiv macht. Wollte man ein Prüfschema für die Zuteilung von Eigentumsrechten an Informationen entwickeln, so würde sich dieses an den ökonomischen Konsequenzen der Zuweisung der Eigentumsrechte, wie sie in Kapitel II. dargestellt wurden, richten, d.h. wie können möglichst kostengünstig Informationsasymmetrien abgebaut werden, ohne das Innovationspotenzial der Individuen zu gefährden oder zu hemmen. Dabei gilt es die Mehrrelationalität der Informationen zu berücksichtigen, d.h. es ist auszuwerten, wer an der Generierung der Information überhaupt beteiligt ist. Danach sind auch weitere Konsequenzen der so gewählten Verteilung zu berücksichtigen. Schließlich ist auch zu prüfen,

Informationsfreiheit – eine ökonomische Analyse

53

ob die so zugeordneten Eigentumsrechte auch durchsetzbar sind. Dieses kann jedoch nicht in allen Fällen aufgrund der eben beschriebenen Probleme der Eigentumrechtsvergabe gelingen.

IV. Herausforderungen durch das Internet und neue Informations- und Kommunikationstechnologien Grundsätzlich ergeben sich durch das Internet und die neuen Informationsund Kommunikationstechnologien keine neuen Probleme in der Zuweisung der Informationsrechte. Was sich jedoch radikal ändert, sind bestimmte Transaktionskosten in der Informationsgenerierung, -verarbeitung und -verbreitung, die u.U. zu neuen Regelungen der Informationsrechte führen können. Folgende Effekte des Internet und der neuen Informations- und Kommunikationstechnologien sind wesentlich für die Informationsrechte: 1.

Informationen sind in großem Umfang beliebig lang speicherbar. Hieraus erwächst für einen rationalen Informationsbesitzer das Problem, dass er nicht absehen kann, in welchen anderen Situationen die von ihm zur Verfügung gestellten Informationen noch genutzt werden. Dieses impliziert außerdem, dass er nicht feststellen kann, welchen Gesamtwert seine Informationen für den Empfänger durch eventuelle zukünftige, für keinen der beiden Partner absehbaren Situationen haben könnten. Mithin kann sich auch kein korrekter Preis für diese Information bilden. Typische Beispiele für solche Informationen sind das veröffentlichen privater Informationen auf sog. „social networks“ wie myspace, aber auch die Einkaufsdaten, die man an einer Kasse hinterlässt. Auch eine Einschränkung der Nutzung der Information ist aufgrund des nachfolgenden Punktes der beliebigen Kopierbarkeit kaum – sprich: nur unter sehr hohem Kostenaufwand – möglich.

2.

Informationen sind nahezu beliebig kopierbar. Die beliebige Kopierbarkeit von Informationen bedeutet, dass eine Kontrolle und Durchsetzbarkeit von Eigentumsrechten an diesen Informationen kaum noch möglich ist. Durchsetzung der Eigentumsrechte hieße letztlich, dass die entsprechenden Daten auf allen Datenträgern der Welt gelöscht sein müssten. Dieses ist unter angemessenem Aufwand kaum realisierbar.

3.

Informationen sind leicht rekombinierbar. Informationen unterschiedlicher Quellen können miteinander kombiniert werden. Dieses ermöglich in hohem Maße Erkenntnisgewinne durch Clusterungen, die wiederum zielgenaue Ansprachen und auch faire Bepreisungen (z.B. im Kreditgeschäft) ermöglichen. Für den Informationsgeber bedeutet dieses, dass er nur schwer den Wert seiner Information erkennen kann. Die positiven Netzexternalitäten, die durch ihn entstehen, sind für ihn kaum einsehbar und einschätzbar. Paradoxerweise ist dieses jedoch für den Einzelnen nicht gravie-

54

Eric Christian Meyer

rend, da die positiven Effekte der Clusterungen und der statistischen Bewertung von Daten erst durch eine sehr große Zahl von Daten präzise und damit wertvolle Beiträge liefert. Damit ist jedoch der Beitrag der einzelnen Information verschwindend gering und damit auch ihr Wert entsprechend klein. 4.

Informationen werden globalisiert. Durch das Internet werden Informationen ubiquitär, sie sind global abrufbar. Dieses hat zur Folge, dass sie auch in beliebigen Jurisdiktionen verwandt werden können. Damit jedoch kann eine Durchsetzung bestehender Eigentumsrechte nicht mehr zwingend gewährleistet werden.

5.

Informationsherkunft ist nicht kontrollierbar. Das Internet ist auch ein anonymisierendes Medium. Dieses hat einerseits zur Folge, dass ein Verfolgung von „Informationsverursachern“ sehr aufwendig, teilweise bei Anwendung entsprechender Technologien sogar unmöglich ist, wodurch wiederum die Durchsetzung von Informationsrechten schwierig wird. Dieses gewinnt insbesondere im Bereich kompromittierender Informationen an Bedeutung, was bislang in diesem Beitrag kaum betrachtet wurde. Dieses gilt auch für die fehlerhafte Rekombination von Daten, die zu falschen Schlüssen über die Urheberschaft von Informationen führt. Ein Hauptproblem ist also die schwindende Durchsetzbarkeit von Eigentumsrechten im Internet. Dieses relativiert sich allerdings vor dem Hintergrund der dort bereitgestellten Informationen, die häufig Charakterisierungsinformationen sind. Für diese konnte jedoch bereits in Kapitel II. gezeigt werden, dass ein Schutz dieser Informationen nur in beschränktem Maße nötig ist. Problematischer sind hier schon die Folgen, die sich aus der mangelnden Bemessung der Werte der Informationen, die bereitgestellt werden, ergeben, da diese zu entsprechenden Minderbereitstellungen führen.

V. Fazit Es wurde versucht zu zeigen, welche ökonomischen Konsequenzen die Beschränkung von Zugängen zu Informationen haben können. Diese bilden die Basis für die Zuteilung jeglicher Eigentumsrechte an Informationen. Allerdings erweist sich die Zuteilung wie auch die Durchsetzung von Informationseigentumsrechten als problematisch. Das Internet und die neuen Informations- und Kommunikationstechnologien führen bei dieser Betrachtung zu keinen grundsätzlich neuen Problemen, allerdings ergeben sich zum Teil gravierende Kostenverschiebungen in der Informationserfassung und -verarbeitung. Die Durchsetzbarkeit von Informationsrechten wird zudem erschwert.

Informationsfreiheit – eine ökonomische Analyse

55

Literaturverzeichnis Akerlof, George A. (1970): The Market for “Lemons”: Quality Uncertainty and the Market Mechanism, in: Quarterly Journal of Economics 84 (3), S. 488–500. Coase, Ronald H. (1960): The Problem of Social Cost, in: Journal of Law and Economics 3, S. 1–44. Fritsch, Michael / Wein, Thomas / Ewers, Hans-Jürgen (2007): Marktversagen und Wirtschaftspolitik, 7. Auflage, München. Kilian, Wolfgang (2002): Informationelle Selbstbestimmung und Marktprozesse – Zur Notwendigkeit der Modernisierung des Modernisierungsgutachtens zum Datenschutzrecht, in: Computer und Recht, S. 921–929. Posner, Richard A. (1978): The Right of Privacy, in: Georgia Law Review 12 (3), S. 393–422. – (1981): The Economics of Privacy, in: American Economic Review Papers and Proceedings 71 (2), S. 405–409. – (1983): The Economics of Justice, Cambridge (Mass.) Roßnagel, Alexander / Pfitzmann, Andreas / Garstka, Hansjürgen (2001): Modernisierung des Datenschutzrechts – Gutachten im Auftrag des Bundesministerium des Innern (http://www.computerundrecht.de/media/gutachten.pdf). Weber, Karsten (2008): Anything goes? Ethisch sensible Problemfelder in der digital vernetzten Wirtschaft (in diesem Band).

Software-Patente Von Aloys Prinz

I. Einleitung Patente definieren allgemein intellektuelle Eigentumsrechte an Erfindungen, die es ermöglichen, eine bestimmte Zeit als Monopolist die Erfindung wirtschaftlich zu verwerten. Im Gegenzug wird in der (öffentlich zugänglichen) Patentschrift die Erfindung in ihren Details offen gelegt, so dass das in der Erfindung inkorporierte und verborgene Wissen allgemein zugänglich wird. Das bekannt gemachte Wissen an sich ist ein öffentliches Gut (keine Exkludierbarkeit, keine Rivalität im Konsum), seine wirtschaftliche Nutzung dagegen ist ein privates Gut (Exklusivität für die Dauer des Patentschutzes). Die Notwendigkeit der Patentierung wird allgemein damit begründet, dass es ohne exklusive Nutzungsrechte an einer neuen Erfindung zu wenige Erfindungen gäbe. Eine Erfindung, die unter Aufwendung großer wirtschaftlicher Ressourcen zustande kam, lohnt sich nur dann, wenn mindestens die damit verbunden Kosten (inklusive der Opportunitätskosten des dabei eingesetzten Kapitals) durch die wirtschaftliche Verwertung eingespielt werden können. Wird die Erfindung sofort kopiert und von anderen genutzt, die sich in keiner Weise an den Kosten der Erfindung beteiligen, lohnt es sich nicht mehr, in Erfindungen zu investieren. In jüngerer Zeit wird diese Sichtweise (teilweise massiv) kritisiert. Demnach hat der Erfinder auch ohne Patentschutz die Möglichkeit der ersten Nutzung (right of first sale1), wobei er die Kosten der Erfindung plus eine entsprechende Rente einnehmen kann. Demnach stellen Patente lediglich ein Instrument dar, die Erfindung monopolistisch auszubeuten und eine (dauerhaftere) Monopolrente zu erzielen. Diese radikal verschiedenen Sichtweisen sind zwar relativ neu, allerdings wurde bereits 1958 von Fritz Machlup in einem Bericht für den amerikanischen Kongress festgestellt, dass es nach dem damaligen Wissen über die wirtschaftlichen Folgen von Patenten unverantwortlich wäre, ein Patentsystem einzufüh___________ 1

Boldrin/Levine (2002, 2006).

58

Aloys Prinz

ren, wenn es nicht schon vorhanden wäre.2 Unter Ökonomen jedenfalls waren Patente nie unumstritten, sondern bestenfalls eine Art Notlösung in Ermangelung einer besseren. 16,0%

30000

14,0% 25000 12,0% 20000 10,0%

15000

8,0%

6,0% 10000 4,0% 5000 2,0%

2 20 0

1

0 20 0

20 0

8

9 19 9

19 9

6

7 19 9

19 9

4

5 19 9

19 9

2

1

3 19 9

19 9

0

Software-Patente

19 9

8

7

9

19 9

19 8

19 8

19 8

5

4

3

6 19 8

19 8

19 8

19 8

1

0

9

2 19 8

19 8

19 8

8 19 7

19 7

19 7

19 7

6

0,0% 7

0

in % aller Patente

Quelle der Daten: Bessen/Hunt (2004), Table 1, S. 47.

Abbildung 1: Erteilte Software-Patente in den USA 1976–2002

Vor diesem Hintergrund ist im Folgenden zu prüfen, wie die Patentierung von Software ökonomisch einzuschätzen ist. Die Patentierung von Software ist in den USA bereits möglich. Während dort in den 1960er und 1970er Jahren Computerprogramme kaum urheberrechtlich gesichert waren, änderte sich dies mit dem Copyright Act von 1980, mit dem Computerprogramme erstmals unter das Copyright fielen.3 Infolge von Änderungen der Rechtsprechung kann für die USA davon ausgegangen werden, dass seit 1994 Software patentierbar ist.4 Abbildung 1 zeigt die Entwicklung der Zahl der Software-Patente in den USA. In diesem Beitrag wird versucht, die Frage nach den ökonomischen und wohlfahrtstheoretischen Wirkungen von Software-Patenten zu beantworten. Dabei wird grundsätzlich die Position bezogen – ohne dies im Detail näher zu ___________ 2 Vgl. Machlup (1958), S. 80. – Allerdings fügte er hinzu, dass es ebenso unverantwortlich sei, das Patentsystem abzuschaffen, nachdem es so lange existierte. 3 Vgl. Hunt (2001), S. 7. 4 Siehe dazu im Detail Hunt (2001), S. 7, sowie Graham/Mowrey (2004). – Eine Initiative zur europäischen Regelung der Softwarepatentierung ist bisher gescheitert. Zur rechtlichen Diskussion siehe Bakels/Hugenholtz (2002) sowie Davies (2003) und zum Stand der Debatte um Software-Patente González (2006).

Software-Patente

59

begründen5 –, dass die Patentierbarkeit von technischen Erfindungen keineswegs die Patentierung von Software ebenfalls erforderlich macht. Es wird also davon ausgegangen, dass jeder Bereich, der neu der Patentierung unterworfen werden soll, spezifischer Argumente für eine Patentierung bedarf. Im ersten Abschnitt dieses Beitrags wird auf die Güterbesonderheiten von Software eingegangen. Daran anschließend werden im zweiten Abschnitt die charakteristischen Dimensionen der Patentierung aufgezeigt. Im dritten Abschnitt sind die allgemeinen Wirkungen von Patenten das Thema, und im vierten Abschnitt wird geprüft, ob sich Software zur Patentierung eignet. Insbesondere wird geprüft, inwiefern Software-Patente verwendet werden könnten, um Anreize für Innovationen zu schaffen, und inwiefern sie möglicherweise dazu beitragen würden, Innovationen zu bremsen bzw. sogar zu blockieren. Im fünften Abschnitt werden die Schlussfolgerungen präsentiert.

II. Gütercharakteristika von Software Software wird für den hier relevanten Zweck allgemein verstanden als logischer Algorithmus zur Verarbeitung von Daten, der über gespeicherte Anweisungen implementiert wurde.6 Die so definierte Software ist als Wirtschaftsgut in einigen Punkten von herkömmlichen Gütern zu unterscheiden. Die wichtigsten Unterschiede sind m.E.:7 1.

Software ist ein immaterielles Gut. Daher hat sie keinen Stoffwert und kann nahezu kostenlos beliebig kopiert und verwendet werden. Abgesehen vom Urheberrechtsschutz (copyright) stellt einzig und allein die Verschlüsselung des Quellcodes ein Hindernis in der Verbreitung von SoftwareStrukturen dar.

2.

Damit Software wirtschaftlich verwertet werden kann, bedarf sie komplementärer Güter wie die Hardware eines Computers und die Software des Betriebssystems. Dies wiederum setzt der Geheimhaltung des Programms Grenzen, da ohne dessen Kenntnis die Software möglicherweise nicht oder nur in eingeschränktem Umfang genutzt werden kann. Lediglich wenn ein

___________ 5 Es soll genügen, an dieser Stelle erneut auf das bereits erwähnte Diktum von Machlup (1958) zu verweisen, das so interpretiert werden kann, dass grundsätzlich keine neuen Patentierungsmöglichkeiten geschaffen werden sollen, wo bisher keine existieren, da die Patentwirkungen ökonomisch bestenfalls ambivalent sind. 6 Vgl. Bessen/Hunt (2004), S. 8. 7 Selbstverständlich wird damit nicht die Ansicht vertreten, dass Software-Produkte etwas völlig anderes als andere Erfindungen darstellen. Es wird allerdings argumentiert, dass die Kombination von Eigenschaften als auch die Ausprägung einzelner Eigenschaften bei Software-Produkten genutzt werden können, um sie von dieser Seite her von anderen Erfindungen abzugrenzen.

60

Aloys Prinz

Software-Produzent die Hardware und alle anderen Software-Pakete, die erforderlich sind, um die Software zu verwenden, selbst erfindet, wäre eine vollständige Geheimhaltung des Programms möglich. Neben der Hardware und anderen Programmen setzt die Verwendung von Software mehr oder weniger spezifische Kenntnisse für die Anwendung der Software voraus. Damit ist auch das allgemeine und spezifische Humankapital, das zur Nutzung der Software erforderlich ist, als Komplementärgut zur Software anzusehen. 3.

Der wirtschaftliche Wert von Software hängt unter anderem davon ab, dass sie auf unterschiedlichen Geräten und mit unterschiedlichen anderen Programmen verwendet werden kann (Kompatibilität). Dabei sind zwei Fälle zu unterscheiden:8 (a) Die Komplementarität zwischen Hardware und Software bei Betriebssystemen (wobei beispielsweise die Hardware ein ganz bestimmtes Betriebssystem erfordert und die sich daraus ergebenden Netzwerkeffekte bei mit diesem Betriebssystem kompatibler Software entstehen) und (b) Netzwerkeffekte aufgrund des Wunsches oder der Notwendigkeit, dieselben Programme nutzen zu können, um gemeinsam die auf der Basis der Software erzeugten Dokumente (z.B. diejenigen eines Textverarbeitungsprogramms) verarbeiten zu können. Durch beide Effekte wird der Personenkreis, der die Software verwenden kann, enorm vergrößert. Wirtschaftlich gesehen stellen die aktuellen und potentiellen Nutzer ein Netzwerk dar, von dessen Größe der Wert der Software abhängt. Damit sind es Netzwerkeffekte, die für den Erfolg und den Wert einer Software mitentscheidend sind.

4.

Software enthält Bausteine, die für die Entwicklung anderer Software wiederum verwendet werden kann oder sogar verwendet werden muss. Das bedeutet, dass die sequentielle (aufeinander aufbauende) Entwicklung ebenfalls ein zentrales Element für neue Software darstellt.9 Das bedeutet, dass (vermutlich ein großer Teil) neuer Software keine isolierte Erfindung darstellt, sondern eine Akkumulation vorhergehender Erfindungen enthält. Gerade diese Eigenschaft neuer Software kann zu erheblichen Problemen bei der Entscheidung führen, ob eine neue Software ‚neu‘ im Sinne des gesamten Produkts ist oder nur die – mehr oder weniger geschickt – zusammengestellte Summe bereits vorhandener Einzelteile darstellt. Diese vier Elemente der Gütercharakteristika von Software lassen bereits erahnen, dass die Patentierung von Software etwas anderes ist als z.B. diejenige von neuen Maschinen oder neuen Arzneimitteln. Allen gemeinsam ist dabei, dass letztlich neues Wissen (als Information) bereitgestellt wird, das in vielfacher Weise zur Schaffung darauf aufbauender neuer Produkte und Produktions___________ 8

Ich danke Stefan Klein für diesen Hinweis. Siehe dazu Perchaud (2003), der auch auf die damit in Zusammenhang stehenden Innovationszyklen eingeht. 9

Software-Patente

61

prozesse genutzt werden kann. Der Unterschied besteht jeweils in der sehr unterschiedlichen Inkorporierung dieses Wissens (in Maschinen, Computern, Programmen, Arzneimitteln usw.) und der damit zusammenhängenden Einbettung in den ökonomischen Güterraum.

III. Charakteristika von Patenten Entsprechend der hier verwendeten Definition von Software können Software-Patente wie folgt definiert werden: Software-Patente beziehen sich auf logische Algorithmen zur Verarbeitung von Daten, die über gespeicherte Anweisungen implementiert wurden; dabei muss die Software ein Mindestmaß an neuen algorithmischen Strukturen enthalten.10 Diese allgemeine Definition ist aber weder operabel noch konkret genug, um die Wirkung von SoftwarePatenten zu untersuchen und zu bestimmen. Die Wirkung von Patenten hängt entscheidend von folgenden Patent-Charakteristika ab: 1.

Schwelle der Patentierbarkeit: Welche Anforderungen muss ein Computerprogramm erfüllen, um patentierbar zu sein?11 Hier gibt es ein weites Spektrum von Möglichkeiten. Wie viel Neues muss ein Programm enthalten? Darf das neue Programm im Wesentlichen aus älteren, neu zusammengesetzten Teilen bestehen? Darf das Programm eine für einen durchschnittlichen Software-Ingenieur offensichtliche Lösung eines Problems darstellen oder wird mehr gefordert? Spielt die Nützlichkeit des Programms eine Rolle? Diese Fragen scheinen auf den ersten Blick das Bild des Ganzen durch Details zu vernebeln; dem ist aber nicht so, wie die Erfahrung mit der Patentierung generell v.a. in den USA zeigt. Die Beantwortung dieser Frage ist zentral für die ökonomische Wirkung der Patente.

2.

Patentbreite: Die Festlegung der Breite eines Patents12 hängt mit der Patentierungsschwelle zusammen. Reichen geringe Abweichungen von einem bereits patentierten Programm aus, um ebenfalls ein Patent zu erhalten, ist das Patent eng; sind Technologiesprünge für ein neues Patent erforderlich, ist das Patent breit. Wie das Beispiel der Patentierung von Arzneimitteln zeigt, wird die Patentbreite im Wesentlichen nach pragmatischen Gesichtspunkten festgelegt; schließlich müssen die Regelungen justiziabel sein. Das bedeutet, dass die Patentbreite sehr stark von der Rechtsprechung mitbestimmt wird.

3.

Patentdauer: Der wirtschaftliche Wert eines Patents hängt für den Inhaber auch davon ab, für welchen Zeitraum das Patent ihm die alleinige Verwer-

___________ 10

Vgl. Bessen/Hunt (2004), S. 8. Siehe z.B. Hunt (1999, 2001). 12 Siehe dazu Gilbert/Shapiro (1990). 11

62

Aloys Prinz

tung garantiert. Dies wiederum ist im Zusammenhang mit den beiden vorher genannten Punkten zu sehen. Schon sehr früh wurde in der ökonomischen Literatur erkannt, dass es einen Trade-off zwischen Patentbreite und -dauer gibt.13 Seit dieser Zeit wird nach optimalen Kombinationen der beiden Parameter gesucht. In der Patent-Praxis allerdings ist die maximale Länge des Patentschutzes im Wesentlichen recht einheitlich, d.h. es gibt nur geringfügige Abstufungen der Patentdauer. 4.

Patentqualität: Patente sollten nur erteilt werden, wenn die Erfindung tatsächlich neu ist. Dies ist – wie die Praxis zeigt – durchaus keine Selbstverständlichkeit, sondern hängt u.a. von der Expertise und der Ressourcenausstattung der Patentbehörden ab.14 Insbesondere benötigt die Patentbehörde Zeit, um bei neuen Erfindungen – wie z.B. Software – die nötigen Kriterien und Prüfungsprozeduren zu definieren und zu implementieren. Je schlechter die Patentqualität, desto unsicherer ist der Ausgang von Patentauseinandersetzungen und umso höher deren Kosten.15 Betrachtet man die Gütereigenschaften von Software einerseits und die Charakteristika von Patenten andererseits, wird unmittelbar deutlich, dass eine einfache und eindeutige Bewertung von Software-Patenten aus ökonomischer Sicht kaum zu erwarten ist. Ein weitere Schwierigkeit ergibt sich daraus, dass die theoretische Literatur zu Patenten voraussetzt, dass die PatentCharakteristika (1) bis (3) exakt definiert und den zu patentierenden Erfindungen angepasst werden können. Zudem wird von einer perfekten Patentqualität ausgegangen. Die Bedingungen (1) bis (4) sind aber im praktischen Prozess der Patentierung nicht annähernd erfüllt und teilweise – mit vertretbarem Aufwand – vermutlich auch gar nicht erfüllbar.16 Für die Bewertung von SoftwarePatenten stellt dies insofern ein beträchtliches Problem dar, als neben den Ergebnissen der theoretischen Analysen immer auch deren Umsetzung und Umsetzbarkeit in der Patentierungspraxis bedacht werden muss.

IV. Generelle Wirkungen von Patenten Bekannterweise gibt es einen Unterschied zwischen den Wirkungen, die eine institutionelle Regelung entfalten soll und denjenigen, die sie tatsächlich entfaltet.17 Bei Patenten ist dies auch nicht anders. ___________ 13

Siehe u.a. Gilbert/Shapiro (1990) sowie Denicolo (1999). Vgl. Hunt (2001), S. 12. 15 Vgl. ebd. 16 Vgl. dazu auch Encaoua/Guellec/Martínez (2006). 17 Vgl. zu den allgemein postulierten Patentvorteilen Mazzoleni/Nelson (1998) sowie Lévêque/Ménière (2004). 14

Software-Patente

63

Der Hauptzweck von Patenten (und dem dazu gehörenden Lizenz-System) ist darin zu sehen, optimale Anreize für Investitionen in Innovationen (Investitionen in Forschung und Entwicklung, F&E) bereitzustellen.18 Dies geschieht dadurch, dass dem Inhaber eines Patents eine (temporäre) Monopolstellung hinsichtlich seiner Innovation rechtlich garantiert wird. Die Folgen können in einem einfachen Diagramm (Abbildung 2) dargestellt werden. Bei der Interpretation dieser Standard-Darstellung von Patentwirkungen ist zu beachten, dass nicht etwa ein Markt für das als öffentliches Gut anzusehende Wissen dargestellt wird, sondern der Markt für die Verwertung von Patenten für ein neues Produkt. Daher hängen Preis und Menge in der dargestellten Form voneinander ab.19 Preis Konsumentenrente Gewinn (Innovationsanreiz)

pM

Wohlfahrtsverlust durch Monopol

TDK pC

C‘ qM

Menge

Legende: pM Monopolpreis, pC Wettbewerbspreis, qM Monopolmenge, TDK totale Durchschnittskosten, bestehend aus den fixen und variablen Stückkosten, C‘ Grenzkosten.

Abbildung 2: Exklusive Vermarktung eines neuen Produkts

Aus Abbildung 2 kann unmittelbar abgelesen werden, dass jede Innovation, die für den Innovator profitabel ist, auch gesellschaftlich die Wohlfahrt steigert, und zwar unabhängig davon, ob der Gewinn des Innovators in die gesellschaftliche Wohlfahrt einbezogen wird oder nicht:20 Die Konsumentenrente ist positiv, unabhängig vom Gewinn des Innovators. Umgekehrt gilt aber nicht, dass jede gesellschaftlich wertvolle Innovation (i.S. der Konsumentenrente) auch privat in einem System mit Patenten und ___________ 18

Siehe hierzu und den weiteren Effekten von Patenten z.B. Lévêque/Ménière (2004). 19 Da bei Software-Produkten u.a. Netzwerkeffekte eine beachtliche Rolle spielen (können), ist diese Darstellung für Software-Produkte – wie im Folgenden gezeigt wird – in dieser Form nicht unmittelbar und unverändert anwendbar. 20 Vgl. Johnson (1976), S. 31 sowie die Abbildung ebenda, S. 30.

64

Aloys Prinz

Lizenzen profitabel ist: Wenn in Abbildung 2 die TDK-Kurve ein klein wenig außerhalb der Nachfragekurve liegt, kommt es nicht zur Innovation, da diese zu einem privaten Verlust führen würde, obwohl die potentielle Konsumentenrente größer sein kann als der private Verlust.21 Gleichzeitig wird die Innovation – aus gesellschaftlicher Perspektive – zu wenig genutzt. Die vom Innovator bereitgestellte Monopolmenge ist zu niedrig und der Marktpreis dafür zu hoch mit der Folge, dass nur ein Teil der Konsumenten in den Genuss der Innovation kommt. Der statische Wohlfahrtsverlust durch die Monopolisierung ist in Abbildung 2 angegeben. Hinzu kommen weitere mögliche Wohlfahrtsverluste dadurch, dass mehr als ein Unternehmen an ähnlichen F&E-Projekten arbeitet, aber eben nur das erste erfolgreiche Unternehmen den Monopolgewinn realisieren kann, während alle anderen leer ausgehen.22 Die getätigten F&E-Investitionen der übrigen Unternehmen auf diesem Gebiet sind verloren. Darüber hinaus kann es zu Patentrennen kommen, um als Erster ein neues Produkt patentieren zu lassen.23 Auch diese Rennen führen generell zu Wohlfahrtsverlusten. Außerdem kommen Innovationen wegen des enormen Anreizes, der erste zu sein, zu früh auf den Markt.24 Dies mag im Softwarebereich dazu beitragen, dass das Produkt ‚beim Konsumenten reifen muss‘, d.h. relativ viele Fehler enthält. Erfolgreiche Innovationen führen zu Imitationen und zu Anreizen, ‚um das Patent herum‘ zu erfinden. Ersteres dient dazu, am Monopolgewinn des Innovators zu partizipieren. Je nach der Breite des Patents ist es leichter oder schwerer, das patentierte Produkt weiter zu entwickeln und damit in den Monopolmarkt des Innovators einzudringen; dies kann soweit gehen, dass der Imitator mehr verdient als der Innovator (‚second mover advantage‘25). Der Innovator kann darauf mit einer Preissenkung für das innovative Produkt reagieren oder gar die Imitation aufkaufen, um deren Vermarktung zu verhindern. Beides senkt den Gewinn des Innovators; bei der ersten Variante gewinnen die Konsumenten, bei der zweiten gewinnt lediglich der Imitator. Erfindungen ‚um das Patent herum‘ dienen dem Zweck, den Kauf einer Lizenz zu vermeiden, also Kosten zu sparen. Auch auf diese Weise wird die Monopolrente des Innovators bedroht bzw. gesenkt. Erleichtert werden das Umgehen des Patents und auch die Imitation dadurch, dass die Patentierung zur Of___________ 21

Vgl. ebd., S. 31. Vgl. ebd., S. 33. 23 Siehe Beath/Kotsoulacos/Ulph (1989) für einen Überblick über spieltheoretische Modelle der Innovation und Patentrennen. 24 Vgl. ebd., S. 34f.; generell zum optimalen Innovationszeitpunkt siehe Barzel (1968) und Reinganum (1989). 25 Siehe dazu Hoppe/Lehmann-Gruber (2005). 22

Software-Patente

65

fenlegung der technischen Details des Patents zwingt. Das bedeutet, dass es nicht für jeden Innovator sinnvoll ist, ein Patent anzustreben. Wenn die technischen Details über reverse engineering nicht so leicht herauszufinden sind, kann es durchaus sinnvoll sein, auf eine Patentierung zu verzichten.26 Damit sind die allgemeinen Patentwirkungen noch nicht hinreichend beschrieben. Sobald ein Patentsystem existiert und intensiv genutzt wird, können Patente als strategische Instrumente der Unternehmenspolitik eingesetzt werden.27 Möglichst viele (eigene oder fremde) Patente zu erwerben hat zunächst einmal den Zweck, damit Handel zu treiben. Dies kann als eine Form der Spezialisierung angesehen werden und ist als solche positiv einzuschätzen. Die Vermarktung von Patenten kann dazu beitragen, dass die Patente auch genutzt werden.28 Die Frage ist allerdings, wozu die Patente genutzt werden. Wird sehr viel, sehr schnell patentiert und sind Patente relativ leicht zu erhalten, besteht bei innovativen Unternehmen ständig die Gefahr, Patentrechte anderer zu verletzen.29 Dies impliziert ein Risiko, wegen Patentverletzungen verklagt zu werden. Eine Strategie, dem vorzubeugen, besteht darin, selbst möglichst viele Patente zu erwerben und dieses Patentportfolio als Verteidigungsinstrument zu nutzen, wenn auch die Patente selbst ansonsten ungenutzt bleiben.30 Einem ähnlichen Zweck dienen Patente, wenn sie dazu verwendet werden, mit anderen Firmen Verträge über die gegenseitige Nutzung von Patenten zu schließen (cross-licensing).31 Auf diesem Weg vermeidet man Patentstreitigkeiten. Patente können darüber hinaus auch genutzt werden, um den Markteintritt von Konkurrenten bzw. konkurrierenden Produkten zu blockieren und weiterhin die eigene Monopolrente realisieren zu können.32

___________ 26 Daher gelten Geschäftsgeheimnisse allgemein als Alternative zur Patentierung. Für die Software-Industrie siehe dazu Hunt (2001) für die Zeit vor der Patentierungsmöglichkeit in den USA sowie Harison/Cowan (2004) hinsichtlich einer strategischen Analyse. 27 Nach Davis (2004) hat ein grundsätzlicher Wandel der Bedeutung von Patenten und anderen intellektuellen Eigentumsrechten eingesetzt, weg von der Förderung von F&E und hin zu diversen strategischen Unternehmenszielen. 28 Siehe zur Funktion von Patenthändlern McDonough III (2007). 29 Vgl. Hunt (2001), S. 12. 30 Siehe dazu auch Noel/Schankerman (2006). 31 Siehe dazu Shapiro (1985, 2001), Fershtman/Kamien (1992), Grindley/Teece (1997) für die Halbleiter- und Elektronikindustrie sowie Reepmeyer (2006) für die Pharma-Industrie. Siehe Lichtenthaler (2007) für einen Vergleich der Treiber von Technologie-Lizenzen in verschiedenen Industrien. 32 Vgl. Reitzig (2004).

66

Aloys Prinz

Neuerdings taucht eine weitere Strategie auf, die darauf beruht, dass in der jüngsten Vergangenheit allem Anschein nach die Schwelle, um ein Patent zu erhalten, deutlich gesunken ist. Wird sehr viel patentiert und sind die patentierten Produkte Inputfaktoren für andere Produkte, entsteht ein so genanntes Patent-Dickicht (patent thicket).33 In einem solchen Dickicht ist es kaum noch möglich, ein Produkt weiterzuentwickeln bzw. eine bestimmte Entwicklungsrichtung fortzusetzen, ohne Patente anderer zu verletzen. Einerseits führt diese Entwicklung dazu, dass – wie weiter oben bereits erwähnt – spezialisierte Unternehmen auf den Markt kommen, die sich mit der Vermarktung von Patenten beschäftigen, Lizenzverträge schließen und Überkreuzlizenzierungen einleiten. Darüber hinaus aber sind diese Unternehmen ständig auf der Suche nach Patentverletzungen, um aus diesen Kapital zu schlagen.34 Während die erste Aktivitätsgruppe dazu beiträgt, das Patentdickicht gangbar zu halten, kann bei der zweiten nicht ausgeschlossen werden, dass es sich um unproduktives Rentseeking35 handelt. Rent-seeking Aktivitäten stellen eine dritte Gruppe von Patentwirkungen dar. Dabei muss zwischen produktivem und unproduktivem Rent-seeking unterschieden werden. Bei der produktiven Variante geht es darum, dass die in Aussicht stehende Monopolrente ja gerade als Anreizsystem für Innovationen eingesetzt wird. Mithin muss produktives Rent-seeking als wichtigste beabsichtigte (Haupt-)Wirkung des Patent- und Lizenzsystems angesehen werden. Allerdings eröffnen Patente gleichzeitig auch die Möglichkeit für unproduktives Rentseeking. Dieses besteht – wie z.T. bereits gesagt – darin, konkurrierende Produkte und Konkurrenten möglichst lange vom Markt zu halten, indem Weiterentwicklungen blockiert werden. Eine Variante dieser Form des Rent-seeking erfolgt mittels Einschaltung der Gerichte, um Wettbewerbern mit (vermeintlichen) Patentverletzungsklagen zu drohen und diese möglicherweise auch einzureichen. Eine weitere Alternative in diesem Rahmen besteht darin, die realisierten Monopolgewinne nicht für weitere Innovationen zu nutzen, sondern dafür, um mittels gezielter Lobby-Aktivitäten den Patentschutz im politischen Bereich weiter ausbauen zu lassen. Ökonomisch problematisch ist das unproduktive Rent-seeking insofern, als knappe Ressourcen dem Innovationsprozess entzogen werden und in Form erhöhter Transaktionskosten (die wiederum z.T. Renten darstellen) verschwendet werden. ___________ 33 Vgl. Clarkson (2004), der auch eine Messmethode für das Patentdickicht vorschlägt. 34 Vgl. McDonough III (2007). 35 Dies kann auch als die Sicherung von Renten gegenüber anderen Gruppen und Personen bezeichnet werden (rent protection, Tollison (2004), S. 498). Das Rent-seeking ist unproduktiv, weil lediglich eine Umverteilung von Renten unter Aufwendung knapper Ressourcen angestrebt wird und keine zusätzliche Wertschöpfung.

Software-Patente

67

V.a. diese neueren Entwicklungen (strategisches Patentieren, Patentdickichte und unproduktives Rent-seeking) haben dazu beigetragen, dass in der Ökonomik Patente noch kritischer gesehen werden, als dies bis dahin der Fall war.36 Die neueren Arbeiten konzentrieren sich in diesem Bereich insbesondere um die empirische Analyse der Patentwirkungen sowie in der Theorie um die Untersuchung von Ergänzungen bzw. Alternativen zu Patenten.

V. Eignung von Software zur Patententierung Bei der Frage, ob sich Software zur Patentierung eignet, müssen sowohl die Patent-Charakteristika und ihre allgemeinen Wirkungen als auch die (weiter oben aufgeführten) Eigenschaften von Software-Gütern berücksichtigt werden. Im Mittelpunkt steht damit die Frage, ob die Patentierbarkeit von Software zu einer höheren Wachstumsrate bei Software-Innovationen führt (dynamische Wohlfahrtsgewinne), und zwar zu qualitativ hochwertigen Innovationen mit möglichst geringen statischen Wohlfahrtsverlusten für die Gesellschaft als Ganzes. 1. Infolge der Immaterialität von Software und der eingeschränkten Möglichkeit, das Programm bzw. Teile davon durch Geheimhaltung vor einer anderen Nutzung zu schützen37, sind neue Computerprogramme über längere Zeit kaum exklusiv wirtschaftlich nutzbar. Dies impliziert, dass der first-mover advantage38 (auch lead time advantage genannt39) möglicherweise nur von kurzer Dauer ist.40 Die entscheidende ökonomische Frage ist, ob dieser Zeitraum ausreicht, mindestens die F&E-Kosten am Markt zu verdienen, bevor das Programm imitiert wird und der Markt vom Monopol- zum Oligopol- oder Konkurrenzmarkt mutiert. Je höher die F&E-Kosten sind, desto schwieriger dürfte ___________ 36 Gegeben ein Patentsystem, das es leicht macht, Patente zu erhalten, stellen die strategischen Reaktionen der Unternehmen Lösungen dafür dar, die negativen Wirkungen des Patentsystems wenigstens zu begrenzen. Daraus kann aber m.E. keineswegs geschlossen werden, dass Patentsysteme inklusive der strategischen Reaktionen der Unternehmen die bestmögliche Lösung zur Förderung von Innovationen darstellen. Hier wird die Ansicht vertreten, dass das geschilderte strategische Verhalten dazu beitragen kann, einige negative Auswirkungen des Patentwesens zu mildern. 37 Es spielt dabei keine Rolle, ob es gelingt (und sich lohnt), das Programm über reverse engineering zugänglich zu machen oder funktionale Äquivalente zu erstellen. Ich danke Stefan Klein für diesen Hinweis. 38 Zur Bedeutung des first-mover advantages bei Innovationen siehe Boldrin/Levine (2005), S 1254. 39 Vgl. Bessen/Hunt (2004). 40 Allerdings gilt dies z.B. für innovative, nicht patentierbare Geldmarktfonds überraschenderweise nicht; siehe Makadok (1998). Ob dieses Ergebnis auf Computerprogramme übertragbar ist, kann nicht ohne weiteres gesagt werden.

68

Aloys Prinz

es generell sein, die Kosten kurzfristig einzuspielen, v.a. dann, wenn es sich um größere Innovationssprünge handelt, für die erst ein zahlungskräftiger Markt geschaffen werden muss.41 Unter Umständen gibt es sogar einen second-mover advantage, d.h. es lohnt sich dann zu warten, bis eine Innovation verfügbar ist, die dann mit größerem wirtschaftlichen Erfolg kopiert bzw. imitiert werden kann.42 Demnach kann festgehalten werden, dass bei größeren Innovationssprüngen und hohen F&E-Kosten für diese Innovationen möglicherweise der reine Marktmechanismus des first-mover advantage nicht ausreicht, um hinreichend große Anreize für diese Innovationen zu schaffen. Demgegenüber kann für kleinere Verbesserungen und Innovationen, die mit relativ niedrigen F&EKosten erreicht werden können, davon ausgegangen werden, dass der Marktmechanismus für eine adäquate Belohnung sorgt. 2. Zur Nutzung von Software sind eine Reihe komplementärer Güter erforderlich: Computer-Hardware, Computer-Betriebssysteme, andere Computerprogramme und Humankapital in Form von Fähigkeiten, Computerprogramme im Allgemeinen und das neue Programm im Besonderen zu nutzen. Während die Hardware- und Software-bezogenen Komplementaritäten technischer Natur sind, ist die Komplementarität gegenüber dem Humankapital anderer Natur. Diese Komplementarität kann gewinnbringend vom Softwarehersteller genutzt werden, um über Schulungsprogramme und andere Leistungen, welche die Nutzung der Software erleichtern bzw. erst ermöglichen, zusätzliche Einnahmen in nicht unerheblichem Umfang zu erzielen. Bezogen auf das erforderliche Humankapital hat der Innovator i.d.R. einen weiteren first-mover advantage. Dieser dürfte umso größer sein, je größer der Innovationssprung ist, da größere Entwicklungsfortschritte regelmäßig mit komplexeren Einarbeitungsvorgängen verbunden sind. Hinsichtlich der technischen Komplementaritäten ist die Situation eine grundlegend andere. Sind allgemein akzeptierte und implementierte Standards vorhanden, dürften sie für Software-Innovationen im Allgemeinen keine Rolle spielen, es sei denn, die Innovationen beziehen sich auf die Standards selbst. Sind dagegen entsprechende Standards nicht vorhanden bzw. betrifft die Innovation einen standardisierten Bereich, wird eine Offenlegung des Programms oder bestimmter Teile davon erforderlich sein. Diese Offenlegung ermöglicht es – sofern kein rechtlicher Schutz davor für den Innovator besteht oder vertraglich vereinbart werden kann –, das Programm zu kopieren und zu imitieren. Auf diesem Weg könnte der Innovator seinen first-mover advantage weitestge___________ 41

Vgl. Encaoua/Guellec/Martínez (2006). Siehe dazu die spieltheoretischen Analysen in Hoppe/Lehmann-Gruber (2005, 2001). 42

Software-Patente

69

hend verlieren. Eine Lösung dieses Problems ohne Patente ist aber schon angedeutet worden: Es besteht durchaus die Möglichkeit, das Programm bzw. den Quellcode nur einigen wenigen anderen Firmen aus dem Hard- und SoftwareBereich offenzulegen und diese vertraglich zur Geheimhaltung und zur Nichtverbreitung der Software zu verpflichten. Insgesamt kann hinsichtlich komplementärer Güter zur Software festgehalten werden, dass es bezüglich des zusätzlich erforderlichen Humankapitals Möglichkeiten für den Innovator gibt, den lead time advantage auszubauen, und zwar insbesondere bei größeren Innovationssprüngen. Auf der Seite der technisch komplementären Güter scheint es durchaus Möglichkeiten zu geben, den Programmcode gegenüber Außenstehenden über vertragliche Regelungen mit den Anbietern von Komplementärgütern so zu schützen, dass der firstmover advantage nicht verloren geht. 3. Auch die Netzwerkeffekte bei Software beruhen letzten Endes auf Komplementaritäten, und zwar auf Komplementaritäten unter den handelnden Personen.43 Der wirtschaftliche Wert einer Software ist umso höher, je größer die Zahl der Nutzer ist. Dabei steigt der Wert überproportional mit der Nutzerzahl an (Netzwerkeffekt).44 Dieser Netzwerkeffekt bewirkt für den einzelnen Software-Hersteller auf Betriebsebene steigende Skalenerträge.45 Ein Innovator (insbesondere bei größeren Innovationssprüngen) wird dadurch quasi zum natürlichen Monopolisten; in Netzwerk-Märkten (wie dem Software-Markt) kommt es zu so genannter Schumpeter-Rivalität (Schumpeter rivalry), die durch die Aufeinanderfolge temporärer Monopole gekennzeichnet ist.46 Der Wettbewerb auf diesen Märkten besteht praktisch darin, über immer neue Innovationen temporäre Monopolrenten zu erzielen. Hervorzuheben ist, dass dieser Effekt ohne Patentschutz der Software eintritt. Mithin sind allein aufgrund der Netzwerkeffekte von Software die Hersteller temporäre Monopolisten.47 Selbst das illegale Kopieren von Software (Software-Piraterie) hat grundsätzlich zwei Effekte: zwar sinkt die Zahl der direkten Verkäufe, aber die installierte Basis steigt an und dies erhöht die (legale) Nach___________ 43

Vgl. Lim/Hahn/Yu (2004). Zu den ökonomischen Besonderheiten von Netzwerkindustrien siehe Shy (2001), der in Kapitel drei explizit die Software-Industrie behandelt. 45 Vgl. Farrell/Katz (2001), S. 4. 46 Vgl. ebd. 47 Ein Möglichkeit, solche Netzwerkeffekte zu generieren oder zu verstärken besteht darin, einen Teil des Programms zur kostenfreien Nutzung zur Verfügung zu stellen, komplementäre Programmteile aber kostenpflichtig zu machen (Beispiele: Lese- vs. Schreib-Programme; Unzip- vs. Zip-Programme). Ich danke Stefan Klein für diesen Hinweis. 44

70

Aloys Prinz

frage nach der Software.48 Insofern ist nicht einmal in jedem Fall ein Kopierschutz für Software sinnvoll.49 In der wettbewerbspolitischen Literatur kommt man zu dem Ergebnis, dass auf Netzwerk-Märkten ein Preissetzungsverhalten möglich ist, das die Rivalen schwächt (predatory pricing), und den Anschein erweckt, wettbewerblich zu sein.50 Zudem sind die Wohlfahrtseffekte oft negativ, so dass eine Intervention in solche Märkte sinnvoll sein könnte.51 Des Weiteren steht auf Netzwerk-Märkten eine besondere weitere Strategie zur Verfügung, welche den Intra-Produkt-Wettbewerb senken kann: Soll ein Produkt (hier also: Software) kompatibel zu anderen Programmen bzw. Betriebssystemen etc. sein oder nicht? Gibt es einen dominanten Anbieter bei einer Software, bewirken schwache Schutzmaßnahmen (die nicht nur in Patenten, Urheberrechten u.ä. bestehen müssen, sondern auch in lead time advantage, Komplementaritäten etc.), dass es starke Anreize für andere Anbieter gibt, kompatible Produkte zu entwickeln, die zu starkem Intra-Produkt- bzw. IntraStandard-Wettbewerb führen.52 Starke Schutzmaßnahmen geben Wettbewerbern demgegenüber Anreize, mittels inkompatibler Innovationen zu konkurrieren.53 Der dominante Anbieter hat immer einen Anreiz, Wettbewerber von der Entwicklung kompatibler Innovationen abzuhalten, die seine installierte Basis reduzieren.54 Insofern führen Patente für Software dazu, die Position eines dominanten Anbieters weiter zu stärken, da die Wettbewerber zur Entwicklung inkompatibler Innovationen gezwungen werden. Zusammenfassend kann festgehalten werden, dass Netzwerkeffekte bei Software die Ursache für Schumpeter-Rivalität auf Netzwerk-Märkten sind. Diese Art des Wettbewerbs führt zu steigenden Skalenerträgen auf Unternehmensebene und quasi-natürlichen Monopolen. Der Wettbewerb verläuft vornehmlich über Innovationen und wird durch in Aussicht stehende temporäre Monopolrenten motiviert. Unter dem Gesichtspunkt des Patentschutzes für innovative Software spricht dieses Ergebnis gegen die Notwendigkeit der Patentierung zur Sicherung eines temporären Verwertungsmonopols zwecks Anreizschaffung für Innovationen. Zudem führen Software-Patente wohl dazu, dass die Zahl inkompatibler Innovationen zunehmen würde. ___________ 48

Vgl. Conner/Rumelt (1991). Für eine rigorose theoretische Analyse siehe Shy/Thisse (1999). 50 Vgl. Farrell/Katz (2001), S. 32. 51 Vgl. ebd. 52 Vgl. Sheremata (2004), S. 365 mit weiteren Quellennachweisen. 53 Vgl. Sheremata (2004), S. 365. 54 Vgl. ebd. 49

Software-Patente

71

4. Für die Software-Industrie kann davon ausgegangen werden, dass sequentielle Innovationen eine bedeutende Rolle spielen. Mit sequentiellen Innovationen sind solche gemeint, bei denen es eine lange Sequenz von Innovationen gibt, bei denen neue Innovationen die vorangehenden ersetzen.55 Am deutlichsten wird das damit verbundene Problem, wenn es sich um Innovationen handelt, die technisch nicht umgangen werden können.56 Sind solche Innovationen patentierbar, können die Patentinhaber eine ganze Entwicklungslinie erfolgreich blockieren.57 In abgeschwächter Form taucht dieses Problem generell bei Innovationen auf, auf denen weitere Innovationen aufbauen.58 Hier besteht generell die Gefahr, dass Patente die Weiterentwicklung bremsen, ohne den ursprünglichen Innovatoren hinreichend große Anteile an den Renten der nachfolgenden Innovationen zu sichern.59 Eine Lösung dieses Problems besteht darin, nur die Basisinnovation patentierbar zu machen, die Folgeinnovationen dagegen nicht.60 Für Innovationen der zweiten Generation (in einem Zwei-Generationen-Modell von Innovationen) scheinen Patent-Anreize zu ihrer Entwicklung nicht erforderlich zu sein und darüber hinaus erhalten die Patentinhaber der Basisinnovation einen größeren Anteil am Gewinn, der durch die Innovationen ausgelöst wird.61 Demgegenüber lassen längere Innovationsketten es ökonomisch sinnvoll erscheinen, dass Patente auch vor künftigen Innovatoren schützen, da die Anreize ansonsten für die vorangehenden Innovatoren zu gering sein können, wenn sie Gewinne nur solange erzielen können, bis eine neue Innovation zur Verfügung steht. Daher wird vorgeschlagen, bei sequentiellen Innovationen Mindestanforderungen für die Größe des innovatorischen Fortschritts hinsichtlich der Patentierbarkeit festzusetzen.62 Für Software-Patente in den USA scheinen demgegenüber die Anforderungen an die Innovationen für eine Patentierbarkeit gering zu sein.63 Einerseits dadurch und andererseits durch die Setzung neuer (formaler) Standards über die Markteinführung von Software-Innovationen entsteht ein Patentdickicht, das sequentielle Innovationen über Umgehung der Patente kaum noch zulässt.64 ___________ 55

Vgl. O’Donoghue (1998), S. 654. Vgl. Encaoua/Guellec/Martínez (2005). 57 Vgl. ebd. 58 Siehe dazu die Darstellung des Einflusses von Patenten auf den Software-Entwicklungsprozess in Perchaud (2003). 59 Vgl. O’Donoghue (1998), S. 654. 60 Vgl. Scotchmer (1996), S. 322. 61 Vgl. ebd. 62 Vgl. O’Donoghue (1998), S. 654. 63 Vgl. Hunt (2004), S. 7f. 64 Vgl. Shapiro (2001), S. 119. 56

72

Aloys Prinz

Infolgedessen ist es fraglich, ob in diesem Bereich Patente überhaupt den gewünschten Zweck, nämlich zu einer größeren Zahl qualitativ hochwertiger Innovationen beizutragen, erfüllen können.65 Unter der Annahme, dass Innovationen in der Software-Industrie sowohl aufeinander aufbauen (also sequentieller Natur sind) und in dem Sinne komplementär sind, dass jeder potentielle Innovator eine andere Forschungslinie einschlägt und so die Wahrscheinlichkeit dafür erhöht, dass ein bestimmtes Ziel innerhalb eines gegebenen Zeitrahmens auch erreicht wird, kann theoretisch gezeigt werden, dass die SoftwareHersteller selbst hinsichtlich des Gewinns besser stehen, wenn ihre Innovationen imitiert werden.66 Demgegenüber behindern starke Patente i.S. von breiten Patenten mit langer Dauer Innovationen.67 Der Grund für dieses Ergebnis besteht darin, dass Imitationen zwar den laufenden Gewinn eines Innovators reduzieren, aber infolge der imitativen Innovationen der anderen Unternehmen für den Innovator selbst die Wahrscheinlichkeit dafür erhöhen, dass dieser künftig eine weitere gewinnträchtige Innovation finden kann.68 Das Problem dieses theoretischen Ansatzes besteht darin, ob insbesondere die Annahmen hinsichtlich der Komplementarität der Innovationen – so wie sie definiert wurden – tatsächlich in der Software-Industrie gegeben sind. Für große Unternehmen mag dies möglicherweise gelten, für kleine Unternehmen jedoch vermutlich nicht: werden die Produkte kleiner Unternehmen von großen imitiert, ist es fraglich, ob die kleinen künftig von den Innovationen der großen profitieren können, indem sie mit deren Innovationen weiterarbeiten.69 Daher kann nicht mit Sicherheit gesagt werden, ob die Analyse auf die gesamte SoftwareIndustrie anwendbar ist. Insgesamt kann dennoch festgehalten werden, dass sequentielle Innovationen, wie sie in der Software-Industrie recht häufig anzutreffen sind, für die Patentierungsfrage ein nicht zu unterschätzendes Problem darstellen. Man muss wohl davon ausgehen, dass starke Patente (große Breite und lange Dauer) für alle Innovationen entlang einer langen Sequenz von Innovationen für die Innovationstätigkeit in der Software-Industrie schädlich sind. Legitimierbar erscheinen allenfalls Patente für Basisinnovationen, die hohe Anforderungen an die Novität der Innovation stellen. Damit könnte dann auch die Frage nach der Patentierbarkeit von Folgeinnovationen einfach beantwortet werden: Die Patentierbarkeit hinge dann nicht davon ab, ob die Innovation eine Folgeinnovation ___________ 65 Bessen (2003) zeigt, dass bei komplexen Technologien und niedrigen Patentierungsanforderungen Firmen strategische Patentdickichte bilden, die nicht innovationsförderlich sind. 66 Vgl. Bessen/Maskin (2000), S. 2f. 67 Vgl. ebd. 68 Vgl. ebd., S. 3. 69 Ich danke Stefan Klein für diesen Hinweis.

Software-Patente

73

ist oder nicht, sondern nur von ihrer eigenen Novität. Offen bleibt die Frage, ob nicht lange Sequenzen von Folgeinnovationen grundsätzlich einen Verzicht auf Patentierbarkeit wohlfahrtstheoretisch nahe legen. Führt man alle vier hier betrachteten Charakteristika von Software zusammen, gibt es kaum Anhaltspunkte dafür, mit starken Argumenten die Patentierbarkeit von Software zu stützen. Mit Ausnahme der Immaterialität von Software und der damit einhergehenden möglicherweise relativ kostengünstigen Imitation einer Software-Innovation sprechen alle anderen Charakteristika eher gegen die Patentierbarkeit. Welches Gewicht dem Immaterialitätsargument beizumessen ist, kann zum gegenwärtigen Zeitpunkt kaum gesagt werden. Ein Blick auf die wenigen empirischen Ergebnisse, die hinsichtlich SoftwarePatenten vorliegen, lässt m.E. ebenfalls keine andere Schlussfolgerung zu: 1.

Bessen und Maskin (2000) zeigen anhand der Entwicklung von F&EInvestitionen und dem Produktivitätswachstum in der U.S.-amerikanischen Software-Industrie vor und nach der Möglichkeit der Patentierung von Software, dass die Entwicklung der gewählten Indikatoren dafür spricht, dass die Patentierung negative Effekte hinsichtlich der SoftwareInnovationen nach sich gezogen hat.

2.

Weiterhin zeigen Noel und Schankerman (2006) mittels Panel-Daten für die Zeit von 1980 bis 1999, dass sowohl strategisches Patentieren als auch technologische Spillovers in der Software-Industrie eine bedeutende Rolle spielten. Insbesondere zeigte sich, dass die Patentierung durch technologische Rivalen die F&E-Investitionen eines Unternehmens sowie die eigene Patentierung und auch den Marktwert senken.70 Zudem reduziert eine höhere Konzentration von Patentrechten unter rivalisierenden Firmen sowohl F&E-Investitionen als auch die Patentierung; dies wird als Zeichen dafür angesehen, dass es erforderlich ist, ein Arsenal an Patentrechten zu besitzen, wenn es nur wenige Spieler an einem Markt gibt.71 Darüber hinaus existiert eine hohe Patent-Prämie in der Bewertung von Software-Firmen mit vielen Patenten an der Börse.72 Dagegen konnte ein Ergebnis von Bessen und Hunt (2004) nicht bestätigt werden, nach dem die Ausdehnung der Erteilung von Software-Patenten zu einer Reduktion der F&E-Investitionen der Unternehmen geführt haben soll.73 Wenn Software-Patente unvermeidlich sein sollten, kann zusammenfassend Folgendes zu den einzelnen Patentdimensionen gesagt werden:

___________ 70

Vgl. Noel/Schankerman (2006), S. 28. Vgl. ebd. 72 Vgl. ebd. 73 Vgl. ebd., S. 27. 71

74

Aloys Prinz

1.

Die Patentierungsschwelle hinsichtlich des Novitätsgrades einer Innovation sollte sehr hoch sein.

2.

Die Patentierungsbehörden sollten so ausgestattet sein, dass sie tatsächlich nur Patente für Computerprogramme erteilen, die nachgewiesenermaßen neu sind. D.h., eine sehr hohe Patentqualität ist anzustreben.

3.

Patente sollten – sofern dies praktikabel ist – sehr eng gehalten werden, so dass sie relativ leicht umgangen werden können.

4.

Die Patentlaufzeit sollten wegen der kurzen Produktlebenszyklen von Software grundsätzlich kurz gehalten werden (d.h. deutlich kürzer als die momentan geltende allgemeine Patentlaufzeit).74 Darüber hinaus könnte es sich hinsichtlich der Sequenzialität und Kumulation von Software-Innovationen als notwendig erweisen, dass sich der erste Innovator dazu verpflichten muss, eine Lizenz zu einem vorher bestimmten (festen) Preis an den Folgeinnovator zu verkaufen.75

VI. Schlussfolgerungen Die ökonomische Theorie und die vorliegenden empirischen Untersuchungen aus den USA geben keine Hinweise darauf, dass es einer Patentierung von Software bedarf, um Anreize für Innovationen in diesem Bereich zu schaffen. Die neueren Entwicklungen der Theorie der Patente gehen dahin, den strategischen Aspekt von Patenten gegenüber den Anreizwirkungen bezüglich F&E in den Mittelpunkt zu stellen. Eine Ursache dafür ist sicherlich, dass eine sehr große Anzahl von Patenten bereits vergeben wurde und nun die Akkumulation von Patenten dazu verwendet wird, unproduktiv Renten nachzujagen oder Markteintrittsbarrieren für neue Wettbewerber und Innovatoren zu errichten. Dabei hat der Handel mit Patenten durchaus auch positive Aspekte, da die Situation ohne Lizenzierungen, Kreuzlizenzierungen und anderen Kooperationsformen weitaus schlechter wäre. Allerdings sind diese Entwicklungen eher als Maßnahmen zu verstehen, eine inhärent ineffiziente Situation zu verbessern, als das Patentsystem zu optimieren. Bezogen auf den Software-Bereich gibt es kein zwingendes ökonomisches Argument, das die Notwendigkeit von Patenten in diesem Bereich aus Gründen der Innovationsförderung erfordern würde. Patentierungsmöglichkeiten würden ___________ 74

Ich danke Stefan Klein für den Hinweis auf die kurzen Produktlebenszyklen bei Software. 75 Vgl. Encaoua/Guellec/Martínez (2006), Abschnitt 3.3, sowie die dort angegebene Literatur. Siehe dazu auch Hopenhayn/Llobet/Mitchell (2006) für eine ausführliche theoretische Analyse.

Software-Patente

75

mit hoher Wahrscheinlichkeit lediglich das Rent-seeking verstärken. Zudem liegt mit dem Copyright für Software bereits ein rechtlicher Schutz des geistigen Eigentums der Programmentwickler vor, der ausreicht, um Innovatoren die Aneignung von Renten zu ermöglichen, so dass sich Innovationen lohnen.76 Es ist nicht zu erkennen, dass Patente hier zu einer Verbesserung dieser Anreize führen könnten. Auch wenn in anderen Ländern Software patentierbar ist, so ist doch nicht zu befürchten, dass die entsprechenden Innovationen in Deutschland oder der EU infolge fehlenden Patentschutzes nicht mehr genutzt werden könnten. Die vorhandenen Schutzrechte reichen aus, um auch weiterhin Innovationen in Deutschland zu vermarkten. Daher sollte generell auf die Patentierbarkeit von Software verzichtet werden.

Literatur Bakels, R. / Hugenholtz, P. B. (2002): The patentability of computer progammes. Discussion of European-level legislation in the field of patents for software, European Parliament, Directorate-General for Research, Working Paper. Barzel, Y. (1968): Optimal timing of innovations, Review of Economics and Statistics, 50, S. 348–355. Beath, J. / Kotsoulacos, Y. / Ulph, D. (1989): The game-theoretic analysis of innovation: a survey, Bulletin of Economic Research, 41, S. 163–184. Bessen, J. (2003): Patent thickets: strategic patenting of complex technologies, ROI Working Paper, MIT, URL: http://www.researchoninnovation.org/thicket.pdf [15.08.2007]. Bessen, J. / Hunt, R. M. (2004): An empirical look at software patents, Federal Reserve Bank of Philadelphia, Working Paper No. 03-17/R. URL: http://www.researchon innovation.org/swpat.pdf [08.08.2007]. Bessen, J. / Maskin, E. (2000): Sequential innovation, patents, and imitation, Massachusetts Institute of Technology, Working Paper Department of Economics No. 00-01. Boldrin, M. / Levine, D. K. (2002): The case against intellectual property, American Economic Review, Papers & Proceedings, 92, S. 209–212. – (2005): The economics of ideas and intellectual property, PNAS, 102, S. 1252–1256. – (2006): Against intellectual property rights. Internet edition, URL: http://www.econ. umn.edu/~mboldrin/aim.html.

___________ 76

Siehe dazu auch die theoretische Analyse von Waterson/Ireland (1998).

76

Aloys Prinz

Clarkson, G. (2004): Objective identification of patent thickets: a network analytic approach, Harvard Business School Doctoral Thesis, URL: http://w4.stern.nyu.edu/ emplibrary/ACFltbnmV.pdf [15.08.2007]. Conner, K. / Rumelt, R. (1991): Software piracy: an analysis of protection strategies, Management Science, 37, S. 125–139. Davies, S. (2003): The proposed software directive: a user’s comments, Journal of Information, Law and Technology (JILT), 2003 (1), URL: http://elj.warwick.ac.uk/jilt/ 03-1/davies.html [16.08.2007]. Davis, L. (2004): Intellectual property rights, strategy and policy, Economics of Innovation and New Technology, 13, S. 399–415. Denicolo, V. (1999): The optimal life of a patent when the timing of innovation is stochastic, International Journal of Industrial Organization, 17, S. 827–846. Encaoua, D. / Guellec, D. / Martínez, C. (2006): Patent systems for encouraging innovation: Lessons from economic analysis, Research Policy, 35, S. 1423–1440. Farrell, J. / Katz, M. L. (2001): Competition or predation? Schumpeter rivalry in network markets, Working Paper, University of California at Berkeley, URL: http://elsa. berkeley.edu/~farrell/ftp/predation.pdf [14.08.2007]. Fershtman, C. / Kamien, M. I. (1992): Cross licensing of complementary technologies, International Journal of Industrial Organization, 10, S. 329–348. Gilbert, R. / Shapiro, C. (1990): Optimal length and breadth, Rand Journal of Economics, 21, S. 106–112. González, A. G. (2006): The software patent debate, Journal of Intellectual Property Law and Practice, 1, S. 196–206. Graham, S. J. H. / Mowrey, D.C. (2004): Submarines in software? Continuations in US software patenting in the 1980s and 1990s, Economics of Innovation and New Technology, 13, S. 443–456. Grindley, P. C. / Teece, D. J. (1997): Managing intellectual capital: licensing and crosslicensing in semiconductors and electronics, California Management Review, 39 No. 2, S. 8–41. Harison, E. / Cowan, R. (2004): On substitution of intellectual property and free disclosure: an analysis of R&D strategies in software technologies, Economics of Innovation and New Technology, 13, S. 477–487. Hopenhayn, H. / Llobet, G. / Mitchell, M. (2006): Rewarding sequential innovators: prizes, patents, and buyouts, Journal of Political Economy, 114, S. 1041–1068. Hoppe, H. C. / Lehmann-Gruber, U. (2001): Second-mover advantage in dynamic quality competition, Journal of Economics and Management Strategy, 10, S. 419– 433. – (2005): Innovation timing games: a general framework with applications, Journal of Economic Theory, 121, S. 30–50. Hunt, R. M. (1999): Nonobviousness and the incentive to innovate: an economic analysis of intellectual property reform, Federal Reserve Bank of Philadelphia, Working Paper No. 99-3.

Software-Patente

77

– (2001): You can patent that? Are patents on computer programs and business methods good for the new economy?, Business Review (Federal Reserve Bank of Philadelphia), 01/2001, S. 5–15. Johnson, H. G. (1976): Aspects of patents and licenses as stimuli to innovation, in: Giersch, H. (Hrsg.), Bernhard-Harms-Vorlesungen 7, Institut für Weltwirtschaft an der Universität Kiel, S. 25–36. Lévêque, F. / Ménière, Y. (2004): The economics of patents and copyrights, The Berkeley Electronic Press. Lichtenthaler, U. (2007): The drivers of technology licensing: an industry comparison, California Management Review, 49 No. 4, S. 67–89. Lim, K.-S., Hahn, Y.-H. / Yu, P.-I. (2004): Technological competition in network markets with policy implications, Technovation, 24, S. 721–728. Machlup, F. (1958): An economic review of the patent system, Study no. 15 of the Subcommittee of the Patents, Trademarks and Copyrights of the Committee of the Judiciary United States Sen., 85th Cong., 2d Sess. Washington D.C. Makadok, R. (1998): Can first-mover and early-mover advantages be sustained in an industry with low barriers to entry/imitation?, Strategic Management Journal, 19, S. 683–696. Mazzoleni, R. / Nelson, R. R. (1998): Economic theories about the benefits and costs of patents, Journal of Economic Issues, 32, S. 1031–1052. McDonough III, J. F. (2007): The myth of the patent troll: an alternative view of the function of patent dealers in an idea economy, Emory University School of Law, Law & Economics Research Paper Series, Research Paper No. 07-7. Noel, M. / Schankerman, M. (2006): Strategic patenting and software innovation, London School of Economics, Centre for Economic Performance, CEP Discussion Paper No. 740. O’Donoghue, T. (1998): A patentability requirement for sequential innovation, Rand Journal of Economics, 29, S. 654–679. Perchaud, S. (2003): Software patents and innovation, Journal of Information, Law and Technology (JILT), 2003 (1), URL: http://elj.warwick.ac.uk/jilt/03-1/perchaud.html [16.08.2007]. Reepmeyer, G. (2006): Risk-sharing in the pharmaceutical industry. The case of outlicensing, Physica-Verlag: Heidelberg. Reinganum, J. (1989): The timing of innovation: research, development an diffusion, in: Schmalensee, R. / Willig, R.D. (Hrsg.), Handbook of industrial organization, Elsevier: Amsterdam, S. 849–908. Reitzig, M. (2004): The private values of ‚thickets‘ and ‚fences‘: towards an updated picture of the use of patents across industries, Economics of Innovation and New Technology, 13, S. 457–476. Scotchmer, S. (1996): Protecting early innovators: should second-generation products be patentable?, Rand Journal of Economics, 27, S. 322–331. Shapiro, C. (1985): Patent licensing and R&D rivalry, American Economic Review, Papers and Proceedings, 75, S. 25–30.

78

Aloys Prinz

– (2001): Navigating the patent thicket: cross licenses, patent pools, and standard setting, NBER Innovation Policy and the Economy, 1, S. 119–150. Sheremata, W. A. (2004): Competing through innovation in network markets: strategies for challengers, Academy of Management Review, 29, S. 359–377. Shy, O. (2001): The economics of network industries, Cambridge University Press: Cambridge et al. Shy, O. / Thisse, J. (1999): A strategic approach to software protection, Journal of Economics and Management Strategy, 8, S. 163–190. Tollison, R. D. (2004): Rent-seeking, in: Rowley, C. K. / Schneider, F. (Hrsg.), The encyclopedia of public choice, Vol. II, Kluwer: Dordrecht/Boston/London, S. 495– 499. Waterson, M. / Ireland, N. (1998): An auction model of intellectual property protection: patent versus copyright, Annales d’Economie et de Statistique, No. 49/50, S. 247– 263.

Patentschutz für Computerprogramme – Aktuelle Rechtslage und Reformüberlegungen – Korreferat zu Aloys Prinz – Von Florian Bien

I. Einleitung In der ökonomischen Literatur finden sich seit geraumer Zeit Stimmen, die auf volkswirtschaftliche Nachteile eines ausgedehnten Patentschutzsystems aufmerksam machen.1 Sie treten dafür ein, den neuen Bereich der Computerprogramme so weit wie möglich vor dem als innovationshemmend angesehenen Patentschutzsystem zu schützen. Insofern steht der zu kommentierende Beitrag von Prinz paradigmatisch für eine Tendenz, deren Grundannahmen ich im Kern teile. Die von Prinz sehr vollständig aufgeführten Argumente und ökonomischen Überlegungen sollen hier nicht noch einmal wiederholt werden. Der Kommentar aus juristischer Sicht nimmt vielmehr die thesenartigen Schlussbemerkungen des Hauptreferenten zum Ausgangspunkt. Sie seien hier noch einmal in Erinnerung gerufen: Prinz schließt seinen Vortrag mit der Forderung, auf die Patentierbarkeit von Software generell zu verzichten. (II.) Sollte die Vergabe von Software-Patenten unvermeidlich ein, so sollte das anwendbare Patentschutzsystem nach Ansicht von Prinz folgenden Anforderungen entsprechen: 1.

Die Patentierungsschwelle hinsichtlich des Novitätsgrades einer Innovation sollte sehr hoch sein. (III.)

2.

Die Patentierungsbehörden sollten so ausgestattet sein, dass sie tatsächlich nur Patente für Computerprogramme erteilen, die nachgewiesenermaßen neu sind. (IV.)

3.

Patente sollten möglichst eng gehalten werden, so dass sie relativ leicht umgangen werden können. (V.)

___________ 1

Vgl. zuletzt Wissenschaftlicher Beirat (2007), passim.

80

Florian Bien

4.

Die Patentlaufzeit sollten wegen der kurzen Produktlebenszyklen von Software grundsätzlich kurz gehalten werden, d. h. deutlich kürzer als die momentan geltende allgemeine Patentlaufzeit (VI.).

5.

Darüber hinaus hält es Prinz hinsichtlich der Sequenzialität und Kumulation von Software-Innovationen für erwägenswert, dass sich der erste Innovator dazu verpflichten muss, eine Lizenz zu einem vorher bestimmten (festen) Preis an den Folgeinnovator zu verkaufen. (VII.)

II. Patentierbarkeit von Computerprogrammen Wortgleich definieren das Europäische Patentübereinkommen (EPÜ) und das deutsche Patentgesetz in Art. 52 bzw. § 1: „Patente werden für Erfindungen erteilt, die neu sind, auf einer erfinderischen Tätigkeit beruhen und gewerblich anwendbar sind.“ (Hervorhebungen vom Verfasser). Daneben findet sich ein Negativkatalog bestimmter Gegenstände und Tätigkeiten, die von einem Patentschutz ausgeschlossen sind. Nicht unter den Erfindungsbegriff fallen danach unter anderem Programme für Datenverarbeitungsanlagen, soweit für sie Schutz „als solche“ beantragt wird. Rechtswissenschaftliche Literatur und Praxis sind sich weitestgehend einig, dass der Gesetzgeber mit dieser Formulierung Computerprogramme nicht schlechthin vom Patentschutz ausnehmen wollte.2 Dem Gesetzgeber ging es offensichtlich darum, Computerprogramme dann von der Patentierbarkeit auszuschließen, wenn es ihnen an der Voraussetzung der Technizität fehlt.3 Folglich können Computerprogramme nicht losgelöst von ihrer konkreten Anwendung bzw. Umsetzung patentiert werden. In Betracht kommt Patentschutz jedoch für so genannte computerimplementierte Erfindungen. Damit sind (technische) Erfindungen gemeint, zu deren Ausführung ein Computer eingesetzt wird.4 Als Beispiel sei das Patent für ein Antiblockiersystem5 genannt. Hier steuert ein Computerprogramm den Bremsdruck bei einem Fahrzeug, indem es Signale über die Verzögerung oder die Beschleunigung des überwachten Rads auswertet. Die auf den ersten Blick einleuchtende Unterscheidung zwischen nicht patentierbaren Computerprogrammen als solchen auf der einen und patentfähigen ___________ 2 BGH, 17.10.2001 GRUR 2002, 143 – Suche fehlerhafter Zeichenketten, Moufang (2005) Rz. 157 (= S. 125). 3 Das folgt aus einem Vergleich mit den anderen im Negativkatalog aufgeführten Arten von Erfindungen wie wissenschaftliche Erfindungen und mathematische Formeln oder ästhetische Formschöpfungen. 4 Vgl. Art. 2 des Richtlinien-Entwurfs der EU-Kommission vom 20.2.2002 über die Patentierbarkeit computerimplementierter Erfindungen (Dok KOM(2002) 92 endg., Abl. EG C 151 E vom 25.6.2002, S. 129). 5 BGH v. 13.5.1980, GRUR 80, 849 – Antiblockiersystem.

Patentschutz für Computerprogramme

81

computerimplementierten Erfindungen auf der anderen Seite erweist sich bei näherem Hinsehen als alles andere als klar. Tatsächlich herrscht in der rechtswissenschaftlichen Literatur lebhafter Streit über die Frage, welche Anforderungen im Zusammenhang mit Computerprogrammen an das Erfordernis der Technizität zu stellen sind. Die Rechtsprechung der Patentbehörden und -gerichte befindet sich in stetem Fluss, verläuft nur allzu häufig meanderförmig. Die Tendenz geht jedenfalls eindeutig in Richtung einer zunehmend großzügigen Gewährung von Patentschutz für Computerprogramme. Der folgende Überblick6 mag einen Eindruck von den sich widersprechenden Ansichten zu dieser Frage vermitteln, die in der Rechtsprechung im Laufe der Zeit vertreten wurden. 1.

Zunächst sah der BGH das Erfordernis der Technizität nur dann als erfüllt an, wenn die schützenden Computerprogramme unmittelbar einen technischen Effekt auslösen, das heißt unmittelbar unter Verwendung von Naturkräften einen über die übliche Arbeit des Computers hinausgehenden Erfolg herbeiführen.7

2.

Dabei stellte sich die weitere Frage, auf welchen Bereich der angemeldeten Erfindung sich der erforderliche erfinderische Beitrag zum Stand der Technik beziehen muss. Während der BGH zunächst verlangte, dass der außerhalb des Programms befindliche (technische) Teil der computerimplementierten Erfindung für sich genommen das Merkmal der Neuheit und der erfinderischen Tätigkeit in Anspruch nehmen konnte (Kerntheorie)8, setzte sich später eine Gesamtbetrachtung des Anmeldegegenstandes durch. Danach soll es für die Patentfähigkeit genügen, wenn in irgendeinem Bereich, das Computerprogramm eingeschlossen, ein Innovationsschritt zu verzeichnen ist.9

3.

Später hielt es der BGH für ausreichend, wenn zur Einrichtung des Computerprogramms technische Überlegungen erforderlich sind.10 So ließ es der BGH im Fall der Anmeldung eines Verfahrens zur Verifikation hochintegrierter Schaltungen, einem Zwischenschritt im Prozess der Herstellung von Silicium-Chips, genügen, dass die vorgeschlagene computergestützte Verifikationsmethode eine genaue Kenntnis der schaltungstechnischen Zusammenhänge voraussetzt.

___________ 6

Für eine ausführliche Darstellung Kraßer (2004), S. 145ff. BGH (wie Fn. 5). 8 BGH, 7.6.1977, GRUR 1978 – Prüfverfahren. 9 BGH, 4.2.1992, BGHZ 143, 255 – Tauchcomputer. 10 BGH, 13.12.1999, BGHZ 143, 255 – Logikverifikation. 7

82

Florian Bien

In seiner Entscheidung „Sprachanalyseeinrichtung“11 ging der BGH noch weiter. Er bejahte den technischen Charakter mit dem schlichten Hinweis, es handle sich bei dem Anmeldegegenstand um eine Vorrichtung, nämlich eine Datenverarbeitungsanlage, und nicht um ein bloßes Programm. Kurz darauf verneinte der BGH jedoch die Patentierbarkeit eines Programms zur Suche und Korrektur „fehlerhafter Zeichenketten“12 in einem Text. Der bloße Einsatz eines Computers mache eine Lehre noch nicht zu einer technischen. Patentierbar sei eine computergestützte Erfindung nur, wenn sie Lösungen für Probleme vorschlägt, die auf den herkömmlichen Gebieten der Technik wie den Ingenieurswissenschaften, der Physik, der Chemie oder der Biologie liegen.

4.

III. Die Voraussetzung der Erfindungshöhe Unter den bereits oben (II) aufgezählten inhaltlichen Kriterien kommt der „erfinderischen Tätigkeit“ in der Praxis die entscheidende Bedeutung zu. Während die Voraussetzung der „Neuheit“ bereits erfüllt ist, wenn die Erfindung „nicht zum Stand der Technik gehört“ (§ 3 PatG), hat die Patentbehörde in einem weiteren Prüfungsschritt zu klären, ob der Anmeldegegenstand auf einer „erfinderischen Tätigkeit“ beruht. Das ist der Fall, wenn sich die Erfindung „für den Fachmann nicht in nahe liegender Weise aus dem Stand der Technik ergibt“ (§ 4 PatG). Richtig angewandt verhindert dieses Kriterium die Erteilung von Trivialpatenten.13 Anlass für eine Verschärfung des materiellen Patentrechts besteht damit nicht. Entscheidend ist eine strenge Selektion der Anmeldungen anhand der gesetzlichen Vorgaben durch die Patentbehörden. Reformüberlegungen haben sich daher in erster Linie auf den institutionellen Bereich zu konzentrieren.

IV. Anreize für eine strenge Selektion durch die Patentbehörden14 1. Gebührenstruktur Die teure Prüfung des Anmeldegegenstandes und die Recherche zum Stand der Technik werden quersubventioniert durch die für die Verlängerung der Patentlaufzeit zu entrichtenden Jahresgebühren. Während beim Deutschen Patentamt für Prüfung inkl. Recherche lediglich 350 EUR anfallen, zahlt der Pa___________ 11

BGH, 11.5.2000, BGHZ 144, 282 – Sprachanalyseeinrichtung. BGH, 17.10.2001, GRUR 2002, 143 – Suche fehlerhafter Zeichenketten. 13 Slopek (2008), S. 479. 14 Siehe zum Folgenden auch Wissenschaftlicher Beirat (2007), S. 20f. 12

Patentschutz für Computerprogramme

83

tentinhaber im 20. Jahr 1940 EUR als Verlängerungsgebühr. Diese Gebührenstruktur hat zwar den Vorteil, dass sich auch finanzschwächere Erfinder eine Anmeldung leisten können. Auch dürften die hohen Verlängerungsgebühren in vielen Fällen verhindern, dass ungenutzte Ausschlussrechte über einen langen Zeitraum existieren. Zu Bedenken ist jedoch, dass die beschriebene Verteilung des Gebührenaufkommens eine großzügige Gewährung von Schutzrechten befördert. Nur wenn in ausreichender Zahl Patente gewährt werden, können die Recherche- und Prüfkosten über die anschließend zu entrichtenden Verlängerungsgebühren wieder verdient werden. Es ist daher zu überlegen, wie eine stärker an den tatsächlich anfallenden Kosten orientierte Gebührenstruktur die richtigen Anreize nicht nur auf Seiten der Erfinder und Patentinhaber, sondern auch auf Seiten der Behörden setzen kann.

2. Anreize für Mitarbeiter Dem Mehraufwand, der mit der Zurückweisung eines Patentantrags für die Behördenmitarbeiter verbunden ist, muss eine entsprechende Anerkennung in der internen Leistungsbewertung gegenüberstehen. Andernfalls besteht auch aus diesem Grund die Gefahr einer mengenorientierten Erteilungspolitik.

3. Selbstkontrolle des Amtes Bislang haben ausschließlich Dritte (z. B. Wettbewerber des Erfinders) die Möglichkeit, ein erteiltes Patent, darauf überprüfen zu lassen, ob es die rechtlichen Voraussetzungen der Patentierbarkeit erfüllt. Hierfür kommen sowohl das der Patenterteilung unmittelbar nachgeschaltete Einspruchsverfahren vor einer Beschwerdekammer der Patentbehörde als auch die – zeitlich unbefristete – Nichtigkeitsklage vor dem Patentgericht in Betracht. Stellt die Patentbehörde nach Erteilung des Patents selbst fest, dass es ein Patent zu Unrecht erteilt hat, ist es auf die Initiative eines privaten Dritten angewiesen, um eine Überprüfung auszulösen.15 Sind die Konkurrenten jedoch in einem Patentpool oder durch Kreuzlizenzen miteinander verbunden, gibt es für sie kaum einen Anreiz, Einspruch zu erheben. Eine Lösung könnte darin bestehen, dass man dem Präsidenten der Patentbehörde die Kompetenz einräumt, die Erteilung eines Patents durch die Beschwerdekammer überprüfen zu lassen. Außerdem ist die Ernennung eines unabhängigen „Vertreters des öffentlichen Interesses“ zu erwägen, ___________ 15

Der Wissenschaftliche Beirat (2007), S. 21 zitiert in diesem Zusammenhang den Fall des „Edinburgh-Patent“ EP 0695351. Siehe dazu die Pressemitteilung „Hintergrundinformationen“ unter http://www.european-patent-office.org/news/pressrel/pdf/ backgr_3_d.pdf (letzter Abruf 16.07.2008).

84

Florian Bien

dem das Recht zustünde, problematische Patenterteilungen aus eigener Initiative, das heißt ohne Mitwirkung Dritter, entweder bereits von den Beschwerdekammern oder aber vor dem Patentgericht überprüfen zu lassen.

V. Breite der Schutzwirkung Bei der Bestimmung des Schutzbereichs von Patenten geht es um den schwierigen Ausgleich zwischen dem Interesse des Patentinhabers an einer möglichst vollständigen wirtschaftlichen Verwertung der Erfindung, dem Interesse Dritter an ausreichender Rechtssicherheit und dem Interesse der Allgemeinheit an einer möglichst weitgehenden Nutzung des vorhandenen technischen Wissens (Stand der Technik).16 Eine Verletzung liegt nicht nur in einer identischen Benutzung des Schutzgegenstandes. In den Schutzbereich eines Patents können auch äquivalente Arbeitsmittel („Umgehungen“) fallen.17 Eine Verletzung liegt danach vor, wenn das eingesetzte Austauschmittel die gleiche Wirkung wie das Patent erzielt und sein Einsatz für einen Durchschnittsfachmann als gleichwertiges und gleichwirkendes Lösungsmittel ohne Einsatz erfinderischer Überlegungen nahe liegt. Der Umfang des Schutzbereichs richtet sich daher nach dem Ausmaß der objektiven Bereicherung der Technik.18 Damit ist der Schutzumfang, den eine patentierte Erfindung genießt, umso geringer, je bescheidener ihr innovativer Gehalt.

VI. Schutzdauer Die maximale Schutzdauer für ein Patent beträgt einheitlich 20 Jahre ab Anmeldung (§ 16 PatG), unabhängig von der Art der geschützten Erfindung. Ab dem dritten Jahr erfolgt eine Verlängerung jedoch nur gegen Entrichtung einer (von Jahr zu Jahr stark ansteigenden) Jahresgebühr. Damit besteht für den Erfinder ein Anreiz, den Patentschutz für Erfindungen, die nicht mehr genutzt werden, nicht zu verlängern.19 Angesichts der kurzen Produktlebenszyklen von Software dürfte sich in der Praxis das Problem eines über einen längeren Zeitraum in Anspruch genommenen Patentschutzes für Software-Erfindungen kaum stellen. Bemerkenswert ist, dass selbst die speziell auf den Schutz von Computersoftware zugeschnittenen „Mustervorschriften“ der WIPO aus dem ___________ 16

Kraßer (2004), S. 740. BGH, 29.4.1986, BGHZ 98, 12 – Formstein. 18 Kühnen (2005), Rz. 17 (= S. 379). 19 Siehe schon oben IV. 1. 17

Patentschutz für Computerprogramme

85

Jahr 197720 eine Schutzdauer von 20 Jahren ab dem Zeitpunkt der erstmaligen Benutzung oder des Verkaufs bzw. von maximal 25 Jahren nach Schöpfung der Computersoftware vorsahen. Der bei Prinz anklingende Vorschlag einer gesonderten kurzen Schutzfrist für Software dürfte in der Praxis nicht unerhebliche Abgrenzungsschwierigkeiten mit sich bringen. Wie ausgeführt handelt es sich bei den nach bisheriger Rechtslage patentierbaren computerimplementierten Erfindungen regelmäßig um eine Kombination aus technischen Elementen mit (nichttechnischen) Softwareanwendungen. Hier würde sich zukünftig die Frage stellen, welche Elemente der geschützten Erfindung zu welchem Zeitpunkt den Patentschutz verlieren. Um das von Prinz vorgegebene Ziel zu erreichen erscheint daher allenfalls der Weg einer allgemeinen Verkürzung der Patentlaufzeiten gangbar. Erschwert wird dieses Vorhaben allerdings durch die Tatsache, dass hier wie allgemein im Bereich des Geistigen Eigentums eine Abstimmung auf internationaler Ebene wünschenswert ist.

VII. Zwangslizenz Verweigert der Rechteinhaber trotz intensiver Bemühungen seitens des Lizenzsuchers die Erteilung einer Lizenz, bleibt als letzte Hoffnung die Zwangslizenz. Sie kann sich sowohl auf § 24 PatG als auch auf das Kartellrecht (§§ 19, 20 GWB bzw. Art. 82 EG) stützen. Die im Patentgesetz selbst niedergelegte Bestimmung greift allerdings nur bei Vorliegen eines öffentlichen Interesses an der Erteilung einer Zwangslizenz ein.21 Zu den öffentlichen Belangen im Sinne des § 24 Abs. 1 Nr. 2 PatG werden die Versorgung der Allgemeinheit mit wichtigen Gütern22 sowie medizinische23, umweltpolitische24 und verteidigungspolitische Interessen25 gezählt.

___________ 20 „Mustervorschriften für den Schutz von Computersoftware“, abgedruckt in Gewerblicher Rechtsschutz und Urheberrecht International (GRUR Int) 1978, S. 290–291. 21 Dahinter steht der Gedanke, dass der Patentinhaber die Verwendung der Erfindung soll nicht blockieren können, wenn die negativen externen Effekte der Schutzrechtsausübung nicht durch die mit der Gewährung des Ausschließlichkeitsrecht verbundene Internalisierung von Externalitäten aufgewogen werden. Siehe Rauda (2007), S. 1023. 22 RG, 30.11.1929, RGZ 126, 266, 269f. – Bäckereimaschine; Bacher/Melullis (2006), Rz. 16 (= S. 734). 23 BGH, 5.12.1995, GRUR 1996, 190 – Polyferon. Vgl. auch schon RG, 16.8.1935, GRUR 1935, 877, 878f. – Kohlensäure Zahndusche („Förderung der Volksgesundheit“). 24 Bußmann (1975), S. 172, Meinhardt (1998), S. 26. 25 Pohl (2000), S. 49.

86

Florian Bien

Der kartellrechtliche Anspruch auf Lizenzierung ist die Konsequenz des gegenüber jedem Marktteilnehmer geltenden Verbots, eine marktbeherrschende Stellung zu missbrauchen.26 Angesichts ihrer wirtschaftlichen Bedeutung sind Immaterialgüterrechte wie Rohstoffe oder Infrastruktureinrichtungen geeignet, (potentiellen) Wettbewerbern den Zugang zu bestimmten Märkten zu versperren.27 Damit können auch Software-Patente zu so genannten essential facilities werden. Verweigert der marktbeherrschende Schutzrechtsinhaber die Erteilung einer Lizenz, so kann dieses Verhalten bei Vorliegen bestimmter Umstände als missbräuchlich zu qualifizieren sein. Da die Ausschließungswirkung das Wesen der gewerblichen Schutzrechte ausmacht, müssen selbst bei einem marktbeherrschenden Rechteinhaber besondere Umstände hinzutreten, um einen kartellrechtlichen Anspruch auf Lizenzgewährung zu begründen. So bezeichnete der BGH die Verweigerung einer Patentlizenz als missbräuchlich, die aufgrund einer Industrienorm allein den Zugang zu einem nachgelagerten Markt ermöglichte.28 In der Rechtspraxis spielen weder die patentrechtliche noch die kartellrechtliche Zwangslizenz eine wichtige Rolle. Man mag sich für die Zukunft eine größere Bereitschaft der Gerichte und Behörden hinsichtlich der Zuerkennung von Zwangslizenzen wünschen.29 Zweifeln begegnet der von Prinz vorsichtig geäußerte Vorschlag, den ersten Innovator zu verpflichten, Lizenzen zu einem vorher bestimmten (festen) Preis an den Folgeinnovator zu verkaufen. Angesichts der Unwägbarkeiten der technischen und ökonomischen Entwicklung stellt sich die Frage, wie bereits im Zeitpunkt der Patenterteilung die Bedeutung einer Erfindung für zukünftige Folgeinnovationen beurteilt werden soll. Ähnlich schwierig dürfte es sein, im Voraus einen angemessenen Preis für die zukünftige Erteilung von Lizenzen zu bestimmen.

Literatur Bacher, Klaus / Melullis, Klaus-Jürgen (2006): Kommentierung von § 1 PatG, in: Benkard, Georg (Hrsg.) (2006), Patentgesetz, München, S. 73–134. Bußmann, Joachim (1975): Die patentrechtlichen Zwangslizenz, Frankfurt am Main. Eilmansberger, Thomas (2007): Kommentierung von Art. 82 in EGV, in: Hirsch, Günther / Montag, Frank / Säcker, Franz Jürgen (Hrsg.) (2007): Münchener Kommentar zum Europäischen und Deutschen Wettbewerbsrecht (Kartellrecht), Band 1, Europäisches Wettbewerbsrecht, München, S. 1085–1261.

___________ 26

BGH, 13.7.2004, BGHZ 160, 67 – Standard-Spundfass. Vgl. Eilmansberger (2007), Rz. 344 (= S. 1189). 28 BGH, 13.7.2004, BGHZ 160, 67 – Standard-Spundfass. 29 In diese Richtung auch Wissenschaftlicher Beirat (2007), S. 17 und 22. 27

Patentschutz für Computerprogramme

87

Kraßer, Rudolf (2004): Patentrecht, München. Kühnen, Thomas (2005): Kommentierung von § 14 PatG und Art. 69 EPÜ, in: Schulte, Rainer (Hrsg.) (2005): Patentgesetz mit Europäischem Patentübereinkommen, Köln, Berlin, München, S. 375–399. Meinhardt, Marcel (1998): Die Beschränkung nationaler Immaterialgüterrechte durch Art. 86 EG-Vertrag, Bern. Moufang, Rainer (2005): Kommentierung von § 1 PatG und Art. 52 EPÜ, in: Schulte, Rainer (Hrsg.) (2005): Patentgesetz mit Europäischem Patentübereinkommen, Köln, Berlin, München, S. 87–173. Pohl, Christian (2000): Die Voraussetzungen der patentrechtlichen Zwangslizenz: Eine Untersuchung unter besonderer Berücksichtigung ihrer europarechtlichen Vorgaben, der Pariser Verbandsübereinkunft und des TRIPS-Abkommens, Frankfurt am Main. Rauda, Christian (2007): Fallgruppen statt „IMS Health“ – Zwangslizenzen an Urheberrechten im Rahmen des Art. 82 EG, in: Gewerblicher Rechtsschutz und Urheberrecht (GRUR), S. 1022–1030. Slopek, David E.F. (2008): Die Behandlung von Trivialpatenten in den USA, in: Gewerblicher Rechtsschutz und Urheberrecht International (GRURInt) 2008, S. 479– 484. Wissenschaftlicher Beirat beim Bundesministerium für Wirtschaft und Technologie (2007): Gutachten Nr. 1/07 „Patentschutz und Innovation“.

Patentschutz: Sonderregeln für die Softwareindustrie? – Korreferat zu Aloys Prinz – Von Stefan Kooths

I. Kurzzusammenfassung des Referates (Gegenstand, Vorgehensweise und Ergebnis) Der zentrale Untersuchungsgegenstand des Beitrags von Aloys Prinz betrifft die Ableitung der ökonomischen (speziell wohlfahrtsökonomischen) Wirkungen von Softwarepatenten. Hierzu wird zunächst Software in den Güterraum eingeordnet (Kapitel 1) und die allgemeinen Charakteristika von Patenten und deren Wirkung auf den Innovations- und Marktprozess wohlfahrtsökonomisch interpretiert (Kapitel 2 und 3). Kapitel 4 führt beide Gebiete zusammen und leitet Schlussfolgerungen für die ökonomische Rechtfertigung zur Patentierbarkeit von Software ab. Im Wesentlichen kommt die Analyse zu dem Ergebnis, dass generell auf die Patentierbarkeit von Software verzichtet werden sollte (Kapitel 5).

II. Generelle Bemerkung zur Vorgehensweise Die Vorgehensweise ist in sich analytisch klar begründet, allerdings basiert sie auf zwei zentralen Voraussetzungen: Ordnungspolitisch setzt die spezielle Aussage über die ökonomische Zweckmäßigkeit der Patentierung einer bestimmten Gütergruppe (hier: Software) voraus, dass diese –

(V1) gegenüber anderen Gütern patent-relevante Besonderheiten aufweist (insofern also einen wirtschaftspolitischen Sonderfall darstellt) und



(V2) in sich so homogen ist, dass allgemeine Aussagen über die Patentierbarkeit von Software als solcher möglich wären.

V1 wird im Referat explizit genannt, V2 nicht. Beide Voraussetzungen sind m. E. nicht hinreichend erfüllt, um das Hauptergebnis (Empfehlung eines Verzichts auf Softwarepatente) generell rechtfertigen zu können. Dies soll im Folgenden an wichtigen Punkten aufgezeigt werden. Hierbei spielt hinsichtlich V2 insbesondere eine Rolle, dass sich die Gütereigenschaften von Software je nach

90

Stefan Kooths

Segment stark voneinander unterscheiden. Daher sollte die Analyse mindestens entlang der folgenden (nicht notwendigerweise abschließenden) Kategorien differenziert werden: –

Individual- vs. Standardsoftware (mit dem Sonderfall von Plattformsoftware),



Anwendungs- vs. Systemsoftware,



Embedded vs. Universalsoftware.

Beispiele zur ökonomischen Relevanz der vorstehenden Unterscheidungskategorien folgen im weiteren Verlauf dieser Besprechung.

III. Gütereigenschaften und patentrelevante Schlussfolgerungen Die Immaterialität von Software stellt hinsichtlich der Patentierbarkeit keine ökonomisch relevante Besonderheit dar. Letztendlich wird bei jedem Patent keine Materie, sondern die Verwertung von Wissen geschützt, wobei es aus ökonomischer Sicht nicht darauf ankommen kann, wie dieses Wissen im Einzelfall kodiert ist. So stellen beispielsweise Medikamente materielle Güter dar, dies schützt sie aber in keiner Weise davor, hinsichtlich ihrer Zusammensetzung erkannt und kopiert zu werden. Dasselbe gilt für den Nachbau von Maschinen. Von daher kann aus der Immaterialität eines Gutes noch kein Schluss auf die Geheimhaltungsmöglichkeiten des inkorporierten Wissens und damit – anders als in Schlussfolgerung (1), Abschnitt 4 – auf den first-mover-advantage gezogen werden. Die Komplementaritätseigenschaft teilt Software mit allen anderen Gütern, die Bestandteil eines umfassenderen Systems sind (z. B. Antriebstechnik). Da Komplementarität eine wechselseitige Beziehung ist, ließe sich diese im Fall von Software auch auf die Hardware anwenden, die ohne entsprechende Software ebenfalls ökonomisch wertlos ist (gleichwohl wird hieraus kein Patentproblem für Hardwareinnovationen abgeleitet). Auch erfordert jedes technisch anspruchsvolle Gut zu seiner Bedienung grundsätzlich komplementäres Humankapital. Die sich daraus ergebenden Wirkungen auf den lead-timeadvantage (Schlussfolgerung 2) sowie – wichtiger noch – auf mögliche Netzeffekte (Schlussfolgerung 3) und die damit zusammenhängende SchumpeterRivalität hängen jedoch entscheidend von der Softwarekategorie ab. Während bei bestimmten Anwendungs- und Plattformprogrammen nutzerspezifisches Wissen die Ausbildung von Netzeffekten begünstigen kann (z. B. Textverarbeitungsprogramme, Front-end-Betriebssysteme), ist dies bei anderen Softwarekategorien (Individualsoftware, Systemprogramme) in weitaus geringerem Maße oder gar nicht der Fall. Wird beispielsweise ein neuer Grafikkartentreiber oder

Patentschutz: Sonderregeln für die Softwareindustrie?

91

eine verbesserte Rechtschreibprüfung entwickelt, so bekommt der Endanwender hiervon beim nächsten automatisierten Systemupdate im Zweifel gar nichts mit, außer dass sich die Leistungsfähigkeit seines Rechners verbessert hat. Auch müssten Netzwerkbrücken (Konverter), die der ökonomischen Ausbeutung von Netzeffekten entgegen wirken, entsprechend berücksichtigt werden. Ferner spielt für weite Bereiche der embedded software (z. B. ABS-Steuerungssoftware) Endanwender-spezifisches Wissen praktisch gar keine Rolle. Hinsichtlich der Kompatibilität und dem daraus abgeleiteten Intra-ProduktWettbewerb (Schlussfolgerung 3) ist die besondere Rolle von Plattformanbietern zu betonen, die ihrerseits ein Interesse daran haben, ihr Produkt für möglichst viele Applikationsanbieter zu öffnen. Dies kann dazu führen, dass zwar der Intra-Produkt-Wettbewerb in Bezug auf die Plattform reduziert und die Herausbildung eines marktbeherrschenden Anbieters beschleunigt wird, gleichzeitig werden damit aber auch Entwicklungsanstrengungen stärker in den nachgelagerten Markt gelenkt, wo sie aus volkswirtschaftlicher Sicht u. U. sogar nützlicher sind (da sich bei Plattformmärkten früher oder später ohnehin ein dominanter Anbieter für die Zeitspanne einer gegebenen Technologiestufe durchsetzt). Ob die sequentielle Entwicklung von Software eine Besonderheit darstellt, ist fraglich. Auch im technischen Bereich (z. B. Maschinenbau) kann die Neuheit eines Produktes oft in einer Rekombination bereits bekannter Module bestehen oder sich eine Innovation im Zeitablauf sequentiell entwickelten. Die Feststellung, dass die unterschiedliche Inkorporierung des Wissens bei unterschiedlichen Gütergruppen (Maschinen, Computern, Programme, Arzneimittel) jeweils etwas grundsätzlich anderes sei, kann so m. E. nicht geteilt werden, jedenfalls nicht für alle Softwarekategorien in gleichem Maße. Der notwendige Nachweis, dass gerade die Kombination der genannten Gütereigenschaften die Besonderheit von Software hinsichtlich der Patentierbarkeit ausmacht, müsste deutlicher geführt werden.

IV. Charakteristika und generelle Wirkung von Patenten Kapitel 2 behandelt die allgemeinen Charakteristika von Patenten, allerdings am Beispiel von Computerprogrammen. Dies könnte den Eindruck erwecken, hier läge bereits eine softwarespezifische Beschreibung vor. Tatsächlich gelten alle genannten Eigenschaften und Beurteilungsschwierigkeiten unabhängig von der jeweiligen Gütergruppe, für die die Zweckmäßigkeit von Patenten zu beurteilen ist.

92

Stefan Kooths

Die generelle Wirkung von Patenten wird anhand der drei Analysefelder Innovationsanreize, strategische Instrumente und rent seeking behandelt, die im Folgenden kurz kommentiert werden. Innovationsanreize: –

Der in Abbildung 2 markierte „Wohlfahrtsverlust durch Monopol“ fällt zu hoch aus, da er den im Schnittpunkt von Grenzkosten- und Nachfragekurve eintretenden Verlust des Monopolisten (bzw. der Gesamtwirtschaft) unberücksichtigt lässt. Das gesamtwirtschaftliche Optimum läge daher im Schnittpunkt von TDK- und Nachfragekurve.



Analog dazu ist auch die Verkürzung der Gesamtwohlfahrt auf die Konsumentenrente nicht plausibel, da die zur Herstellung einer Innovation notwendigen F&E-Kosten einen volkswirtschaftlich relevanten Ressourcenverzehr darstellen. Von daher besteht kein grundsätzlicher Konflikt zwischen privaten und gesellschaftlichen Innovationsanreizen (bei perfektem Patentschutz).



Die Darstellung in Abbildung 2 abstrahiert von der Möglichkeit der Preisdifferenzierung des Anbieters, so dass die Unternutzung der Innovation tendenziell überschätzt wird.



In Bezug auf die volkswirtschaftlichen Effekte von Patentrennen werden Verteilungs- und Wohlfahrtseffekte zum Teil vermengt. Gäbe es keinen Patentschutz, käme es gleichwohl zu volkswirtschaftlich ineffizienten Mehrfachentwicklungen, nur dass sich dann die Innovationserträge nicht auf eine Unternehmung (den Gewinner des Patentrennens) konzentrierten. Im Übrigen finden sich ähnliche Winner-takes-it-all-Probleme auch außerhalb des Patentbereichs bei jeder Form des Exklusivwettbewerbs (z. B. auf Märkten für Architekturentwürfe).



Das vermeintliche Problem der Bananensoftware („reift beim Kunden“) ist – wenn es denn existiert (immerhin steht dem der Reputationseffekt des Anbieters dämpfend gegenüber) – auch auf die Möglichkeit des nahezu kostenlosen Update-Möglichkeit zurückzuführen. Ob die Nutzenausfälle, die durch eine zeitliche Verschiebung (spätere Veröffentlichung) einer Softwareversion entstehen, tatsächlich kleiner sind als die Nutzeneinbußen durch möglicherweise nicht ganz ausgereifte, dafür aber früher verfügbare Software, ist eine offene Frage.

Patente als strategisches Instrument: –

Dem Verfasser ist ausdrücklich zuzustimmen, dass die Existenz von Patenthandel bzw. Kreuzlizenzierungen nicht per se schlecht sind. In diesem Zusammenhang könnten Patente auch als Währung interpretiert werden, die innerhalb des Clubs der innovierenden Unternehmen (einer Genossen-

Patentschutz: Sonderregeln für die Softwareindustrie?

93

schaft auf Gegenseitigkeit) zum Interessenausgleich verwendet wird und die insbesondere dazu dient, nicht-innovierende Trittbrettfahrer von der Nutzung der Clubgüter auszuschließen. –

Patentpools großer Unternehmen werden oft als Bedrohung für kleinere Unternehmen gesehen. Dieser Befürchtung kann jedoch mit dem Hinweis begegnet werden, dass sich kleinere Unternehmen zu entsprechenden Interessensgemeinschaften zusammenschließen können und dann auf Augenhöhe mit Großunternehmen in einen Patentaustausch treten. Darüber hinaus sind es oft kleine Unternehmen, deren wirtschaftlicher Erfolg im besonderen Maße vom wirksamen Patentschutz ihrer Entwicklungsergebnisse abhängt.

V. Eignung von Software zur Patentierung Zu den im vierten Kapitel vorgestellten Ergebnissen zur Patenteignung von Software wurden hier bereits unter Gliederungspunkt 2 Einschränkungen ausgeführt, die sich per se aus den Gütereigenschaften von Software bzw. unterschiedlicher Softwarekategorien ergeben. Darüber hinaus sollen an dieser Stelle nur noch die folgenden kurzen Bemerkungen gemacht werden: –

Ob sich komplementäre IT-Dienstleistungen (Schulung, Beratung, Installation) in Form eines first-mover advantage als Gewinnquelle für den Softwareproduzenten nutzen lassen, ist sehr fraglich, da diese – insbesondere bei Standardsoftware – auch von externen Schulungsunternehmen angeboten werden können, die diesbezüglich über andere komparative Vorteile verfügen. Zwar ist die Quersubventionierung der Softwareproduktion durch komplementäre Dienste im Bereich der Open Source Entwicklung ein gängiges (wenngleich fragiles) Geschäftsmodell, so dürfte es im Bereich kommerzieller Software nur eine untergeordnete Rolle spielen. Sollte der Softwareanbieter gar versuchen, die Schulungs- und Beratungsintensität künstlich heraufzusetzen, so läuft er Gefahr, den Gesamtmarkt an Anbieter zu verlieren, deren Software anwendungs- und implementationsfreundlicher ist.



Grundsätzlich ist darauf hinzuweisen, dass die Patentierbarkeit von Software eine Option und keinen Zwang darstellt. Daher stehen den Anbietern alternative Möglichkeiten (z. B. Kooperationen mit Geheimhaltungspflicht im Bereich von Standards) offen. Diese Bereiche sprechen also nicht gegen die grundsätzliche Patentierbarkeit von Software.



Nutzerseitige Netzwerkeffekte sollten von produktionsseitigen Skalenerträgen unterschieden werden. Grundsätzlich bestehen bei der Softwareproduktion keine Skaleneffekte im ökonomisch relevanten Bereich der Pro-

94

Stefan Kooths

duktionsfunktion, da ein Mehreinsatz von Produktionsfaktoren typischerweise zu einem unterproportionalen Zuwachs der Softwaremenge (Funktionsumfang und -qualität) führt. –

Bezüglich der wettbewerbspolitischen Regulierungsempfehlungen für Märkte mit ausgeprägten Netzwerkeffekten sollte erwähnt werden, dass die zitierten Autoren (Fußnote 53) die praktischen Möglichkeiten einer erfolgreichen Regulierung als sehr schwierig einschätzen („But our model also suggests that successful intervention to address this problem may be exceptionally difficult.“, Seite 32 in der genannten Quelle).



Es sollte deutlicher argumentiert werden, weshalb Patente die „Weiterentwicklung [einer Innovationslinie] bremsen können, ohne den ursprünglichen Innovatoren hinreichend große Anteile an den Renten der nachfolgenden Innovationen zu sichern“ (Seite 15). Stellt sich die Nachfolgeinnovation als wertvoller heraus als die Ursprungsinnovation, so könnten die weiterentwickelnden Unternehmen die Patenzlizenz vom Ursprungsinnovator immerhin zum beiderseitigen Vorteil erwerben.



Für die vorgeschlagene Differenzierung zwischen Basis- und Folgeinnovation wäre die Skizze einer Operationalisierungsvorschrift nützlich.



Idealtypisch ist aus ökonomischer Sicht für die Patentierbarkeit die Novität einer (Basis-)Innovation nur notwendig, nicht hinreichend, da der Patentschutz nur erforderlich ist, um die Rückholung hoher Entwicklungskosten zu sichern. Geistesblitze müssen aus allokativen Erwägungen heraus grundsätzlich nicht geschützt werden.



Hinsichtlich der empirischen Evidenz ist zumindest zu konstatieren, dass sich trotz der in den USA geringeren Patentschwelle dort eine Softwareindustrie etabliert hat, deren Innovationskraft nicht gegenüber derjenigen aus Ländern mit höheren Hürden bei der Patentvergabe zurückfällt.

VI. Sonstige Anmerkungen –

Hinsichtlich der Vergabe von Softwarepatenten in Europa (Fußnote 4) ist zu beachten, dass diese bereits auf europäischer Ebene (Europäisches Patentamt) möglich sind und lediglich die europäische Harmonisierung der Vergabepraxis in den Mitgliedsländern bislang nicht erfolgte.



Die Zulässigkeit von Trivialpatenten ist kein spezifisches Problem der Softwarepatentierung, sondern gilt allgemein und fällt in den Bereich der Überwachung der Vergabetätigkeit der Patentämter.



Das Copyright stellt keinen Patentersatz dar. Zwar wird durch das Copyright die konkrete Programmgestaltung geschützt und insofern die räuberi-

Patentschutz: Sonderregeln für die Softwareindustrie?

95

sche Kopie von Software rechtlich sanktioniert. Das eigentlich wertvolle Wissen bei einer computerimplementierten Erfindung (z. B. Verfahren zur Spracherkennung oder Textübersetzung) wird aber vom Copyright nicht ausreichend erfasst.

VII. Fazit Aus ökonomischer Sicht besteht der Zweck der Patentvergabe darin, Innovationen zu schützen, für die eine gesamtwirtschaftliche Zahlungsbereitschaft mindestens in Höhe der F&E-Kosten besteht, die jedoch ohne den Patentschutz aufgrund des Free-Rider-Problems nicht produziert würden. Diverse juristische Kriterien (Stofflichkeit, Technizität, Beherrschung von Naturgewalten) sind dafür irrelevant. Auch spielt es generell keine Rolle, in welcher Form das in Innovationen implizierte neue Wissen in Erscheinung tritt ist. Grundsätzlich sollte daher auch Software patentfähig sein. Eine Sonderregelung für die Gütergruppe Software ist ordnungspolitisch schwer zu rechtfertigen, da Software zum Teil ökonomische Eigenschaften mit anderen Gütergruppen teilt, zum anderen in sich sehr heterogen ist. Wirtschaftspolitisch sind daher Patentregelungen vorzuziehen, die sich an abstrakten Gütereigenschaften und weniger an statistischen Güterklassifikationen ausrichten (z. B. Zusammenhang zwischen Patentlaufzeit und Produktlebenszyklus). Den am Ende von Abschnitt 4 vorgestellten Prinzipien stimme ich als allgemeine Leitlinien für die Patentvergabe zu, als Sonderregelung für die Softwareindustrie lehne ich sie ab. Da die gesamtwirtschaftlich optimale Lösung in vielen Fällen keine Extremlösung darstellt (kein vs. totaler Patentschutz), sollte verstärkt nach marktwirtschaftlichen Mechanismen (Regeldesign) gesucht werden, um die Abwägung zwischen den beiden Extrempolen mit den Anreizen von Patentproduzenten und Patentnehmern in Einklang zu bringen, diese also dazu anreizen, ihre tatsächlichen Motive und tatsächliche Wertschätzung des patentierten Wissens genauer zu offenbaren und die administrativen Eingriffe weniger aufwändig zu gestalten (allgemeinere Regeln). Würde beispielsweise neben der Patentgebühr (als Entgelt für den Aufwand der Patentprüfung) eine prozentuale Umsatzbeteiligung des Staates (als Patentschützer) je genutzten Patentes an den Produktverkäufen eines Patenthalters vorgeschrieben, so wirkte dies der Patentflut entgegen und die Steuerungsgröße des Staates bliebe auf die Festlegung des Prozentanteils beschränkt (dieser sollte in der Einführungsphase eher gering ausfallen, alternativ könnte er an die Lizenzgebühren gekoppelt werden, die die Unternehmen von potenziellen Lizenznehmern verlangen). Unternehmen würden dann selbst entscheiden, welche Erfindungen sie für besonders wichtig halten und welche weniger. Um Blockadepatente zu verhindern, wäre eine Frist festzusetzen, ab der bei Nichtnutzung eines Patentes durch den Patententwickler,

96

Stefan Kooths

eine Zwangsversteigerung des Patentes in Kraft tritt. Diese Beispiele sollen lediglich die Form einer an allgemeineren Regeln orientierten, am Preissystem ansetzenden Regelung illustrieren, um sowohl den Patentmissbrauch als auch den diskretionären Spielraum von Patentämtern zu verringern.

Schattenseiten des Internets? Zensur und Kontrolle Von Christoph Lütge

I. Einleitung In der DDR war es noch verhältnismäßig leicht, den Meinungsfluss zu kontrollieren, und schwierig, die staatliche Kontrolle und Zensur zu unterlaufen. Die Charta 77 etwa musste von Regimekritikern mit Hilfe eingeschmuggelter Vervielfältigungsmaschinen umständlich in Kellern kopiert und aufwändig verteilt werden. Die Situation hat sich seit dem Aufstieg des Internets, d.h. vor allem seit seiner Massenwirkung seit 1995, grundlegend verändert. Die Globalisierung hat sich in dramatischem Maße beschleunigt. Die wirtschaftliche und gesellschaftliche Dynamik in Staaten wie China, Indien, Brasilien und Russland hat Auswirkungen auf alle Länder. Bisherige Akteure in der Politik spielen deutlich veränderte Rollen (etwa die multinationalen Unternehmen). Neue Akteure sind auf den Plan getreten (etwa die NGOs). Und natürlich ist die technische Entwicklung zu berücksichtigen: die Dezentralität des Mediums Internet stellt eine völlig neue Qualität dar, die über die Strukturen früherer Massenmedien weit hinaus geht. Für das Thema Zensur bedeutet dies: Alte Zensurmechanismen greifen nicht mehr. In neuen Medien versuchen sich manche Regierungen an neuen Mechanismen, aber auch hier haben sich zahlreiche neue Möglichkeiten zum Unterlaufen entwickelt. Die Frage, die ich im Verlauf dieses Artikels noch stellen möchte, ist, ob es sich hier möglicherweise um eine ganz neue Herausforderung an Normativität bzw. an normative Vorgaben handelt, die Auswirkungen auf Ethik und Sozialphilosophie hat. Zunächst jedoch geht es mir um das Internet im engeren Sinn, und zwar um seine – vermeintlichen oder tatsächlichen Schattenseiten. Denn darum geht es ja beim Thema Kontrolle und Zensur: Ist das Internet einhellig zu begrüßen oder bringt es nicht auch viele neue Probleme mit sich, für die wir noch keine ausreichenden Antworten haben? Eine Reihe von Kritikern haben sich an dieser Frage versucht.

98

Christoph Lütge

II. Entwicklung in der Kritik des Internets Es lassen sich mehrere Stadien der Kritik am Internet herausarbeiten, wobei diese Liste natürlich keinen Anspruch auf Vollständigkeit erhebt: 1. In einem frühen Stadium (Mitte der 90er Jahre), für das exemplarisch Beiträge wie die von Buchstein (1996), Doheny-Farina (1998) und Brook/Boal (1995) stehen, lassen sich folgende Kritikpunkte ausmachen: a)

Das Internet führe zu wachsender Vereinzelung, es gefährde Gemeinschaften und soziale Beziehungen im Allgemeinen. Diese Kritik wird zwar gelegentlich weiterhin geäußert, wenn man von Menschen (meist in Südkorea oder Japan) hört, die sich in ihrer Wohnung zu Tode gesurft haben. Sie erfährt aber – angesichts des neuen (und offensichtlichen) Vernetzungsgrades, den das Netz mit sich gebracht hat, – keine erhebliche Resonanz mehr.

b) Das Internet führe zu mehr Arbeitslosigkeit und gefährde den Sozialstaat. Diese Kritik war noch nie zutreffend, aber selbst wenn sie es gewesen wäre: Es handelt sich um kein spezifisches Problem des Internets, sondern eher um eins von vernachlässigtem Strukturwandel und verdrängter Probleme der Globalisierung. c)

Internet-Nutzer resignierten angesichts der Informationsmenge und seien als Bürger im Netz verloren. Dies wird zwar immer wieder gelegentlich behauptet, allerdings doch zunehmend leiser. Es kann heute nicht mehr pauschal bestritten werden, dass die Suchmechanismen des Netzes doch einigermaßen effizient funktionieren. Auch kann man nicht grundsätzlich davon sprechen, dass kommerzielle Seiten alles andere verdrängen und die nichtkommerzielle Kommunikation und Interaktion unterdrücken.

d) Im Internet seien Eliten und bestimmte Kulturen über-, Minderheiten dagegen unterrepräsentiert. Dieser Punkt hat mehrere Facetten. Erstens die Frage, ob innerhalb einer Kultur bestimmte Bevölkerungsgruppen das Internet stärker als andere nutzen. Hier hat sich zumindest in den entwickelten Ländern die Lage insofern normalisiert, als im Großen und Ganzen nahezu alle Gruppen zu einem Grad im Internet vertreten sind, der allmählich einem Sättigungsniveau entspricht. (Ein geringer Prozentsatz der Bevölkerung verzichtet freiwillig und offenbar dauerhaft auf die Nutzung.) Die zweite Frage, die durchaus auch heute eine gewisse Berechtigung hat, ist die nach dem Anteil bestimmter Kulturen am Internet als Ganzem, etwa wenn man die prozentualen Anteile der im Netz vertretenen Sprachen betrachtet. Allerdings hat sich die Situation grundsätzlich verändert und verbessert, denn es sind erhebliche Zuwachsraten gerade im nicht-englischsprachigen Bereich zu verzeichnen.1 ___________ 1

Vgl. http://www.internetworldstats.com/stats7.htm: 2007 waren 31,2 % der Nutzer englischsprachig, 15,7 % chinesischsprachig, 5 % deutschsprachig. Die Zuwachsrate

Schattenseiten des Internets? Zensur und Kontrolle

99

2. Zu einem Zeitpunkt, als das Internet schon deutlich weiter ausgebaut war (2001) veröffentlichte C. Sunstein sein Buch „Republic.com“, in dem sich die Kritikpunkte gegenüber den früheren Argumenten etwas ausdifferenzierten. Sunstein führt im Wesentlichen vier Punkte an: a)

Zunächst wird die „digital divide“ beklagt, etwa im Hinblick auf Afrika. Hierzu ein paar aktuelle Zahlen:2 Tabelle 1 World Internet Usage and Population Statistics

World Regions

Africa Asia

Population (2007 Est.)

Population % of World

Internet Usage (Latest Data)

Population % (Penetration)

Usage % of World

Usage Growth 2000-07

933,448,292

14.2 %

43,995,700

4.7 %

3.5 %

874.6 %

3,712,527,624

56.5 %

459,476,825

12.4 %

36.9 %

302.0 %

Europe

809,624,686

12.3 %

337,878,613

41.7 %

27.2%

221.5 %

Middle East

193,452,727

2.9 %

33,510,500

17.3 %

2.7 %

920.2 %

North America

334,538,018

5.1 %

234,788,864

70.2 %

18.9%

117.2 %

Latin America / Caribbean

556,606,627

8.5 %

115,759,709

20.8 %

9.3 %

540.7 %

Oceania / Australia

34,468,443

0.5 %

19,039,390

55.2 %

1.5 %

149.9 %

6,574,666,417

100.0 %

1,244,449,601

18.9 %

100.0 %

244.7 %

World Total

NOTES: (1) Internet Usage and World Population Statistics are for September 30, 2007. (2) CLICK on each world region for detailed regional information. (3) Demographic (Population) numbers are based on dat

b) Man beachte vor allem die Zuwachsraten für Afrika: 874 % gegenüber 2000. Und mit knapp 44 Millionen Nutzern wurden etwa der Mittlere Osten und Australien/Ozeanien in absoluten Zahlen bereits überholt. c)

Zweitens verliere man im Internet aufgrund der Geschwindigkeit von Kommunikation grundsätzliche Möglichkeiten der Reflexion. – Aber ist nicht das Gegenteil der Fall? Einträge bei Wikipedia sind mittlerweile z.T.

___________ von 2000–2007 betrug allerdings für Chinesisch 469 %, gegenüber 157 % für Englisch und 112 % für Deutsch. 2 Vgl. http://www.internetworldstats.com/stats.htm sowie http://www.internetworld stats.com/stats1.htm.

100

Christoph Lütge

deutlich länger als vergleichbare Lexikon-Artikel. In Foren werden Spezialthemen in aller wünschenswerten Ausführlichkeit diskutiert. d) Drittens gehe der soziale Kitt verloren, der für Gesellschaften notwendig sei. Auf diese These kann ich hier nicht eingehen; ich habe sie andernorts ausführlich behandelt.3 (Und selbst wenn diese These zuträfe, so handelte es sich um kein Spezifikum des Internets.) e)

Interessant – und möglicherweise konstruktiv deutbar – ist der letzte Kritikpunkt: Sunstein warnt vor dem Verlust ungeplanter Erfahrungen. Er sieht die Gefahr, dass sich Internetnutzer ihre Nachrichten und auch ihre Sicht der Welt nur noch auf sich selbst zuschneiden bzw. durch entsprechende Filter zuschneiden lassen – gewissermaßen die technisch umgesetzte Version eines Solipsismus oder Schopenhauers Insassen einer „kleine[n] Gränzfestung, die zwar auf immer unbezwinglich ist, deren Besatzung aber durchaus auch nie aus ihr herauskann, daher man ihr vorbeigehn und ohne Gefahr sie im Rücken liegen lassen darf.“4 Von der Hand zu weisen ist diese Kritik nicht grundsätzlich. Allerdings bestanden solche Möglichkeiten schon immer – wer nur bestimmte Nachrichten oder eine bestimmte Weltsicht wahrnehmen wollte, der nahm schon immer nur diese wahr.5 3. Die bisherigen Warnungen lassen sich fast durchweg als Warnungen vor zu viel Freiheit im Internet verstehen. Zu große Spielräume für die Nutzer sollen zu Vereinzelung, zu Reflexionsverlust, zur Resignation oder zur Einigelung führen. Eine ganz andere Richtung der Kritik warnt dagegen vor zu wenig Freiheit, vor Verboten und Beschränkungen. In früheren Jahren wurde diese Kritik in deutlich überzogener Form geäußert, meist mit Hinweisen auf einen „Big Brother“ (etwa bei Brown 1997). In differenzierterer Weise wird diese Kritik jedoch im Hinblick auf konkrete Probleme wie Zensur- und Kontrollmöglichkeiten in bestimmten Staaten diskutiert. Ich werde dies in Abschnitt 4. weiter verfolgen, doch zunächst werde ich eine ethische Konzeption vorstellen, die an dieser Stelle ihre Fruchtbarkeit erweisen kann: die Ordnungsethik.

___________ 3

Vgl. Lütge (2007). Schopenhauer (1988), Die Welt als Wille und Vorstellung, Zweites Buch, § 19. 5 Ins Extreme wird diese Vision in dem Film „Conspiracy Theory“ (dt. „Fletchers Visionen“) von 1997 gesteigert – und dieser Film kommt völlig ohne das Internet aus. 4

Schattenseiten des Internets? Zensur und Kontrolle

101

III. Das Implementierungsproblem von Normen in der Ordnungsethik Bereits im Jahr 1999 habe ich mit dem Thema Internet aus philosophischer Sicht beschäftigt (doch stieß dies damals auf wenig Resonanz).6 Meine These war, dass das Internet vor allem für die Durchsetzung von Normen eine neue Herausforderung darstellt: Die dezentrale Struktur des Netzes erschwert effektive Eingriffe seitens einer Kontrollinstanz in erheblichem Maße.7 Lokale Eingriffe sind kaum von Wirkung, und großflächige Abschaltungen des Netzes würden wiederum auch alle Vorteile des Internets mit abschalten. Birma hat dies vor kurzem versucht, aber nur kurzzeitig (Nepal versuchte es 2005, aber auch nicht lange). Die Fokussierung auf das Implementierungsproblem findet sich ausgeprägt in der Ordnungsethik: In der ethischen Tradition sind die Probleme der Normimplementierung und Normbegründung im Allgemeinen zusammengedacht worden, aber in der Regel ohne dass dies expliziert wurde.8 Die Ursache hierfür liegt darin, dass die Implementierung von Normen in vergangenen Jahrhunderten nicht als besonderes Problem angesehen wurde, und zwar aus zwei Gründen: Zum einen war der moderne Wertepluralismus noch nicht hinreichend ausgebildet, und zum anderen waren die sozialen Beziehungen noch nicht so anonym wie in der Moderne. Insbesondere konnten allgemein akzeptierte Normen wesentlich leichter mit Hilfe von Face-to-Face-Sanktionen durchgesetzt werden. Diese Situation hat sich seit Beginn der Moderne drastisch verändert. Moderne Gesellschaften haben sich in soziale Subsysteme ausdifferenziert.9 Die Akteure müssen in diesen Subsystemen unter völlig unterschiedlichen Mechanismen (‚Codes‘) handeln, was im Hinblick auf die Ethik oft zum Beklagen von gesellschaftlichem ‚Werteverfall‘ führt. In dieser Situation erhält die Frage der Normimplementierung eine völlig neue Dringlichkeit für die Ethik. Die Konzeption einer Ordnungsethik, die auf „Vorteile und Anreize“ (Homann 2002) als zentrale Mechanismen setzt, stellt die Implementierungsfrage daher an den konzeptionellen Anfang. Eine solche Konzeption stellt in Rechnung, dass die Akteure ihren – keineswegs nur mate___________ 6

Die Ergebnisse finden sich in Lütge (2002). Nur ein Beispiel liefern die P2P-Anwendungen, durch die mp3- und andere Dateien weiterhin von Nutzer zu Nutzer verbreitet werden, ohne dass bisher eine effektive Kontrollmöglichkeit geschaffen werden konnte – und dies hat technische Gründe. Das Internet folgt dem Markt als neues „Entmachtungsinstrument“; Böhm (1961), S. 22. 8 Vgl. Homann (2002), Kap. 8. 9 Vgl. vor allem Luhmann (1997). 7

102

Christoph Lütge

riellen – Vorteil verfolgen, und sie zielt darauf ab, geeignete Anreize zu setzen, damit die Verfolgung des Eigeninteresses nicht nur im einseitigen, sondern im wechselseitigen Interesse liegt. Die darauf aufbauenden Hauptelemente der Ordnungsethik sind folgende: 1. Die Ordnungsethik ist auf ein bestimmtes Problem zugeschnitten. Dieses Problem ist das Problem der sozialen Ordnung:10 Wie kann eine soziale Ordnung unter den Bedingungen des modernen Wertepluralismus stabil bleiben? 2. Dieses Problem kann nicht durch eine Individualethik gelöst werden, die – idealtypisch – annimmt, dass moralisch problematische Zustände durch unmoralische Motive oder Präferenzen der Akteure verursacht werden. Diese Position fordert daher konsequenterweise eine Änderung der Motive oder einen Bewusstseinswandel. (Moralische) Appelle werden somit zum zentralen Steuerungsmechanismus in modernen Gesellschaften, möglicherweise gestützt durch Erziehung. 3. In den in modernen Gesellschaften vorherrschenden Dilemmasituationen bleibt jedoch eine Ethik fruchtlos, die sich vorrangig an das Individuum richtet. Eine Ordnungsethik geht demgegenüber davon aus, dass moralisch problematische Zustände nicht durch unmoralische Präferenzen, sondern durch spezifische Interaktionsstrukturen verursacht werden. Daher sollten moralische Forderungen darauf gerichtet sein, die für alle Akteure geltenden Rahmenbedingungen (die Spielregeln) zu verändern. Der zentrale Steuerungsmechanismus für moderne Gesellschaften ist in dieser Konzeption die Gestaltung der Anreizstrukturen. Moralische Normen dürfen nicht in Gegensatz zu bestehenden Anreizen geraten. 4. Soziale Steuerungsmechanismen sind nicht auf anthropologische Gegebenheiten, sondern auf Situationen zu gründen: Eine moderne Gesellschaft, die die Vorteile von Spezialisierung und Wettbewerb einfahren will, muss auf Regeln als Steuerungsmechanismus umschalten. Diese Vorteile können mit vormodernen Steuerungsmechanismen nicht angeeignet werden. Welche Regeln und welche Steuerungsmechanismen für eine spezifische Interaktion I erforderlich sind, hängt allein von den situationalen Bedingungen von I ab. Beispielsweise mag es Situationen geben, in denen informelle Regeln (noch) greifen und in denen die Interaktionspartner auf annähernd gleiche oder wenigstens ähnliche normative Hintergründe zählen können. In solchen Situationen können moralische Normen (noch) ihre Steuerungswirkung entfalten. Solche Fälle sind jedoch in modernen Gesellschaften, insbesondere unter Be-

___________ 10

Vgl. klassisch etwa Hayek (1980–81), Bd. 1, Kap. 2.

Schattenseiten des Internets? Zensur und Kontrolle

103

dingungen der Globalisierung, nicht allzu häufig.11 Die Zahl der Interaktionen zwischen Akteuren mit stark unterschiedlichen kulturellen, sozialen und normativen Hintergründen nimmt ständig zu. Diese Akteure können sich nicht mehr auf (gemeinsame) moralische Ressourcen, sondern nur noch auf gemeinsame, wechselseitig akzeptierte Regeln verlassen – oder sie können sich möglicherweise neue, auf ihre Situation zugeschnittene Regeln selbst geben. Eine Ordnungsethik kann die Akteure – in deren eigenem Interesse – dazu auffordern, sich a) an die Regeln zu halten und sich b) für die Weiterentwicklung der Regeln in wechselseitig vorteilhaften Bahnen einzusetzen. Solche Weiterentwicklungen können nur wirksam werden, wenn die Akteure ihnen zustimmen; sie sind – im Hinblick auf Dilemmasituationen12 – systematisch nicht gegen die Wünsche der Akteure durchsetzbar. Allerdings gibt es die Möglichkeit, angesichts systematisch offener (oder unvollständiger) Verträge auch informellen Steuerungsmechanismen einen größeren Rang zuzuerkennen. Aber auch informelle Regelungen können nur mit der Logik von Vorteilen und Anreizen stabil bleiben, nicht gegen sie. Ich komme darauf in Abschnitt VI. zurück. Zunächst wende ich mich wieder dem Internet zu, und zwar seinen technischen Kontrollmöglichkeiten.

IV. Kontrollmöglichkeiten im Internet Warum wollen Akteure Kontrolle ausüben? Der Begriff der Kontrolle kann viele unterschiedliche Aktivitäten und Maßnahmen umfassen. Es lassen sich (mindestens) die folgenden Kontrollmotive nennen: a)

Vereitelung von klassischen Straftaten wie Diebstahl, Raub u.a.,

b) Vereitelung von terroristischen Aktivitäten (um diese ersten beiden Punkte geht es im Wesentlichen bei der aktuellen Diskussion um OnlineDurchsuchungen in Deutschland), c)

Jugendschutz,

d) Meinungskontrolle; sie findet nach Angaben der „Reporter ohne Grenzen“13 im Internet u.a. in folgenden Staaten statt: Birma, China, Libyen, Malediven, Iran, Saudi-Arabien, Syrien, Usbekistan, Vietnam, Weißrussland, e)

Zensur vor allem religiöser und pornografischer Inhalte; sie findet nach Angaben der „Reporter ohne Grenzen“ zusätzlich in folgenden Staaten (die ___________ 11

Für eine Typologie solcher Situationen unter hochspezifischen Bedingungen vgl. Ostrom (1990/1999). 12 Vgl. Homann/Lütge (2005), Kap. 1. 13 www.rsf.org.

104

Christoph Lütge

nicht explizit auf Meinungskontrolle abzielen) statt: Singapur, Südkorea, Thailand, Vereinigte Arabische Emirate. Es ist klar, dass sich bei der tatsächlichen Durchführung von Kontrollen nicht immer klar zwischen Motiven trennen lässt. In Länden ohne oder mit unzureichender demokratischer Kontrolle werden nicht selten Punkte von a)–c) zur Deckung einer auf d) abzielenden Maßnahme vorgebracht. Außerdem liegen hier Definitionsprobleme vor: Was für den einen ein „Terrorist“ ist, kann für jemand anderen ein „Freiheitskämpfer“ sein. Wie kann kontrolliert werden? Im Folgenden geht es mir um die technische Frage, auf welchen Ebenen sich Kontrollen im Internet grundsätzlich ansetzen lassen:14 Das Internet ist im Wesentlichen aufgebaut aus Backbones, Internet-ServiceProvidern (ISPs) und einzelnen PCs. Die Backbones sind lange Glasfaserstränge mit hoher Bandbreite. Sie werden von Rechenzentren wie dem Münchner LRZ betreut, und sie sind untereinander über Links verbunden, die selbst aus einer Anzahl Rechner bestehen. ISPs stellen die Verbindung von diesen Backbones zu den individuellen Nutzern her. Deren einzelne PCs werden heute meist über DSL-Router, ISDN-Anlagen oder aber Modems mit ISPs verbunden. Das lässt sich wie folgt veranschaulichen:

Abbildung 1: Aufbau des Internet

Welche grundsätzlichen Kontrollmöglichkeiten bestehen nun – bzw. sind denkbar – an den einzelnen Punkten? ___________ 14

Ich danke Christian Huber für Anregungen zu diesem Abschnitt.

Schattenseiten des Internets? Zensur und Kontrolle

105

1. Kontrollmöglichkeiten am einzelnen PC a)

Die Kontrolle am eigenen Rechner wird zunächst meist von den Nutzern selbst ausgeübt, bzw. von manchen Nutzern im Hinblick auf andere MitNutzer. Manche Programme werden dafür eingesetzt, Daten gegenüber anderen Nutzern des gleichen PCs privat zu halten. Im Grunde geht es hier nur um eine Trennung von Daten, die weitgehend unproblematisch ist. Andere Programme sollen für Kinder unerwünschte Inhalte (soweit wie möglich) aus dem Netz herausfiltern. Solche Programme haben ihre Grenzen; sie lassen sich von den heute technisch findigen Kindern relativ leicht umgehen.

b) Kontrolle am eigenen PC wird auch etwa beim Digital Rights Management (DRM) ausgeübt. Dieser Ansatz wurde bis vor kurzem von allen großen Musikunternehmen unterstützt und sollte die Verbreitung von kopierten mp3-Dateien unterbinden. Mit DRM kann die Nutzung von Dateien individuell abgerechnet werden; so sind – nach einem der unterschiedlichen Modelle – Musikdateien nur so lange nutzbar, wie eine Musik-Flatrate gezahlt wird. Das DRM wurde und wird von sehr vielen Nutzern allerdings als zu restriktiv und zu kompliziert abgelehnt. Es sind nicht nur die Einschränkungen der Nutzungsmöglichkeiten, sondern auch die nach wie vor nicht ausgeräumten technischen Schwierigkeiten beim Abruf und der Nutzung von DRM-Dateien, die vielen Nutzern dieses Konzept verleiden. Außerdem erfordert DRM bei konsequenter Implementierung ständige Zugriffe des Softwareproduzenten auf die einzelnen Rechner der Nutzer, um Dateien auch wieder löschen zu können. Dies wird von vielen Verbraucherschutzverbänden aus Datenschutzgründen abgelehnt. DRM betrifft auch den Kopierschutz von DVDs. Diese Diskussion soll hier nicht ausführlich geführt werden15; ich weise nur auf den Digital Millenium Copyright Act (DMCA) hin: Dieser wurde 1998 in den USA beschlossen und führte zu einer ganzen Reihe von Einschränkungen der Nutzerrechte und Nutzungsmöglichkeiten bei DVDs, u.a. zu dem umstrittenen System der Regionscodes. Wie andere DRM-Programme hat auch der DVD-Kopierschutz Fehler und Sicherheitslücken. Einen absoluten Kopierschutz kann er nicht bieten, das ist zum gegenwärtigen Zeitpunkt jedenfalls nicht machbar. Alle Kopierschutzeinrichtungen sind bisher geknackt worden. Dies ist m.E. jedoch nicht der wichtigste Punkt, sondern: Es werden eine Reihe von Fehlanreizen (vor allem Abschreckung vom Kauf)16 gesetzt, die sich gerade auf die betroffenen Unternehmen nachteilig auswirken: Deswegen wendet sich die ___________ 15

Vgl. etwa Wilbur (2000). Aber auch auf die Open-Source-Bewegung gibt es Auswirkungen, so werden z.T. Entwicklungen aus Angst vor rechtlichen Folgen nicht dokumentiert. 16

106

Christoph Lütge

Musikindustrie in Teilen (EMI 2007 sowie Universal mindestens versuchsweise bis 2008) bereits vom DRM ab. 2. Kontrollmöglichkeiten beim Internet-Service-Provider (ISP) Auf Ebene der ISPs besteht das wohl größte Potenzial, Kontrolle auszuüben. Schließlich muss sich jeder Nutzer über einen ISP mit dem Netz verbinden. Dabei werden z.T. Filter verwendet, die meist als unproblematisch angesehen werden, z.B. Spamfilter für Emails (aber auch diese sind nicht immer völlig zielsicher). Die Anbieter selbst werden, wenn funktionierender Wettbewerb zwischen ihnen herrscht, keine Kontrolle ausüben können. Eine andere Frage ist jedoch, ob staatliche, für alle ISPs geltenden Auflagen vorliegen, die als Filter wirken. Dies wird etwa in China angewandt, auf unterschiedlichen Wegen: Zum einen wird nach bestimmten Begriffen gesucht, und dann werden entsprechende Seiten geblockt. Zweitens können bestimmte www-Adressen von vornherein nicht erreichbar sein – dabei ist entweder die gesamte Site nicht erreichbar, oder aber nur die Eingangsseite ist geblockt. Ich komme hierauf in Abschnitt 5. zurück.

3. Kontrollmöglichkeiten am Backbone Grundsätzlich lassen sich auf Rechnern sowohl innerhalb eines Backbones als auch in Links zwischen Backbones Filter einbauen, die bestimmte Anfragen blockieren. Allerdings sind vor allem die Links entscheidend, denn hier muss nicht immer eine ausreichende Anzahl von alternativen Wegen gegeben sein, während innerhalb eines Backbones immer genügend Umgehungsmöglichkeiten bestehen. Um auf Ebene der Backbone-Links Filter einzubauen, müssten allerdings sämtliche Rechner im Link und sämtliche Links zu NachbarBackbones kontrolliert werden – und dem möglichen Kontrolleur müssen überhaupt erst einmal alle Link-Rechner bekannt sein. Die Kontrolle auf BackboneEbene spielt aufgrund der genannten Schwierigkeiten in der Praxis bisher keine große Rolle.

4. Weitere Kontrollmöglichkeiten Neben den bisher aufgezählten Kontrollmöglichkeiten, die vor allem Anfragen und Suchergebnisse blocken oder einschränken könnten, gibt es noch eine grundsätzlich andere Vorgehensweise auf Software-Ebene, nämlich sog. Distributed Denials Of Service-Angriffe. Einzelne oder Organisationen können

Schattenseiten des Internets? Zensur und Kontrolle

107

versuchen, eine Site oder einen Rechner durch eine Flut von Anfragen zur Selbstabschaltung zu zwingen und damit lahmzulegen. „Distributed“ sind diese Angriffe, wenn sie nicht nur über einen, sondern über viele Rechner geschehen, die meist von einem Virus oder Wurm infiziert wurden. Neben Eingriffen auf Software-Ebene ließen sich theoretisch noch physikalische Hardware-Eingriffe denken. Das Internet ist zwar grundsätzlich ein dezentrales Netz, allerdings gibt es Stellen, an denen diese Dezentralität aus geographischen, z.T. auch aus ökonomischen Gründen weniger stark ausgeprägt ist als anderswo. Beispielsweise laufen Backbones in Rechenzentren zusammen, die somit Ziel eines Angriffs sein könnten. Beim Anschlag auf das World Trade Center 2001 wurden etwa auch die Datenstränge unter den Türmen beschädigt. Da sich hier ein wichtiger Knotenpunkt für die Verbindung nach Europa befand, gab es auch – zwar geringe, aber dennoch – Auswirkungen auf die Leistung des Netzes in Deutschland, wo Anfragen an Sites in den USA deutlich langsamer, z.T. sogar gar nicht beantwortet wurden. Dieses Nadelöhr ist allerdings mittlerweile verändert worden. Insgesamt spielen die physikalischen Eingriffsmöglichkeiten eine nur geringe Rolle. Nach Angaben der Organisation „Reporter ohne Grenzen“ wird in folgenden Ländern das Internet kontrolliert bzw. zu kontrollieren versucht:

Abbildung 2: Hindernisse für den freien Fluss von Online-Informationen (August 2006)

Da ich hier natürlich nur exemplarisch vorgehen kann, wende ich mich jetzt einem Beispielfall zu, nämlich den Versuchen der Internet-Kontrolle in China.

V. Zensur und Kontrolle des Internets am Beispiel China Ab ca. 1993/94 hatte die chinesische Regierung erkannt, dass man die eigene Bevölkerung nicht dauerhaft vom Internet fernhalten kann. Mit Projekten wie

108

Christoph Lütge

„Goldene Brücke“ und „Goldene Karte“ sollten die Vorteile des Netzes vor allem in wirtschaftlicher, aber auch in wissenschaftlicher Hinsicht genutzt werden.17 Gleichzeitig bereitete das chinesische Sicherheitsministerium das Projekt „Goldener Schild“ vor, das ab 2000 implementiert wurde. Dieses Projekt sollte eine tiefgreifende Kontrolle des Internets ermöglichen: In der Folge wurden 1996 in China die ersten „Bestimmungen zur Kontrolle des Internets“ erlassen, nach denen Institutionen staatliche Zulassung für den Internet-Zugang benötigen. 1998 folgte ein entsprechender Erlass für private Anbieter, und im gleichen Jahr wurde das Ministerium für Informationsindustrie eingerichtet. 2002 erschien der „Public Pledge on Self-Discipline for China Internet Industry“ (Wong 2002), den alle ISPs unterzeichnen mussten und der regelte, welche Internet-Gehalte und Websites als für die chinesische Bevölkerung ungeeignet angesehen wurden. Für Internet-Cafés gibt es „Internet Service Site Business Management Regulations“; ihre Betreiber sind verpflichtet, Verstöße wie das Herunterladen oder Verbreiten von „staatsfeindlichem oder die Gesellschaft zersetzendem Material“ umgehend zu melden. Nach dem Brand eines Internetlokals, bei dem 2002 24 Menschen ums Leben kamen (Heise 2002), wurden neue Sicherheitsbestimmungen eingeführt, die von Kritikern als weiteres Kontrollsystem bezeichnet werden. Das Internet-Kontrollsystem Chinas insgesamt wird auch als die „Great Firewall of China“ bezeichnet. Die Bezeichnung ist allerdings nicht adäquat, da dieses System nicht wie eine echte Firewall funktioniert. Statt dessen findet die Kontrolle des Internets in China in eher unsystematischer Weise statt – wobei hier nur einige der verwendeten Methoden genannt seien:18 1.

Auf Ebene der ISPs werden bestimmte IP-Adressen blockiert, d.h. bestimmte Adressen werden von einem Filter erkannt und sind nicht mehr erreichbar.

2.

Bestimmte Domain-Namen werden nicht mehr korrekt in IP-Adressen umgewandelt, d.h. der Webserver mag zwar erreichbar sein, aber die Domain-Adresse wird nicht mehr richtig interpretiert. Diese Filterweise ist umfassender als die erste und filtert deutlich mehr heraus als eigentlich intendiert.

3.

URLs werden nach bestimmten Schlüsselwörtern durchsucht. Enthält die URL typische Wörter wie Falun Gong, Tibet, Dalai Lama, Taiwan, Tianmen Square 1989 (auf chinesisch), wird die Verbindung oft verweigert.

___________ 17 18

Vgl. Wikipedia (2007). Vgl. ausführlicher Zittrain/Edelman (2003) sowie Heise (2004c) und (2004d).

Schattenseiten des Internets? Zensur und Kontrolle

109

4.

Mit Hilfe von Paketfiltermechanismen werden ganze TCP-Pakete auf Schlüsselwörter überprüft, etwa solche Pakete, die von Suchmaschinen stammen.

5.

Viele Foren und Portale werden von Moderatoren (teilweise „big mamas“ genannt) überwacht, die kritische Kommentare – vor allem auf zentralen Portalen wie Sohu.com – schnell löschen.

6.

Insgesamt wird behauptet, dass allein die Ankündigungen und Hinweise auf staatliche Zensurmaßnahmen (ohne Berücksichtigung ihrer tatsächlichen Wirksamkeit) zu einem „chilling effect“ führen, wonach sich die Nutzer aus Angst selbst zensieren und bestimmte Seiten oder Suchworte gar nicht erst aufrufen.

Die Regierungsmaßnahmen haben erreicht, dass bestimmte Internetsites in China – zumindest nach erstem Anschein – nicht mehr zugänglich sind, so etwa die Wikipedia seit 2005 (wenn auch mit Unterbrechungen).19 Zentrale westliche Nachrichtendienste wie etwa CNN oder auch Spiegel und FAZ werden allerdings schon seit einigen Jahren nicht mehr geblockt. Und eine neuere Studie stellt erstaunlicherweise fest:20 Die „Great Firewall“ scheint gar keine echte Firewall zu sein, die Unerwünschtes zu 100 % blockiert – und das, obwohl die chinesischen Internet-Kontrollbehörden angeblich ca. 30.000 Mitarbeiter zählen.21 (Vermutet werden hier auch Kompetenzstreitigkeiten zwischen Behörden; gerade aufgrund der dezentralen Struktur ist man sich oft nicht einig über Zuständigkeiten.22) Wesentlicher Grund sind jedoch die zahlreichen Möglichkeiten für Umgehungsstrategien: 1.

Viele Inhalte sind gespiegelt auf sog. Mirror-Sites, d.h. unter anderen Adressen, auffindbar – gerade etwa die Wikipedia. Auch diese Mirror-Sites können natürlich geblockt werden, allerdings dauert dies meistens eine Weile. Die Wikipedia selbst war gelegentlich frei, ihre WiederAbschaltung dauerte.

2.

Nutzer können zunächst Proxy-Server aufrufen, die selbst nicht blockiert sind und in deren Rahmen dann andere, sonst blockierte Seiten aufgerufen werden können. Einige Organisationen halten spezielle Proxy-Server außerhalb Chinas bereit, um Chinesen den Zugriff auf gesperrte Seiten zu ermöglichen (es gibt etwa spezielle Proxies für Falun-Gong-Inhalte). Grundsätzlich lassen sich zwar Proxy-Server auch sperren, allerdings entstehen dann meist schnell neue.

___________ 19

Vgl. die Testseite des Harvard-Projekts von Edelman/Zittrain (2003). Vgl. Science Blog (2006). 21 Vgl. Watts (2005). 22 Vgl. Wikipedia (2007b). 20

110

Christoph Lütge

3.

Um der Kontrolle von ganzen TCP-Paketen zu entgehen, gibt es mehrere Möglichkeiten, entweder den Einsatz einer Verschlüsselung (wie https) oder die Verwendung von VPNs (Virtual Private Networks), die eine verschlüsselte Datenübertragung über das unverschlüsselte Internet erlauben. Zwar ließen sich auch ganze Protokolle wie https sperren, diese Maßnahme wäre aber kontraproduktiv und würde zu viel abschneiden.

4.

Es gibt spezielle Netzwerk-Software, die zur Umgehung von Zensurmaßnahmen eingesetzt werden kann, wie etwa Psiphon und Tor sowie allgemeine Anonymisier-Software. Zwar ließen sich die Zugangsportale dieser Programme sperren, bisher ist das in China aber nicht der Fall.

5.

In Verbindung mit Verschlüsselungs-Software ist Meinungsaustausch über nicht in China lokalisierte Blogs und Foren möglich.

6.

Gerade regimekritische, zensierte Dokumente zirkulieren oft via (z.T. verschlüsselte) Emails (vgl. Denken 2006 und Kuhn/Wu 2007). Es ist vom Aufwand her unmöglich, hier eine effektive Zensur zu betreiben.

7.

Falls keine der anderen Maßnahmen erfolgreich wäre, gäbe es noch die Möglichkeit, sich über eine ausländische Telefonleitung ins Internet einzuwählen und damit alle Filtermaßnahmen zu umgehen. Das wäre vergleichsweise teuer und ist im Moment auch nicht erforderlich. Chinesische Behörden versuchten, mit einem neuen IP-System (ipv9) gegen diese Möglichkeit vorzugehen, dies hatte jedoch keinen Erfolg.23

VI. Auswirkungen auf Unternehmen: Öffentlichkeit als Sanktionsinstrument Bisher habe ich hauptsächlich auf der staatlichen – und damit eng verstanden politischen – Ebene diskutiert. Kontrolle, Zensur oder Nicht-Zensur können sich jedoch auch auf andere Akteure beziehen, die sich der öffentlichen Kritik stellen müssen und diese gerade nicht unterdrücken können. Ich meine die international tätigen Unternehmen, und zwar gerade auch die chinesischen: Mit der Öffentlichkeit als Sanktionsinstrument müssen sie sich mindestens mittelfristig, z.T. aber auch schon jetzt beschäftigen – wie der kürzliche Skandal um belastetes Spielzeug aus China zeigt. Und dies ist unabhängig von politischstaatlichen Wirkungen. Die Unzufriedenheit von Kunden lässt sich nicht zensieren.

___________ 23

Vgl. Heise (2004a) und (2004b).

Schattenseiten des Internets? Zensur und Kontrolle

111

Diese Bemerkungen lassen sich in einen allgemeineren Rahmen stellen; dazu muss ich jedoch etwas ausholen und knüpfe an meine Ausführungen zur Ordnungsethik an:24 Die Tätigkeit von Unternehmen fällt in den Bereich der Unternehmensethik. Hier geht es, anders als in der Ordnungsethik auf Makroebene, um normative Empfehlungen an Unternehmen für Handlungen unter gegebenen Bedingungen. Unternehmen sind zweifellos die dominanten Akteure in der Marktwirtschaft – aber wie lassen sich bei ihnen ethische Handlungsweisen verorten? Oft wird darauf verwiesen, dass in Unternehmen nicht nur strikt eigeninteressierte Homines oeconomici am Werk sind, sondern Menschen, die auch moralische, altruistische Präferenzen haben und diesen den Vorrang einräumen sollen. Selbst wenn man Menschen in Unternehmen moralische Handlungsmotive im umgangssprachlichen Sinn zuschreiben kann, bleibt jedoch die entscheidende Frage: Wie lange können die Menschen ihren (etwa aus der Erziehung mitgebrachten) moralischen Motiven unter Wettbewerbsbedingungen Folge leisten? Diese Frage wird weder gestellt noch beantwortet. Auch die Unternehmensethik kann auf einer ökonomischen Grundlage aufgebaut werden, nämlich auf der Theorie unvollständiger Verträge. Diese Theorie geht davon aus, dass menschliche Interaktionen generell durch Verträge, formelle (kodifizierte Gesetze) und informelle (z. B. Versprechen), geregelt werden. Das Entscheidende ist jedoch: Viele dieser Verträge zur Regelung von Interaktionen sind unvollständig in dem Sinne, dass –

Leistungen und Gegenleistungen nicht exakt bestimmt sind,



die Erfüllung nicht objektiv bzw. extern feststellbar und daher nicht justiziabel ist und



allgemein die Durchsetzung vor Gericht zu kostspielig ist.

Einige typische unvollständige Verträge sind: Arbeitsverträge, Dienstleistungsverträge, langfristige Kooperationsverträge, Versicherungsverträge, strategische Allianzen von Unternehmen. Die Zahl solcher unvollständigen Verträge nimmt in der globalisierten Wirtschaft, in der wir keine einheitlichen Rahmenordnungen haben, beträchtlich zu. Daher wächst unter Bedingungen der Globalisierung auch die Bedeutung der Unternehmensethik.25 Die Unvollständigkeit der Verträge ist zweifellos mit schwerwiegenden Problemen behaftet: Sie führen zu Abhängigkeiten, die rationale Akteure dazu ___________ 24 25

Vgl. Homann/Lütge (2005), Kap. 2. Zur Ethik in der Globalisierung vgl. aktuell Homann/Koslowski/Lütge (2007).

112

Christoph Lütge

veranlassen, solche Interaktionen, obwohl sie wechselseitig vorteilhaft sein könnten, gar nicht vorzunehmen; sie erfordern die laufende Interpretation und Auslegung des Vertrages. Zugleich bringt diese Unvollständigkeit aber eine höhere Flexibilität und damit höhere Produktivität mit sich, wie sie angesichts der Globalisierung verstärkt gefordert wird. Genau hier wird die Unternehmensethik angesetzt: Eigenständiges „moralisches“ Verhalten von Unternehmen bzw. Akteuren ist dort sinnvoll zu fordern, wo die systematische Unvollständigkeit von Verträgen kompensiert werden muss. Moral – verstanden als Fairness, Integrität, Vertrauen etc. – hat die Aufgabe, die durch unvollständige Verträge verursachte Unsicherheit aufzufangen und die damit verbundenen Kosten von Interaktionen zu senken. Die Unvollständigkeit der Verträge ist daher keineswegs nur ein Defekt, den man abstellen sollte; die Unvollständigkeit ist – richtig gemanagt – zugleich ein Produktionsfaktor. Voraussetzung für die Realisierung dieser positiven Effekte unvollständiger Verträge ist allerdings, dass Unternehmen es verstehen, die Probleme der Unvollständigkeit durch Management der sog. „weichen“ Faktoren wie Moral und Kultur zu kompensieren. Denn in unvollständigen Verträge liegen Risiken: Wer einen unvollständigen Vertrag abschließt, geht ein Risiko ein. Ein rationaler Akteur dürfte somit, besonders dann, wenn er risikoscheu ist, unvollständige Verträge gar nicht abschließen: Er muss befürchten, ausgebeutet zu werden. Dabei können unvollständige Verträge im Interesse beider Seiten liegen. Was können rationale Akteure tun, um solche Verträge dennoch abschließen zu können? Der Ausweg, die Verträge vollständig zu machen, ist nur ein scheinbarer. Es wäre sehr teuer, alle Vertragslücken zu schließen und die Durchsetzung der Verträge für alle Eventualitäten zu sichern. Zum anderen ginge damit aber auch gerade der Vorteil unvollständiger Verträge verloren: Sie bieten ja die besonders in der Globalisierung notwendige Flexibilität. Es wäre somit nicht rational, alle Verträge vollständig zu machen. Zwar kann die Unvollständigkeit der Verträge in einem Klima des aggressiven Wettbewerbs, in einem Klima des Misstrauens und der Feindschaft, am Markt in der Tat zu den destruktiven Praktiken des ruinösen Wettbewerbs oder zu Mobbing führen. Wenn es den Unternehmen allerdings gelingt, eine von Fairness, Integrität und Gerechtigkeit geprägte Kultur des gegenseitigen Vertrauens aufzubauen und zu erhalten, dann wird gerade infolge der Unvollständigkeit solcher Verträge ihre Flexibilität ungemein erhöht. Gerade weil dann nicht zu viel reglementiert und festgeschrieben ist, kann schnell und situationsangemessen agiert werden. Nur Unternehmen, in denen alle Mitarbeiter auch ohne detaillierte vertragliche Grundlage an einem Strang ziehen, weil der Name für Fairness und Korrektheit auch in solchen Situationen steht, werden auf die Herausforderungen der Märkte schnell und unbürokratisch antworten können.

Schattenseiten des Internets? Zensur und Kontrolle

113

Nur Unternehmen, die nach innen und außen absolut für Fairness und Gerechtigkeit bekannt sind, werden nach innen das Wir-Gefühl und hohe Motivation und nach außen die Reputation gewinnen, die Kundenbeziehungen dauerhaft machen kann. Der bessere Ausweg aus der Problematik unvollständiger Verträge ist daher, Unternehmensethik einzusetzen. Vor allem das Konzept Reputation spielt hier eine Rolle: Ein Unternehmen baut Reputation auf, indem es sich auf bestimmte Maßnahmen und Verhaltensweisen verpflichtet, die seinen Partnern Fairness und Vertrauen signalisieren. Diese Reputation kann gerade heute in der Globalisierung zu seinem wichtigsten Kapital werden. Sie lässt sich aber auch besonders leicht wieder zerstören. Reputation soll bestimmte Durchsetzungsprobleme lösen, die in nicht vorhersehbaren und nicht vertraglich ausräumbaren Interaktionsunsicherheiten (vgl. Kreps 1984/1990) bestehen. Das Unternehmen bildet, über individuelle Selbstbindung, eine Identität aus und signalisiert diese den potenziellen Interaktionspartnern. Diese Identität wird man nicht leichtfertig aufs Spiel setzen, insbesondere auch dann nicht, wenn opportunistisches Verhalten gegenüber Integrität und Fairness im Einzelfall kurzfristige Vorteile bieten würde. Man kann die Reputation damit als Pfand ansehen, welches das Unternehmen der Umwelt zur Verfügung stellt: Die Umwelt kann dem Unternehmen potenziell bei Fehlverhalten Schaden zufügen, indem sie dessen Ruf schädigt oder zerstört. Schon diese Möglichkeit veranlasst zu integrem Verhalten. Das Unternehmen präsentiert sich als attraktiver Interaktionspartner und baut damit Kapital auf, von dem es eine Rendite erwartet. Reputation ist Kapital und bremst Opportunismus. Reputation ist daher ein Anreizmechanismus, auf den – auch und gerade in einem Land wie China – Unternehmen viel eher reagieren als staatliche Akteure. Und das führt insgesamt dazu, dass gerade multinationale Unternehmen in immer stärkerem Maße eine politische Rolle übernehmen können – und müssen. Hierzu ein paar abschließende Bemerkungen:

VII. Abschließende Bemerkungen Oft wird die mangelnde politische Steuerbarkeit der Globalisierungsprozesse beklagt. Es regiere die ungezügelte Gewinnmaximierung der Multis, das Sozialdumping oder der wildgewordene globale Kapitalismus, der auch ohne Demokratie auskäme, so die These. Demokratische Errungenschaften des Westens seien für die wirtschaftlich dynamischen Volkswirtschaften etwa Chinas oder anderer Staaten nur von untergeordneter Bedeutung. Die hier genannten Beispiele für Zensur und Kontrolle im Internet werden dafür gern als Belege herangezogen.

114

Christoph Lütge

Demgegenüber weise ich darauf hin, dass auch die Tätigkeit der multinationalen Unternehmen eine genuin politische ist, wenn man unter Politik nicht nur traditionelle Mechanismen wie Wahlen oder Parlamente fasst. Die Grundidee der Demokratie – etwa bei den Klassikern der Theorie des Gesellschaftsvertrags – ist (ebenfalls) die der Kontrolle, und zwar verstanden als wechselseitige, wechselseitig vor Ausbeutung schützende Kontrolle. Und diese kann auch von nichtstaatlicher Seite ausgeübt werden, von NGOs und anderen Organisationen, aber auch von multinationalen Unternehmen.26 Im Zeitalter der Globalisierung dürfte diese Art wechselseitiger Kontrolle wesentlich effektiver funktionieren als die hier beschriebenen Versuche zur staatlichen Kontrolle des globalen Informationsflusses: Das Internet ist letztlich nicht zu stoppen.

Literatur Böhm, Franz (1961): Demokratie und ökonomische Macht, in: Institut für ausländisches und internationales Wirtschaftsrecht (Hrsg.): Kartelle und Monopole im modernen Recht: Beiträge zum übernationalen und nationalen europäischen und amerikanischen Recht, 2 Bde., Karlsruhe: Müller, Bd. 1, 3–24. Brown, Dan (1997): Cyberdiktatur: Das Ende der Demokratie im Informationszeitalter, Berlin: Ullstein. Buchstein, Hubertus (1996): Bittere Bytes: Cyberbürger und Demokratietheorie, in: Deutsche Zeitschrift für Philosophie 44, S. 583–607. Bühl, Achim (1997): Die virtuelle Gesellschaft: Ökonomie, Politik und Kultur im Zeichen des Cyberspace, Opladen: Westdt. Verlag. China Internet Network Information Center (2007): The Internet Timeline of China, http://www.cnnic.net.cn/en/index/0O/06/index.htm. Denken, Inker (2006): Medien in China – auf dem Weg in die Freiheit? Politischer Kurzbericht der Konrad Adenauer Stiftung China, Peking, April 2006. Edelman, Benjamin / Zittrain, Jonathan (2003): Real-Time Testing of Internet Filtering in China, http://cyber.law.harvard.edu/filtering/china/test. Hayek, Friedrich August von (1980–81): Recht, Gesetzgebung und Freiheit, 3 Bde., Landsberg am Lech: Verlag Moderne Industrie. Heise (2002): 24 Tote durch Feuer in Internet-Café in Peking, http://www.heise.de/news ticker/meldung/28295. – (2004a): China bastelt an eigener IP-Technik, http://www.heise.de/newsticker/mel dung/48859. – (2004b): Das chinesische ipv9: aufgeblähtes ENUM als Papiertiger, http://www. heise.de/newsticker/meldung/48900.

___________ 26 Ich verweise auf Arbeiten von Wieland (2005) sowie auf die Beiträge in Homann/ Koslowski/Lütge (2007).

Schattenseiten des Internets? Zensur und Kontrolle

115

– (2004c): China blockiert ausländische Websites, http://www.heise.de/newsticker/mel dung/49381. – (2004d): Das überwachte Netz: Reporter ohne Grenzen kritisiert Internet-Kontrolle, http://www.heise.de/newsticker/meldung/48503. Homann, Karl (2002): Vorteile und Anreize: zur Grundlegung einer Ethik der Zukunft, hrsg. von Christoph Lütge, Tübingen: Mohr Siebeck. Homann, Karl / Koslowski, Peter / Lütge, Christoph (Hrsg.) (2007): Globalisation and Business Ethics, Aldershot/London: Ashgate. Homann, Karl / Lütge, Christoph (2005): Einführung in die Wirtschaftsethik, 2. Aufl., Münster: LIT. Hu, Jim (2004): Yahoo yields to Chinese Web laws. http://news.com.com/2100-1023949643.html. Kreps, David M. (1984/1990): Corporate Culture and Economic Theory, in: James E. Alt und Kenneth A. Shepsle (Eds.): Perspectives on Positive Political Economy, Cambridge, S. 90–143. Kuhn, Berthold / Wu, Wei (2007): Civil Society and the Internet in the P.R. China, Schriftenreihe der Konrad-Adenauer-Stiftung, Band 66. Luhmann, Niklas (1997): Die Gesellschaft der Gesellschaft, 2 Bde., Frankfurt/M.: Suhrkamp. Lütge, Christoph (2002): Wie verändert das Internet die Gesellschaft? Philosophische Überlegungen, in: Venanz Schubert (Hrsg.), Die Geisteswissenschaften in der Informationsgesellschaft, St. Ottilien: EOS 2002, S. 147–164. – (2007): Was hält eine Gesellschaft zusammen? Ethik im Zeitalter der Globalisierung, Tübingen: Mohr Siebeck. Ostrom, Elinor (1990/1999): Die Verfassung der Allmende: jenseits von Staat und Markt, Tübingen: Mohr Siebeck. Schopenhauer, Arthur (1988): Werke, hrsg. v. Ludger Lütkehaus, 5 Bd., Zürich: Haffmans. Science Blog (2006): China’s ‚Eye on the Internet‘ a Fraud, http://www.scienceblog. com/cms/chinas-eye-internet-fraud-14190.html. Sunstein, Cass (2001): Republic.com, Princeton: Princeton University Press. Watts, Jonathan (2005): China’s secret internet police target critics with web of propaganda, in: The Guardian International, 14.6.2005, www.guardian.co.uk/international/ story/0,,1505916,00.html. Westphal, Nadine / Lütge, Christoph (2007): ICT Tools and their Ethical Potential, erscheint in: ICT, Transparency and Social Responsibility, Charlottesville: Philosophy Documentation Center. Wieland, Josef (2005): Normativität und Governance, Marburg: Metropolis. Wikipedia (2007a): Internet in the People’s Republic of China, http://en.wikipedia.org/ wiki/Internet_in_the_People%27s_Republic_of_China. – (2007b): Internet censorship in the People’s Republic of China, http://en.wikipedia. org/wiki/Internet_censorship_in_the_People%27s_Republic_of_China.

116

Christoph Lütge

Wilbur, Marcia (2000): The Digital Millennium Copyright Act, San Jose: Writers Club Press. Wong, Bobson (2002): Public Pledge on Self-Discipline for China Internet Industry, http://www.bobsonwong.com/research/china/selfdiscipline. Zittrain, Jonathan / Edelman, Benjamin (2003): Empirical Analysis of Internet Filtering in China, http://cyber.law.harvard.edu/filtering/china.

Kontrolle, Zensur und Ethik unter den Bedingungen von Balkanisierung und Nationalisierung – Korreferat zu Christoph Lütge – Von Karsten Giese

I. Demokratie, Kontrolle, Zensur Zynisch, dystopisch könnte man diesen Dreiklang als verkürzte Geschichte des Internet selbst begreifen. Vielleicht sollte man sich ab und zu vergegenwärtigen, dass dieses Medium als dezentrales Instrument zum Schutz militärisch relevanter Kommunikation und keineswegs als demokratischer Freiraum entstanden ist. Und auch das heutige kommerzielle Massenphänomen Internet kann kaum als demokratisch und noch weniger als frei – von Kontrolle – bezeichnet werden. Nun könnte man angesichts der bestehenden hierarchischen Netzwerkstukturen, deren Administrierung durch eine sehr kleine Zahl von Root Servern unter der Kontrolle eines US-Unternehmens (ICANN), der formalen Eingriffsrechte und physischen Eingriffsmöglichkeiten einer dominanten Nationalregierung (USA) und einiger weniger weiterer Staaten trefflich über die mangelnde demokratische Verfasstheit des weltumspannenden Internets philosophieren.1 Dennoch möchte ich dieser Versuchung widerstehen, da im Normalfall kommerzielle Intersessen und Akteure dominieren und die Selbstregulierung offensichtlich in der Praxis auch in Abwesenheit demokratischer Strukturen funktioniert. Wenn man im Zusammenhang mit dem Internet überhaupt von Demokratie sprechen will, so kann man dies im Hinblick auf das starke und schnelle Wachstum des Mediums am ehesten mit der Demokratisierung des Zugangs dazu rechtfertigen, also die Ausweitung der allgemeinen Nutzerbasis, des Zugangs zu Inhalten sowie deren Produktion und Verbreitung, die sich im Wesentlichen im Zuge der Kommerzialisierung des anfangs militärisch und dann akademisch dominierten Netzwerks vollzieht. Ansosnten fehlen nach wie vor demokratische Einflussmöglichkeiten von Kommunikationsteilnehmern auf ___________ 1 Vgl. mit unterschiedlichen Argumenten und Schlussfolgerungen u.a. Weinberg (2000), Klein (2004), Kern/Merkel (2005), BBC (2005).

118

Karsten Giese

Entwicklung und Admistration des Mediums. Was für andere weniger interaktive Medien allerdings auch gilt. Die Demokratisierung des Zugangs zum Internet beschränkt sich in den letzten Jahren keineswegs auf reiche westliche Industrieländer, sondern hat vielmehr globale Bedeutung gewonnen,2 obgleich der digitale Graben weder international noch innerhalb der jeweiligen Regionen oder national als überwunden gelten kann.3 Zugleich mit dem Wachstum des Internets in nicht primär englischsprachigen Regionen hat allerdings auch eine zunehmende Balkanisierung und Nationalisierung eingesetzt, weshalb man inzwischen das Internet nur noch teilweise als globales Medium bezeichnen kann, mit generalisierenden Einschätzungen äußerst vorsichtig sein sollte und nach der empirischen Situation in einzelnen Staaten und selbst dort noch nach Subregionen zu differenzieren ist.4 Parallel zur sprachlich und regional stark unterschiedlichen Internetrealität ist auch eine wachsende Ausdifferenzierung des Mediums selbst und des Nutzerverhaltens festzustellen, die globale Pauschalurteile eigentlich verbietet. Für den Rechercheur akademischer Informationen in Burkina Faso stellt sich die empirische Realität des Internet grundsätzlich anders dar als für den jugendlichen Online-Chatter in Singapur, den Börsenspekulanten in London, den Blogger in Frankreich, den über Skype mit der Familie verbundenen und der Landessprache nicht mächtigen deutschen Expat Shanghai oder den chinesischen Gamer in Beijing. Das letztgenannte Beispiel bringt mich einerseits aufgrund meiner eigenen wissenschaftlichen Arbeit auf sicheren Boden. Ich halte es jedoch andererseits auch für besonders instruktiv.

II. Internet in China – Anachronistischer Einzelfall oder Zukunftsmodell? Ziel der chinesischen Regierung war es, mit der Einführung des Internet Voraussetzungen für den Großen Sprung in die moderne Informationsgesellschaft zu schaffen – aber auch Strukturen, die eine Optimierung des Flusses von regierungsrelevanten Informationen, die Rezentralisierung von politischen Entscheidungen sowie eine effizientere Kontrolle der Durchsetzung derselben ermöglichen sollten.5 Der kommerzielle und öffentliche Teil des chinesischen Internet unterliegt mit seinem Charakter eines Massenmediums denselben Ge___________ 2

Vgl. Lütge in diesem Band. Vgl. u.v.a. Norris (2001), S. 3–38; Drori (2003), Beal (2003); Giese (2003); Chen/ Wellman (2004); James (2005); Chinn/Fairlie (2007). 4 Vgl. Für das Beispiel China: MacKinnon (2007). 5 Siehe u.a. Qiang (2007a), Giese (2001), Dai (2003), Hughes (2004), Harwitt/Clark (2006), Zheng (2008), S. 36–40. 3

Kontrolle, Zensur und Ethik

119

setzen und politischen Gesetzmäßigkeiten, die für alle Medien der Volksrepublik China gelten – Kontrolle und Zensur eingeschlossen.6 Hinreichend bekannt sind in diesem Zusammenhang die Blockade internationaler Webseiten und das aktive Herausfiltern inkriminierter und politisch unerwünschter Inhalte der Internetkommunikation. Ich wage jedoch die Einschätzung, dass insbesondere die Verweigerung des Zugangs zu ausländischen Websites als Zensurmaßnahme heute de facto weitgehend irrelevant ist. Dabei bezieht sich meine Argumentation keineswegs auf die Ausweichstrategien einer kleinen Minderheit computererfahrener Internetnutzer der Bildungselite mit guten Englischkenntnissen. Die Realität des Internet in China ist heute vielmehr die eines fast rein chinesischen Mediums, dessen Inhalte von kommerziellen chinesischen Anbietern für chinesische Nutzer in China produziert werden. Schon 2004 kamen ernstzunehmende Untersuchungen zu dem Ergebnis, dass die weiterhin urbane, überwiegend männliche, gut gebildete und überdurchschnittlich wohlhabende Internetpopulation der primär ostchinesischen Großstädte andere als innerchinesische Inhalte de facto nicht wahrnehmen.7 Sprachbarrieren, die durch das vereinfachte Schriftzeichensystem teilweise auch schon gegenüber Taiwan bestehen, sind nur ein untergeordneter Faktor. Entscheidend dürfte das seit der zweiten Hälfte der neunziger Jahre explosionsartig gewachsene Angebot in China produzierter und auf die gesellschaftliche Realität und individuellen Bedürfnisse chinesischer Konsumenten abgestimmter Inhalte sein.8 Hinzu kommt die psychologische Wirkung der weit verbreiteten Einschätzung, dass ausländische Medien aufgrund ihrer permanenten und einseitigen Chinakritik keine ernstzunehmende alternative Informationsquelle zu den staatlich kontrollierten und zensierten Medien darstellen. Diese genießen in China im Übrigen eine für unser Verständnis schwer nachvollziehbare positive Reputation im Hinblick auf Objektivität und Zuverlässigkeit.9 Die chinesische Regierungsstrategie, auf die technische, gestalterische und inhaltliche Attraktivität von systemkonformen Angeboten mehrheitlich chinesischer kommerzieller Akteure zu setzen, kann somit durchaus als erfolgreich angesehen werden.10 Wenn Lütge feststellt, die Bedingungen, unter denen Dissidenten in der ehemaligen DDR einst agierten, gehörten mit der Verbreitung der technischen Möglichkeiten des Internets endgültig der Vergangenheit an, so ist dem durchaus zuzustimmen – nicht jedoch seinen Schlussfolgerungen. Gerade das chinesische Beispiel erinnert vielmehr an die Situation, die mir aus dem Westteil Berlins in der zweiten ___________ 6

Scharping (2007). Guo (2003), CNNIC (2004/2005), Burkholder (2005), Jiang (2004), Giese (2005a). 8 Siehe CNNIC (2007a), S. 24–28, 44ff. 9 Guo (2005), S. 37, 47f, 66–72. 10 Vgl. hierzu: Barboza (2007). 7

120

Karsten Giese

Hälfte der 1980er Jahre noch allzu gut in Erinnerung ist: Gerade die Vielzahl unterschiedlichster politischer Demonstrationen führte letztlich dazu, dass deren individuelle Botschaften immer seltener erhört wurden. Welchen Einfluss, so könnte man auch fragen, hat in der heutigen reizüberfluteten Mediengesellschaft ein Auftritt in der Londoner Speaker’s Corner? Noch dazu, wenn es sich bei der Mehrzahl der Redner um Selbstdarsteller, Eigenbrödler oder Spinner handelt ... Chinesische Internetnutzer befinden sich – ein in diesem Band schon benutztes Bild aufgreifend – in mehr oder minder selbstgewählter Isolation im Innern einer Gränzfestung.11 Nennen wir es politisch und kommerziell induzierte Isolation oder Balkanisierung. China ist so aber auch ein Beispiel für die Beschränkung des globalen Informationsflusses ohne direkten zensierenden Eingriff eines Staates. In diesem Zusammenhang sollten wir uns die Frage stellen, ob wir nicht demselben Phänomen unterliegen. Wird nicht auch die Interneterfahrung der meisten deutschsprachigen Nutzer durch die scheinbar auf unsere Interessen und Bedürfnisse zugeschnittenen Inhalte auf den Portalen der Internet Service und Content Provider (und in anderen Medien) – wenn nicht beund eingeschränkt, so doch zumindest – vorstrukturiert und unsere Meinungsbildung damit tendenziell manipuliert? Selbst scheinbar globale Erfolgsgeschichten wie Wikipedia taugen bei näherem Hinsehen nicht wirklich als Beweis für globale Demokratisierung der Produktion, Verbreitung und Nutzung von Wissen, stützen vielmehr die These von der Balkanisierung und Nationalisierung. Voneinander unabhängig und isoliert existierende Sprachversionen fördern vielmehr die Balkanisierung und perpetuieren territorial gebundene und politisch beeinflusste Auswahl, Darstellung und Bewertung von „Fakten“.12 Wenn es also verschiedentlich heißt, Wikipedia sei in China sehr populär, dann bezieht sich diese Aussage heute auf die chinesische Sprachversion, weil die englische in China aufgrund ihrer Blockierung seitens chinesischer Institutionen nicht zugänglich ist. Ich spreche hier bewusst vage von Institutionen, weil im chinesischen Kontext keineswegs immer einfach feststellbar ist, wer für welche Zensurmaßnahme verantwortlich zeichnet. Überraschend selten sind es jedoch tatsächlich nachweisbar staatliche Akteure, wie aus meinen späteren Ausführungen noch deutlicher werden wird. An dieser Stelle sei nur soviel gesagt, dass auch die simplifizierende Charakterisierung des chinesischen Parteistaats als Feind des Internet, wie sie etwa die Reporter ohne Grenzen vornehmen,13 der komplexen Realität nicht gerecht wird. Bleiben wir an dieser Stelle zunächst beim Beispiel der chinesischen Version von Wiki___________ 11

Lütge in diesem Band S. 100. Vgl. u.a. Pfeil/Zaphiris/Ang (2006). 13 Reporters Without Borders (2005). 12

Kontrolle, Zensur und Ethik

121

pedia, so ist empirisch festzustellen, dass nicht nur innenpolitisch sensible Einträge angesichts eingeschränkter allgemeiner Informationsmöglichkeiten und einseitiger Bildung in China oft einen deutlichen Bias aufweisen.14 Direkte zensorische Eingriffe, die es durchaus gibt, sind hier weitgehend nicht nötig, weil das Internet in China eben nicht primär ein globales oder transnationales Medium ist, sondern unter den allgemeinen Rahmenbedingungen des Landes in einer Gränzfestung existiert. Auch die im Hinblick auf die Kernfrage ethischer Normen relevante Einschätzung, dass wir es im Internet mit einer zunehmenden Diversität der sozialen, kulturellen und normativen Hintergründe von Akteueren zu tun haben, muss angesichts der empirisch belegbaren noch relativ homogenen Nutzerpopulation15 unter dem Einfluss weitgehend gleichgeschalterer Medien innerhalb der VR China16 und der primär auf sich selbst bezogenen Kommunikation zwischen den Insassen der kleinen Gränzfeste für den chinesischen Teil des Internets mit einem großen Fragezeichen versehen werden. Ob man im Hinblick auf die schiere Größe der Gränzfestung an dieser einfach vorbeigehen und sie ohne Gefahr im Rücken liegen lassen sollte, scheint mir ebenfalls fraglich. Vielmehr besteht durchaus die Möglichkeit, dass politisches Handeln des chinesischen Staates und Normsetzungen auf dem chinesischen Internetmarkt und nicht zuletzt das Verhalten internationaler Internetunternehmen dort erhebliche Auswirkungen auf normative Prozesse weit über die Volksrepublik China hinaus zeitigen könnten.

1. Kontrolle, Zensur, Sanktion – ein panoptisches System Insbesondere die politischen und damit auch rechtlichen Rahmenbedingungen sind es auch, die das Agieren nationaler wie auch transnationaler Internetunternehmen in China strukturieren. Gut dokumentierte Beispiele sind die global players Yahoo!, Google, Skype und Microsoft. Dabei handelt es sich um international agierende Unternehmen, die sich explizit zu einer Firmenethik bekennen und sich angesichts ihres Engagements auf dem chinesischen Markt unter erheblichem Rechtfertigungsdruck im Spiegel dieser eigenen ethischen Grundsätze sehen. Politisch motivierte Zensur von Information und Kommunikation sowie Sanktionen gegen Akteure bilden die Rahmenbedingungen des ökonomischen Handelns dieser transnationalen Unternehmen in China. Das chinesische Kontrollsystem für das Internet ist fokussiert auf die Sanktion von Inhalten. Zu diesem Zwecke wurde sukzessive eine Reihe von Regeln und Ge___________ 14

Vgl. http://zh.wikipedia.org. CNNIC (2007a), Guo (2005). 16 Scharping (2007). 15

122

Karsten Giese

setzen erlassen, um die Produktion, besonders aber die Verbreitung unerwünschter Inhalte zu kontrollieren und Fehlverhalten von korporativen oder individuellen Akteuren zu sanktionieren.17 Dem Beispiel etablierter Praxis im Bereich der Massenmedien folgend, lassen diese Regularien große Interpretationsspielräume im Hinblick auf die Feststellung, welche Inhalte als ungesetzlich zu gelten haben. Neben der Ambiguität der Bestimmungen ist charakteristisch für das chinesische Zensur- und Sanktionssystem, dass Sanktionen nicht nur gegen den individuellen Produzenten inkriminierter Inhalte sondern vielmehr gleichermaßen gegen Akteure auf allen Ebenen der Internethierarchie vom Produzenten über den Betreiber von Websites, Portale, Content Provider, Suchmaschinen und Service und Access Provider wie etwa Internet Cafés bis hin zu den Unternehmen verhängt werden können, die die Datenübertragung physisch ermöglichen, den Telekommunikationsunternehmen also. Theoretisch drohen damit beispielsweise allen Betreibern von Netzwerken erhebliche rechtliche Sanktionen für alle illegalen Inhalte, die ein beliebiges Individuum produziert und über Datenleitungen verbreitet, die sie administrieren.18 Vor dem Hintergrund des Einsatzes von ausgeklügelten automatisierten Systemen zum Aufspüren inkriminierter Inhalte anhand von Schlüsselbegriffen auf Websites, in Foren und sogar in Chat- und eMailkommunikation gehen einige Beobachter davon aus, dass dem chinesischen Staat und seinen Strafverfolgungsbehörden trotz des schier unüberschaubaren Datenvolumens kein deviantes Verhalten im Internet verborgen bleiben dürfte. Im Zusammenspiel mit der offenbar bewusst vagen Formulierung der eigentlichen Tatbestände sowie erratischer Zensur und Sanktionierung ist hier ein panoptisches System errichtet worden, dass im Sinne Benthams und Foucaults über Internalisierung von (Verhaltens)normen zumindest theoretisch zu konformem Verhalten von Akteuren aller Ebenen führt. In der Realität wirkt das Panopticon auf unterschiedlichen Ebenen und auf verschiedene Gruppen von Akteuren in höchst unterschiedlicher Weise, weil Anreize und Bedrohungen innerhalb des Systems ebenfalls stark divergieren. Die Betreiber der Datenetzwerke selbst einmal außer Acht lassend, sind die Anreize für die Sicherstellung konformen Verhaltens für Portale und universelle Content- und Service-Provider wie sohu.com, sina.com und dergleichen am größten, weil ihnen mit dem Entzug der Lizenz der Verlust der wirtschaftlichen Grundlagen droht. Diese Akteure werden vom chinesischen Staat ohne weiteres Zutun in aller Regel erfolgreich als aktive Zensoren kooptiert. Die Ambiguität der Definitionen gesetzwidriger Informationen führt auf dieser Ebene immer wieder zu proaktivem Handeln in einem ___________ 17 18

Giese (2001/2005a), Zheng (2008), S. 58–62. Ebd.

Kontrolle, Zensur und Ethik

123

Ausmaß, welches zu Unzufriedenheit auf Kundenseite, in der Folge zu einer Abwendung von entsprechenden Anbietern und damit letztlich zur Bedrohung des wirtschaftlichen Erfolgs führen kann. Konfligierende Ansprüche von staatlicher und Konsumentenseite charakterisieren das Dilemma dieser wirtschaftlichen Akteure.19 Auf der Ebene der spezialisierten Content Provider wie etwa Webzeitungen, News Sites, Spartenkanäle etc., die eher klassischen Massenmedien gleichen, überwiegen die Anreize des Marktes. Zwar wird auch hier aktiv Selbstzensur geübt. Zusätzlich sind diese Medien den Eingriffen von staatlichen Zensoren des so genannten Publicity Departments ausgesetzt. Konformem Verhalten in klarer definierten politischen Problemfeldern steht hier im Kampf um den Konsumenten der Zwang zur Sensation und zur Verletzung von Tabus gegenüber – sex and crime sell.20 Am wenigsten beeindruckt zeigen sich junge individuelle Produzenten von Inhalten wie Teilnehmer an Blogs und sonstigen internetbasierten Kommunikationsforen, die eine weitgehend anonyme Partizipation ermöglichen.21 Im Hinblick auf die transnationalen Wirtschaftsakteure und diese individuellen Produzenten soll uns im Folgenden die ethische Dimension ihres Handelns interessieren.

2. Ethik und Kommerz: Transnationale Internetunternehmen in China Trans- und multinationale Unternehmen, jene Akteuere also, die eine immer größere Rolle übernehmen,22 unterliegen den Gesetzen des chinesischen Staates und des Marktes. Dennoch besitzen sie aufgrund der Ambiguität der rechtlichen Bestimmungen zur Zensur sowie im Hinblick auf die extrem seltene Sanktion von Internetunternehmen in der bisherigen Verfolgungspraxis doch einen erheblichen Entscheidungsspielraum, wie sie ihr Engagement in der VR China gestalten. Stellvertretend für verschiedene Nutzungsformen des Kommunikationsraums Internet soll hier die Praxis der prominenten transnationalen Akteure ___________ 19

Giese (2004/2005b). Vgl. Anonym (2007). 21 Vgl. ebd.; Registrierungserfordernisse der Betreiber von Kommunikationsforen, die Identifizierbarkeit der Teilnehmer beispielsweise über Rückbestätigung einer SMS verlangen, können mühelos durch die Benutzung eines Prepaid Accounts unterlaufen werden. Prepaid Simcards können überall in China billig und anonym erworben werden. Schutz vor dem Aufspüren individueller Produzenten von Inhalten wie etwa Beiträgen in Online Foren bietet die völlig anonyme Nutzung der unzähligen Internet Cafés bzw. der wachsenden Zahl von Cafés, Lounges und Bars, die jedem Gast kostenlosen Internetzugang mit seinem eigenen Equipment über WLAN ermöglichen. Vgl. zur Thematik von Kontrolle und Zensur sowie Ausweichstratgien chinesischer Nutzer auch Giese (2004), Giese (2005), S. 30–34. 22 Siehe Lütge in diesem Band, S. 113f. 20

124

Karsten Giese

im Bereich Suchmaschinen, E-Mail-Service, P2P-Kommunikation und Blog Hosting diskutiert werden. Diese Bereiche korrespondieren mit den Nutzungspräferenzen chinesischer Internetkunden, die sich mehr als in vielen anderen Märkten auf Angebote der interpersonellen Kommunikation konzentrieren.23 Die ausgewählten Unternehmen stellen dabei keineswegs Einzelfälle dar, sondern stehen exemplarisch für gängige Praktiken. a) Suchmaschinen: Google Der weltweit erfolgreiche Suchmaschinenanbieter Google bietet seit dem Jahr 2000 die Möglichkeit der Recherche in chinesischer Sprache. Seit der Einführung dieser Funktion auf der internationalen Seite www.google.com wurde der Service in China sehr schnell sehr populär. Eine zeitweilig von staatlichen Stellen vorgenommene Blockierung der Webseite im September 2002 musste aufgrund des massiven Protests chinesischer Internetnutzer bereits nach zwei Wochen wieder aufgehoben werden.24 Seither ist die Suchmaschine Opfer staatlicher chinesischer Zensur von Internetinhalten.25 Links auf unerwünschte Webseiten werden zwar angezeigt, das Anklicken führt jedoch lediglich zur Anzeige einer Fehlerseite mit der Meldung, die gewählte Seite sei nicht verfügbar. Es gibt keinen Hinweis darauf, ob es sich um ein technisches Problem handelt oder einen Eingriff der Zensur. In jedem Falle ist festzustellen, dass chinesische Suchmaschinen in China im selben Zeitraum zum Weltmarktführer mindestens aufgeschlossen haben.26 Im Jahr 2005 entschied sich Google, den chinesischen Markt zukünftig mit einer Firmenpräsenz in China selbst zu bearbeiten. 2006 wurde der chinesische Ableger der Suchmaschine als google.cn etabliert. Diese wird nunmehr von dem Unternehmen selbst aktiv durch Keyword Filter und eine Black List zensiert. Google übernahm dabei jedoch nicht etwa eine von chinesischen Behörden vorgeschriebene Liste zu sperrender Webseiten, sondern erstellte eine eigene auf der Basis von Tests, welche internationalen Webseiten von chinesischen Internet Service Providern gesperrt sind.27 Das Unternehmen sieht in dieser Praxis wenig Widerspruch zu seiner Vision von einer Welt ... in which every human being starts life with the same access to information, the same opportunities to learn and the same power to communicate. I believe that is worth fighting for.28

___________ 23

Siehe CNNIC (2004/2005/2007a). Siehe Kirby (2002), Dean (2005). 25 Vgl. u.a. MacKinnon (2007). 26 Vgl. CNNIC (2007b). 27 Siehe Thompson (2006). 28 Schmidt (2006). Der Autor ist CEO von Google. 24

Kontrolle, Zensur und Ethik

125

Es verweist vielmehr entschuldigend auf die notwendige Einhaltung von Gesetzen und hebt rechtfertigend hervor, es werde im Falle zensierter Suchergebnisse jeweils ein Hinweistext angezeigt, in dem es heiße, die Suchergebnisse seien im Einklang mit dem chinesischen Gesetz unvollständig. Nach Auskunft von Google selbst existiert eine solche Praxis auch in seltenen Fällen in den USA, in Frankreich und Deutschland.29 Das erklärt auch, warum jeder Benutzer durch technischen Abgleich der Sprache des Betriebssystems bzw. der physischen Verortung des Internetzugangs beim Aufruf von www.google.com inzwischen automatisch auf die jeweilige Landesseite der Suchmaschine umgeleitet wird – www.google.de in Deutschland und www.google.cn in China. Die internationale Version bietet damit keine Alternative mehr zu zensierten Lokalversionen in China und anderswo, Deutschland eingeschlossen. Zugegeben, man kann diese Funktion durch die Veränderung der Ländereinstellungen auf Windows-PCs einfach aushebeln, sofern der Nutzer über Administratorenrechte verfügt – was in China wie anderswo auch weder auf Universitätsrechnern noch im Internet Café der Fall sein dürfte. Google sieht im Zusammenhang mit Kritik an der Praxis des Unternehmens in erster Linie die Politik in der Pflicht. So sollten die USA etwa das Thema Zensur auf die Agenda und als nicht tarifäres Handelshemmnis zum Thema bilateraler und multilateraler Wirtschaftsverhandlungen machen.30 Im chinesischen Internet wurde der Fall Google stark diskutiert, andererseits auch gar nicht wahrgenommen – sowohl die Tatsache der Zensur von Suchergebnissen als auch die Kontroverse darum.31 Während die Einen frustriert über die Unternehmenspolitik sind und ihre informationelle Selbstbestimmung weiter ausgehöhlt sehen, empfinden andere durchaus Genugtuung darüber, dass ein weiteres internationales Unternehmen sich den chinesischen Gesetzmäßigkeiten beugen musste und damit auch eigene chinesische Anbieter – namentlich Baidu – konkurrenzfähiger werden und Google den Rang ablaufen.32

b) E-Mail-Services: Yahoo! Obwohl Yahoo! als Internetportal Anbieter einer Vielzahl von Informationen, Funktionen und Services ist und die für Google getroffenen Aussagen zur Zensur der Suchmaschinenfunktion ebenfalls zutreffen, möchte ich die Diskussion hier exemplarisch auf E-Mail-Services beschränken. Yahoo! war mit der ___________ 29

Vgl. Human Rights Watch (2006), S. 58. Siehe U.S. House of Representatives Committee on International Relations (2006), S. 238. 31 Siehe Rein (2007). 32 Vgl. ebd. 30

126

Karsten Giese

Eröffnung einer Niederlassung in Beijing im Jahr 1999 eines der ersten großen US-basierten Unternehmen in China. Yahoo! bietet chinesischsprachige E-Mail-Services und ist einer der größten Anbieter auf diesem Gebiet.33 Das Unternehmen geriet in das Kreuzfeuer der öffentlichen Kritik, als Menschenrechtsgruppen offenlegten, dass in den Jahren 2003 und 2005 in mindestens vier prominenten Fällen die Herausgabe der Nutzerinformationen von E-MailAccounts zu Verhaftungen und Verurteilungen von chinesischen Staatsbürgern wegen des Verstoßes gegen diverse Strafbestimmungen im Hinblick auf die Verbreitung illegaler Informationen geführt hatte. Yahoo! speichert die Daten aller seiner chinesischen Kunden seit jeher auf einem Server innerhalb der VR China, was, so die Kritik der Menschenrechtsaktivisten, eine Verweigerung der Herausgabe sensibler Informationen unmöglich mache.34 Vertreter des Unternehmens stellten klar, dass die Herausgabe auf den gesetzlichen Grundlagen Chinas auf legales Ersuchen seitens der Strafverfolgungsbehörden erfolgt sei. Dabei sei es weder in China noch anderswo üblich, dass Behörden den Grund für das Verlangen der Herausgabe persönlicher Daten eines bestimmten Individuums mitteilten.35 Anders als andere internationale Marktteilnehmer in China hatte Yahoo! im August 2002 den von der Internet Society of China initiierten so genannten „Public Pledge on Self-discipline for the Chinese Internet Industry“ unterzeichnet und sich damit freiwillig zu Beschränkungen der Kommunikations- und Informationsfreiheit bekannt, die über das in China gesetzlich geforderte Maß hinaus gehen.36 Mitte August 2005 erwarb Yahoo! 40 % der Anteile an dem chinesischen eCommerce-Unternehmen Alibaba, welches wiederum die Kontrolle über Yahoo! China übernahm und das entsprechende Webangebot seit Oktober 2005 allein kontrolliert. Neben wirtschaftlichen Gründen wird als weiterer Faktor für diese Schritte die starke öffentliche Kritik an Yahoo!s China-Engagement besonders in den USA vermutet. Diese führte letztlich wohl auch zu der Aussage von Unternehmensvertretern Mitte 2006, wonach man einige Monate zuvor verbindlich festgelegt habe, in welchen spezifischen Fällen Kundeninformationen an Dritte herauszugeben seien, und auch den chinesischen Partner Alibaba zur Einhaltung dieser Prinzipien aufgefordert habe:

___________ 33

Vgl. iResearch Consulting Group (2006), S. 22, 24. Siehe U.S. House of Representatives Committee on International Relations (2006), S. 56–60; Human Rights Watch (2006), S. 31–37; Office of the Privacy Commissioner for Personal Data, Hong Kong (2007). 35 Siehe U.S. House of Representatives Committee on International Relations (2006), S. 56–60. 36 Vgl. Hu (2002). 34

Kontrolle, Zensur und Ethik

127

If it’s a national security or a terrorist, if it’s criminals, or people cheating on the Internet, that’s when we cooperate. Otherwise, the answer is no.37

Auch Dissidenten in China kritisieren das Maß an Kooperationswillen von Yahoo! mit chinesischen Behörden: … if Yahoo! gains a bigger stake in the Chinese market by betraying the interests of its customers, the money it makes is „immoral money“, money made from the abuse of human rights. This is patently unfair to other foreign companies that do abide by business ethics.38

Hier wird an die ethischen Grundlagen wirtschaftlichen Handelns appelliert. Allerdings bleibt festzuhalten, dass Yahoo! in keinem Fall nachgewiesen werden konnte, über das in China vom Gesetz abgedeckte Maß hinausgehende Kundeninformationen offen gelegt zu haben.39 Wenn auch die Justiz oder die Straftatbestände kaum mit der Situation in China zu vergleichen sind, sei daran erinnert, dass ähnliche Bestimmungen im Hinblick auf die Speicherung und Herausgabe von Verbindungsdaten im Zusammenhang mit der Strafverfolgung im Übrigen auch in Deutschland gelten.

c) Audiovisuelle und textbasierte P2P-Kommunikation: Skype Das international sehr erfolgreiche Unternehmen für kostenlose Internettelefonie und Textchat Skype wirbt damit, Peer2Peer-Kommunikation sicher zu gewährleisten, ohne Adware, Malware oder Spyware. Der Schutz der Privatsphäre und der persönlichen Daten wird wird nach Auskunft auf der Homepage von Skype besonders groß geschrieben. Im September 2005 gründete Skype ein Joint Venture mit dem chinesischen Internetunternehmen TOM Online Inc. und bietet seit November desselben Jahres eine lokalisierte chinesische Version seines Voice- und Chat-Clients an.40 Schon bald wurde bekannt, dass mit der Installation dieser chinesischen Version auch ein Software-Filter für textbasierte Kommunikation verbunden ist. Auf dem Computer des Nutzers wird diese Software und eine im Hintergrund serverseitig aktualisierbare verschlüsselte Liste von Begriffen installiert, die gemeinsam dazu führen, dass Nachrichten, die einen dieser Begriffe enthalten, auf Empfängerseite nicht angezeigt werden.41 Kritik in chinesischen Internetforen und Weblogs führten zu einem Verlust an Vertrauen und Reputation für Skype in China. Als die Kritik international ___________ 37

Jack Ma in San Francisco Chronicle (2006). Human Rights Watch (2006), Appendix VII, S. 114–121. 39 Vgl. Office of the Privacy Commissioner for Personal Data, Hong Kong (2007). 40 Vgl. Skype (2005). 41 Siehe Maitland (2006); Villeneuve (2006). 38

128

Karsten Giese

von Medien aufgegriffen wurde, lautete die Begründung des Unternehmens, man befolge damit nur nationale Gesetze, zu deren Einhaltung man verpflichtet sei. Im Übrigen handele es sich bei der Implementation des Textfilters um eine Praxis, der alle Marktteilnehmer folgten.42 Zwar drohen Unternehmen wie Skype theoretisch rechtliche Sanktionen, falls über ihre Systeme illegale Inhalte verbreitet werden, selbst wenn dies ohne das Wissen des Unternehmens geschieht, doch verlangt kein chinesisches Gesetz die Nutzung von Softwarefiltern. Tests haben gezeigt, dass bislang offensichtlich auch nur sehr wenige Schlüsselwörter zur Löschung von Textnachrichten führen. Dazu zählen nicht nur politisch brisante Begriffe sondern auch Obszönitäten wie etwa das im allgemeinen Sprachgebrauch international allerdings sehr verbreitete „Fuck“.43 Trotz des bisher somit geringen Ausmaßes an zensorischen Eingriffen handelt es sich hierbei nicht nur gemessen an der selbstformulierten Vision Skypes von der freien Kommunikation um ein ethisch fragwürdiges Vorgehen. Skype sanktioniert damit in vorauseilendem Gehorsam aus Furcht vor staatlicher Sanktion nicht öffentliche Teile der Internetkommunikation, die bislang eigentlich von derartigen Maßnahmen ausgenommen waren. Die Furcht vor beweiskräftigen Spuren scheint hier auslösend gewesen zu sein, da das Unternehmen die audiovisuelle Kommunikation bislang nicht zensiert. Es bleibt allerdings fraglich, ob der Erhalt dieses Freiraums ethischen Grundsätzen entspringt oder nur dem Mangel an technischen Möglichkeiten geschuldet ist.

d) Bloggosphäre: Microsoft Network (MSN) Die Internetsparte von Microsoft, Microsoft Networks (MSN), ist ein Latecomer unter den transnationalen Internetunternehmen in China. Erst Mitte 2005 erfolgte hier gemeinsam mit dem von der Shanghaier Stadtregierung betriebenen chinesischen Partner Shanghai Alliance Investment Ltd. der Markteintritt.44 Obwohl wie Yahoo! und Google ein Anbieter weitaus umfassender Services, soll hier insbesondere MSN Spaces, das Blog Hosting Angebot von MSN diskutiert werden. Der Beginn des wirtschaftlichen Engagements von MSN fiel zeitlich zusammen mit dem großen Boom von Weblogs in China, und bis Ende 2005 war es MSN Spaces gelungen, der führende Anbieter von chinesischsprachigen Blog Services zu werden und mehr Kunden an sich zu binden als die chinesischen Konkurrenten.45 Von Anbeginn handelte es sich dabei nicht um einen ___________ 42

Vgl. Maitland (2006). Vgl. Villeneuve (2006), Human Rights Watch (2006), S. 69f. 44 Siehe Microsoft (2005). 45 Vgl. People’s Daily (2005). 43

Kontrolle, Zensur und Ethik

129

zensurfreien Kommunikationsraum. Zensurmaßnahmen bezogen sich zunächst auf die Verwendung sensibler Begriffe in den Hauptüberschriften von Blogs, wurden aber sehr rasch ausgeweitet auf die gesamten Textkörper. Tests zeigten, dass entsprechende Begriffe wie Demokratie, Freiheit oder Unabhängigkeit Tibets zwar gepostet werden konnten, der gesamte Weblog dann jedoch binnen weniger Tage geschlossen wurde.46 Eine Welle der Kritik baute sich gegen MSN Spaces unter chinesischen Bloggern und mehr noch in westlichen Medien auf. Den Höhepunkt erreichte diese Kritik mit der wohldokumentierten und vieldiskutierten Schließung des Weblogs von Zhao Jing, alias Michael Anti, im Dezember 2005.47 Laut Microsoft kam man mit diesem Schritt einem Ersuchen chinesischer Behörden gegenüber der Shanghaier Partnerfirma nach.48 Der Fall Zhao/Anti erhielt soviel öffentliche Aufmerksamkeit und schlechte Presse für Microsoft insbesondere in den USA, dass sich der Konzern im Januar 2006 zu Entgegenkommen und zur Formulierung von bindenden Prinzipien veranlasst sah, die den Kritikern entgegenkamen. Demnach sollen Inhalte von Blogs nur noch entfernt werden, sofern eine zwingende und mit dem Verstoß gegen geltende Gesetze begründete Aufforderung dazu seitens der Regierungsbehörden vorliegen oder der Inhalt gegen die Nutzungsbedingungen von MSN Spaces verstoße. Der Nutzer solle darüber informiert werden, dass und warum sein Inhalt entfernt wurde. Darüber hinaus werden Inhalte künftig nur noch aus dem Webangebot in dem Land gelöscht werden, dessen Behörden dies verlangen, während die Inhalte von Rechnern außerhalb dieses Landes weiterhin abrufbar bleiben werden.49

III. Fazit Die konkreten Beispiele aus der Realität internationaler Unternehmen in der chinesischen Internetökonomie zeigen deutlich, dass die Sorge um Reputation, und damit auch ethischen Standards verpflichtetes berechenbares Verhalten zwar durchaus eine wichtige Rolle spielen kann. Die Beispiele zeigen aber auch, dass die Motivation zum Aufbau bzw. Schutz der wichtigen Ressource Reputation allein keine hinreichenden Anreize für ein global immer gleichen ethischen Standards verpflichtetes Handeln bereitstellt. Zum Einen scheinen Sanktionsandrohungen von Nationalstaaten im Hinblick auf den geschäftlichen Erfolg deutlich höher bewertet zu sein als die Gefahr des Verlusts von Reputa___________ 46

Vgl. MacKinnon (2008), S. 5ff. Vgl. u.a. Soong (2005); Dai (2005), MacKinnon (2006). 48 Barboza/Zeller (2006). 49 Siehe U.S. House of Representatives Committee on International Relations (2006), S. 65. 47

130

Karsten Giese

tion in den Zielgruppen. Dieser Befund gilt für alle Beispiele gleichermaßen. Zum Anderen handelt es sich bei den Kontrollinstanzen um (national) fragmentierte Öffentlichkeiten. Das macht besonders das Beispiel MSN Spaces deutlich, wo der Einfluss der nationalen US-amerikanischen Öffentlichkeit eine graduelle Anpassung der Firmenpolitik in China bewirkt haben mag. Doch zeigt das Beispiel auch, dass voneinander stark abweichende Nutzungserfahrungen und entsprechend fragmentierte Internetrealitäten existieren, die wie im beschriebenen Falle etwa im Hinblick auf die Zugänglichkeit von Bloginhalten (MSN Spaces) transnational organisiertes Monitoring und ethisch begründete Kritik am international agierenden Unternehmen (Blog Provider) erschweren oder gar verunmöglichen. Unabhängig von den selbstformulierten Visionen und ethischen Grundsätzen verhalten sich Internetunternehmen im nationalen Rahmen jeweils systemkonform, replizieren opportunistisch lediglich die Freiräume, die das jeweilige nationale Umfeld getattet, oder ziehen die Grenzen im eigenen Profitinteresse prophylaktisch gar noch enger – eine spezifische Form von „think global, act local“. Reputation ist demnach – ein Prinzip der politischen Debatte um Menschenrechte aufgreifend – eben nicht unteilbar sondern vielmehr fragmentiert in unterschiedliche Märkte und insofern gerade keine geeignete Basis für ethischen Prinzipien verpflichtetes Handeln. Begreift man demnach transnationale Wirtschaftsunternehmen als politische Akteure, so ist eher nicht anzunehmen, dass ausgerechnet deren Praktiken fördernd für Demokratie, Meinungs- und Informationsfreiheit wirken sollen. Ja, das Internet wird wohl kaum zu stoppen sein. Aber gerade das hier in groben Zügen skizzierte Beispiel China zeigt, dass es sich in unterschiedlichen gesellschaftlichen, kulturellen und politischen Kontexten anders entwickeln kann als wir dies wünschen. Unzweifelhaft bedeuten die kommunikativen Räume des Internets für chinesische Nutzer in sehr viel stärkerem Maße als in anderen Gesellschaften eine virtuelle Erweiterung ihrer sozialen Realität und sanktionsreduzierte Freiräume zum Erleben selbstgewählter Gemeinschaft sowie zum Austesten von extremen Meinungen, intensiven Emotionen, individuellen Identitäten und Grenzen des Handelns,50 von deren Ausgestaltung unter den Bedingungen gesellschaftlicher Transformation erhebliche langfristige Auswirkungen auf das chinesische Gemeinwesen zu erwarten sind. Im Zusammenhang mit der Ausgestaltung dieser Freiräume wird in China nicht zuletzt von den Internetnutzern selbst die Forderung nach ethisch verbindlichen Vorgaben in Schule und Erziehung erhoben und auch auf längst vergessen geglaubte Konzepte der Selbstkultivierung aus der konfuzianischen Lehre rekurriert, um eine Internetethik mit chinesischen ___________ 50

Siehe Qiang (2007b).

Kontrolle, Zensur und Ethik

131

Charakteristika zu etablieren.51 (Selbst)beschränkung wird als Preis für die gewachsenen Freiheiten im chinesischen Internet weitgehend akzeptiert. Gerade die mehr oder minder ununterbrochen fortgesetzte Diskussion um die Festlegung der ethischen Grenzen von Redefreiheit und Persönlichkeitsrechten im chinesischen Internet zeugt jedoch von einem kontinuierlichen Prozess der gesellschaftlichen Aushandlung, dessen Ergebnis heute völlig offen erscheint. Festzuhalten bleibt, dass es sich dabei um einen innerchinesischen Prozess handelt, dessen Verlauf und Ergebnisse eben gerade nicht in erster Linie von multinationalen Akteuren beeinflusst wird.

Literatur Anonym (2007): „Sex Sells“ – da macht auch die konservative Tageszeitung „China Daily“ keine Ausnahme, 7.8.2007, online: http://www.blog.china-guide.de/index. php?entry=entry070807-223644 (Aufruf 4.2.2008). Barboza, David (2007): Internet Boom in China in China Is Built on Virtual Fun, in: New York Times, 5.2.2007, online: http://www.nytimes.com/2007/02/05/world/asia/ 05virtual.html?_r=1&oref=slogin (Aufruf 30.11.2007). Barboza, David / Zeller, Tom Jr. (2006): Microsoft Shuts Blog’s Site After Complaints by Beijing, in New York Times, 5.1.2006, online: http://www.freepress.net/news/ 13217 (Aufruf 20.10.2007). BBC (2005): US retains hold of the internet, in: BBC News, UK version, online: http://news.bbc.co.uk/1/hi/technology/4441544.stm (Aufruf 5.2.2008). Beal, Tim (2003): The state of Internet use in Asia, in: Ho, K. C. / Kluver, Randolph / Yang, Kenneth C. C. (Hrsg.) (2003): Asia.com – Asia encounters the Internet, London, S. 23–43. Burkholder, Richard (2005): Internet Use: Behind ‚The Great Firewall of China‘, in: Gallup Poll News Service, 1.2.2005, online: www.gallup.com/poll/content/print. aspx?ci=14776 (Aufruf 17.2.2005). Chen, Wenhong / Wellman, Barry (2004): The Global Digital Divide – Within and Between Countries, in: IT & Society, Vol. 1, Iss. 7, S. 39–45. Chinn, Menzie D. / Fairlie, Robert W. (2007): The determinants of the global digital divide: a cross-country analysis of computer and internet penetration, in: Vol. 59, No. 1, S. 16–44. CNNIC (China Internet Network Information Center) (2004): 13th Statistical Survey on the Internet Development in China (January 2004), online: www.cnnic.net.cn/down load/manual/en-reports/13.pdf (Aufruf 16.4.2004). – (2005): Zhongguo hulian wangluo fazhan zhuangkuang tongji baogao (2005/1) (China Internet Development Statistics Report (2005/1), online: www.cnnic.net.cn/ download/2005/2005011801.pdf (Aufruf 24.1.2005).

___________ 51

Vgl. hierzu Giese/Müller (2007), S. 89–92.

132

Karsten Giese

– (2007a): Statistical Survey Report on the Internet Development in China (July 2007), online: http://www.cnnic.org.cn/download/2007/20thCNNICreport-en.pdf (Aufruf 20.8.2007). – (2007b): CNNIC Issued „2007 Survey Report on Search Engine Market in China“, 26.09.2007, online: http://www.cnnic.org.cn/html/Dir/2007/10/10/4838.htm (Aufruf 10.10.2007). Dai, Frank (2005): Blog-city blocked in China?, in: GlobalVoices, 17.8.2005, online: http://www.globalvoicesonline.org/2005/08/17/blog-city-blocked-in-china/ (Aufruf 20.10.2007). Dai Xiudian (2003): ICTs in China’s development strategy, in: Hughes, Christopher R. / Wacker, Gudrun (Hrsg.) (2003): China and the Internet. Politics of the digital leap forward, London, S. 8–29. Dean, Jason (2005): As Google Pushes into China, It Faces Clash With Censors, in: Wall Street Journal, December 16, 2005, online: http://online.wsj.com/article/ SB113468633674723824.html (Aufruf 20.3.2006). Drori, Gili S. (2003): The Global Digital Divide, in: Social Science Computer Review, Vol. 21, No. 2, S. 144–161. Giese, Karsten (2001): Big Brother mit rechtsstaatlichem Anspruch. Gesetzliche Einschränkungen des Internet in der VR China, in: Engels, Benno / Nielinger, Olaf (Hrsg.) (2001): Elektronischer Handel in Afrika, Asien, Lateinamerika und Nahost, Hamburg, S. 127–153. – (2003): Internet development and digital divide: implications for spatial development, in: Hughes, Christopher R. / Wacker, Gudrun (Hrsg.) (2003): China and the Internet. Politics of the digital leap forward, London, S. 30–57. – (2004): Speaker’s Corner or Virtual Panopticon: Discursive Construction of Chinese Identities Online, in: Mengin, Françoise (Hrsg.) (2004): Cyber China. Reshaping National Identities in the Age of Information, New York, S. 19–36. – (2005a): Freier Diskurs oder perfekter Überwachungsstaat? Identity Work im chinesischen Internet, in: CHINA aktuell, 1/2005, pp. 35–51. – (2005b): Surfing the Virtual Minefield. Doing Ethnographic Research on the Chinese Internet, in: Berliner China-Hefte, Vol. 28, 2004, S. 20–43. Giese, Karsten / Müller, Constanze (2007): Ethisch-moralische Grenzen öffentlicher Kommunikation – vernachlässigte Dimension im Diskurs um Internetzensur in China, in: China aktuell – Journal of Current Chinese Affairs, No. 4/2007, S. 74–95. Guo, Liang (2003): The CASS Internet Report 2003: Surveying Internet Usage and Impact in Twelve Chinese Cities, Beijing, Research Center for Social Development, Chinese Academy for Social Sciences. – (2005): Surveying Internet Usage and Impact in Five Chinese Cities, Beijing, Research Center for Social Development, Chinese Academy for Social Sciences, online: www.wipchina.org/?p1=download&p2=27 (Aufruf 2211.2005). Harwitt, Eric / Clark, Duncan (2006): Government policy and political control over China’s Internet, in: Damm, Jens / Thomas, Simona (Hrsg.) (2006): Chinese Cyberspaces. Technological changes and political effects, New York, S. 12–43.

Kontrolle, Zensur und Ethik

133

Hu, Jim (2002): Yahoo yields to Chinese Web laws, in: CNET News.com, 13.8.2002, online: http://www.news.com/2100-1023-949643.html (Aufruf 3.10.2002). Hughes, Christopher R. (2004): Controlling the Internet Architecture within Greater China, in: Mengin, Françoise (Hrsg.) (2004): Cyber China. Reshaping National Identities in the Age of Information, New York, S. 71–90. Human Rights Watch (2006): „Race to the Bottom“. Corporate Complicity in Chinese Internet Censorship, in: Human Rights Watch, Vol. 18, No. 8. iResearch Consulting Group (2006): China Online Portals Research Report, online: http://www.chinaventurelabs.com/File/2006%20China%20Online%20Portals%20Re search%20Report-iResearch060607.pdf (Aufruf 20.10.2007). James, Jeffrey (2005): The global digital divide in the Internet: developed countries constructs and Third World realities, in: Journal of Information Science, Vol. 31, No. 2, S. 114–123. Jiang, Wei (2004): User Behaviour and the Impact of the Internet: A Study on Chinese Net Users in Beijing and Shanghai, in: Asia Research Institute Working Paper Series, No. 24, Singapore. Kern, Roman / Merkel, Yasmin (2005): Internet Governance: Ruling The Root, online: http://hallomac.ch/downloads/ICANN.pdf (Aufruf 5.2.2008). Klein, Hans (2004): Government Without the Nation State: ICANN and Autonomous Political Power, Paper presented at 4S/EASST Conference, Paris 2004, Präsentation online: http://www.csi.ensmp.fr/WebCSI/4S/download_paper/download_paper.php ?paper=klein.pdf (Aufruf 5.2.2008). Kirby, Carrie (2002): Google search engine blocked in China. Internet protesters suggest government is cutting off access, in: San Francisco Chronicle, 4.9.2002, online: www.sfgate.com/cgi-bin/article.cgi?file=/chronicle/archive/2002/09/04/BU189437. DTL&type=business (Aufruf 10.11.2002). MacKinnon, Rebecca (2006): Microsoft Takes Down Chinese Blogger, in: Rconversation. 4.1.2006, online: http://rconversation.blogs.com/rconversation/2006/01/microsoft _takes.html (Aufruf 20.10.2007). – (2007): Foreign search engines briefly redirected on some Chinese ISP's = mass confusion under heaven., in: RConversation, 20.10.2007, online: http://rconversation. blogs.com/rconversation/2007/10/foreign-search-.html (Aufruf 20.11.2007). – (2008): Flatter world and thicker walls? Blogs, censorship and civic discourse in China, in: Public Choice, Vol. 134, S. 31–46. Maitland, Alison (2006): Skype says texts are censored by China, in: Financial Times, 18.4.2006, online: http://www.ft.com/cms/s/2/875630d4-cef9-11da-925d-0000779e 2340.html (Aufruf 20.10.2007). Microsoft (2005): Microsoft Prepares to Launch MSN China, in: PressPass, 11.5.2005, online: http://www.microsoft.com/presspass/press/2005/may05/05-11MSNChina LaunchPR.mspx (Aufruf 20.10.2007). Norris, Pippa (2001): Digital Divide: Civic Engagement, Information Poverty, and the Internet Worldwide, Cambridge University Press. Office of the Privacy Commissioner for Personal Data, Hong Kong (2007): The Disclosure of Email Subscriber's Personal Data by Email Service Provider to PRC Law En-

134

Karsten Giese

forcement Agency, Report No. R07-3619, 14.3.2007, online: http://www.pcpd. org.hk/english/publications/files/Yahoo_e.pdf (Aufruf 15.10.2007). People’s Daily (2005): MSN Spaces rated the leading blog service provider in China, in: People’s Daily Online, 20.12.2005, online: http://english.people.com.cn/200512/20/ eng20051220_229546.html (Aufruf 20.10.2007). Pfeil, Ulrike / Zaphiris, Panayiotis / Ang, Chee Siang (2006): Cultural Differences in Collaborative Authoring of Wikipedia, in: Journal of Computer-Mediated Communication, Vol. 12, No. 1, S. 88–113. Qiang Xiao (2007a): China censors Internet users with site bans, cartoon cop spies, in: San Francisco Chronicle, 23.09.2007, online: http://www.sfgate.com/cgi-bin/ article.cgi?f=/c/a/2007/09/23/INCLS80LO.DTL (Aufruf 30.09.2007). – (2007b): China Leads the US in Digital Self-Expression, in: CNNMoney.com, 23.11.2007, online: http://money.cnn.com/news/newsfeeds/articles/prnewswire/NYF 00723112007-1.htm (Aufruf 25.11.2007). Rein, Shaun (2007): Has Google Failed in China?, in: Seeking Alpha, 5.2.2007, online: http://seekingalpha.com/article/26033-has-google-failed-in-china (Aufruf 3.2.2008). Reporters Without Borders (2005): The 15 enemies of the Internet and other countries to watch, 17.11.2005, online: www.rsf.org/article.php3?id_article=15613 (6.2.2008). San Francisco Chronicle (2006): ALIBABA.COM. On the Record: Jack Ma, in: San Francisco Chronicle, 7.5.2006, online: http://www.sfgate.com/cgi-bin/article.cgi?f=/ chronicle/archive/2006/05/07/BUGAQIJ8221.DTL (Aufruf 20.9.2007). Scharping, Thomas (2007): Administration, Censorship and Control in the Chinese Media: The State of the Art, in: China aktuell – Journal of Current Chinese Affairs, No. 4/2007, S. 96–118. Schmidt, Eric (2006): Let more of the world access the internet, in: Financial Times, 21.5.2006, online: http://www.ft.com/cms/s/2/fbc969aa-e8f2-11da-b110-0000779e 2340.html (Aufruf 23.5.2006). Skype (2005): TOM Online, Skype announce joint venture in China, Presseerklärung, 5.9.2005, online: http://about.skype.com/2005/09/tom_online_skype_announce_ join.html (Aufruf 22.10.2007). Soong, Roland (2005): The Anti Blog is Gone, in: EastSouthWestNorth, 31.12.2005, online: http://www.zonaeuropa.com/200512brief.htm#100 (Aufruf 20.10.2007). Thompson, Clive (2006): Google’s China Problem (and China’s Google Problem), in: New York Times Magazine, 23.4.2006, online: http://www.nytimes.com/2006/04/23/ magazine/23google.html?ex=1303444800&en=972002761056363f&ei=5090 (Aufruf 15.5.2006). U.S. House of Representatives Committee on International Relations (2006): The Internet in China: A Tool for Freedom or Suppression?, Joint Hearing before the Subcommittee on Africa, Global Human Rights and International Operations and the Subcommittee on Asia and the Pacific of the Committee on International Relations, House of Representatives, One Hundred Ninth Congress, Second Session, February 15, 2006, Serial No. 109–157, online: http://www.foreignaffairs.house.gov/archives/ 109/26075.pdf (Aufruf 30.10.2007).

Kontrolle, Zensur und Ethik

135

Villeneuve, Nart (2006): Tom-Skype Filtering in China, in: Internet Censorship Explorer, 18.4.2006, online: http://www.nartv.org/2006/06/15/tom-skype-filtering-inchina/ (Aufruf 20.10.2007). Weinberg, Jonathan (2000): ICANN and the Problem of Legitimacy, online: http://www.law.wayne.edu/weinberg/legitimacy.PDF (Aufruf 5.2.2008). Zheng Yongnian (2008): Technological Empowerment. The Internet, State, and Society in China, Stanford.

InterNET Governance: Zensur, Demokratie und Kontrolle des Internets – Korreferat zu Christoph Lütge – Von Jürgen Pelzer „if you want to control someone’s mind – control the Internet“1

Um das Thema adäquat erfassen zu können, bedarf es zunächst der Klärung der Kernfrage: Was ist Zensur? Bei einer engen Definition dessen, was Zensur ist, beschränkt sich das Thema auf China und einige andere Länder, die gegen die Pressefreiheit verstoßen und Internetzensur zu Propagandazwecken betreiben. Bei einer grundlegenderen Definition, wie wir sie gleich vornehmen werden, zeigt sich jedoch das wahre Ausmaß der Gefahr, die für das Internet – als dem globalen und freien Informations- und Kommunikationsmedium – besteht.

I. Eine philosophische Definition von Zensur In seiner Erkenntnistheorie macht Immanuel Kant eine bemerkenswerte Aussage: Er unterscheidet das „Ding an sich“ von dem „Ding wie es uns erscheint“. Dieses Modell soll hier übernommen und erweitert werden um eine breite – eine philosophische – Definition dessen zu gewinnen, was Zensur ausmacht. Dazu bedarf es einer kurzen Erläuterung der Zusammenhänge: Das Ding an sich ist unserem Erkennen nicht zugänglich, wir haben nur die Wahrnehmung aus unterschiedlichen singulären Perspektive, bspw. einer kulturell überformten. Diese Vielfalt der Zugänge ist die einzige Weise, wie uns Erkenntnis von Dingen möglich ist. Streicht man einen oder mehrere dieser Zugänge ist dies Zensur. Dadurch ist ein adäquates Bild dessen gewonnen, was Zensur im Kern ausmacht: Einen Sachverhalt gezielt in einer einzigen Zugangsweise (Wahrnehmungsweise) darzustellen und dadurch diesen Zugang mit dem Ding an sich gleichzusetzen. Mit diesem Modell ist eine Grundlage geschaffen, Zensur unabhängig vom Verursacher und vom Ziel der Zensurmaßnahmen zu erkennen. Unter diese Definition fällt sowohl der Versuch eines ___________ 1

Julian Paine – Reporter ohne Grenzen.

138

Jürgen Pelzer

autoritativen Staates gewisse Ereignisse oder gewisse politische Gruppen aus dem öffentlichen Raum des Internets auszublenden als auch der Versuch eines Providers, sein eigenes Informationsangebot mit dem Internet gleichzusetzen und sein Monopol zu nutzen um eine ihm gewogene Sicht auf die Welt zu vermitteln (vgl. T-online). Ein zweites Werkzeug neben diesem philosophischen Fundament bietet konkrete Erkennungsmöglichkeiten für Zensur im Internet: Das vier-Schichten Modell des Internets, erfunden von niemand anderem als Tim Berners-Lee:2

II. Die vier Schichten des Internets, Monopole und Zensurgefahr In seinem Buch Weaving the web (zu dt. Der Web-Report) hat Tim BernersLee auf eine große Gefahr für das Internet hingewiesen: Der Verlust der Universalität des Internets. Universalität meint damit den Umstand, dass es kein Gatekeeper im Internet gibt, der gewisse Informationen filtert. Alle Informationen stehen prinzipiell allen Nutzern offen (End to End Prinzip, Netzneutralität). Dieses Grundprinzip des Internets wird immer da gefährdet, wo ein Monopol über alle vier Schichten des Internets angestrebt wird. Die erste Schicht entspricht dabei dem Übertragungsmedium (Kabelverbund, technische Protokolle), die zweite der Hardware (z.B. dem Modem), die dritte die Software (z.B. der Internet Explorer) und die oberste Schicht schließlich den Inhalten selbst. Je größer nun die Durchdrängung der vier Ebenen durch einen Monopolisten ist, desto höher ist die Wahrscheinlichkeit, dass die Inhalte in Ihrer Objektivität und Qualität abnehmen, da bspw. Unternehmen negative Berichterstattung über sich ausblenden. Tim Berners-Lee hat vor allem die großen multinationalen Konzerne im Auge.

III. Arten der Zensur und Ihre Anfrage an die Kontrolle des Internets Tim Berners-Lee Modell der vier Schichten ermöglicht ein gutes Grundgerüst, um das Thema Zensur im Internet abzuarbeiten und dabei die verschiedenen Ebenen der Zensur zu entdecken. Auf der Inhaltsebene gibt es die Zensur gewisser Inhalte – etwa bzgl. Demokratiethemen in China. Mittels Firewalls, Filtern, Sperrungen von Website und einer großen Anzahl an Cyberpolizisten versucht die Regierung Themen der Öffentlichkeit vorzuenthalten. Sie möchte bspw. nicht, dass Ihre Bevölkerung im Internet die Bilder des Tiananmen Massaker bei einer Google-Suche findet. Google duldet diese Zensur seiner Such___________ 2

Berners-Lee (1999), S. 191ff.

InterNET Governance: Zensur, Demokratie und Kontrolle des Internets

139

ergebnisse in China mit der Begründung, dass es besser sei der Bevölkerung 99 % der Inhalte zugänglich zu machen, als aufgrund der Zensur von 1 % der Inhalte den Dienst Google nicht in China anzubieten. Blogger, die unliebsame Berichte veröffentlichen, werden von der Regierung eingesperrt. Bei der Verhaftung zweier Blogger wurde unlängst in den USA die Mitschuld von Yahoo verhandelt. Angeblich habe Yahoo der chinesischen Regierung allzu offen Daten der Blogger übermittelt. Ein Schuldeingeständnis gab es von Seiten Yahoos nicht, aber die Zahlung einer Entschädigung, einen persönlichen Besuch des Yahoo Chefs bei den Angehörigen und die Ankündigung zukünftig einen Fund einzurichten. Reporter ohne Grenzen3 weisen in ihrem Jahresreport auf ähnliche Zensurmaßnahmen in 14 anderen Ländern der Erde, wie Iran, Pakistan, Myanmar (Birma), hin. Es gibt gegen solche Zensurmaßnahmen einige bemerkenswerte Gegenprojekte, wie etwa Freenet4, die durch ein Peer2Peer System die Rückverfolgung der Inhalte für die Überwacher unmöglich machen. Ein ähnliches Prinzip verfolgt das Projekt Psiphon5, bei dem persönliche Kontakte eine wichtige Rolle spielen: Ein Nutzer richtet seinen PC in einem Land ohne Zensur so ein, dass ein Surfer aus einem Land mit Zensur sich in diesen durch eine gesicherte Verbindung einwählt. Dann kann der Surfer in dem Land mit Zensur auch zensierte Seiten aufrufen. Einen anderen Ansatz verfolgt bspw. Picidae6. Dort wird die Zensur wie folgt umgangen: Ein Nutzer gibt auf Picidae.net (oder einer Site, die Picidae ebenfalls betreibt) eine Internetadresse ein, die in seinem Land gesperrt ist. Picidae macht einen aktuellen Screenshot dieser Website und sendet diesen als Grafik an den Nutzer zurück. Momentan ist es noch nicht möglich, die Grafik maschinell auszuwerten, so dass Zensurmechanismen ausgehebelt werden. Auch das Torproject7 arbeitet an der Umgehung von Intenetzensur. Insgesamt ermöglichen solche Maßnahmen und Tools versierten Nutzern eine effektive Umgehung der Filtermaßnahmen. Auf der Ebene der Software lässt sich beobachten, dass manche Browser (T-Online Browser, Internet Explorer) ihre Nutzer standardmäßig auf die eigenen Angebotsseiten im Internet führen. Alarmierend ist der Umstand, dass in der jährlichen ARD ZDF Online Studie 2007 ganz 71 % der Nutzer angeben, dass das Angebot Ihres Providers Ihnen genügt.8 Damit begeben sich diese Nutzer in eine Art freiwillige Zensur. ___________ 3

www.reporter-ohne-grenzen.de. http://freenetproject.org. 5 http://psiphon.civisec.org. 6 www.picidae.net. 7 www.torproject.org. 8 www.daserste.de/studie. 4

140

Jürgen Pelzer

Auf der Ebene des Übertragungsmediums schließlich zeigt sich, dass die Unkontrollierbarkeit des Internets eher ein Mythos ist. Es gibt neuralgische Punkte, an denen Kontrolle stattfinden kann. Die große Befürchtung ist, dass das universale Internet in einen Mix aus staatlichen Netzen auseinanderfällt. Eine weitere Gefahr zeigt sich darin, dass etwa wie bei Handy-Verträgen die Zugangsgeräte günstig verkauft werden, dafür aber nur der je eigene Übertragungsdienst genutzt werden kann. Die Übertragung dieses Prinzips auf das Internet würde die Universalität gefährden und zu einem Zerfall in viele kleine Netze führen.

IV. Kontrolle über das Netz Da das Internet nicht von einem einzelnen Staat administriert und kontrolliert werden kann, stellt sich die Frage wie das Internet kontrolliert werden sollte – und von wem. Momentan ist der Stand der Dinge, dass die Internet Corporation for Assigned Names and Numbers (ICANN)9 die technische Verwaltung als zentrale Registrierungsstelle für IP Adressen übernimmt. Ohne eine solche Adresse ist es nicht möglich Inhalte ins Netz zu stellen oder abzurufen. In Form des Governmental Advisory Committee (GAC)10 haben andere Länder eine beratende Funktion. Die ICANN wiederum untersteht der U.S. Regierung (in Form des US-amerikanischen Handelsministerium (Department of Commerce)). Diese begründet Ihre Vormachtstellung gegenüber anderen Ländern unter anderem damit, dass sich in der Geschichte gezeigt hat, dass die USA am Besten in der Lage seien, die Unabhängigkeit des Internets zu garantieren. Russland hingegen fordert ein größeres Mitspracherecht wie auch China. Eine staatliche Vergabe der IP Adressen, wie manche Länder fordern, wäre für Zensurbestrebungen eine gute technische Basis.

V. Die WSIS Folgeprozesse: Bewegung in Richtung Global Internet Governance Die Frage nach Zensur und Demokratie im Internet läuft auf die entscheidende Frage hinaus: Wer kontrolliert das Internet – und: Wie und von wem kann ein Medium das übernational ist, sinnvoll kontrolliert werden? Der Prozess, der durch diese Fragen ausgelöst wurde, und der mit dem Weltgipfel zur Informationsgesellschaft (WSIS)11 in Tunis 2005 massiv in das öffentliche ___________ 9

www.icann.org. http://gac.icann.org. 11 www.itu.int/wsis. 10

InterNET Governance: Zensur, Demokratie und Kontrolle des Internets

141

Bewusstsein gedrungen ist, wird für die globale Entwicklung der Weltbevölkerung von höchstem Interesse. In den sogenannten WSIS-Folgeprozessen wurden verschiedene Maßnahmen beschlossen, um sich den Herausforderungen zu stellen.12 Eine dieser Prozesse ist das jährliche Internet Governance Forum (IGF)13. Die Installierung des IGF ist die Möglichkeit, Fragen über die Zukunft des Internets auf einer breiten Basis unter Beteiligung aller wichtigen Stakeholder (Regierungen, Privatwirtschaft, Zivilgesellschaft) diskutiert werden. Freilich bedürfen die WSIS Folgeprozesse und die flankierenden Maßnahmen wie etwa der DSF der Institutionalisierung und einer Ausstattung mit gewissen Entscheidungsbefugnissen, da sie sonst auf dem Level eines reinen Diskussionsforum bleiben. Die US-Regierung wehrt sich gegen die Institutionalisierung eines WSIS-Folgeprozesses. Der private Sektor ist aus Sicht der USA der Motor der Internetentwicklung. Trotzdem: Das IGF scheint bisher das am vielversprechendste Forum zu sein, um in einem multi-Stakeholder Dialog die Fragen die sich bezüglich des Internets und seiner Entwicklung stellen, zu diskutieren. Zwei wichtige Bedingungen sind zum einen die Tatsache, dass die Zivilgesellschaft Ihre tragende Verantwortung wahrnimmt und zum anderen, dass die Medien sich der Tragweite dieses Prozesses bewusst werden und sowohl die Qualität als auch die Quantität der Berichterstattung anpassen.

VI. Weiterentwicklung des Internets bedarf leitender Normen: Netzneutralität (NN) Während sowohl die technische Entwicklung als auch die damit eihergehenden reflektierenden und inspirierenden Maßnahmen (Tunis Agenda)14 schnell voranschreiten, wird das Prinzip der Netzneutralität15 zunehmend als leitende Norm diskutiert. Dieses Prinzip wurde vor allem in den USA bekannt im Zuge der Bandweitendiskussion. Die Befürchtung einiger Kreise geht dahin, dass die Kabelfirmen für bestimmte Inhalte bezahlender Firmen eine schnellere Verbindung zur Verfügung stellen und anderen Angebote dadurch nur eine langsame Verbindung erhalten. Netzneutralität besagt in diesem Kontext, dass die Provider die Übertragungsgeschwindigkeit unabhängig vom Inhalt mit der immer gleichen Bandbreite zur Verfügung stellen. Neben dieser Bandweitendebatte ist die Bedeutung von Netzneutralität als Prinzip des Internets noch weitgehender: In Paragraph 70 der Tunis Agenda des WSIS wird gefordert „… the development of globally-applicable principles on ___________ 12

www.globaliswatch.org. www.intgovforum.org. 14 www.itu.int/wsis/docs2/tunis/off/6rev1.html. 15 www.savetheinternet.com. 13

142

Jürgen Pelzer

public policy issues associated with the coordination and management of critical Internet resources.“ In Artikel 2 des Tunis Commitment ist das Ziel von Internet Governance „… that people everywhere can create, access, utilize and share information and knowledge, to achieve their full potential.“ Netzneutralität (NN) meint den universellen reziproken Zugang zu legalen Ressourcen im Internet, wie Inhalte, Dienste und Apllikationen - ohne Eingriff des Providers oder der Regierungen. Außerdem sind nach dem NN Prinzip die Provider nicht verantwortlich für den Inhalt, den sie übertragen. Der freie Handel wird ebenfalls gefordert. NN als Prinzip des globalen Internets steht somit diametral entgegen jeder Form der Zensur. Ein bekannter Provider der für dieses Prinzip der NN eintritt ist der niederländischer Provider XS4All. Er hostete die Seiten zweier niederländischer NGO´s, welche kritisch über Arbeitsbedingungen einer indischen Firma berichteten. Diese Firma klagte XS4All vor Gericht an, da diese den Inhalt trotz Forderung seitens der indischen Firma nicht vom Netz nahmen. Die Firma XS4All gab nicht nach. Dies zeigt auch die besondere Stellung der ISP (Internet Service Provider). Das Hauptanliegen der Vertreter der NN liegt darin, dass die Kontrolle des Inhaltes und der Applikationen in der Hand der Endnutzer bleibt. Kritisch würde es von den Vertretern der NN gesehen, wenn die ICANN beispielsweise dazu überginge gewisse TLD (Top Level Domains) wie etwa .xxx aus moralischen Gründen abzulehnen, da es Aufgabe der ICANN ist, die Prinzipien der Universalität und NN einzuhalten, nämlich die technischen Voraussetzungen zu schaffen, dass jeder sich mit jedem vernetzen kann. Nach Auffassung der Vertreter der NN gibt es keinen Grund, warum das Recht auf Informationsfreiheit im Internet an nationalen Grenzen aufhören sollte. Die Nähe von freiem Handel und einem neutralen Internet wird von den Befürwortern der NN gerne betont. So betont ebay in einer Anhörung vor der U.S. Federal Trade Commission16: „We don’t want the U.S. government to send the signal that is it okay to introduce discrimination into the internet, because we have a realistic sense of how some governments will interpret that signal. […] Abandoning Net Neutrality in the U.S. would be an open invitation to other countries to do the same and would undercut any efforts by our trade negotiators to prevent discrimination against U.S. companies“. Google hat sogar angesichts der Überwachungspläne der Bundesregierung vom U.S. Handelsministerium gefordert, Einschränkungen der freien Internetnutzung wie Handelsbarrieren zu behandeln. NN ist ein Prinzip, es bedarf der Umsetzung in Richtlinien. Dem entgegen stehen Zensur- und Kontrollinteressen, allen voran die Zensur undemokrati___________ 16 www.internetgovernance.org/pdf/NetNeutralityGlobalPrinciple.pdf und www.ftc. gov/os/comments/broadbandworkshop/527031-00053.pdf.

InterNET Governance: Zensur, Demokratie und Kontrolle des Internets

143

scher Staaten. Aber auch Unternehmen, die eine vertikale Integration anstreben, stehen dem Prinzip der NN entgegen. Als Motor einer Fortentwicklung in der Umsetzung der NN auf globaler Ebene bleibt die Zivilgesellschaft der wichtigste Faktor.

VII. Fazit: Google, die Jugend und die wahren Gefahren Jüngst hat eine Studie der Sheffield University17 es an den Tag gebracht: Die Generation google kann nicht wirklich mit dem Medium Internet und dem Informationsangebot umgehen. Die Jugendlichen sind in der Regel nicht in der Lage, Informationen im Internet zu werten. Google und Wikipedia bleiben die einzigen Informationsquellen. Stellt man sich nun einmal das Szenario vor, dass Google seine Inhalte zensieren würde, ist schnell klar, dass die Hauptinformationsquelle der Jugendlichen eine zensierte wäre. Für eine Informationsgesellschaft, deren Rohstoff zunehmend Informationen und deren professionelle Bewertung und Weiterverarbeitung ist, ist dieser Zustand nicht nur unwirtschaftlich, sondern auch aus ethischen Gründen nicht wünschenswert. An dieser Stelle stellt sich die Forderung an die Politik, die Schulen darin zu unterstützten, den Schülern Medienkompetenz im Umgang mit dem Internet beizubringen um sie für das Thema Zensur sensibel und für Ihren Beitrag zur Informationsgesellschaft fit zu machen.

Literatur Berners-Lee, Tim (1999): Der Web Report, München.

___________ 17

www.innovations-report.de/html/berichte/studien/bericht-108554.html.

Der gläserne Mensch RFID-Technik, Cookies etc. als Chance für die Wirtschaft und Gefahr für den Menschen? Von Stefan Klein

I. Die Vermessung und Vernetzung der Welt Die Erarbeitung zunehmend präziser Modelle der Wirklichkeit ist eines der zentralen Merkmale der Moderne.1 Die Satelliten-Aufnahmen, die für GoogleTM Maps verwendet werden, sind nur ein ebenso aktuelles wie populäres Beispiel. Granularität und Aktualität – bis hin zur Echtzeit – der Modelle nehmen zu; zugleich erlaubt die digitale Repräsentation vielfältige Formen der Bearbeitung, Erweiterung oder Manipulation, etwa mit Zusatzinformationen oder Werbung versehene Karten. Die Welt wird gleichsam zu einem gewaltigen Panoptikum in dessen Zentrum beobachtend und beobachtet der Mensch sitzt. Zuboff2 hat die Transformation aus betrieblicher Sicht beschrieben und den Begriff der Informatisierung geprägt. Neben das Konzept der Automatisierung von Rechenschritten oder auf numerische Operationen rückführbaren Abläufen tritt alternativ der Aufbau informationeller Repräsentationen oder Modelle, die verwendet werden, um die Transparenz komplexer Abläufe zu erhöhen und – wie in einem Cockpit oder dem NASA Kontrollraum – Abläufe zu kontrollieren und zu steuern. Die ganzheitliche, sinnliche Begegnung mit der Welt, konkret beschrieben am Befühlen eines Ventils, wird durch eine indirekte, computer-vermittelte Begegnung in Gestalt des Modells ergänzt oder gar ersetzt. Modelle sind dabei zielgerichtete, teilweise reduzierte, aber auch teilweise gezielt erweiterte Abbilder der Wirklichkeit. Sie werden zunehmend Teil unserer Wirklichkeit und prägen unsere Wahrnehmung wie auch unsere Interaktion mit der Wirklichkeit und unsere Handlungsoptionen.3 Das Holodeck in der Fernsehserie Star Trek vermittelt in ___________ 1

„Vermessung der Welt“ ist der Titel eines historischen Romans von Kehlmann (2005) über Alexander von Humboldt und Carl Friedrich Gauß. 2 Vgl. Zuboff (1988). 3 Vgl. Kelly (2005).

146

Stefan Klein

visionärer und fiktionaler Weise einen Eindruck davon, dass wir durchaus mit künstlichen Repräsentationen interagieren und diese eine realitätsnahe oder realistische Vorstellung vermitteln können, die im Grenzfall täuschend echt sein kann. Umfassende Vernetzung und globale Kommunikationsinfrastrukturen gepaart mit weitreichenden Eingriffsmöglichkeiten in Gestalt von Kontrolle, Auswertung, aber auch konkreter Steuerung, erweitern und begrenzen zugleich menschliche Handlungsräume. Komplexe Computersysteme etwa ermöglichen erst die Steuerung moderner Flugzeuge durch die Piloten und schaffen damit aber auch spezifische Abhängigkeiten von der Technik. Computersimulationen befähigen Piloten zu sicherem Landen von Flugzeugen im Nebel als würden sie durch den Nebel hindurchschauen können, da sie realistische Bilder des Landegebiets erzeugen. Digitale Repräsentationen werden damit gewissermaßen zu prothetischen Erweiterungen4 unseres begrenzten Körpers. Alternativ kann – der Logik der Automatisierung folgend – die Steuerung des Landevorgangs auch über den Autopiloten erfolgen, ein komplexes System zur Steuerung der Flugbewegung anhand vorgegebener Parameter wie Landepunkt, Anflugwinkel etc., das vielfältige Rückkopplungen von Sensoren in der Umwelt auswertet.

II. Versuch einer Einordnung und Bewertung von RFID Bei dem Versuch gemeinsame Wirkungsmuster in dem Prozess der informationstechnisch vorangetriebenen Modernisierung zu identifizieren, treten einzelne technische Innovationen leicht in den Hintergrund oder sie werden im Verbund mit vielfältigen anderen Formen und Facetten der technischen Entwicklung als einzelne Bausteine kaum mehr greifbar. Dies entspricht der Konstruktionslogik von Informationssystemen und einem sozio-ökonomisch eingebetteten Verständnis der Technik. Gleichwohl erscheint der Versuch einer Positionsbestimmung der RFID Technik lohnend, da sie gewissermaßen zum Symbol der angedeuteten Prozesse der Vermessung und Vernetzung der Welt geworden ist.

1. Aktuelle Entwicklungen und Trends In erster Annäherung handelt es sich bei Radio Frequency Identification (RFID) um kleine elektronische Datenträger bestehend aus einem Mikrochip ___________ 4 Beispiel für eine solche Prothese ist die Verbindung von Helm eines Kampfpiloten und Bordmaschinengewehr. Das Gewehr folgt der Kopfbewegung. (Quelle: http://tri. army.mil/LC/CS/csa/apihadss.htm, Zugriff 11.11.2007).

Der gläserne Mensch

147

und einer Antenne, die berührungslos gelesen und beschrieben werden können. Die Datenträger können selber senden oder im Rahmen einer entsprechenden Infrastruktur lokalisiert und abgefragt werden. Wie kleine Wetterbojen können diese, millionenfach verteilt, präzise und aktuelle Einblicke bezüglich der von ihren Sensoren erfassten Parameter geben und damit – im Bild der Wettervorhersage – detaillierte Einblicke in das Mikroklima und – bei entsprechenden Vorhersagemodellen – auch punktgenaue Wetterprognosen vermitteln. Fleisch und Mattern5 diskutieren die Verbreitung von RFID unter dem Schlagwort „Das Internet der Dinge“ und beschreiben damit eine Ausweitung der bisher überwiegend menschenzentrierten Kommunikationsinfrastruktur in den Bereich der unbelebten Objekte hinein, durch die es zu erweiterten Repräsentationen und z.T. automatisierten Kommunikations- und Steuerungsmöglichkeiten kommt. In ähnlicher Weise beschreibt Kelly6 die Transformation im Zuge der New Economy: „We are now engaged in a grand scheme to augment, amplify, enhance, and extend the relationships and communications between all beings and all objects.“

Allerdings sollten Prognosen über radikale und schnelle Transformation der gesamten Wirtschaft durchaus mit Vorsicht betrachtet werden. So weitreichend die Potenziale sind, so gibt es in der konkreten Umsetzung zumeist erhebliche Hindernisse und Verzögerungen. Das amerikanische Beratungsunternehmen Gartner Corporation etwa legt jährlich Technologieprognosen in Form von Modewellen („Technology Hype Cycles7„) vor, in denen die Stimmungsumschwünge in der Bewertung neuer Technologien dokumentiert werden. In der Fassung vom Juli 2006 werden zwei Varianten von RFID dokumentiert (auf Einzelobjektebene bzw. auf der Ebene eines Kartons oder einer Palette), deren verbreiteter Einsatz in 5–10 Jahren erwartet wird.8 Aus der Position auf dem abfallenden Teil der Modewelle wird zugleich deutlich, dass die erste Begeisterung mittlerweile bereits einer gewissen Ernüchterung gewichen ist.

___________ 5

Vgl. Fleisch/Mattern (2005), S. V–VI. Vgl. Kelly (1997). 7 „Gartner’s Hype Cycles offer an overview of relative maturity of technologies in a certain domain. They provide not only a scorecard to separate hype from reality, but also models that help enterprises decide when they should adopt a new technology.“ http:// www.gartner.com/DisplayDocument?id=453684 8 In der noch nicht frei zugänglichen Fassung von 2007 hat sich die Position beider RFID Einträge geringfügig entlang der Kurve verschoben (vgl. Computerzeitung 32–33, 13.08.2007, S. 4). 6

148

Stefan Klein

Quelle: http://www.gartner.com/it/page.jsp?id=495475, Hervorhebungen nicht im Original.

Abbildung 1: Gartner Technology Hype Cycle

2. Technik im Kontext Die technischen Grundlagen von RFID sind aus der Luftfahrt seit langem bekannt: der Transponder befindet sich im Flugzeugbug und ermöglicht einer Bodenstation die Identifikation des Flugzeugs. Beschrieben wurden die technischen Grundlagen bereits 1948 von Stockmann.9 Miniaturisierung, beginnende wirtschaftliche Massenproduktion und Standardisierung ermöglichen es mittlerweile, neue Anwendungsgebiete zu erschließen. Derzeit gibt es verschiedene technische Varianten der RFID Chips entlang eines Spektrums von passiven Chips ohne eigene Energieversorgung, die nur ausgelesen werden können bis zu aktiven Chips mit eigener Energieversorgung, die in einem Umkreis von derzeit etwa 35–100 m senden können. Allerdings bedarf es für wirtschaftliche Anwendungen einer komplexen Infrastruktur aus Sensoren, Leseeinheiten und Kommunikationsinfrastruktur zur Erfassung, Sammlung und Übertragung der Daten sowie Datenbanken zur Speicherung und Programme zur Auswertung der Daten. Das Beispiel der Wettervorhersage veranschaulicht, dass es zum Teil sogar neuer Konzepte und ___________ 9

Vgl. Stockman (1948).

Der gläserne Mensch

149

Theorien bedarf, um aus einer Fülle von Einzeldaten verwertbare Informationen und Interpretationen zu gewinnen. Daraus folgt, dass RFID gar nicht für sich genommen und isoliert beurteilt werden kann, sondern stets in einem breiteren sozio-ökonomisch-technischen Gestaltungs-, Verwendungs- und potenziellen Gefährdungskontext betrachtet werden muss. Technik erscheint hier nicht nur als vielseitig und interpretativ flexibel10, sondern sie verschwindet z.T. sogar hinter konkreten Anwendungen. Die Gestaltung von RFID Lösungen findet in einem komplexen institutionellen Umfeld statt, an dem – in unterschiedlichen Konstellationen – Organisationen und Gremien wie etwa ECR Global, dem United Nations Centre for Trade Facilitation and Electronic Business (UN/CEFACT), GS1, die sich der Standardisierung und dem Aufbau von Datenpools widmen, aber auch Zoll- und Finanzbehörden zu Kontrollzwecken oder Datenschutzbeauftragte beteiligt sind.

3. Quid novi – quid non novi? Mitunter hilft die Frage, was denn nun eigentlich neu oder eben gerade nicht neu an einer Technik ist, um zu einer ersten, vorläufigen Einschätzung zu gelangen (vgl. die Übersicht in Tabelle 1). In der Einleitung haben wir RFID implizit in den Kontext eines der zentralen Modernisierungsprozesse gestellt. Neu oder anders ist dabei die mittlerweile erreichte Granularität und Aktualität der verfügbaren Daten.11 Was dies im Hinblick auf personenbezogene Daten bedeutet, kann man sich am Beispiel der Mobiltelefonie recht gut veranschaulichen: die Mobilfunkgesellschaften lokalisieren unsere mobilen Endgeräte in Echtzeit in einem Radius von wenigen Metern, um den Aufbau von Gesprächen und die Erreichbarkeit sicherzustellen. Unter dem Begriff der ortsbezogenen Dienstleistungen (location based services) wird bereits seit geraumer Zeit die gezielte Auswertung der Zeit-Raum-Koordinaten für den Aufbau weiterreichender Dienste wie dem Lokalisieren ausgewählter Personen (Kinder, Freunde)12, dem Angebot relevanter Informationen oder gar Werbung diskutiert. ___________ 10

Vgl. Doherty et al. (2006). Vgl. Fleisch/Müller-Stewens (2007) diskutierten dieses Phänomen und die Auswirkungen für das Management unter Verwendung der Metapher der höheren (Informations-/Bild)Auflösung: „High-Resolution Management“. 12 Ein Beispiel für den moralisch fragwürdigen Einsatz der Technologie findet sich in einem britischen Pilotprojekt an einer Schule. Die Schüler bekommen dort Chips in die Uniform eingenäht. Lesegeräte an den Türen der Klassenräume registrieren die Anwesenheit der Schüler. So können Eltern benachrichtigt werden, falls ihre Zöglinge nicht anwesend sind. Quelle: http://www.spiegel.de/netzwelt/web/0,1518,512793,00.html, Zugriff: 11.11.2007. 11

150

Stefan Klein

Millionen von Menschen haben sich somit freiwillig mit Peilsendern ausgestattet, die sie fast ständig mit sich führen. Im Kontext der Nutzung von RFID werden Objekte unterschiedlicher Granularität (z.B. Container, Palette oder Zahnpastatube) identifizierbar und in ihren Bewegungen – bei entsprechender Infrastruktur – lückenlos verfolgbar. Der Wert wie auch die potenzielle Bedrohung der so erhobenen und erfassten Informationen hängen von den jeweiligen Verwendungskontexten und Verwendern ab. Kritisch – und dies gilt für jede Art von Information13 – ist dabei, dass sich einmal für einen spezifischen Zweck erhobene Informationen nur sehr begrenzt gegen unbefugten Gebrauch schützen lassen. Zudem fehlen häufig Regeln über die Speicherungszeiträume (derzeit heftig unter dem Begriff der „Vorratsdatenhaltung“ diskutiert) und Regeln über das Zusammenführen von Informationsbeständen. Derzeit entstehen zunächst Inseln von Infrastrukturen zur automatischen Identifizieren von Objekten (AutoID), die sich jedoch technisch relativ problemlos verknüpfen lassen.

___________ 13 Zu den Merkmalen von Informationsgütern siehe Klein/Teubner (1999): „Im Vergleich zu den klassischen industriell gefertigten Waren zeichnen sich Informationen durch folgende Besonderheiten aus […]: – Informationen sind immateriell. Um sie der menschlichen und maschinellen Verarbeitung zugänglich zu machen, sind sie an materielle Trägermedien gebunden . – Einmal vorhandene Informationen lassen sich beliebig vervielfältigen; die Grenzkosten der (Re-) Produktion liegen nahe bei Null. – Da bei der Nutzung von Informationen nicht die Originale sondern Kopien zum Einsatz kommen, verbrauchen sich Informationen nicht. Bei einer Übertragung steht die Ausgangsinformation am Ursprungsort nach wie vor zur Verfügung. – Informationen unterliegen keinem Verschleiß, lediglich die Trägermedien unterliegen einer Abnutzung oder der Gefahr einer Zerstörung. Dennoch sind Informationen einem Wertverlust durch Altern ausgesetzt: Informationen können ihre Relevanz für den Einsatzzweck verlieren. Daraus ergibt sich auch, daß Informationen nur begrenzt lagerfähig sind […]. – Informationen lassen sich erweitern und verdichten. Die Erweiterung von Informationen resultiert aus der Vermehrung, die sich durch das Zusammenfügen und Auswerten von Ausgangsinformationen ergeben. Die Verdichtung erfolgt durch Integration, Konzentration und Zusammenfassung von Ausgangsinformationen. Informationen lassen sich extrem leicht und mit hoher Geschwindigkeit transportieren. – Informationen lassen sich nur schwierig gegen unbefugten Gebrauch schützen. – Informationen neigen zur Diffusion; einmal verbreitet sind sie kaum rückrufbar, die Korrektur oder der Rückruf mangelhafter oder falscher Informationen ist schwierig. – Der Wert von Informationen läßt sich erst nach deren Nutzung bestimmen …“.

Der gläserne Mensch

151

Tabelle 1 Bekanntes und Neues Quid non novi

Quid novi

Technische Prinzipien seit langem bekannt.

Neue Qualität durch Kombination von Miniaturisierung, Leistungssteigerung und Serienfertigung von aktiven Komponenten, Kommunikationsinfrastruktur (einschl. GPS) und erweiterten Auswertungskapazitäten.

Automatische Identifikation von Objekten (AutoID) durch Vergabe von Identifikationsschlüsseln (z.B. Seriennummern) und Markierung (z.B. EAN).

Zunehmende Granularität,

Organisationskonzepte im Logistikbereich (Vendor Managed Inventory, Tracing & Tracking).

Konsequente Anwendung und Rückverfolgung auf Einzelproduktebene.

Multiple Zwecke der Informationsverwendung unter Verwendung von Kundeninformationen (CRM, Warenkorbanalyse etc.).

Neue Qualität von Informationen durch Speichern und Zusammenführen hoch detaillierter Informationsbestände.14

Beurteilung von Sachverhalten auf der Basis ungeprüfter und z.T. praktisch nicht mehr kontrollierbarer Informationsbasen - „epistemische Unselbständigkeit“15.

Kommunikationstechnik und Vernetzung verstärken die Risiken unkontrollierter Verbreitung und Verwendung von (möglicherweise fehlerhafter) Information. Die ungleich verteilte Verfügbarkeit von Informationen prägt das Meinungsbild.

Markierung für Laien nicht entschlüsselbar, z.T. nicht erkennbar, ohne physischen oder visuellen Kontakt (berührungslos, verdeckt) auslesbar.

Zugleich wirken schnellere Kommunikation und Ausweitung der Datenbasis potenziell auch als Korrektiv.

4. Beispiele und Szenarien Die derzeitigen Anwendungsgebiete sind ausgesprochen vielfältig und umfassen so unterschiedliche Bereiche wie sichere Lieferketten in der Logistik einschließlich Kontrolle des Warenflusses und Sendungs(rück)verfolgung, ___________ 14 2002 wurden ca. 5 Exabytes (entspricht etwa dem 37000 fachen Umfang der Library of Congress und 800 Megabyte pro Kopf der Weltbevölkerung) neuer Informationen gespeichert. Die Informationsmenge hat sich in einem Zeitraum von 3 Jahren verdoppelt. (Quelle: http://www2.sims.berkeley.edu/research/projects/how-much-info2003/execsum.htm#summary; Zugriff 11.11.2007). 15 Mittelstraß (1997), S. 62f.

152

Stefan Klein

Optimierung von Fahrzeugflotten, Überwachung von Wertgegenständen, Kontrolle und Identifizierung von Produktfälschungen.

a) Grenzüberschreitender Containertransport In einem Pilotversuch hat Heineken in Kooperation mit IBM, SAP und dem niederländischen Zoll den Versand von Flaschenbier in Containern mit einem elektronischen Siegel (tamper-resistant embedded controller – TREC) untersucht.16 Der Pilotversuch ist Teil einer Initiative zur Entwicklung elektronisch gesicherter Handelswege (secure trade lanes17). Das elektronische Siegel (auf der Basis von RFID bzw. verwandten Techniken) ermöglicht: –

die Lokalisierung der Container (in Verbindung mit einer GPS Infrastruktur),



die Kontrolle definierter Parameter wie Temperatur,



die Kontrolle, ob der Container geöffnet wurde und falls ja, ob von autorisierten Personen.

Aus Sicht von Heineken gibt es neben dem Interesse an der Verfolgung des Containers, das Interesse an einer vereinfachten und beschleunigten Zollabwicklung auf der Basis des Nachweises der Integrität der Sendung. Dies setzt entsprechende Standards, Regulierung und Abstimmung zwischen den Zollbehörden im Export- und Importland voraus. Die Zollbehörden haben ein offensichtliches Interesse an dem Aufbau kontrollierbarer und verlässlicher Infrastrukturen, um die physischen Stichprobenkontrollen auf kritische Fälle konzentrieren zu können und zugleich einen Beitrag zur Reduktion administrativer Lasten zu leisten.

b) Lebensmittelhandel Angesichts von Zwischenfällen wie Fleischskandal oder dem Rückruf kontaminierter Spielwaren, besteht ein verstärkter Druck auf den Handel zum Aufbau von Informationsinfrastrukturen, die Ursprungsnachweis und die Nachverfolgung von Produkten erlauben. Aus Sicht der Handelsunternehmen besteht das vorrangige wirtschaftliche Interesse in einer effizienteren Logistik, um größere Produktsortimente mit z.T. kurzen Haltbarkeitszeiten bewirtschaften zu können. An der Schnittstelle zum Kunden entsteht die Möglichkeit, erweiterte ___________ 16

Vgl. http://www.itaide.org/apps/pub.asp?Q=2146, (Zugriff: 11.11.2007). Vgl. http://www-03.ibm.com/industries/travel/doc/content/solution/1761688106. html, (Zugriff: 11.11.2007). 17

Der gläserne Mensch

153

Selbstbedienungsinfrastrukturen aufzubauen, etwa mit RFID Leseeinheiten ausgestattete Einkaufswagen, die jeweils den aktuellen Wert der Einkäufe anzeigen und an einem definierten Punkt automatisch einen Zahlvorgang auslösen. c) Gesundheitswesen Derzeit besteht eine akute Bedrohung der öffentlichen Gesundheit durch gefälschte Medikamente einerseits und unzureichende Nutzung vorhandener Informationen (etwa bezüglich kritischer Interaktionen) oder Verwechslung von Medikamenten oder Fehldosierungen im Krankenhausumfeld andererseits. Für den zweiten Problemkreis hat die Universitätsklinik Jena 2006 ein RFIDbasiertes Medikamentenverfolgungssystem installiert. Stationäre Patienten erhalten ein RFID Armband, so dass die jeweils verordneten Medikamente zugeordnet und in der elektronischen Patientenakte dokumentiert werden können.18 Für den ersten Problemkreis sind die technischen Lösungsbausteine im Prinzip bekannt (Identifikation und Markierung von Medikamenten etwa durch RFID und Aufbau einer Infrastruktur zur Sendungsverfolgung und dem Identitätsnachweis am Verkaufspunkt). Allerdings würde die konkrete Umsetzung ein konzertiertes Vorgehen von Gesetzgebung, Behörden, Industrie und Apotheken(verbänden) erfordern. Zudem wäre die Frage zu klären, ob die Zuordnung von identifiziertem Medikament zu Patient gespeichert werden darf und soll, da nur auf diese Weise eine ggf. notwendiger Rückruf wirksam durchgeführt werden kann. 5. Ziele und Zwecke der Informationssammlung auf Basis automatischer Identifikation Ziele und Verwendungsmöglichkeiten der auf automatischer Identifikation (AutoID) von Objekten basierenden Repräsentationen oder Modelle sind ausgesprochen vielfältig: –

Automatische Identifikation ist zum Teil erforderlich, um Dienstleistungen effizient zu erbringen (Roaming im Mobilfunk, d.h. die fast globale Erreichbarkeit eines Mobilfunkteilnehmers).19

___________ 18 Vgl. http://www.computerwoche.de/heftarchiv/2006/23/1214817/index.html (Zugriff 11.11.2007) 19 Ich verwische an dieser Stelle bewusst die Grenzen zwischen verschiedenen Technologien (Mobilfunk und RFID), um Aufmerksamkeit dafür zu schaffen, dass die konkrete technische Implementierung nur begrenzten Einfluss auf die erzielten oder erzielbaren Wirkungen hat. Darüber hinaus ist die Mobilfunkinfrastruktur aus meiner Sicht gut geeignet, die Grundprinzipien von RFID-basierten Systemen zu veranschaulichen.

154

Stefan Klein



RFID Markierungen auf Paletten oder Umverpackungen dienen in erster Linie der effizienten Sendungsverfolgung, der Lokalisierung einzelner Sendungen oder allgemeiner auch Kontrollzwecken.



RFID Markierungen auf einzelnen Produkten werden unter anderem als Echtheitsnachweis verwendet; sie werden im Rahmen der Warenwirtschaft genutzt (Überwachung von Haltbarkeitsdatum etc.) oder eben auch für neue Formen der Selbstbedienung und Bezahlung im Supermarkt.

AutoID Informationsinfrastrukturen können für verschiedenartige Zwecke genutzt werden. Die Verbindung von Zweck und erforderlicher oder eingesetzter Technik ist in den meisten Fällen weder deterministisch noch eindeutig. Die Beispiele in Tabelle 2 zeigen partiell durchaus gleichgerichtete Interessen am Aufbau von Informationsinfrastrukturen, wenn auch aus verschiedenen Gründen. Sie veranschaulichen, dass Nutzen und Missbrauchspotenziale oft nah beieinander liegen. Sind die Daten einmal erhoben, können sie mit anderen Daten verbunden oder für andere Verwendungskontexte zugänglich gemacht werden.

Tabelle 2 Beispielhafte Motive und Bedenken bezüglich erweiterter Informationsdienste, differenziert nach Initiatoren und Adressaten Adressat

Wirtschaft

Staat

Bürger

Wirtschaft

Lieferkettenmanagement (tracing & tracking), innovative Logistikkonzepte (VMI)

Reduktion administrativer Lasten z.B. durch Systemprüfung (AEO etc.), Nachweis des Einhaltens von Regeln (Compliance).

Erweiterung der Leistungsqualität, Kopplung detaillierter Produktinformationen mit Kundeninformationen (CRM). Individualisierung von Dienstleistungen.

Bedenken

Ungewollte Weitergabe betrieblicher Informationen an Dienstleister, Handelspartner und (potenzielle) Wettbewerber.

Erweiterte Kontrollund Überwachungsmöglichkeiten staatlicher Behörden: das gläserne Unternehmen.

Widerstände der Kunden, Risiken durch Kompromittierung von Informationsbeständen.

Initiator

Der gläserne Mensch Staat

Bedenken

Bürger

Bedenken

155

Verbesserung von Sicherheit und Kontrolle von Zoll- und Finanzbehörden, Schutz vor fehlerhaft deklarierten Importen. Markierung von Geldscheinen zur Nachverfolgung des Bargeldumlaufs.

Effizienzsteigerung von Verwaltungsabläufen. Etwa auch militärische Logistik.

Ausweise mit biometrischen Kennzeichen und RFID Chip zur effizienteren und verlässlicheren Identifikation und Kontrolle.

Risiken durch nicht gerechtfertigtes oder zu weitreichendes Systemvertrauen oder Kompromittierung der Systemintegrität.

Die gläserne Behörde bzw. Verwaltungseinheit, unkontrollierte Weitergabe und Kombination von Daten ggf. auch durch oder an Dritte.

Verlust der Kontrolle über die erhobenen Informationen etwa durch Weitergabe außerhalb der Jurisdiktion, z.B. erzwungene Amtshilfe für Drittländer.

Verlangen von Authentizitätsnachweisen und Sicherung der Leistungsqualität und Prozesssicherheit (gegen Produktfälschungen, schnelle und präzise Rückrufe etc.). Individualisierte und teilautomatisierte Dienstleistungen durch eindeutige Kundenidentifikation.

Verlässliche und effiziente Dienstleistungen auch über die Grenzen von Verwaltungseinheiten hinweg (eServices).

Überwachung von Kindern, Kranken etc.

Missbrauchsmöglichkeiten personenbezogener Informationen: Weitergabe, unkontrollierte Vernetzung von Informationsbeständen.

Unkontrolliert Verwendung von Bürgerinformationen etwa zu Kontrolloder Überwachungszecken.

Scheinsicherheit und zunehmende Abhängigkeit von sozio-technischen Systemen, die nicht fehlerfrei sind. Missbrauchsmöglichkeiten durch unbefugte Dritte.

Wir finden im Wesentlichen drei Akteursgruppen – Industrie, staatliche Organe und öffentliche Verwaltung sowie Bürger – deren je unterschiedliche Zielsetzungen durch AutoID-Lösungen adressiert werden. Die verwendeten Mechanismen ähneln sich: – Identifikation von Personen oder Objekten, – Beobachtung und Dokumentation von Personen- bzw. Objektbewegungen, – automatische Auswertung von Informationen.

156

Stefan Klein

Die Zwecke bewegen sich in einem Spektrum von Effizienzsteigerung, Sicherheit und Beherrschbarkeit höherer Komplexität. Der Verweis auf effiziente und sichere Versorgungsketten bzw. die Sicherheit der Bürger und Bekämpfung von Verbrechen werden zur Begründung und Rechtfertigung des Aufbaus von Informationsinfrastrukturen verwendet. Allerdings werden dabei der Preis dieser Maßnahmen und die möglichen Nebenwirkungen wenig beachtet, als wenig gravierend oder durch den Zweck gerechtfertigt angesehen. Während also die grundsätzliche Logik der informationellen Repräsentation und die primären Zwecke im Grundsatz akzeptiert werden, beziehen sich die Einwände einerseits auf die Verlässlichkeit des Systems und Nebenwirkungen eines breiten Einsatzes (Elektrosmog) und andererseits auf kaum kontrollierbare Missbrauchsmöglichkeiten (unbefugter Zugriff auf die Objekt- oder Personeninformationen).

III. Öffentliche Wahrnehmung und Bewertung von Risiken Die öffentliche Diskussion über Nutzen und Risiken des RFID Einsatzes wird kontrovers geführt. Sehr vereinfacht gibt es eine Frontstellung zwischen Industrie und Verwaltung auf der einen Seite und Vertreter von Bürgerinteressen und Datenschutz auf der anderen. Auf politischer Ebene wird grundsätzlich ein Regelungsbedarf anerkannt, allerdings bleibt umstritten, ob der Weg gesetzlicher Regelungen und Schutzmaßnahmen oder der Selbstkontrolle der Wirtschaft gewählt werden soll.

1. Utopien und Dystopien Nicht nur aufgrund der schnellen technischen Entwicklung, sondern auch wegen der Fülle des erforderlichen technischen Spezialwissens, sind die in der Öffentlichkeit verbreiteten Vorstellungen häufig unscharf oder fehlerhaft. Standage veranschaulicht anhand des historischen Vergleichs der öffentlichen Reaktion auf die Einführung des Telegraphen und die Verbreitung des Internet, dass Utopien und Dystopien zu erwartende Begleiterscheinungen des grundlegenden technischen Wandels sind: „The hype, scepticism and bewilderment associated with the Internet – concerns about new forms of crime, adjustments in social mores, and redefinition of business practices – mirror precisely the hopes, fears and misunderstandings inspired by the telegraph. […] Given a new invention, there will always be some people who see only its potential to do good, while others see new opportunities to commit crime or make money. We can expect exactly the same reaction to whatever new inventions appear in the twenty-first century. Such reactions are amplified by what might be

Der gläserne Mensch

157

termed chronocentricity - the egotism that one’s own generation is poised on the very cusp of history.“20

Zur Erklärung der weit auseinander klaffenden Bewertungen von technischen Innovationen in Gesellschaften prägte Ogburn in seinem Werk „On Culture and Social Change“ (1964) den Begriff der kulturellen Verzögerung (cultural lag). Technische Innovationen verbreiten sich mit unterschiedlicher Geschwindigkeit in Gesellschaften und es kommt zu durchaus divergierenden Rezeptions- und Aneignungsmustern. Die Idee der kulturellen Verzögerung besagt, dass sich unterschiedliche Teile der Gesellschaft unterschiedlich schnell auf die (technischen) Veränderungen einstellen. In der Folge entstehen Ungleichgewichte und häufig extreme Bewertungen und Erwartungen hinsichtlich der Wirkungen der Technik.21 Die Diskussion über Vermessung und Vernetzung der Welt hat durchaus utopische Aspekte: mit einer weitreichenden informationellen Repräsentation gehen Vorstellungen erweiterter Transparenz und effizienterer sowie (weitgehend) fehlerfreierer Steuerung von Prozessen einher. Sichere Identifikation von Objekten soll dazu beitragen, Risiken zu reduzieren und Verbrechen – vom Ladendiebstahl bis zur Produktfälschung – einzudämmen (vgl. auch Tabelle 2). Widerstand gegen die Verbreitung von RFID aus Konsumentensicht formiert sich vor allem aus Gründen des Datenschutzes.22 Der Film „Minority Report“ von Steven Spielberg vermittelt ein dystopisches Szenario eines auf elektronischer Personenidentifikation basierenden Wirtschafts- und Rechtssystems, das politisch sanktioniert wird und in der Gesellschaft weitgehend akzeptiert ist. Personenidentifikation ist allgegenwärtig und wird sowohl von Behörden als auch Unternehmen extensiv genutzt. Ein System zur Mordprävention, das zunächst als große gesellschaftliche Errungenschaft betrachtet wird, gerät im Verlauf der Geschichte außer Kontrolle. „Im Jahre 2054 werden in Washington D.C. keine Morde mehr begangen. Ein genialisches, aber höchst umstrittenes System ermittelt den potenziellen Mörder, bevor er seine Tat begehen kann, und die Polizisten des „Precrime“ Instituts schlagen Augenblicke vor der Bluttat zu. Das Institut untersteht John Anderton, einem entschlossenen Befürworter des Systems. Doch als sein Name eines Tages selber von dem System als zukünftiger Mörder herausgegeben wird, wird aus dem Jäger der Gejagte. … Wenn etwa John Anderton (Tom Cruise) auf seiner Flucht durch eine Einkaufspassage läuft, werden seine Augäpfel von speziellen Kameras abgetastet und von allen Seiten sprechen ihn gewaltige Werbehologramme von Firmen wie etwa „American

___________ 20

Standage (1998), S. 199. Ogburn gilt auch als Pionier der Technikfolgeabschätzung (technology assessment), vgl. Fisher/Wright (2001) und http://de.wikibooks.org/wiki/Soziologische_Klassi ker/_Ogburn,_William_F. (Zugriff: 11.11.2007). 22 Für eine kurze Übersicht über Risiken von RFID aus Konsumentensicht vgl. http:// www.rfid-journal.de/rfid-risiken.html (Zugriff 11.11.2007). 21

158

Stefan Klein

Express“ oder „Nokia“ mit Namen an und stellen ihm auf seine Person zugeschnittene Angebote vor; ebenso sind Zeitungen animiert und die neuesten Nachrichten „fließen“ sofort ins Bild und an die häufig verregneten Straßenschluchten werden gesäumt von haushohen Videotafeln.“23

2. Der Diskurs zur Risikogesellschaft Der Diskurs zur Risikogesellschaft bietet aus meiner Sicht eine aufschlussreiche Interpretation zur Entwicklung von AutoID Infrastrukturen. Die Entwicklung von Wirtschafts- und Verwaltungsstrukturen in der Moderne geht einher mit der Verbreitung technisch produzierter Risiken. In der Folge wird der Modernisierungsprozess „‚reflexiv‘, sich selbst zum Thema und Problem“.24 So führt der Aufbau hoch-effizienter Logistiksysteme im Lebensmittelhandel zu einer weitgehend verlässlichen, rückverfolgbaren Versorgung mit einer großen Vielfalt von Produkten, hinter denen jeweils komplexe Lieferketten stehen. Allerdings basieren die logistischen Lösungen auf organisatorischtechnischen Systemen, die ihrerseits nicht fehlerfrei und verletzlich sind und damit missbraucht werden können. Zur Kontrolle dieser Systeme, werden wiederum andere organisatorisch-technische Systeme aufgebaut, die ihrerseits auch wieder fehlerhaft und verletzlich sind. Mit Watzlawick könnten wir formulieren, die Lösungsstrategie ist „mehr desselben“.25 Nun sind eben diese Systeme verletzlich, da potenzielle Angreifer im Prinzip über die gleichen technischen Mittel verfügen und gezielt nach Schwachstellen suchen, die dann wirkungsvoll ausgenutzt werden können. Sie fördern darüber hinaus durch die Sammlung und Vernetzung („Vorratsdatenhaltung“) von immer größeren Datenmengen bewusst oder unbewusst die Entstehung neuer Risiken durch Unternehmen und staatliche Organe, wenn nicht entsprechende Kontrollsysteme und Interventionsmöglichkeiten aufgebaut werden. Dies führt zu drei Fragen: –

Im öffentlichen Diskurs stellt sich als erstes die Frage, ob die Nebenfolgen und nicht intendierten Wirkungen informationeller Kontrollsysteme der Preis für die angestrebte Sicherheit sind.



Eine zweite Frage ist die nach der Verhältnismäßigkeit der Kritik am RFID Einsatz angesichts der Verbreitung von Mobilfunk mit einer erheblich höheren Bedrohung der Privatsphäre. ___________ 23

El-Bira (2002). Beck (1986), S. 26. 25 Vgl. Watzlawick (1997). 24

Der gläserne Mensch



159

Drittens stellt sich die Frage, wie die Mündigkeit der Bürger angesichts zunehmend komplexer technischer Systeme gewahrt werden kann.

3. Megaprojekte In ihrer Analyse der mit großen Infrastrukturprojekten (Megaprojekte) verbundenen Probleme und Krisen stellen Flyvbjerg et al.26 die Verbindung zwischen den dahinter liegenden gesellschaftlichen Utopien und dem Diskurs der Risikogesellschaft her: „In this development „infrastructure“ has become a catchword on a par with „technology“. Infrastructure has rapidly moved from being a simple precondition for production and consumption to being at the very core of these activities, with just-intime delivery and instant Internet access being two spectacular examples of this. Infrastructure is the great space shrinker, and power, wealth and status increasingly belong to those who know how to shrink space, or know how to benefit from space being shrunk. Today infrastructure plays a key role in nothing less than the creation of what many see as a new world order where people, goods, energy, information and money move about with unprecedented ease. Here the politics of distance is the elimination of distance. The name of utopia is Zero-Friction Society. And even if we can never achieve utopian frictionlessness, we may get close, as is currently happening with the spread of the Internet. Modern humans clearly have a preference for independence from space and are consistently undercutting the friction of distance by building more and improved infrastructure for transport, including telecommunications and energy. […] where facts are uncertain, decision-stakes high and values in dispute, risk assessment must be at the heart of decision making.“27

Aufbauend auf einer vergleichenden Analyse der Entscheidungs- und Durchsetzungsprozesse bei einer Reihe von Megaprojekten in unterschiedlichen Ländern entwickeln sie alternative Vorschläge für partizipative Entscheidungsstrukturen und Konzepte zur Risikobewertung. Einer einseitigen Fokussierung auf das Entscheidungsproblem wird eine institutionelle Perspektive entgegengestellt, die Praktiken und Regeln zur Erfassung und Bewertung von Risiken sowie Verantwortlichkeiten bzw. Rechenschaftspflichten umfasst. Im nächsten Abschnitt versuche ich, Flyvbjerg’s Vorschläge auf den Umgang mit RFID zu übertragen. Zwar handelt es sich bei den erwähnten RFID Projekten und Initiativen nicht um ein Megaprojekt, gleichwohl geht es in vielen Fällen um den Aufbau interorganisatorischer Infrastrukturen und die Fragen der Verantwortlichkeiten sind weitgehend ungelöst.

___________ 26 27

Vgl. Flyvbjerg et al. (2003). Flyvbjerg et al. (2003), S. 2–3.

160

Stefan Klein

IV. Ansatzpunkte für einen verantwortungsvollen Umgang mit RFID Der Versuch, die aktuellen Entwicklungen einzuordnen und greifbar zu machen sowie das Nachdenken über Erwartungen und Befürchtungen, soll nun einmünden in ein Nachdenken über mögliche Ansatzpunkte für einen verantwortungsvollen Umgang mit RFID. Dabei nehme ich Bezug auf drei häufig nur implizit gemachte Annahmen.

1. Informationstechnik als Objekt der Gestaltung Annahme 1: Informationstechnik ist (wert-)neutral. Die vorangegangene Diskussion hat bereits gezeigt, dass die in der Regel als Urheber der Risiken vermutete Technik für sich genommen keine Wirkung entfaltet: Isoliert betrachtet sind die Auswirkungen von RFID nicht zu bewerten. Zudem ist das Objekt der Diskussion häufig nicht klar, so etwa fokussiert die Kritik mitunter die RFID Technik, obwohl Geschäftspraktiken gemeint sind. Kritik am falschen Objekt oder undifferenzierte Kritik schwächt die Position und Glaubwürdigkeit der Kritiker. Gleichwohl ist die Technik weder neutral noch beliebig in ihrer Wirkungsweise. Im Kern geht es etwa bei RFID, um die Markierung und berührungslose Identifikation von Objekten.28 Allerdings entfalten die technischen Bausteine erst in einem komplexen Ensemble von technischen und organisatorischen Lösungen ihre Wirkung. Einem technischen Determinismus oder auch Fatalismus steht dabei allerdings entgegen, dass Informationssysteme immer Ergebnisse menschlichen Gestaltungshandelns sind. Die Bewertung der technisch induzierten oder in Verbindung mit technischen Innovationen stattfindenden Transformationen gestaltet sich außerordentlich schwierig. Mansell und Steinmueller skizzieren einige Gründe für die Bewertungsprobleme: „Assessing the consequence of the movement towards the information society is an inherently difficult task because the transformations that are occurring in the use of the information and communication infrastructure are so pervasive. […] the use of the new technologies and services is influencing not only the costs of inputs and the nature of outputs in the economy, but also the way that work is organized and skills are articulated.“29

Es bleibt somit Aufgabe eines informationsethischen Diskurses, die sozioökonomisch-technischen Strukturen und spezifischen informationellen (AutoID) Infrastrukturen zu begreifen und mögliche Wirkungen im Hinblick auf ___________ 28 29

Ich danke Klaus Wiegerling für den Hinweis auf dieses Argument. Mansell/Steinmueller (2000), S. 448.

Der gläserne Mensch

161

gesellschaftliche wie individuelle Wertvorstellungen zu reflektieren. Besondere Herausforderung dabei ist, dass wir immer schon Teil der Strukturen sind, die wir zu verstehen und zu gestalten versuchen. Bereits 1996 haben Winograd und Flores dies treffend formuliert: „Computers, like every technology, are a vehicle for the transformation of tradition. We cannot choose whether to effect a transformation: as designers and users of technology we are always already engaged in that transformation, independent of our will. ... Our actions are the perturbations that trigger the changes, but the nature of those changes is not open to our predictions and control. We cannot even be fully aware of the transformation that is taking place: as carriers of a tradition we cannot be objective observers of it. ... The transformation we are concerned with is not a technical one, but a continuing evolution of how we understand our surrounding and ourselves – of how we continue becoming the being we are.“30

Vor diesem Hintergrund ist es wichtig, Experten aus verschiedenen Fachdisziplinen zu mobilisieren, Handlungsoptionen aufzuzeigen und zu nutzen. Das Zitat von Mitchell betont noch einmal die Möglichkeiten der gestaltenden Einflussnahme. „Ultimately it comes down to a basic social and political choice. What will we use the multifaceted and sometimes contradictory affordances of digital technology for? […] Most importantly, this engagement will create opportunities for positive design and policy intervention. You can make a difference, as resourceful and idealistic individuals have done in the face of past urban transformations.“31

2. Institutionalisierung der Technikfolgeabschätzung Annahme 2: Ökonomische Handlungsrationalitäten der Akteure bilden einen ausreichenden Orientierungsrahmen für das auf die Technik bezogene Gestaltungshandeln. Die ökonomische Rationalität bietet bewährte Orientierung für das Handeln innerhalb eines gegebenen Ordnungsrahmens. Hier geht es allerdings um die kritische Bewertung und Weiterentwicklung des bestehenden Ordnungsrahmens. Die Prozesse der Informatisierung der Gesellschaft bedürfen auf den verschiedenen Ebenen einer begleitenden Reflektion, um die Chancen einer bewussten Gestaltung, eines breiteren Verständnisses und eines öffentlichen Diskurses nutzen zu können. Angesichts zunehmender technischer wie institutioneller Systemkomplexität und zum Teil intransparenter Vernetzungsstrukturen sind mögliche Risiken und Nebenfolgen des Handelns, etwa in Folge der Kompromittierung von technischen Infrastrukturen, für die Akteure häufig nur mehr unzureichend erfassbar, so dass es eines institutionalisierten Risikodiskur___________ 30 31

Winograd/Flores (1986), S. 179. Mitchell (1999), S. 82.

162

Stefan Klein

ses bedarf, um Gestaltung und Nutzungspraktiken der skizzierten Systeme begleitend evaluieren zu können. In einer vernetzten Welt wird die Initiierung kollektiven Handelns durch die Fülle der wechselseitigen Abhängigkeiten deutlich erschwert: räumliche begrenzte Lösungen lassen sich kaum mehr isolieren, für globale Lösungen ist die Konsensbildung ausgesprochen aufwändig. Institutionalisierung vermittelt ein definiertes Mandat, schafft Aufmerksamkeit und Verpflichtungen zur Rechenschaft.32 Wünschenswert und notwendig ist ferner ein interdisziplinärer Diskurs, der etwa RFID nicht nach einer technischen Logik beurteilt, sondern als Teil wirtschaftlicher und gesellschaftlicher Innovationen und somit nach einer sozialwissenschaftlichen Logik wie sie etwa von Aristoteles in der Nikomachischen Ethik33 unter dem Begriff der Phronesis formuliert wird. Das aristotelische Konzept der Phronesis beschreibt menschliche Urteilskraft als reflektierendes, durch Erfahrung geschultes und auf Beratung gestütztes Vermögen, angesichts kontingenter Bedingungen des Handelns zu urteilen und zu wählen. Die dabei zugrunde liegenden Werte reflektiert in pointierter Form die Informationsethik. Annahme 2 möchte ich somit entgegnen, dass die mit der Gestaltung von RFID Lösung verbundenen Herausforderungen nicht auf Spielzüge innerhalb bestehender Regeln begrenzbar sind, sondern eine Erörterung des Ordnungsrahmens und der zugrunde liegenden Wertvorstellungen erfordern.

3. Informationsethik „In der Sprache der Tradition würden wir sagen, dass Informationsethik jene Form der Reflexion ist, in der nach Möglichkeiten der Verwirklichung menschlicher Freiheit unter den kategorialen Bedingungen der digitalen Weltvernetzung gefragt wird.“34

Die Reflektion des Menschenbildes und der Situation des Menschen in der Informationsgesellschaft muss Ausgangspunkt einer Informationsethik bilden. Zentrale Annahme ist dabei, dass menschliches Handeln kontingent ist, sich also teilweise unter unerkannten Bedingungen vollzieht und unintendierte Folgen hat. Gleichwohl bleiben für den Einzelnen Handlungsmöglichkeiten und die Verantwortung für sein Tun. ___________ 32 Natürlich garantiert die Institutionalisierung noch keinen positiven Beitrag und die Erfahrungen mit Technologiefolgeabschätzung in der Vergangenheit sind gemischt. Mein Argument zielt allerdings auf die Prinzipien und Ziele gesellschaftlich und politisch verankerter Technologiefolgeabschätzung. Ist hierüber Konsens erzielt, muss über geeignete Formen der Umsetzung nachgedacht werden. 33 Vgl. Aristoteles (1983). 34 Capurro (2005).

Der gläserne Mensch

163

Weitere Aufgabe eines informationsethischen Diskurses ist der Versuch der Erarbeitung eines grundlegenden gesellschaftlichen Wertekonsenses als Basis zur Beurteilung von Gestaltungsalternativen und Risiken. Aufbauend auf aristotelischem Gedankengut formuliert Vollrath etwa die Maxime politischer Urteilskraft, die als Orientierungsmaßstab dienen könnte: „Ist aber der Standort des Handelnden beurteilbar als die mit anderen gemeinsame Welt, dann heißt das: das Handeln eines jeden wird daraufhin beurteilt, daß die Welt des Handelns von Menschen durch dieses Handeln nicht unmöglich gemacht wird, daß, mit anderen Worten, die Möglichkeit anderer Handlungen meiner selbst und anderer jederzeit durch das Handeln eröffnet und freigehalten wird. [/] Die Urteilskraft hat somit Anteil an der Konstitution und Bewahrung des politischen Bereichs in dem sie Handeln ermöglicht. Aus der Sicht der gemeinsamen Welt sind Interessenvielfalt und Interessenkonflikte nicht nur im Selbstinteresse, sondern auch in der Pluralität und Perspektivität der Welt begründet. [/] Das Erkennen eigener Vorurteile wird durch die Orientierung des Denkens an möglichen Meinungen anderer und der damit einhergehenden Bewußtmachung und Relativierung des eigenen Standorts möglich.“35

Inhaltlich geht es um die Reflektion der ökonomischen (economics of information goods), rechtlichen (Verfügungsrechte und Kontrollmöglichkeiten) und gesellschaftlichen (identitätsformende Wirkung von Informations- und Mediennutzung) Besonderheiten von Informationen und Informationsgütern sowie der neuen Qualitäten, die durch Digitalisierung, Speicherung und Austausch von Informationen entstanden sind. Ziel ist die Artikulation des Selbstverständnisses und Gewinnung von Orientierungspunkten, um schwerwiegende Güterabwägungen fundierter und bewusster treffen zu können. Annahme 3a: Die Ausweitung informationeller Repräsentationen im Hinblick auf die Erfassung von spezifizierten Parametern, erhöhte Granularität und Aktualität der Abbildung ist grundsätzlich sinnvoll, erhöht sie doch die informationelle Transparenz. Annahme 3b: Die Verwendung von Informationssystemen zur Sammlung, Speicherung und Auswertung von Informationen erhöht deren Genauigkeit. Problematisch bei Annahme 3a ist, dass informationelle Abbildungen nicht neutral, sondern perspektivisch sind, d.h. sie sind Ausdruck einer spezifischen Weltsicht.36 Nun mag die gewählte Sicht gesellschaftlich konsensfähig sein, gleichwohl bedeutet die technische Verankerung und der Aufbau entsprechender Infrastrukturen eine Festschreibung und de facto Dominanz der zugrunde liegenden Perspektiven und der ökonomischen wie politischen Interessen. Im öffentlichen Bereich wird politische Macht benötigt und eingesetzt, um gewisse ___________ 35 36

Vollrath (1976), S. 156; 169; 171. Vgl. Lilley et al. (2004), S. 21–34.

164

Stefan Klein

Repräsentationen aufzubauen und Formen ihrer Verwendung zu sanktionieren.37 Kritisch ist dabei, dass die informationelle Abbildung nicht nur perspektivisch, sondern potenziell fehlerhaft ist. So sind einerseits die Primärdaten potenziell fehlerhaft38, andererseits kann die Integrität der Informationssysteme verletzt werden. Womit Annahme 3b angesprochen ist. Es ist zwar unstrittig, dass Informationssysteme dazu beitragen, die Genauigkeit von Datensammlungen zu erhöhen, sie führen aber häufig zu der irrigen Annahme, sie seien damit korrekt. Da es den Betreibern der Informationssysteme bereits schwerfällt, Fehler zu finden und zu identifizieren, ist es für Betroffene ungleich schwerer, einen Systemfehler nachzuweisen. Zudem bestehen starke ökonomische Anreize für die Betreiber, auch erkannte Systemfehler und die Verletzlichkeit der Systeme nicht transparent zu machen. Aus informationsethischer Sicht sind somit Perspektivität und Begrenztheit der informationellen Repräsentationen zu erörtern und bewusst zu machen. Tabelle 2 veranschaulicht, dass Aufbau und Nutzung von informationellen Repräsentationen in der Regel Ergebnis von Güterabwägungen zum Teil widerstreitender Interessen sind. Von daher wurde ein rechtlicher Rahmen geschaffen, der die erlaubten Spielzüge, etwa Verwendungsformen von Informationen, regelt. Dies bedeutet aber auch, dass das Vertrauen in die (Stabilität der) staatlichen Institutionen Voraussetzung für die Bereitschaft ist, Informationen preiszugeben. Ob dieses Vertrauen angesichts der Weitergabe von Informationen zwischen Staaten und dem Datenaustausch und Datenhandel international vernetzter Wirtschaftsunternehmen begründet ist, ist für den Einzelnen kaum mehr nachzuvollziehen.

V. Zusammenfassung und Folgerungen Ausgehend von der Entwicklung und Anwendungsszenarien von RFID versucht der Beitrag, Perspektiven, Bedingungen und Gestaltungsalternativen des Technikeinsatzes zu rekonstruieren, um auf diese Weise auch den Besonderheiten der Informations- und Kommunikationstechnik gerecht zu werden. ___________ 37 Aktuelles Beispiel ist eine Datenbank des FBI mit biometrischen Daten zur Terrorbekämpfung (vgl. http://www.washingtonpost.com/wp-dyn/content/article/2007/12/21/ AR2007122102544.html, Zugriff: 07.01.2008). Biometrische Daten wie Fingerabdrücke gelten als (statistisch) verlässliche Identifikationsmerkmale von Individuen, obwohl etwa der Chaos Computer Club gezeigt hat, dass Fingerabdrücke mit relativ einfachen Mitteln manipuliert werden können (vgl. http://www.ccc.de/biometrie/fingerabdruck_ kopieren.xml?language=de, Zugriff 07.01.2008). 38 Alle komplexen Informationssysteme enthalten Fehler. Softwaredefekte werden mittlerweile als unvermeidbar angesehen.

Der gläserne Mensch

165

1.

„Technologie“ ist komplex, ambivalent, unvermeidbar fehlerhaft, schwierig zu prognostizieren und anfällig für menschliche Hybris. Sie wird erst in einem sozio-ökonomisch-technischen Gestaltungs-, Verwendungs- und potenziellem Gefährdungskontext wirksam und bewertbar. Der Einsatz der Technologie ist in vielfältiger Weise kontingent, geprägt durch unerkannte Bedingungen und unabsehbare, nicht intendierte Effekte.

2.

Die Leitbilder des Technologieeinsatzes sind häufig einseitig, nicht ausreichend expliziert und problematisch.

3.

Die Technologie selber bietet erhebliche Gestaltungspotenziale, nicht zuletzt auch, um technisch induzierten Risiken zu begegnen. So bietet die Technik etwa auch Plattformen zur Mobilisierung kollektiven Handelns. In Anbetracht der Gestaltungsabhängigkeit der Technik kommt den Leitideen der Technikentwickler und der Entscheider über den Technikeinsatz eine hohe Bedeutung zu, auch wenn stets Gestaltungs- und Interpretationsspielräume verbleiben. Da der Rahmen des Technikeinsatzes zunehmend ein gesellschaftlicher ist und tiefgreifende gesellschaftliche Auswirkungen hat (Infrastruktur – „Megaprojekte“), sind Bewertungen und Orientierungspunkte für die Technikentwicklung auf verschiedenen Ebenen systematisch zu suchen. Daher plädiere ich für die (Re-)Institutionalisierung von Technikfolgeabschätzung und eine Ausweitung eines informationsethischen Diskurses, um Einzelnen wie auch Gruppen oder der gesamten Gesellschaft fundierte Orientierungspunkte für den gestaltenden, nutzenden und bewertenden Umgang mit der Technik zugeben. In einem solchen Diskurs sollten unter anderem die Leitbilder des Technologieeinsatzes rekonstruiert und hinterfragt sowie Orientierungspunkte zu ihrer Bewertung formuliert werden. Unter den Bedingungen der Risikogesellschaft gilt es dabei, durch systematische und differenzierte Risikobewertung und das Aufzeigen von Handlungsmöglichkeiten, Mündigkeit und Handlungsfähigkeit der Gesellschaft wie des Einzelnen zu bewahren. Am Ende steht daher die Verantwortung des Einzelnen, der Güterabwägungen vorzunehmen hat und grundsätzlich Potenzial zur Verweigerung besitzt.

Literatur Aristoteles (1983): Nikomachische Ethik, übersetzt und kommentiert von Franz Dirlmeier, Bd. 6 der Werke, hg. von Hellmut Flashar, Berlin. Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt a.M. Capurro, Rafael (2005): Führt die digitale Weltvernetzung zu einer globalen Informationsethik?, in: Concilium. Internationale Zeitschrift für Theologie 1, S. 39–45. Doherty, Neil F. / Coombs, Crispin R. / Loan-Clark, John (2006): A re-conceptualization of the interpretive flexibility of information technologies: redressing the bal-

166

Stefan Klein

ance between the social and the technical, in: European Journal of Information Systems 15, S. 569–582. El-Bira, Janis (2002): Rezension zu Minority Report, Regie Steven Spielberg, verfügbar unter http://www.moviemaze.de/filme/400pdf.html (Zugriff 11.11.2007). Fisher, Dana R. / Wright, Larry Michael (2001), On Utopias and Dystopias: Toward an Understanding of the Discourse Surrounding the Internet, in: Journal of Computer Mediated Communication 6 (2). Fleisch, Elgar / Mattern, Friedemann (Hrsg.) (2005): Das Internet der Dinge, Berlin, Heidelberg. Fleisch, Elgar / Müller-Stewens (2007): High Resolution Management: Konsequenzen der 3. IT-Revolution auf die Unternehmensführung, unveröffentlichter Arbeitsbericht, St. Gallen. Flyvbjerg, Bent / Bruzelius, Nils / Rothengatter, Werner (2003): Megaprojects and Risk. An Anatomy of Ambition, Cambridge. Kehlmann, Daniel (2005): Die Vermessung der Welt. Reinbek bei Hamburg. Kelly, Kevin (1997): New Rules for the New Economy, Wired 5.09, verfügbar unter http://www.wired.com/wired/archive/5.09/newrules.html (Zugriff 07.01.2008). Kelly, Séamas (2005): New frontiers in the theorisation of ICT-mediated interaction? Exploring the implications of a situated learning epistemology, in: Proceedings of the International Conference on Information Systems (ICIS), Las Vegas, USA. Klein, Stefan / Teubner, Rolf Alexander (1999): Informationsverhalten und Informationsstrukturen in Unternehmen, in: Handbuch der Wirtschaftsethik, Band 3: Ethik wirtschaftlichen Handelns, Gütersloh, S. 416–432. Lilley, Simon / Lightfoot, Geoff / Amaral, M.N. Paulo (2004): Representing Organization: Knowledge, Management, and the Information Age, Oxford. Mansell, Robin / Steinmueller, W. Edward (2000): Mobilizing the Information Society – Strategies for Growth and Opportunity, Oxford. Mitchell, William J. (1999): E-topia „Urban life, Jim – but not as we know it“. Cambridge, MA. Mittelstraß, Jürgen (1997): Zur Kultur der Informationsgesellschaft, in: Kubicek, Herbert et al. (Hrsg.) (1997): Jahrbuch Telekommunikation und Gesellschaft: Die Ware Information – Auf dem Weg zu einer Informationsökonomie, Heidelberg, S. 60–64. Standage, Tom (1998): The Victorian Internet – The Remarkable Story of the Telegraph and the Nineteenth Century’s Online Pioneers. London. Stockman, Harry E. (1948), Communications by means of reflected power, in: Proceedings of the Institute of Radio Engineers, 36, 10, S. 1196–1204. Vollrath, Ernst (1976): Die Rekonstruktion der politischen Urteilskraft, Stuttgart. Watzlawick, Paul (1997): Vom Schlechten des Guten oder Hekates Lösungen, München.

4 Thesen zu RFID, Cookies & Co – Korreferat zu Stefan Klein – Von Frank Pallas

I. Zur Einstimmung Wie Professor Klein in seinem vorangegangenem Beitrag dargestellt hat, führt die fortschreitende informationelle Repräsentation der Welt1 zu umfangreichen gesellschaftlichen Herausforderungen. Durch neue Technologien wie RFID, Sensornetze und allgegenwärtige Konnektivität ergeben sich Möglichkeiten, die noch vor wenigen Jahren undenkbar waren. Die insbesondere im Hinblick auf das Zusammenspiel zwischen Wirtschaft und Individuum diskutierten Auswirkungen reichen dabei von der Bildung von Kundenprofilen über Möglichkeiten zur Preisdifferenzierung2 und zur verhaltensabhängigen Preisgestaltung bspw. bei Fahrzeugversicherungen3 bis zu Szenarien wie einer (teil-) automatisierten, auf dem jeweiligen Kleidungsstil basierenden Einlasskontrolle in Einkaufszentren.4 Wie Klein anschaulich darstellt, ergeben sich derartige Auswirkungen nicht aus den jeweiligen Technologien an sich sondern vielmehr aus deren spezifischer Anwendung innerhalb eines bestimmten Kontextes. Die Tatsache, dass bspw. ein Kleidungsstück mittels eines RFID-Tags mit einer eindeutigen Seriennummer versehen ist, hätte isoliert betrachtet keine nennenswerten Auswirkungen. Spannend wird es gewissermaßen erst dann, wenn dieses Tag im Zusammenspiel mit weiteren Technologien und Techniken zur Anwendung kommt – Datenbanken, Kundenkarten und Data-Mining-Lösungen seien hier ___________ 1 Im Folgenden wird hierfür der Einfachheit halber Matterns Begriff der „Informatisierung der Welt“ verwendet; vgl. Mattern (2003). 2 Vgl. bspw. Acquisti (2006). Preisdifferenzierung bezeichnet hierbei die Festsetzung individualisierter Preise für einzelne Kunden oder Kundengruppen. Dies kann wiederum auf Basis vorab erstellter Kundenprofile geschehen. 3 Vgl. Filipova/Welzel (2007), S. 167ff. 4 Vgl. bspw. Kang/Cuff (2005), S. 122: „For example, if a mall wants to enforce a dress code, RFID scanners could read clothing types at mall entryways, elevators, and escalators.“

168

Frank Pallas

beispielhaft genannt. Jede wie auch immer geartete Bewertung der derzeitigen Entwicklung und ihrer möglichen Auswirkungen kann daher, auch das macht Klein deutlich, nicht allein auf der Technik selbst basieren, sondern muss vielmehr auch immer den jeweiligen „sozio-ökonomisch-technischen Gestaltungs-, Verwendungs- und potentielle[n] Gefährdungskontext“ einbeziehen. Es stellt sich damit die Frage, wie eine gesellschaftliche Auseinandersetzung mit den möglichen Auswirkungen der fortschreitenden Informatisierung der Welt umgesetzt werden kann und soll. Kleins Antwort auf diese Frage besteht im Wesentlichen aus der Forderung nach einer „(Re-)Institutionalisierung“ der interdisziplinären Technikfolgenabschätzung. Den Ausführungen Kleins ist in weiten Teilen zuzustimmen. Dennoch lassen sie auch Raum für Kritik und für ergänzende Anmerkungen. Die aus Sicht des Korreferenten wichtigsten Punkte hierzu werden im Folgenden anhand von drei grundsätzlichen – und hoffentlich zu regen Diskussionen einladenden – Thesen dargestellt. Eine weitere These zu möglichen Alternativen für den zukünftigen Diskurs schließt den Beitrag ab.

II. Kritik und Ergänzungen These 1: Der von Klein verwendete, ausschließlich auf Szenarien basierende Diskussionsansatz ist irreführend und blendet signifikante Aspekte aus. In erster Linie basieren Kleins Ausführungen und Überlegungen auf bereits existierenden oder in Planung befindlichen Beispielszenarien für den Einsatz von RFID und verwandten Technologien. Allen aufgeführten Szenarien ist gemein, dass sie jeweils wohldefinierte Ziele verfolgen und dass die entsprechend zum Einsatz kommenden technischen Lösungen explizit auf eben diese Ziele zugeschnitten sind. So kommen beim aufgeführten Szenario des grenzüberschreitenden Containertransportes „elektronische Siegel“ zum Einsatz, die genau für diesen Einsatzzweck und dessen spezifische Anforderungen konzipiert wurden. Ähnliches gilt auch für die von Klein genannten Szenarien der Warenverfolgung im Lebensmittelhandel und der Medikamentenverfolgung im Krankenhaus. In allen Fällen erfolgt die Betrachtung ausgehend vom konkreten Einsatzzweck und die jeweils eingesetzten Technologien spielen eine sekundäre, lediglich der Zielerreichung dienende Rolle. Konsequenterweise gehen daher auch die von Klein vorgeschlagenen Ansätze zur gesellschaftlich-ethischen Auseinandersetzung mit der zunehmenden Informatisierung der Welt hauptsächlich von den jeweiligen Anwendungsszenarien aus. Mit explizitem Verweis auf „Megaprojekte“ wie die Untertunnelung des Ärmelkanals oder den Fehmarn-Belt plädiert Klein für „partizipative Entscheidungsstrukturen“, in denen die jeweiligen Ziele solcher „Projekte“ oder

4 Thesen zu RFID, Cookies & Co

169

„Szenarien“ diskutiert und gegebenenfalls in eine gesellschaftlich akzeptable(re) Form überführt werden sollen. Die Beeinflussung der zukünftigen Entwicklung würde dann darin bestehen, anstatt der ursprünglichen die modifizierten Ziele zu verfolgen bzw. die entsprechenden Beteiligten in geeigneter Weise zur Verfolgung eben dieser modifizierten Ziele zu bewegen. 5 Eine solche Herangehensweise wird den tatsächlichen Entwicklungen jedoch nicht gerecht. Im Gegensatz zu den von Klein aufgeführten „Megaprojekten“ existieren nämlich im hier betrachteten Bereich der zunehmenden Informatisierung der Welt eben keine wohldefinierten, explizit formulierten „Ziele“ mit direkter gesellschaftlicher Bedeutung, die in einem wie auch immer gearteten partizipativen Prozess modifiziert werden könnten.6 Vielmehr zielen Vorhaben wie die Standardisierung von RFID-Tags, die Entwicklung der entsprechenden Nummerierungsschemata oder auch der Betrieb eines globalen Verzeichnisdienstes lediglich auf die Zurverfügungstellung von zu unterschiedlichsten Zwecken nutzbaren, grundsätzlich aber vergleichsweise „dummen“ Basisdiensten ab.7 Die in gesellschaftlich-ethischer Hinsicht tatsächlich relevanten Entwicklungen bauen zwar auf diesen Basisdiensten auf, werden aber eben nicht bewusst und „von langer Hand“ geplant, gesteuert oder auf andere Art und Weise explizit koordiniert. Vielmehr vollziehen sich die zu diskutierenden Entwicklungen „bottom-up“: Es wird lediglich eine zu unterschiedlichsten Zwecken nutzbare Basistechnologie8 bereitgestellt, auf Grundlage derer dann verschiedene Akteure eigenständig konkrete, innovative Anwendungen entwickeln können. Im Zweifel können, wie bspw. der Innovationsforscher Eric von Hippel mehrfach beschrieben hat9, diese innovativen Anwendungen sogar durch die Nutzer selbst entwickelt werden. Es liegt dabei in der Natur der bottom-upEntwicklung, dass solche zukünftigen Anwendungen eben nicht im Vorhinein bekannt sind und dies auch nicht sein können. Für die gesellschaftlich-ethische Diskussion zu RFID und verwandten Technologien muss dies Konsequenzen haben: Die Diskussion darf – ohne die be___________ 5 Auf die unterschiedlichen Möglichkeiten zur Umsetzung einer solchen Beeinflussung (rechtl. Vorschriften, Setzen von ökonomischen Anreizen, Etablieren ethischer Leitlinien, etc.) soll hier nicht genauer eingegangen werden. 6 Zwischen den Zeilen wird dies auch bei Klein deutlich: „Ziele und Verwendungsmöglichkeiten […] sind ausgesprochen vielfältig […] Die Verbindung von Zweck und erforderlicher oder eingesetzter Technik ist in den meisten Fällen weder deterministisch noch eindeutig.“ 7 Vgl. hierzu ausführlicher Pallas (2005). 8 In der Literatur ist hierfür der Begriff der „General Purpose Technology (GPT)“ gebräuchlich. 9 Vgl. etwa von Hippel (2005).

170

Frank Pallas

sondere Rolle szenariobasierter Überlegungen für die Technikfolgenabschätzung in Frage stellen zu wollen – nicht nur auf konkreten möglichen Anwendungen der relevanten Technologien basieren, da niemals alle zukünftigen innovativen Ideen zur Nutzung der Basisdienste vorhergesehen werden können. Anders als bei den genannten „Megaprojekten“ führt die „bottom-up“Entwicklung zudem zu einer Vielzahl unterschiedlicher Entwicklungsstränge, deren Bewertung und Beeinflussung durch partizipative Prozesse nur schwer realisierbar sein dürfte. Diesen spezifischen Auswirkungen der im Raum stehenden Technologien muss die gesellschaftlich-ethische Diskussion Rechnung tragen. Szenariobasierte Überlegungen allein werden hierzu jedenfalls nicht ausreichen. Gleichzeitig sind es aber gerade diese Anwendungsszenarien, in denen die entsprechenden Technologien überhaupt erst gesellschaftliche Bedeutung erlangen. Die zentrale Herausforderung für zukünftige Diskussionen wird daher darin bestehen, eben diesen scheinbaren Widerspruch aufzulösen. Ein möglicher Alternativansatz wird am Ende dieses Beitrags vorgestellt. These 2: Die von Klein geforderte Institutionalisierung einer begleitenden und interdisziplinären Techikfolgenabschätzung ist verzichtbar. Als Antwort auf die gesellschaftlichen Herausforderungen, die sich aus der zunehmenden Informatisierung der Welt ergeben, schlägt Klein eine (Re-)Institutionalisierung der Technikfolgenabschätzung vor. Hierdurch soll ein interdisziplinärer, reflektierender Diskurs gefördert werden, der „etwa RFID nicht nach einer technischen Logik beurteilt, sondern […] nach einer sozialwissenschaftlichen Logik […].“ Im letzten Punkt ist Klein zweifellos zuzustimmen. Eine rein technische Sichtweise würde definitiv zu kurz greifen. Gleichwohl geschieht der geforderte interdisziplinäre Diskurs bereits seit geraumer Zeit und bedarf kaum einer weitergehenden, bewusst angestoßenen „Institutionalisierung“. Exemplarisch verwiesen sei an dieser Stelle nur auf die wohl als Pflichtlektüre zu bezeichnenden Sammelbände unter (Mit-)Herausgeberschaft von Friedemann Mattern10, auf die unter Federführung des BSI erstellte „RIKCHA“-Studie11, auf die diversen im Umfeld der ETHZ und der EMPA angesiedelten Aktivitäten12, auf das an der Universität Stuttgart angesiedelte Projekt NEXUS13 oder auf die TAUCIS-Studie des ULD Schleswig-Holstein und der HU Berlin.14 Die Liste ließe sich noch deutlich erweitern. Von einer fehlenden interdisziplinären Aus___________ 10

Vgl. Mattern (2003, 2007), Fleisch/Mattern (2005). Vgl. BSI (2004). 12 Vgl. hierzu http://www.vs.inf.ethz.ch/publ/ sowie http://www.empa.ch/plugin/tem plate/empa/*/56232/---/l=1 [27.11.2007]. 13 Online unter http://nexus.uni-stuttgart.de/ [27.11.2007]. 14 Vgl. TAUCIS (2006). 11

4 Thesen zu RFID, Cookies & Co

171

einandersetzung mit der fortschreitenden Informatisierung der Welt kann damit kaum die Rede sein. Andererseits lässt sich aber durchaus die Meinung vertreten, dass trotz der intensiven und interdisziplinären Auseinandersetzung die bisherigen Ergebnisse zumindest unbefriedigend sind. So fordert die RIKCHA-Studie des BSI, auch in zukünftigen RFID-Umgebungen die Prinzipien von „Datensparsamkeit und Zweckbindung“ zu beachten.15 Ausführlicher, aber einem vergleichbaren Grundansatz folgend empfiehlt die TAUCIS-Studie Maßnahmen wie eine Kennzeichnungspflicht für Tags und Lesegeräte, eine verstärkte Nutzung von „Privacy Enhancing Technologies“ sowie weitergehende Forschungen zu ausgewählten Bereichen der Informationssicherheit.16 Letztendlich existieren diese und andere aufgestellte Forderungen bereits seit Anbeginn der Debatte und man gewinnt zunehmend den Eindruck, dass die Überlegungen sich im Kreis drehen. Auch Klein schafft es nicht, über diesen Stand hinauszukommen. Möglicherweise ist er sich dessen sogar bewusst und der Ruf nach einer institutionalisierten und interdisziplinären Technikfolgenabschätzung ist gewissermaßen als „Verzweiflungstat“ zur werten. In jedem Fall darf man es aber nicht kritisieren, dass Klein ebenfalls keine neuen Antworten liefert. Im Gegenteil: Er befindet sich in guter Gesellschaft. These 3: Die insgesamt unbefriedigenden Ergebnisse der Diskussion um RFID und andere Aspekte des Ubiquitous Computing sind Ausdruck einer seit mindestens 20 Jahren bestehenden konzeptionellen Stagnation in der Datenschutzdiskussion. Wie von Klein ausgeführt und oben bereits zustimmend gewürdigt, sind die zu diskutierenden Fragestellungen nicht einer konkreten Technologie zuzuordnen sondern beziehen sich vielmehr auf die darauf aufbauenden Anwendungen. Damit muss die Diskussion konsequenterweise ebenfalls unabhängig von konkreten Technologien geführt werden und auf abstrakteren Überlegungen aufbauen. Die Organisatoren der Tagung haben uns hier ja – bewusst oder unbewusst – eine durchaus interessante Fährte gelegt, indem sie im Titel des Workshops auch das Wort „Cookies“ untergebracht haben. Cookies sind aber eben nicht einer „neuen“ und womöglich „alles verändernden“ Entwicklung zuzuordnen, sondern gehören vielmehr seit Jahr und Tag zur üblichen Nutzung des Internets: Eine Webseite hinterlegt auf dem Computer des Besuchers einen Identifizierer, der bei jedem späteren Besuch abgefragt werden kann, um den jeweili___________ 15 16

Vgl. BSI (2004), S. 109. Vgl. TAUCIS (2006), S. 329ff.

172

Frank Pallas

gen Besucher „wiederzuerkennen“.17 Auf abstrakter Ebene unterscheidet sich diese Funktionalität kaum von den typischerweise im Zusammenhang mit RFID-Tags diskutierten Szenarien: Ein Kunde betritt einen bestimmten Bereich – sei es nun die Webseite eines Onlinehändlers oder ein Kaufhaus – wird anhand eines eindeutigen Identifizierers erkannt und der Bereich wird – beispielsweise in Form personalisierter Angebote – individualisiert.18 Mit dieser funktionalen Ähnlichkeit wird klar, dass eine spezifisch auf Artefakte des Ubiquitous Computing fokussierende Diskussion zu kurz greift. Ähnliches würde aber auch für eine Diskussion gelten, die lediglich versucht, RFID und Cookies als unterschiedliche Ausprägungen des gleichen Sachverhaltes zu verstehen. In diesem Fall würde man nämlich bspw. den kompletten Bereich der Sensor-Aktuator-Netze, dem auch viele der von Klein vorgebrachten Beispiele zuzuordnen sind, schlichtweg ausblenden. Wenn zudem, wie von Klein mehrfach dargestellt, dem Datenschutz in der Diskussion eine herausgehobene Bedeutung zukommt, dann wäre das eigentlich zu klärende Problem vermutlich weitaus grundsätzlicher: Man würde sich mitten in einer Debatte um den Datenschutz und dessen Zukunft unter den durch aktuelle Entwicklungen geänderten Vorzeichen befinden. Zentrales und definierendes Prinzip des Datenschutzes ist dabei das bereits in den frühen 1970er Jahren entwickelte und 1983 vom Bundesverfassungsgericht „zementierte“19 Konzept der „informationellen Selbstbestimmung“, nach dem – stark vereinfacht dargestellt und ohne auf juristische Feinheiten einzugehen – jede Person die Hoheit über die auf sie bezogenen Daten haben soll, sofern nicht andere triftige Gründe dagegen sprechen oder der Betroffene einer Erhebung, Speicherung etc. explizit zustimmt.20 Trotz fortschreitender Bemühungen zur Anpassung an die jeweiligen technischen Entwicklungen hat sich an diesem grundlegenden Prinzip, auf das sich auch weite Teile der Diskussion ___________ 17 Der Vollständigkeit halber sei angemerkt, dass Cookies auch verwendet werden können, um Inhaltsdaten anstatt eines Identifizierers zu hinterlegen. Diskussionswürdige Anwendungen von Cookies basieren jedoch zumeist auf der Nutzererkennung anhand eines eindeutigen Identifizierers. 18 Diese funktionale Ähnlichkeit wird schon seit geraumer Zeit immer wieder angemerkt, konnte die Debatte aber bisher nicht entscheidend beeinflussen. Vgl. bspw. Shah/Kesan (2004), S. 7: „Both technologies place unique information on either the person’s computer or their purchased item.“ 19 Zu den Ursprüngen des Konzeptes der „informationellen Selbstbestimmung“ siehe insbesondere Steinmüller (2007). 20 Juristisch etwas formaler bspw. Roßnagel (2007), S. 115: „Jede Verwendung personenbezogener Daten ist ein Eingriff in das Grundrecht auf informationelle Selbstbestimmung [und] daher nur zulässig, wenn der Gesetzgeber oder der Betroffene sie hinsichtlich Umfang und Zweck gebilligt haben.“

4 Thesen zu RFID, Cookies & Co

173

zu gesellschaftlichen Auswirkungen einer fortschreitenden Informatisierung der Welt beziehen, seit den 1980er Jahren kaum etwas geändert. Wenn aber Überlegungen, die auf diesem Konzept und insbesondere auf den damit verbundenen etablierten Denkansätzen aufbauen, bisher nur zu unbefriedigenden Ergebnissen geführt haben, dann ist der Grund hierfür möglicherweise auch darin zu suchen, dass die altbekannten Denkmuster den heutigen Gegebenheiten nicht mehr gerecht werden. Belege hierfür lassen sich durchaus finden. So erwähnen Roßnagel, Pfitzmann und Garstka in ihrem Modernisierungsgutachten, dass das etablierte Konzept des Datenschutzes im Grundsatz vom „Paradigma zentraler staatlicher Großrechner“ ausgehe, „zwischen denen ein Datenaustausch die Ausnahme war“.21 Für weite Bereiche heutiger Datenverarbeitung müsse das etablierte Konzept damit, so die Autoren, „als überholt gelten“. Auf die hier zur Diskussion stehende „Entwicklung allgegenwärtiger Datenverarbeitung“ sei das Datenschutzrecht zudem „noch überhaupt nicht vorbereitet.“22 Substantielle Auswirkungen auf das allgemeine Datenschutzverständnis hatte jedoch auch das Modernisierungsgutachten bislang nicht. Weite Teile der bisherigen gesellschaftlich-ethischen Diskussion zur zukünftig allgegenwärtigen Datenverarbeitung des Ubiquitous Computing beziehen sich damit auf grundlegende Konzepte, deren Leitbild zentralisierte Großrechenanlagen aus den 1970er und 1980er Jahren sind. Allgegenwärtiges Erheben und Verarbeiten personenbezogener Daten mittels „Rechenanlagen“, die möglicherweise sogar unsichtbar für die „Betroffenen“ sind, sind in diesem Konzept schlichtweg nicht vorgesehen. Dass ein derartiger Diskussionsansatz zu unbefriedigenden Ergebnissen führt ist kaum verwunderlich. Möchte man also eine gesellschaftlich-ethische Debatte zu RFID, Cookies und anderen Artefakten einer zunehmend informatisierten Welt allgegenwärtiger „Computer“ führen, dann muss man sich möglicherweise auf die Suche nach einem Zukunftskonzept für den Datenschutz begeben. Ein solches Vorhaben ist natürlich zumindest als ambitioniert zu bezeichnen und verspricht zudem keine schnellen und direkten Antworten auf die Frage nach den möglichen gesellschaftlichen Auswirkungen zunehmender Informatisierung. Dass auch Klein sich nicht auf eine derartige Diskussion einlässt ist daher durchaus verständlich. Dennoch wird die Debatte ohne eine solche grundlegende Rekonzeptionalisierung aller Voraussicht nach kaum vorwärts kommen.

___________ 21

Vgl. Roßnagel/Pfitzmann/Garstka (2002), S. 22. Ähnlich auch Roßnagel (2007), S. 126: „Auf [die] neuen Verhältnisse sind die Grundsätze des datenschutzrechtlichen Schutzprogramms kaum anwendbar.“ 22

174

Frank Pallas

III. Alternative Ansätze Natürlich fällt es vergleichsweise leicht, bereits existierende Ansätze und Vorgehensweisen zu kritisieren. Ungleich schwerer stellt es sich dagegen dar, mögliche Alternativansätze zu skizzieren, die den bisherigen signifikant überlegen sind. Ein Versuch erscheint angesichts der möglicherweise weitreichenden Implikationen obiger Ausführungen dennoch lohnenswert und soll im Folgenden gewagt werden. These 4: Die zu führende Diskussion muss ökonomische Aspekte wie beispielsweise Transaktionskosten einbeziehen, um zu substantiellen neuen Erkenntnissen zu gelangen. Wenn, wie oben ausgeführt, die bisherigen Ansätze unter den derzeitigen und sich für die Zukunft abzeichnenden Gegebenheiten als nicht mehr anwendbar anzusehen sind, dann stellt sich die Frage nach einem abstrahierenden Verständnis eben dieser veränderten Voraussetzungen. Mit einem letzten Verweis auf Klein gilt es also, dessen Frage „Quid novi – Quid non novi?“ auf einer abstrakteren Ebene zu stellen. Ökonomische Begrifflichkeiten können sich hierbei durchaus als hilfreich erweisen. So gilt als kleinste Einheit ökonomischen Handelns typischerweise die Transaktion. Abermals stark vereinfach dargestellt ist die grundlegende Annahme, dass solche Transaktionen unter idealisierten Marktvoraussetzungen stets zu einer für alle Beteiligten optimalen Allokation von Ressourcen führen – unabhängig von der ursprünglichen Ressourcenverteilung. Voraussetzung dafür ist lediglich, dass die Beteiligten frei entscheiden können, eine solche Transaktion durchzuführen oder nicht. Dass eine optimale Allokation dennoch typischerweise nicht geschieht, liegt unter anderem in der Existenz von Transaktionskosten begründet, die auch solche Transaktionen verhindern, die eigentlich beiderseitigen Mehrwert generieren würden.23 Mittels dieses Konzeptes lassen sich die durch die fortschreitende Informatisierung hervorgerufenen Änderungen auch auf abstrakter Ebene beschreiben: Jedes Erfassen, Übermitteln, Verarbeiten etc. eines einzelnen Datums würde dann eine Transaktion darstellen, deren Zustandekommen für die Beteiligten einen bestimmten (positiven oder negativen) Wert hat. Ergibt sich aus diesen individuellen Wertbeimessungen insgesamt ein positiver Wert der Transaktion, dann können die durch die Transaktion „Geschädigten“ durch die „Profiteure“ entschädigt werden. Voraussetzung hierfür wäre jedoch, dass die durch die Transaktion entstehenden Kosten den Gesamtwert der Transaktion nicht über___________ 23 Die Darstellung muss hier gezwungenermaßen stark vereinfacht sein, da das Prinzip Auswirkungen auf nahezu alle Bereiche der Wirtschaftswissenschaften hat. Vgl. einführend hierzu Coase (1960) und Williamson (2005).

4 Thesen zu RFID, Cookies & Co

175

steigen. Transaktionskosten sind damit gewissermaßen die „Reibungsverluste ökonomischen Handelns“.24 Genau hier setzen mit Kundenkarten verbundene Rabattprogramme wie „Payback“ oder „Happy Digits“ an: Sie bieten dem „Betroffenen“ einen bestimmten Geldbetrag als Kompensation für die partielle Aufgabe der Anonymität. Der Kunde kann dann entscheiden, ob der angebotene Rabatt seinen „Schaden“ mindestens ausgleicht und gegebenenfalls seine Kundenkarte vorlegen. Die Kosten für die Durchführung der Transaktion „Einkaufsprofil verkaufen“ beschränken sich dabei lediglich auf das Vorlegen der Karte. Weitere Verhandlungen müssen nicht geführt werden und es stellt sich ein Zustand ein, in dem der Kunde nahezu genau dann seine Anonymität aufgibt, wenn der daraus resultierende Mehrwert für den „Datenempfänger“ höher ist als der subjektiv empfundene und kompensierte „Schaden“. Unabhängig von der Interaktion zwischen den Beteiligten treten jedoch auch bei jedem Vorgang der Erfassung, Übermittlung, Verarbeitung, etc. von Daten weitere Transaktionskosten auf, die den durch den jeweiligen Vorgang erzielbaren Gesamt-Mehrwert in vielen Fällen übersteigen. Beispielhaft genannt sei das Tracking von Kaufhausbesuchern. Ohne Einsatz entsprechender Technik wäre hierzu Personal notwendig, dessen Einsatz hohe Kosten verursachen und das Tracking in vielen Fällen unrentabel machen würde. Allein die ökonomischen Gegebenheiten haben damit in der Vergangenheit viele Transaktionen schon im Ansatz verhindert, über die damit auch kein gesellschaftlicher Diskurs geführt werden musste und für die kein Regelungsbedarf bestand. Die Anzahl der zu regulierenden potentiellen Erfassungs- Übermittlungs- oder Verarbeitungsvorgänge blieb gering und das oben genannte Paradigma der expliziten Zustimmung durch den „Betroffenen“ war durchaus praktikabel. Genau diese Voraussetzung ändert sich aber mit der fortschreitenden Informatisierung der Welt grundlegend. So ist im Gegensatz zu obigem Beispiel das Tracking auf Basis heutiger und zukünftiger Technologien deutlich kostengünstiger möglich und damit immer häufiger rentabel. Besonders kostengünstig ist es wiederum im Fall von „Online-Kaufhäusern“ wie Amazon. Der zentrale Aspekt der zunehmenden Informatisierung der Welt besteht damit zumindest für den privatwirtschaftlichen Bereich in der signifikanten Kostenminimierung von Vorgängen der Erfassung, Übermittlung und Verarbeitung auch personenbezogener Daten.25 Damit erhöht sich jedoch wiederum die Anzahl der nach ökonomischen Prinzipien grundsätzlich durchführbaren und damit überhaupt ___________ 24 So bspw. Williamson (1985), S. 19: „Transaction costs are the economic equivalent of friction in physical systems.“ 25 Die eingangs erwähnte Etablierung standardisierter und zu unterschiedlichsten Zwecken nutzbarer „dummer“ Basisdienste verstärkt diesen Effekt noch.

176

Frank Pallas

erst betrachtenswerten „Daten-Transaktionen“ signifikant. Auch solche Transaktionen, die nur einen minimalen Mehrwert generieren, werden angesichts geringerer Kosten grundsätzlich profitabel. Für zukünftige Datenschutzdiskussionen hat dies möglicherweise weit reichende Konsequenzen. So ist das bislang bewährte Prinzip der expliziten Zustimmung des Betroffenen kaum mehr praktikabel bzw. sogar kontraproduktiv, da es „angesichts der Fülle und Vielfalt der Vorgänge […] zu einer Überforderung aller Beteiligten führen“ würde.26 Zudem würde es die oben genannten „Minimaltransaktionen“ mit zusätzlichen „künstlichen“ Transaktionskosten belegen und damit grundsätzlich mögliche Wohlfahrtsgewinne verhindern.27 Ein potentieller Ansatz für neue Antworten in der Datenschutzdebatte wäre dann die Suche nach Wegen zur Minimierung der Transaktionskosten für die Einigung zwischen „Betroffenem“ und dem erhebenden, verarbeitenden, etc. Akteur. Zudem müsste man für den hier vorgestellten Ansatz das „informationelle Selbstbestimmungsrecht“ als „eigentumsähnliche Position (property rights) auffass[en], [die] grundsätzlich in Marktprozesse eingebracht werden kann“.28 Diese eigentumsähnliche Position gälte es dann „lediglich“ in geeigneter Weise vor unbefugten Eingriffen zu schützen. In einem solchen Modell würden sich dann Kooperationen zwischen unterschiedlichen und vorher nicht miteinander interagierenden Entitäten – und damit neue und unvorhergesehene Anwendungen – schlicht nach den Gesetzen eines nach Mehrwert strebenden freien Marktes etablieren. Aus gesellschaftlich-ethischer Sicht wäre „lediglich“ zu diskutieren, ob es Grenzen für ein solches Einbringen in den Markt geben muss (beispielsweise auch um den Kunden in paternalistischer Weise „vor sich selbst zu beschützen“) und wenn ja, wo diese liegen sollen. Ein auch nur ansatzweise vollständiges Modell für eine mögliche Zukunft des Datenschutzes kann und soll im hier gegebenen Rahmen natürlich nicht erarbeitet werden. Gleichwohl scheint eine ökonomische Herangehensweise zumindest eine abstrakte Sicht auf die fortschreitende Entwicklung zu erlauben. ___________ 26

Vgl. Roßnagel (2007), S. 136f. Es sei an dieser Stelle angemerkt, dass nicht jede Nutzung personenbezogener Daten gezwungenermaßen zum Nachteil des Betroffenen sein muss. So lässt sich individuellen Buchempfehlungen durchaus ein positiver Wert beimessen. Müsste aber für jede individuelle Buchempfehlung vorher umständlich die explizite Erlaubnis eingeholt werden, würde dies die individuelle Behandlung verteuern und persönliche Empfehlungen möglicherweise verhindern. 28 Vgl. Kilian (2002), S. 153. Eine ähnliche Position vertritt auch Prof. Weber in seinem einleitenden Beitrag: „[P]ersönliche Informationen [bekommen] einen Preis, sie sind etwas wert und stellen ein handelbares Gut dar.“ Die Hinweise verdichten sich also, dass eine solche Sichtweise möglicherweise zielführend ist. Der Vollständigkeit halber sei angemerkt, dass Roßnagel/Pfitzmann/Garstka (2002), S. 37 einer solchen Grundauffassung vehement widersprechen. 27

4 Thesen zu RFID, Cookies & Co

177

Inwiefern sich solche ökonomischen Denkansätze auf die fraglos zu führende veränderte Datenschutzdiskussion unter den Vorzeichen einer zunehmend informatisierten Welt auswirken können – und sollen – wird daher zu diskutieren sein. Interessant sind die dadurch möglichen Sichtweisen jedoch allemal.

Literatur Acquisti, Alessandro (2006): Ubiquitous Computing, Customer Tracking, and Price Discrimination, in: Roussos, George (Hrsg.): Ubiquitous and Pervasive Commerce – New Frontiers for Electronic Business, London, Springer, S. 115–132. BSI (2004): Risiken und Chancen des Einsatzes von RFID-Systemen, Bundesamt für Sicherheit in der Informationstechnik, Online unter http://www.bsi.de/fachthem/rfid/ RIKCHA.pdf [27.11.2007] Coase, Ronald H. (1960): The Problem of Social Cost, in: Journal of Law and Economics 3(1), S. 1–44. Filipova, Lilia / Welzel, Peter (2007): Unternehmen und Märkte in einer Welt allgegenwärtiger Computer: Das Beispiel Kfz-Versicherer, In: Mattern, Friedemann (Hrsg.): Die Informatisierung des Alltags, Berlin, Heidelberg, Springer, S. 161–184. Fleisch, Elgar / Mattern, Friedemann (Hrsg.) (2005): Das Internet der Dinge: Ubiquitous Computing und RFID in der Praxis, Berlin, Heidelberg, Springer. Hippel, Eric von (2005): Anwender-Innovationsnetzwerke: Hersteller entbehrlich, in: Lutterbeck, Bernd / Gehring, Robert A. / Bärwolff, Matthias (Hrsg.): Open Source Jahrbuch 2005, Berlin, Lehmanns Media, S. 449–461. Kang, Jerry / Cuff, Dana (2005): Pervasive Computing: Embedding the Public Sphere, in: Washington and Lee Law Review 62. Online unter http://papers.ssrn.com/ sol3/papers.cfm?abstract_id=626961 [30.11.2007] Kilian, Wolfgang (2002): Rekonzeptualisierung des Datenschutzrechts durch Technisierung und Selbstregulierung? Zum Modernisierungsgutachten 2002 für den Bundesminister des Innern, in: Bizer, Johann / Lutterbeck, Bernd / Rieß, Joachim (Hrsg.): Umbruch von Regelungssystemen in der Informationsgesellschaft - Freundesgabe für Alfred Büllesbach, Stuttgart, S. 151–160. Online unter: http://www.alfredbuellesbach.de/PDF/15_Kilian.pdf [02.12.2007] Mattern, Friedemann (Hrsg.) (2003): Total Vernetzt. Szenarien einer informatisierten Welt, Berlin, Heidelberg, Springer – (Hrsg.) (2007): Die Informatisierung des Alltags, Berlin, Heidelberg, Springer Pallas, Frank (2005): RFID als Infrastruktur. Von geschlossenen und offenen Systemen, CAST-Forum Smartcards und RFID, Darmstadt, September 2005. Online unter http://ig.cs.tu-berlin.de/ma/fp/ap/2005/ [27.11.2007] Roßnagel, Alexander (2007): Datenschutz in einem informatisierten Alltag, Gutachten im Auftrag der Friedrich-Ebert-Stiftung. Online unter http://library.fes.de/pdf-files/ stabsabteilung/04548.pdf [02.12.2007]

178

Frank Pallas

Roßnagel, Alexander / Pfitzmann, Andreas / Garstka, Hansjürgen (2002): Modernisierung des Datenschutzrechts, Gutachten im Auftrag des Bundesministeriums des Innern. Shah, Rajiv C. / Kesan, Jay P. (2004): Old Wine in a New Bottle: RFIDs and Cookies, Telecommunications Policy Research Conference 2004. Online unter http://web. si.umich.edu/tprc/archive-search-abstract.cfm?PaperID=303 [29.11.2007] Steinmüller, Wilhelm (2007): Das informationelle Selbstbestimmungsrecht – Wie es entstand und was man daraus lernen kann, in: RDV 4/2007, S.158–161. TAUCIS (2006): Technikfolgenabschätzung Ubiquitäres Computing und Informationelle Selbstbestimmung, Unabhängiges Landeszentrum für Datenschutz Schleswig Holstein und Institut für Wirtschaftsinformatik der HU Berlin. Online unter http://www. taucis.hu-berlin.de/ [27.11.2007] Williamson, Oliver. E. (1985): The Economic Institutions of Capitalism, New York, The Free Press – (2005): Transaction Cost Economics, in: Menard, Claude / Shirley, Mary M. (Hrsg.): Handbook of New Institutional Economics Berlin, Heidelberg, New York, Springer, S. 41–65.

Zur Wirkung der RFID-Technologie im Rahmen der „Vermessung und Vernetzung der Welt“ – Korreferat zu Stefan Klein – Von Klaus Wiegerling Dieser Beitrag formuliert einige Einwände, Ergänzungen und Differenzierungen zu Kleins Aufsatz aus philosophischer Perspektive. 1. wird nach der Wirkung der RFID-Technologie gefragt, 2. auf das Problem eines möglichen Privatheitsverlustes sowie einer möglichen Entsozialisierung des Nutzers eingegangen, 3. werden Anmerkungen zum Problem der Vermessung und Vernetzung der Welt gemacht und 4. soll bezüglich einer ethischen Beurteilung ein Weg markiert werden, der Probleme, die mit dem RFID-Einsatz verbunden sind, wenn nicht lösen, so doch abmildern kann.

I. Zur Wirkung der RFID-Technologie Ich stimme Klein zu, dass sich eine Beurteilung der RFID-Technologie nur in einem informationstechnologischen Verbund vornehmen lässt. Ich möchte noch weiter gehen und betonen, dass eine Beurteilung nur in einem Rahmen, der auch gesellschaftliche, kulturelle und ökonomische Aspekte umfasst, geschehen kann. Die RFID-Technologie steht sowohl in einem Verbund unterschiedlicher medientechnologischer Komponenten, die sich unter der informatischen Idee des Ubiquitous Computing fassen lässt, als auch in einem gesamtgesellschaftlichen, kulturellen und ökonomischen Kontext, der sich aus dem Einsatz dieser Technologie Rationalisierungen von Produktionsabläufen oder neue Kontrollmöglichkeiten verspricht. Wenn Klein feststellt, „dass die in der Regel als Urheber der Risiken vermutete Technik für sich genommen keine Wirkung entfaltet“, dann folgt er einer verbreiteten, aber im Kern falschen Behauptung. Differenzierter ausgedrückt: Klein hat Recht, wenn er meint, dass die Wirkung, die von der Technik ausgeht, immer in einem Verbund mit außertechnischen Faktoren gesehen werden muss; Unrecht aber, wenn er meint, dass Technik als Institution keine eigenständige Wirkung entfaltet. Tatsächlich schaffen technische Gegebenheiten

180

Klaus Wiegerling

Dispositionen für unser Handeln. Keine Technik ist neutral. Sie steht immer in einer Zweck-Mittel-Relation und kann ohne Zweckintentionen nicht zureichend verstanden werden. Gewiss kann man einen PC als Briefbeschwerer benutzen, die Intention der technischen Apparatur und ihre Weiterentwicklung ist aber eine andere. Von einer Wirkungsneutralität der Technik lässt sich schon deshalb nicht reden, weil sie von ihrer Zwecksetzung her beurteilt werden muss. Auch vermeintlich unspezifische Ermöglichungstechnologien werden in – wenn auch vage bestimmten – Applikationsabsichten eingerichtet. Ein weiterer Grund, der an der These, dass Technik an sich keine Wirkung entfaltet, zweifeln lässt, liegt in der Tatsache, dass Technik Ausdruck einer bestimmten kulturellen Welt- und damit Wirksicht ist. Technische Systeme, nicht zuletzt medientechnologische, die über virtuelle Agenten mit quasiautonomen Befugnissen ausgestattet sind, sollen in erheblichem Maße künftig unsere Welt ordnen. Als Symbolsystem, das durch die Verknüpfung von Elementen, durch eine Verdichtungsleistung, einen Zug zur Konkretion und durch eine inhärente Handlungsanweisung gekennzeichnet ist, ist Technik als in bestimmten kulturellen Fügungen stehender Zweckmittelverbund zu verstehen und zu beurteilen. Für computerbasierte Informationstechnologien, in deren Kontext die RFID-Technologie steht, heißt das, wie Thomas J. Froehlich schreibt: Not only are such systems non-neutral, they support an ideology that has utilitarism at its roots. An ideology here is to be not understood as a self-conscious social and political mechanism, […] but as a semi-conscious, semi-articulate process that marshals political, economic and social forces. If it has an articulate form, it is usually provided by the visionaries of high tech alluded to above and by those who are most likely to benefit from such a vision. It is not a vision of necessary future, but a vision promoted as if it were a necessary future, a vision that occludes other possibilities and that conceals the values that such a vision fosters. [...] The ideology also spreads some lies: that technology serves values but does not create them. Techno-logy is always already an embodiment of a set of values both in its practice and in its nature, and further applications inculcate and foster these values.“1

Technik ist als ein historisch-kulturelles Phänomen zu begreifen, das nicht in jeder Gesellschaft die gleiche Wirkung erzielt und nicht in jeder Gesellschaft hervorgebracht wird. Es ist richtig, wenn Klein mit Bezug auf Winograd und Flores feststellt, dass Technologie Tradition transformiert. Dies heißt jedoch nicht, dass sie diese komplett überwindet, sie substituiert oder jede Wertdisposition – bei aller Kraft zur Nivellierung – auch tatsächlich nivelliert. Eine stabile Kultur artikuliert sich in ihrer Integrations- und Widerstandsfähigkeit sowie in ihrer Fähigkeit, Sphären zu benennen, die einem öffentlichen oder merkantilen Zugriff verschlossen sind. Die Benennung solcher Sphären ___________ 1

Froehlich (1995), S. 187.

Zur Wirkung der RFID-Technologie

181

artikuliert sich auch in Beschneidungen technischer Möglichkeiten. Kultur disponiert Handlungsmöglichkeiten, aber sie verweigert auch solche. Im Falle der RFID-Technologie stehen wir vor dem Problem, dass Sphären, die einem merkantilen Zugriff bisher verschlossen blieben, nun für Markthandlungen zugänglich sind. Auch wenn es zutrifft, dass technische Systeme Ergebnis menschlichen Gestaltungshandelns sind und man von einem technischen Determinismus nicht sprechen kann, so bedeutet das nicht, dass die technische Disposition unseres Handelns nach Belieben gesteuert werden kann. Auch wenn es keinen technischen Determinismus gibt, so gibt es dennoch Konsequenzen aus der Nutzung von Technologien.

II. RFID-Technologie, das Problem des Privatheitsverlustes und der Entsozialisierung Eines der meistdiskutierten Probleme im Zusammenhang der RFIDTechnologie ist das Problem des Privatheitsverlustes. Obwohl ein Wandel der Privatheitsvorstellung seit längerem konstatiert wird, ist durch neueste Informationstechnologien, in deren Verbund RFID zu sehen ist, ein quasi totalitärer Schub in die Debatte gekommen. Mit Hilfe dieser Technologien können der Mensch und seine Lebensäußerungen nahezu vollkommen in einen Datenbestand übertragen werden. Kaum Erwähnung findet in der aktuellen Diskussion allerdings die konstitutive Rolle der Privatheit für die Ausbildung personaler Identität als Ort radikaler Selbstbesinnung und -bestimmung. Privatheit wird meistens bestimmt als dezisionale, lokale oder informationelle Privatheit. Die zugrunde liegende positive und für die personale Identitätsbildung konstitutive Bedeutung der Privatheit als die vom Reich der Notwendigkeit abgekoppelte Sphäre der Freiheit bleibt weitgehend ausgespart. Aber genau in dieser Bestimmung liegt ihre eigentliche Bedeutung. Sie ist die Sphäre, in der Selbstbestimmung ohne Rücksichtnahme auf heterogene Interessen stattfindet. Fehlt dieser Bereich, dann ist die Möglichkeit einer radikalen Selbstbestimmung, in der ich mich auf meine ureigensten Potentiale und Bedürfnisse besinnen kann, nicht mehr gegeben. Diese Sphäre ist als ıȤȠȜȒ, als Sphäre der Muße eine Idee. Nur der kann sein Menschsein voll entfalten, der eine Sphäre hat, die er ohne Rücksichtnahme auf andere um seiner selbst willen gestalten kann. Wenn Hannah Arendt betont, dass ein Mensch, der nur im Privaten lebt, wesentlicher Möglichkeiten seines Menschseins beraubt ist, so trifft vice versa zu, dass ein Mensch, der keine Privatsphäre kennt, nie zu sich selbst und nie zu einer radikalen Entscheidungsfreiheit gelangen kann. Insofern ist die Idee des Privaten auch konstitutiv für unser öffentliches Agieren.

182

Klaus Wiegerling

Unbestritten hat Observation ihre positiven, durchaus integrativen Seiten. Es ist aber ein Unterschied, ob diese Observation nichtanonym in bestimmten öffentlichen Sphären vorgenommen wird oder von einem anonymen System, das uns bei perfekter Funktionalität überall und jederzeit erfassen kann. Permanent wird unser Verhalten typologisch erfasst und anonymen Gemeinschaften zugeordnet. Ich bin dann in einem Fall Raucher, im anderen Raser. Es geht hier um die Frage, wie wir wahren können, was als letzte Differenz ausmacht, was wir im Unterschied zu anderen sind; eben nicht eine in einzelne Verhaltenselemente zerlegbare Entität, sondern etwas, was nicht in dem aufgeht, was sich aus diesen Verhaltenselementen zusammensetzt. Dies ist nicht zuletzt das, was sich öffentlichen Ansprüchen entzieht, da es nicht vollkommen berechenbar, nicht simulierbar und deshalb einzigartig ist. Es ist die Abweichung von Rollen, von standardisierbarem und routiniertem Verhalten, was unser personales Selbstverständnis auszeichnet. RFID-Technologie ist insofern ein Problem, als sie die konstitutive Rolle der Privatheit für die Ausbildung unserer personalen Identität untergraben kann, da sie eine Sphäre radikaler Autonomie nicht mehr anerkennt, ja im Gegenteil eine solche Sphäre möglichst vollkommen erschließen will. Neben dem Privatheitsverlust sind auch Entsozialisierungserscheinungen zu beklagen. Die mit RFIDs ausgestattete intelligente Handlungsumgebung sozialisiert in gewisser Hinsicht die unbelebte Natur, insofern sie sie zum Kommunikationspartner macht, entsozialisiert aber zugleich den Menschen, insofern sie soziale Interaktion unter dem Gesichtspunkt der Effizienz bei der Verwirklichung von Zwecken fokussiert. Dass Zwecke sozialer und psychologischer Wandlungen unterliegen, dass sie verhandel- und korrigierbar sind, entzieht sich aber einer technischen Behandlung. Selbst in logistischen Abläufen kommt der Mensch, der in eine mit RFIDs ausgestattete intelligente Umgebung eingebunden ist, nicht mehr als individuell handelndes und in Prozessen des Aushandelns stehendes Wesen vor. Vielmehr soll er in diesen Umgebungen so funktionalisiert werden, dass er sich in logistischen Prozessen in ein entsozialisiertes, aber hochgradig effizient und rational agierendes Wesen verwandelt, das keine Totzeiten, also Zeiten der Regeneration, der Besinnung bzw. des Aushandelns aufkommen lässt. Es gibt in vielen betriebswirtschaftlichen Kontexten eine Tendenz, den Menschen mit Hilfe moderner Informationstechnologien zu isolieren, gleichzeitig aber die Eigenverantwortlichkeit für seinen Arbeitsbereich zu erhöhen. Durch die Einschränkung der Kommunikation auf Mensch-System-Interaktionen während der Arbeitsprozesse wird die soziale Interdependenz auf ein Minimum reduziert, gleichzeitig aber die Zuschreibung von Verantwortung erhöht. Mit der Löschung von individuellen Optionen leitet der in solchen Sphären Agierende seine eigene Substituierung durch Maschinen ein.

Zur Wirkung der RFID-Technologie

183

III. Zur Vermessung und Vernetzung der Welt Es ist richtig, die Idee des RFID im Kontext einer fortschreitenden Vermessung und Vernetzung der Welt zu sehen. Es gibt eine wissenschaftliche wie technische Tendenz, ein zunehmend präzises Modell der Wirklichkeit zu schaffen. Grundlage dieser Idee ist eine vorneuzeitliche Auffassung der Welt in einer intentio recta, also einer an sich vorgegebenen Welt. Wir müssen die Welt nur in entsprechenden Repräsentationen fassen und schon können wir sie beherrschen. Der informatischen Repräsentationstheorie liegt eine naive Abbildtheorie zugrunde. Natürlich kommt jede Repräsentation aufgrund bestimmter Artikulationen und Desartikulationen zustande. Die Differenz zwischen der Repräsentation und der Widerständigkeit der Welt wird aber nicht aufgehoben, wie die misslungene Zwillingstrennung von Singapur 2003 belegt, die mit Hilfe modernster informationstechnologischer Verfahren geplant und durchgeführt wurde. Die visuellen Repräsentationen waren aber weiter von der Wirklichkeit, die durch Widerständigkeit gegen unseren Formwillen gekennzeichnet ist, entfernt als von den Chirurgen angenommen.2 Wirklichkeit lässt sich offenbar nicht durch noch so perfekte Annäherungen in Repräsentationen fassen. Aber der Verlust an Widerständigkeitserfahrung und damit an Wirklichkeit ist ein zentrales Problem im Umgang mit Technologien, die die Umgebung intelligent machen sollen. Ein zentrales Kriterium für die Einführung und Durchsetzung von Alltagstechnik war immer das Verschwinden ihrer Widerständigkeit und die Reduzierung von Bedienungsanforderungen. So wie die Brille sich jeder Aufdringlichkeit entziehen, sich quasi-organisch an unsere leiblichen Dispositionen anpassen soll, so wie die Systembedienung sich kulturell tradierten Handlungsmustern anpassen soll, so sollte Technik unaufdringlich und quasi-natürlich in unseren Alltag integriert sein. Angesichts einer Technologie, die selbst zum Handlungsträger wird und deren Wirkung nicht mehr unmittelbar einsehbar ist, wird dieses Kriterium zum Problem. RFID steht im Dienst dieser Technologien.

IV. Zur ethischen Bewertung der RFID-Technologie und das Stuttgarter Konzept der Parallelkommunikation Eine ethische Bewertung der RFID-Technologie fokussiert die Akzeptabilität der Technologie, d.h. sie muss klären, unter welchen Bedingungen Akzeptanzfähigkeit herzustellen ist. Dabei müssen mögliche Folgen, die sich aus der Nutzung der Technologie ergeben, mit bestehenden Vermächtnis- und erstrebten Optionswerten abgeglichen werden. Zum zweiten ist die Frage nach der ___________ 2

Vgl. Müller-Jung (2003).

184

Klaus Wiegerling

Entlastung durch die Technologie zu stellen, die begrüßenswert ist, solange sie keine Entmündigungen zur Folge hat. Zum dritten ist zu fragen, ob durch eine Technologie neue Handlungsoptionen entstehen. Das Problem einer auf RFID basierenden Technologie ist die weitgehende Unsichtbarkeit ihrer Wirkung. Schnittstellen müssen aber sichtbar, Widerständigkeiten spürbar gemacht werden. Nur was wahrnehmbar ist, kann gesteuert, kontrolliert und in seiner Wirkung eingeschätzt werden. Insbesondere, dass Wirkungen des Systems zeitverzögert auftreten, also nicht mehr unmittelbar an lebensweltliche Situationen angeschlossen werden können, erweist sich für die Systemkontrolle und -steuerung als problematisch. Was die Frage nach der Institutionalisierung der ethischen Bewertung betrifft, stellt sich z.Z. das Problem, dass die Kontrolle der Sicherheit und Verlässlichkeit der Systeme weitgehend auf den Nutzer abgewälzt wird. So richtig es ist, dass Nutzer bzw. Nutznießer Möglichkeiten der Systemkontrolle bzw. steuerung haben müssen, so richtig ist es auch, dass Systemkontrolle in einer informationstechnologisch erschlossenen komplexen Gesellschaft für den Laien nicht und für den Fachmann – wenn überhaupt – nur mit großem Zeitaufwand bewerkstelligt werden kann. Eine nur die Individualisierung der Sicherheitsund Verlässlichkeitsüberprüfung präferierende Lösung wird insofern nicht nur der Sache nicht gerecht, sondern suggeriert Möglichkeiten, die es letztlich nicht gibt. Individuelle Kontrollmöglichkeiten müssen eingebettet sein in institutionelle bzw. politische. Auch wenn die RFID-Technologie in eine Durchsetzungsphase gelangt ist und ökonomische Erwartungen in Sachen Effizienzsteigerung, Sicherheit und Beherrschbarkeit hoher Komplexität enorm sind, so liegen auch Risikopotentiale für die Ökonomie selbst vor. Die Kostenfrage einer Durchdringung unserer Alltagssphäre mit RFID-Chips ist nicht nur wegen der Festlegung von Systemgrenzen schwer zu beantworten. Wartungskosten und Kosten für die permanente Kontrolle der Systemangebote werden nicht bescheiden ausfallen. Im Gesamtverbund der informatischen Durchdringung der Welt entstehen neue Möglichkeiten der Wirtschaftsspionage, des Datenmissbrauchs, der Datenmanipulation, der Fehlzuordnung und Fehlervererbung. Auch die besten Schutzvorkehrungen werden diese Probleme nicht völlig beseitigen können. Von modernen vernetzten Informationstechnologien disponiertes ökonomisches Handeln wird zunehmend intransparent und führt zu anonymen Vergemeinschaftungen. Es ist deshalb notwendig, es wieder enger an nichtanonyme Vergemeinschaftungsformen zu binden, um es als das Individuum und das Soziale gestaltende Tätigkeit sichtbar zu machen. In der Stuttgarter Technikphilosophie wurde unter dem Begriff Parallelkommunikation ein Konzept entwickelt, mit dessen Hilfe die genannten Prob-

Zur Wirkung der RFID-Technologie

185

leme abgefedert werden sollen. Parallelkommunikation ist als eine in den Systemen zu implementierende kommunikative Option über die Systemeinrichtung, -kommunikation sowie -integration zu verstehen. Sie dient der Systemkontrolle, Transparenzgestaltung, Vertrauensbildung und Autonomiewahrung. Eine Nähe zur Diskurstheorie ergibt sich aus der Tatsache, dass viele Systemeinrichtungen keiner speziellen Nutzung zugeordnet werden können und somit Gegenstand eines allgemeinen gesellschaftlichen Diskurses sind. Eine Nähe zur Metakommunikation besteht darin, dass sie auf Bedingungen der Systemkommunikation eingeht, ohne diese in einem theoretischen Sinne transparent zu machen. Es handelt sich um ein praktisches Konzept, das von der konkreten Nutzung her entwickelt wird; es bleibt lebensweltlich disponiert und an den unmittelbaren Umgang mit technischen Systemen gebunden. Es ist ein Instrument, komplexe, autonom agierende Systeme zu kontrollieren bzw. deren Funktionalität aus der Perspektive der Nutzung überprüfen zu können. Dabei ist der Fokus auf technische Kommunikationsformen gerichtet. Da Parallelkommunikation lebensweltlich disponiert ist, geht es um eine Überprüfung nach Plausibilitätskriterien, schließlich soll die Entlastungsfunktion der Technologie nicht aufgehoben werden. Im Gegensatz zum klassischen Paradigma einer angepassten Technik, kommt es darauf an, eine smarte Systemtechnologie in ihrer Funktionalität und Widerständigkeit und somit ihre zu verschwinden drohende Schnittstellen sichtbar zu machen. Es gibt technische Formen der Parallelkommunikation, die in die Systeme selbst implementiert werden und einen Dialog mit dem System ermöglichen sollen; und es gibt nichttechnische Formen, die den Dialog über die Systeme mit anderen Nutzern oder den Entwicklern fördern. Ersteres ist eine Weise der Mensch-Maschine-Interaktion, letzteres eine Form, technische Systeme in den sozialen Alltag zu integrieren. Beide Formen sind eng miteinander verknüpft. Die Mensch-Maschine-Interaktion soll am Modell alltäglicher sozialer Austauschformen entwickelt werden. So sind Foren für die Kommunikation zwischen Entwicklern und Nutzern zu entwickeln, um Eingriffsmöglichkeiten zu implementieren und Systemgrenzen sichtbar zu machen; zwischen Nutzern und System, um Kompetenzdelegationen rückgängig zu machen, alternative Eingriffsmöglichkeiten oder Informationen über das Zustandekommen von Informationsangeboten zu erhalten; zwischen Nutzern, um eine Kommunikation über mögliche Wirkungen der Systeme zu erlangen und damit Kontrollinstanzen zu etablieren. Präferenz hat dieses Forum, weil es als Ausdruck eines direkten Austauschs Modell der Kommunikation ist und es an der Leitidee einer nichtanonymen und transparenten Gemeinschaft orientiert ist, in der, wie in der klassischen Idee des ȠȓțȠȢ, Subsidiarität, Zuschreibbarkeit von Handlungen und Solidarität normative Leitlinien sind. Diese Orientierung weist nicht zuletzt darauf hin, dass technische Kontrolle und Integration in komplexen Gesellschaften nicht individualistisch gelöst werden können. Mit Hilfe der Parallel-

186

Klaus Wiegerling

kommunikation sollen Zuschreibungen ermöglicht, Kontrollwissen abgerufen und Handlungsoptionen in die Systeme implementiert werden. Zwar ist eine völlige Transparenz sich permanent wandelnder ubiquitärer Systeme nicht herstellbar, dennoch ist es notwendig, sie an lebensweltliche Strukturen zurückzubinden. Dies ist nicht zuletzt auch ein aufklärerisches Telos, denn menschengerechte Technologie dient der Wahrung, Herstellung und Erweiterung von Autonomie. Die Implementierung einer Option zur Parallelkommunikation soll Formen anonymer Vergemeinschaftung vermeiden und Handlungs- bzw. Eingriffsoptionen für den Nutzer gewähren. Die Aufweisung von Differenzerfahrung in der Systemnutzung, von abweichendem Nutzerverhalten oder von Widersprüchen in Systemangeboten dient nicht nur dem strategischen Interesse der Systemoptimierung, sondern v.a. dem Zweck, die eigene kritische Autonomie zu fördern. Insofern sie es mit einer Technologie zu tun hat, die den Alltag durchdringt und dabei unspezifisch bleibt, ist sie im Kontext eines gesamtgesellschaftlichen Diskurses zu sehen und kann als eine politische Kategorie aufgefasst werden.

Literatur Froehlich, Thomas J. (1995): Ethics, Ideologies and Practices of Information Technology and Systems, in: Capurro, R. / Wiegerling, K. / Brellochs, A. (Hrsg.) (1995): Informationsethik, Konstanz, S. 175–194. Müller-Jung, Joachim (2003): Verblutete Zwillinge – Eine Operation, die nicht hätte stattfinden dürfen, in: FAZ 09.07.2003.

Entstehung von Vertrauen beim elektronischen Handel Von Hansueli Stamm

I. Einleitung Wer ist goldies03? Was soll man von Marica23 halten? Und meint colinef tatsächlich, was er oder sie da angibt? Die sind nur ein paar „Namen“, die zu Hunderten und Tausenden im Internet zu finden sind, dort über die Hundezucht debattieren, Tipps für die Stabilität von Betriebssystemen austauschen oder sich gegenseitig gebrauchte Fahrräder verkaufen. Aber wer sind goldies03, Marica23 oder colinef? Wer steckt hinter den Pseudonymen? Handelt es sich vielleicht um eine und dieselbe Person? Handelt es sich überhaupt um Personen, oder versteckt sich dahinter nur ein elektronischer Agent? Sobald ich mich selbst in die Situation begebe, mit goldies03, Marica23 oder colinef kommunizieren zu wollen, stellt sich die Vertrauensfrage: Wie zuverlässig ist das, was mein mir unbekanntes Gegenüber an Informationen von sich gibt? Oder anders ausgedrückt: Wie gross ist das Interesse des Gegenübers, mir verlässliche Informationen zukommen zu lassen bzw. umgekehrt? Je nach dem, in welchem Kontext kommuniziert wird, sind unterschiedliche Aspekte des Gegenübers von Interesse. Während ich bei der Diskussion über die Hundezucht oder Problemen mit Betriebssystemen hoffe, dass meine Diskussionspartner über entsprechendes Wissen und Erfahrungen verfügen, Interessiert mich bei den Verhandlungen über den Fahrradkauf, ob mein Gegenüber überhaupt im Besitze des zu verkaufenden Fahrrades ist, mir dieses nach der Überweisung des geschuldeten Betrages auch zukommen lässt und ob es schliesslich in dem angegebenen Zustand ist. Um die im letzen Beispiel angesprochene Kommunikations- und Vertrauensproblematik wird es in diesem Beitrag gehen. Im folgenden Abschnitt wird argumentiert, dass ein Markt ein Forum für Tauschakte darstellt, die unter festgelegten Regeln ablaufen. Das Problem, das bei einer Transaktion nach diesen Regeln auftreten kann, ist, dass es nicht selten vorkommt, dass das Interesse, dass diese Regeln gelten, zwar von allen Beteiligten geteilt wird, dass die Anreize, sich an diese auch zu halten aber sehr schwach sind. Das heisst mit anderen Worten: Es besteht in gewissen Situationen das Risiko, dass das Regelgeltungsinteresse und das Regelbefolgungsinte-

188

Hansueli Stamm

resse auseinander fallen.1 Sobald eine solche Situation aufzutreten droht, ist sie mit Unsicherheit auf beiden Seiten begleitet. Diese Unsicherheit ist immer begleitet mit Vertrauensproblemen. In Abschnitt drei werden zwei grundsätzliche Möglichkeiten aufgezeigt, wie diese Situationen zumindest theoretisch überwunden werden können, d.h. wie das Regelgeltungs- und das Regelbefolgungsinteresse wieder zusammengeführt werden können. Es folgt in Abschnitt vier ein kurzer Überblick über einige Regelarrangements, die es in der Vergangenheit geschafft haben, das oben erwähnte Problem zu lösen. Die Frage die sich anschliesst, ist, ob sich mit dem Aufkommen des Internet als neuem Kommunikationsmedium in diesen Überwindungsstrategien etwas Grundsätzliches geändert hat oder ob die bisherigen Mechanismen (ev. in modifizierter Form) auch zum Lösen des Vertrauensproblems im elektronischen Handel ausreichen. In Abschnitten fünf werden zwei Beispiele aus diesem neuen Bereich vorgestellt, ein erstes, bei dem ein tatsächlich neues Problem mit neuen Regeln gelöst wird und ein Lösungsansatz, der schon immer in Situationen mit erhöhter Unsicherheit als effizientes Vertrauen stiftendes Element eingesetzt wurde.

II. Die Institution Markt als Kommunikationsdrehscheibe Im Gegensatz zur in den Wirtschaftswissenschaften verbreiteten Definition eines Marktes als ökonomischer Ort, an dem sich Angebot und Nachfrage treffen und sich im Laufe des Tauschprozesses der Preis bildet, wird hier ein Markt als eine soziale Institution aufgefasst. Sobald die Subsistenzwirtschaft aufgegeben wird, das heisst im Verlauf der Entwicklung einer Ökonomie sich die Einsicht durchgesetzt hat, dass alle ein höheres Wohlstandsniveau erreichen können, wenn sie sich auf die Produktion derjenigen Produkte spezialisieren, zu deren Herstellung sie komparative Vorteile besitzen, wird es notwendig, dass sie zwecks Tausch mit anderen Individuen (Produzenten) in Kontakt treten und miteinander kommunizieren. Soziale Interaktion und somit Tausch kommt aber nur dann zustande, wenn es den Beteiligten gelingt, ihr gegenseitiges Misstrauen abzubauen. Das notwendige Vertrauen wiederum ergibt sich erst, wenn alle die Verhaltensweisen der anderen Beteiligten in speziellen Situationen mit einer gewissen Wahrscheinlichkeit prognostizieren können, wie dies bei regelgeleitetem Verhalten zu beobachten ist. ___________ 1

Vgl. Vanberg (2000), S. 267.

Entstehung von Vertrauen beim elektronischen Handel

189

Ein Markt soll hier somit definiert werden als ein Bündel von formellen und/oder informellen Regeln, nach denen die Teilnehmer ihre Güter und Leistungen tauschen können, oder, in Ergänzung zu der Definition von Vanberg: „A forum of exchange under specified rules“.2 Ein Markt wird hier also verstanden als Forum für Tauschakte unter festgelegten Regeln. Tausch wiederum bedeutet die gegenseitige, freiwillige Übertragung von Eigentumsrechten. Als die idealtypische Urform eines Marktes kann man sich das örtliche und zeitliche Zusammentreffen von Anbietern, die nicht für den eigenen Lebensunterhalt notwendige Güter verkaufen, und von entsprechenden Nachfragern, für die diese Güter ein Bedürfnis günstiger befriedigen als wenn sie diese selbst produzieren müssten, vorstellen. Damit bei diesem Aufeinandertreffen tatsächlich getauscht wird, ist schliesslich ein Mechanismus notwendig, der die Sicherheit der Transaktionen garantiert. Die Etablierung solcher Mechanismen bedingt den Einsatz zusätzlicher Ressourcen und verursacht somit Kosten. Die Beteiligten haben also ein Interesse, ihre gegenseitigen Tauschakte so zu gestalten, dass die Kosten, die der Tausch verursacht, möglichst gering bleiben. Es ist zu erwarten, dass mit zunehmender Spezialisierung und Differenzierung der gehandelten Produkte ganz unterschiedliche Anforderungen an den Tausch und somit auch an potentielle Sicherungs- und Kommunikationsmechanismen gestellt werden. Das heisst, dass sich je nach Güterart, Anbieter und Nachfrager, institutionellen Rahmenbedingungen, verschiedenen Absicherungsmechanismen, etc. ganz unterschiedliche Regelwerke für den Austausch von Gütern entwickeln und somit ganz unterschiedliche Formen von Märkten entstehen werden. Die Regeln dieser „Tauschspiele“ fallen nicht vom Himmel, sondern haben sich im Laufe der Zeit evolutorisch den jeweiligen Gegebenheiten angepasst. Der Thematik dieses Beitrags folgend interessieren hier zum einen die Ausprägung und der Wandel derjenigen Regeln, die für die Reduktion von Unsicherheit sorgen, d.h. die schliesslich dafür sorgen, dass soviel Vertrauen zustande kommt, dass es sich für alle Beteiligten lohnt, das „Restrisiko“ eines Tausches einzugehen. Zum anderen gilt es denjenigen Mechanismen Beachtung zu schenken, die bei allen Beteiligten dafür sorgen, dass ein Anreiz besteht, dass diese Regeln auch eingehalten werden.

III. Vertrauen als kritischer Faktor Vertrauensdefinitionen sind in der Literatur in grosser Zahl anzutreffen. Grob kann man diese Umschreibungen in zwei Kategorien unterteilen: Auf der ___________ 2

Vgl. Vanberg (2002), S. 9221.

190

Hansueli Stamm

einen Seite diejenigen Definitionen, die Vertrauen insbesondere mit einem Kanon von Werten und wünschenswerten Verhaltensweisen oder Eigenschaften der beteiligten Personen in Verbindung bringen. Ein Beispiel für diese Art von Definitionen ist diejenige von Brinkmann & Seifert. Diese sprechen z.B. davon, dass „der oder die VertrauensempfängerIn gleichzeitig kompetent, integer und wohlwollend“3 sein muss. Auf der anderen Seite trifft man Definitionen an, die ohne den Verweis auf bestimmte Werte auskommen. In deren Zentrum steht das Problem der komplexen Umwelt, die aufgrund der beschränkten kognitiven Leistungsfähigkeit eines Individuums nicht ohne vereinfachende Hilfsmittel zu bewältigen ist. Ein Beispiel für eine solche Herangehensweise ist z.B. der Ansatz von Hartfiel & Hillmann, die davon sprechen, dass „durch Vertrauen gewisse potentielle Entwicklungsmöglichkeiten ausgeschlossen, Risiken und Gefahren übersichtlicher und berechenbarer“4 werden. Das Verständnis von Vertrauen, das hier zur Anwendung kommen soll, reiht sich in die letztere der beiden Kategorien ein. Vertrauen wird hier definiert als Mass, Umfang oder Grad der Verlässlichkeit einer Information über einen Tatbestand, z.B. das zu erwartende Verhalten des potentiellen Tauschpartners. Es handelt sich hier um eine Wahrscheinlichkeit. Von Vertrauen spricht man also, wenn der Ausgang eines zukünftigen Ereignisses für den oder die Betroffenen im Voraus mit einer genügend grossen Wahrscheinlichkeit zu prognostizieren ist. Wie gross diese Wahrscheinlichkeit sein muss, ist vom Risikoverhalten des jeweiligen Akteurs abhängig, d.h. davon, wie viel potentiellen Schaden er im Falle eines Vertrauensbruches sich leisten kann oder will. Mit anderen Worten heisst das, dass Vertrauen ab einer gewissen Wahrscheinlichkeitsschwelle gegeben ist.5 Die in vielen Definitionen vorkommende „risikoreiche Vorleistung“6 ist im hier benutzen Verständnis nicht Teil der Definition von Vertrauen, sondern eine ökonomische Folge davon.7 ___________ 3

Vgl. Brinkmann/Seifert (2001), S. 27. Vgl. Hartfiel/Hillmann (1982), S. 789. 5 Vgl. z.B. Hardin (1998), S. 624: „To say I trust you means that I know or think I know relevant things about you, especially about your motivations toward me. Therefore one can mistakenly trust or distrust someone merely because one has wrong information about them.“ 6 Ripperger (1998), S. 45 definiert Vertrauen als „freiwillige Erbringung einer riskanten Vorleistung unter Verzicht auf explizite vertragliche Sicherungs- und Kontrollmassnahmen gegen opportunistisches Verhalten in der Erwartung, dass sich der andere, trotz Fehlen solcher Schutzmassnahmen, nicht opportunistisch verhalten wird.“ Sie unterscheidet zwischen der Rolle des Vertrauensnehmers und der des Vertrauensgebers. Sie modelliert diese Beziehung als Principal-Agent-Problem, bei dem „der Vertrauensgeber [...] sich in einer gegebenen Situation entscheiden [muss], ob und inwieweit er Vertrau4

Entstehung von Vertrauen beim elektronischen Handel

191

Der Aufbau von Vertrauen bzw. Abbau von Unsicherheit ist in den meisten Fällen ein Informations- und somit ein Kommunikationsproblem. Beide Wirtschaftssubjekte, die miteinander Handeln möchten, stehen vor dem Problem, dass sie erkennen, dass sie sich individuell besser stellen können, wenn sie sich nicht an die Abmachungen halten. Kennen sich die beiden potentiellen Tauschpartner nicht und haben beide keine Möglichkeit, Informationen über die Zuverlässigkeit des anderen zu beschaffen, so stehen beide vor dem Problem, dass die ihnen fehlende Information zwar im System vorhanden, aufgrund des nicht vollständigen Wissens der beiden aber für diese nicht direkt greifbar ist. Sie werden den kleinsten Hinweis auf die Vertrauenswürdigkeit des Gegenübers zu interpretieren versuchen. Je kleiner dieser ist, desto grösser die Wahrscheinlichkeit, dass sie sich in der Zuverlässigkeit des Gegenübers geirrt haben. Potenziert wird diese Irrtumswahrscheinlichkeit durch den Umstand, dass die Entscheidung, zu kooperieren oder nicht zu kooperieren nicht nur vom Entscheider selbst sondern auch von der Entscheidung des potentiellen Handelspartners abhängt. Die beiden stehen gemeinsam in strategischer Interdependenz. Da sich beide zum Zeitpunkt des Aufeinandertreffens dieser gegenseitigen Abhängigkeit bewusst sind und beide von rationalen Entscheiden (auf der Basis des jeweiligen Wissensstandes) ausgehen, ist zu erwarten, dass ein Tausch nicht zustande kommt. Beide sehen sich vor die klassische Situation des Gefangenen- oder Handelsdilemmas gestellt. In einer solchen Situation ist es für alle Beteiligten einsichtig, dass es nicht reicht, sich gemeinsame Regeln zu geben, nach denen getauscht werden soll, da beide zwar ein Interesse an der Existenz solcher Regeln haben, aber der Anreiz, sich nicht an diese zu halten, besteht. Mit anderen Worten: Das Regelgeltungsinteresse und das Regelbefolgungsinteresse fallen in Situationen strategischer Interdependenz sehr oft auseinender. Grundsätzlich kann man zwei Mechanismen beobachten, mit denen dieses fundamentale Problem überwunden wird. Ziel beider Varianten ist es, die Unsicherheit,8 die auf mangelnde Information zurückzuführen ist, so weit wie mög___________ en in den Vertrauensnehmer setzen will. Nimmt der Vertrauensnehmer das in ihn gesetzte Vertrauen an, muss er entscheiden, ob und inwieweit er die Vertrauenserwartung des Vertrauensgebers erfüllen oder enttäuschen will“ (a.a.O., S. 78). All diese Überlegungen sind in der oben dargestellten Auffassung von Vertrauen eine direkte Folge erfüllten oder enttäuschten Vertrauens, aber nicht Teil des Vertrauens selbst. Vgl. auch Luhmann (1989), S. 23, für den das Problem des Vertrauens ebenfalls ein „Problem der riskanten Vorleistung“ ist (Hervorhebung im Original). 7 Ein gutes Beispiel ist das „Tit“ in der „Tit for Tat“-Strategie zur Überwindung des Gefangenendilemmas. Wird dort der erste Vertrauensversuch, d.h. das Kooperieren (eben das „Tit“) vom Gegenüber nicht erwidert, so kommt eine Kooperation aufgrund fehlenden Vertrauens tatsächlich nicht zustande. Vgl. Axelrod (1984). 8 In Anlehnung an Knight, der zwischen messbarer und nicht messbarer Unsicherheit unterscheidet (vgl. Knight (1921/1971), S. 215f.; S. 133ff.), kann neben der Unsicher-

192

Hansueli Stamm

lich zu eliminieren und so die in solchen Fällen prohibitiv hohen Transaktionskosten zu eliminieren. In beiden Fällen wird es also um die Verbreitung von Information über das Verhalten des potentiellen Tauschpartners gehen. a)

Unabhängige Durchsetzungsinstanz (Third Party Enforcer): Einerseits kann die Überwindung des Handelsdilemmas dadurch erfolgen, dass die Beteiligten sich als integralen Bestandteil ihrer Abmachungen auf eine dritte Instanz einigen, die im Falle von Streitigkeiten bei der Vertragserfüllung die Sachlage entscheidet, d.h. Recht spricht. Zur Durchsetzung dieses Rechts muss diese Instanz über eine entsprechende Durchsetzungs- bzw. Zwangsmacht mit den zugehörigen Befugnissen zur Gewaltanwendung verfügen. Die potentiellen Tauschpartner werden sich denjenigen Anbieter (und Durchsetzer) eines solchen Marktfriedens aussuchen, bei dem für sie das Preis/Leistungs-Verhältnis am günstigsten erscheint. So wird durch die Sanktionsdrohung der dritten Partei („third party enforcer“) das Verhalten des Gegenübers abschätzbar. Das entscheidungsrelevante Risiko wird also trotz strategischer Interdependenz kalkulierbar.

b) Reputationsmechanismus: Können oder wollen sich die Beteiligten auf keinen Marktfriedensgaranten einigen, oder existiert in der entsprechenden Situation kein solcher, so bleibt ihnen noch die Möglichkeit, mittels der eigenen Reputation die Gegenseite davon zu überzeugen, dass man sich an die Abmachungen halten will. Voraussetzung für eine derartige Lösung des Handelsdilemmas sind wiederholte Interaktionssituationen. Erst wenn die Wiederbegegnungswahrscheinlichkeit einen gewissen Wert überschreitet, haben die Beteiligten einen Anreiz, die gemeinsamen Abmachungen nicht zu brechen, d.h. die eigene Reputation nicht zu beschädigen, um auch in Zukunft als Handelspartner auftreten zu können. Problematisch wird dieses Verfahren, wenn Tausch in grösseren Gruppen und nicht immer nur zwischen denselben beiden (oder zumindest sich gegenseitig bekannten) Individuen vollzogen wird. Die Information über das bisherige Verhalten des jeweiligen Transaktionspartners ist nicht mehr vorhanden. Es braucht also eine neue Institution, die diese Informationen ___________ heit, die auf mangelnde Information zurückzuführen ist („endogene Unsicherheit“ (vgl. Ripperger (1998), S. 17), auch noch eine Unsicherheit beobachtet werden, die nicht auf mangelndem Wissen basiert, sondern vom Zufall abhängig ist (bei Ripperger „exogene Unsicherheit“ (vgl. Ripperger (1998), S. 17) genannt). Vgl. dazu auch die Unterscheidungen zwischen „substantive uncertainty“ (vgl. Dosi/Egidi (1991), S. 146) bzw. „information gap“ (vgl. Heiner (1983), S. 148) bzw. „procedural uncertainty“ (vgl. Dosi/Egidi (1991), S. 150) bzw. „competence gap“ (vgl. Heiner (1983), S. 148). Regeln haben immer dann eine unsicherheitsreduzierende Funktion, wenn sie bei einer Entscheidung eines Individuums ein Informationsdefizit und somit die Irrtumswahrscheinlichkeit reduzieren können. Sie haben allerdings keinen Einfluss auf Situationen, in denen der Zufall Ursache von Unsicherheit ist.

Entstehung von Vertrauen beim elektronischen Handel

193

verbreitet. Es ist dabei einsichtig, dass die Kosten des Tausches damit ansteigen werden. Zum einen ist die neu notwendige Information über das Verhalten des Gegenübers in der Vergangenheit in den wenigsten Fällen kostenlos erhältlich, da das Betreiben einer solchen Agentur ebenfalls mit Aufwand und damit Kosten verbunden ist. Zum anderen steigt die Unsicherheit, da das Reputationsproblem um eine Stufe nach oben verlagert wurde. Nun wird auch noch zusätzliche Information über die Zuverlässigkeit der Institution gebraucht, die die Reputationsdaten der einzelnen Händler verwaltet.9 Wie in der Realität zu beobachten ist, schliessen sich diese beiden Möglichkeiten, das Handelsdilemma zu überwinden nicht gegenseitig aus. Auch in Situationen, in denen eine dritte Instanz zur Durchsetzung der Abmachungen im Streitfall vorhanden ist, sind Lösungsansätze der zweiten Form, die auf den Reputationsmechanismus abstellen, zu beobachten.10 Wie haben sich im Laufe der Zeit diese beiden Mechanismen zur Schaffung von Vertrauen entwickelt? Zum Aufzeigen der Evolution der entsprechenden Regeln werden im nächsten Abschnitt kurz ein paar historische Beispiele angeführt. Daraus ergibt sich die Frage, ob und wie sich die Situation mit dem Aufkommen des Internet verändert hat. Haben sich neue Probleme im Vertrauensbereich ergeben, die nach neuen institutionellen Lösungen verlangt oder reichen Modifikationen bisheriger Arrangements?

IV. Lösung des Vertrauensproblems in verschiedenen Marktarrangements Schon in frühen Phasen der Menschheitsgeschichte ist Handel beobachtbar. Das heisst, dass das Vertrauensproblem unter ganz unterschiedlichen sozialen, politischen und ökonomischen Rahmenbedingungen gelöst worden sein muss. ___________ 9 Vgl. zu diesem Problem Milgrom, North & Weingast, die feststellen, dass „[o]ne need not look far in history (or, for that matter, in the modern world) to see that judges are not always so perfect.“ Vgl. Milgrom/North/Weingast (1990), S. 16. Sie zeigen aber mittels eines Modells, dass ebenso wie für ungetreue Händler es sich auch für bestechliche Richter nicht auszahlt, sich opportunistisch zu verhalten: „[T]here is an equilibrium of the system in which every trader expects that if he pays a bribe he will be subjected to repeated attempts at extortion in the future; this dissuades the trader from paying any bribe. Then a Law Merchant [der Richter, H.S.] who commits to his threat to damage the reputation of a trader succeeds only in losing business, so he does not profit from making the threat“ (a.a.O.). 10 Zum selben Schluss kommen auch Milgrom, North & Weingast: „Neither the reputation mechanism nor the institutions can be effective by themselves. They are complementary parts of total systems that works together to enforce honest behavior.“ Vgl. Milgrom/North/Weingast (1990), S. 19.

194

Hansueli Stamm

Zum Aufzeigen dieser Entwicklung und späteren Einordnung der entsprechenden Mechanismen beim elektronischen Handel werden im nächsten Abschnitt einige historische Beispiele schlaglichtartig beleuchtet. Ein paar Beispiele vom stummen Tausch bis zum Distanztausch mit Durchsetzungsinstanz soll die Evolution der Etablierung von Anreizen zur Regelbefolgung und somit zur Vertrauensbildung veranschaulichen:11 Vom stummen zum persönlichen Tausch: Existiert keine externe Durchsetzungsinstanz, so muss das Vertrauensproblem zwischen den Beteiligten selbst gelöst werden. Es müssen gemeinsam Regeln gefunden werden, mit deren Hilfe für beide Seiten die Eigentumssicherheit zu jedem Zeitpunkt garantiert wird. Verunmöglicht aber die gegenseitige Scheu oder Angst voreinander eine solche Begegnung, so gestaltet sich eine Kontaktaufnahme als ziemlich aufwendig. Die Lösung in einer solchen Situation ist der so genannte stumme Handel oder Depothandel.12 Bei dieser Art des Tausches ziehen es die Beteiligten vor, sich nicht zu begegnen. Dort wo Handelsbeziehungen auf diese anonyme Weise initiiert worden sind, ist zu beobachten, dass mit der Zeit Tauscharten, bei denen persönliches Aufeinandertreffen notwendig ist, möglich werden. Das Anreizproblem der Handelsdilemmasituation ist gelöst, da die Tauschware gleichzeitig den Besitzer wechselt. Die Regeln, nach denen unter diesen Umständen gehandelt wird, sind einfach verständlich und für beide Seiten antizipierbar, auch wenn beispielsweise aufgrund von Sprachproblemen keine direkte Kommunikation möglich ist. Distanztausch ohne Durchsetzungsinstanz: Sobald jedoch zwischen Produzent, d.h. Anbieter auf der einen und Nachfrager, d.h. Käufer auf der anderen Seite kein unmittelbarer Kontakt mehr möglich ist, stellen sich die Informations- und Sicherheitsprobleme von neuem. Die Regeln, die sich in diesen Situationen entwickelt haben werden unter dem Überbegriff „lex mercatoria“ zusammengefasst. Dabei handelt es sich – aufgrund der fehlenden Durchsetzungsinstanz die die gemeinsamen Regeln garantiert – um unterschiedliche Spielarten der oben beschriebenen Reputationslösung. Ziel dabei ist es, die Wiederbegenungswahrscheinlichkeit soweit zu erhöhen, dass es sich für alle Beteiligten nicht mehr lohnt, sich opportunistisch zu verhalten. Mit anderen Worten heisst das, dass ein Mechanismus gefunden wurde, der ermöglicht, dass ein sich opportunistisch agierender Tauschpartner bei allen potentiellen zukünftigen Tauschpartnern bekannt ist und entsprechend gemieden werden kann. Dies bedeutet nicht, dass die Beteiligten tatsächlich wieder aufeinander treffen müs___________ 11 Vergleiche z.B. die verschiedenen Stufen der Entwicklung von Handel bei North (1990), S. 34f. 12 Vgl. Köhler (1985), S. 29f.

Entstehung von Vertrauen beim elektronischen Handel

195

sen, sondern nur, dass die Information über das bisherige Verhalten eines Händlers greifbar wird. Ein Beispiel sind die sich im elften Jahrhundert zu Gilden zusammenzuschliessenden Händler. Dadurch versuchten sie sich und ihre Eigentumsrechte vor Dieben und Wegelagerern gemeinsam zu schützen.13 Das (Club-)Gut, das sie so produzierten und das später von den Städten angeboten werden sollte, war Sicherheit. Daneben gab es innerhalb der Gilden Streitschlichtungsverfahren in Form von Schiedsgerichten, deren Sanktionspotential der Ausschluss aus dem Händlerverband war. Distanztausch mit Durchsetzungsinstanz: In der modernen, westlich orientierten Welt, in der ein Grossteil des gegenwärtigen globalen Handelsvolumens anfällt, existieren mittlerweile nationale (Handels-)Rechtssysteme mit den entsprechenden staatlichen Durchsetzungsmechanismen. Es ist jedoch in vielen Situationen zu beobachten, dass trotz dieses Angebots von staatlichen Regeln wieterhin auf Institutionen der (modernen) lex mercatoria zurückgegriffen wird. Insbesondere im internationalen Handel werden solche Möglichkeiten genutzt. Welche Auswirkungen hat nun das Aufkommen des neuen elektronischen Mediums Internet auf die bestehenden staatlichen, überstaatlichen und privaten Regelangebote? Während auf der einen Seite dank der neuen Kommunikationsmöglichkeiten die Dimension Distanz fast völlig verschwindet und somit eine weitere Ausdehnung der Reichweite von Handel zu erwarten ist, fehlt auf der anderen Seite zurzeit vielerorts noch das notwendige Vertrauen in die neuen Möglichkeiten. Dazu kommt, dass Electronic Commerce häufig internationaler Handel ist, und bei diesem die bekannten Probleme des unvollständigen Rechtssystems im Aussenhandel auch im Internetzeitalter auftauchen.

V. Was ist neu beim elektronischen Handel? Das Internet ist nicht das erste elektronische Medium, das zur Kommunikation im Handel eingesetzt wird. Telegraphie, das Telefon oder der elektronische Datenaustausch über proprietäre Netze (EDI) sind solche Beispiele. Die neueste Stufe dieses Einbezugs elektronischer Hilfsmittel beim Tausch stellt das Internet mit seinem standardisierten Protokoll und seiner benutzerfreundlichen Oberfläche dar. In dieser Arbeit wird unter elektronischem Handel jedes Handelsgeschäft verstanden, bei dem zumindest eine der vier Phasen einer Transaktion (Information, Verhandlung, Abschluss und Leistungserfüllung) mittels ___________ 13

Vgl. Volckart/Mangels (1999).

196

Hansueli Stamm

des Internet abgewickelt wird. Die Akteure werden dabei insbesondere in kommerzielle Anwender („Business“) und Konsumenten („Consumer“) unterschieden. Das Auftauchen von Änderungen in den Rahmenbedingungen oder von technischen Neuerungen bedingt in der Regel auch das Anpassen oder zumindest Modifizieren der Regeln und Durchsetzungsmechanismen, die für die Sicherheit und das Vertrauen im Handel sorgen. Die Frage, die in der folgenden Untersuchung von Interesse ist, ist, ob es sich lediglich um Anpassungen von Regeln handelt die in ähnlicher Form schon lange Anwendung finden oder ob auch Entwicklungen zu beobachten sind, die aufgrund von neuen Problemen, die vor dem Aufkommen des Internet noch gar nicht existiert haben, entstanden sind. Zunächst wird ein Beispiel für ein solches neues Unsicherheit stiftendes Element beim elektronischen Handel und eine mögliche neue institutionelle Lösung, die digitale Signatur, vorgestellt. Es folgt ein weiteres Beispiel, das auch bereits in anderen Situationen der Geschichte des Handels gute Dienste bei der Überwindung des Vertrauensproblems geleistet hat, die Reputationslösung.

1. Beispiel für eine „neue“ institutionelle Lösung des Vertrauensproblems: Die digitale Signatur In den folgenden Abschnitten wird am Beispiel der elektronischen Unterschrift gezeigt, wie sich zunächst die Händlerschaft darum bemüht, sich aus dem Internet-basierten Handel ergebende neue Unsicherheit stiftende Probleme auf privatautonomer Basis zu lösen. Dazu wird zuerst das eigentlich neue, bisher in dieser Form nicht existente Problem in Form des Auseinanderfallens von Identität und Authentizität einer elektronischen Unterschrift und die sich daraus ergebende Unsicherheit identifiziert. Es folgt die Vorstellung des grundlegenden Lösungsansatzes, der mittels einer dritten Institution dieses Auseinanderfallen wieder korrigiert. Für eine solche Instanz sind verschiedene institutionelle Formen denkbar. Es wird gezeigt, wie sich diese als zunächst rein private Organisationen im bestehenden Rechtsrahmen entwickelt haben. Ebenfalls wird dargestellt, wie sich dieser Rechtsrahmen allmählich gewandelt und schliesslich verfestigt hat und somit neue Rahmenbedingungen für den Umgang mit elektronischen Unterschriften geschaffen wurden.

Entstehung von Vertrauen beim elektronischen Handel

197

a) Ausgangslage für die Entwicklung digitaler Signaturen Besteht beim elektronischen Handel tatsächlich der Bedarf an neuen Regeln, so muss vorab gezeigt werden, dass es dabei tatsächlich Probleme gibt, die zuvor, d.h. im herkömmlichen Handel über traditionelle Medien nicht existierten und dass sie sich unter den bestehenden Regeln nicht lösen lassen. Welches sind also die Probleme, die es zu lösen gilt? Zur Beantwortung dieser Frage wird hier versucht, mittels Ergebnissen einiger Umfragen bei Unternehmen zum Thema Electronic Commerce, Elemente zu identifizieren, die von den Befragten als Unsicherheit stiftend wahrgenommen werden. Daraus können dann Rückschlüsse gezogen werden, was zumindest in der Wahrnehmung dieser Unternehmen resp. deren Repräsentanten am elektronischen Handel als „neu“ und problematisch wahrgenommen wird.14 Ein wichtiger Punkt, der in diesen Umfragen immer wieder genannt wird, sind die fehlenden allgemein üblichen Geschäftsgepflogenheiten.15 Dabei handelt es sich aber sicherlich nicht um etwas genuin Neues, das einzig auf das elektronische Medium zurückzuführen ist. Nicht weit hinter dieser Aussage folgen aber Punkte, die direkt auf das Internet Bezug nehmen. Da wird beispielsweise die Beweisbarkeit von Online-Transaktionen, die Gewährleistung der Integrität der übertragenen Informationen oder Probleme mit der Sicherheit von Zahlungen über das Internet genannt. Sehr prominent vertreten sind auch die Vertrauensprobleme mit zunächst unbekannten Web-Teilnehmern sowie – davon nicht unabhängig – Probleme im Zusammenhang mit elektronisch signierten Verträgen. Diese Aussagen weisen auf mögliche institutionelle Defizite hin, die der bisherige Regelrahmen nicht abzudecken vermochte. Welches sind nun die denkbaren und tatsächlich realisierten Lösungsansätze, die sich daraus entwickelt haben?

b) Vertrauensprobleme bei digitalen Signaturen Der zentrale Bestandteil einer ökonomischen Transaktion ist der Vertragsabschluss. Dieser kann auf unterschiedliche Arten zustande kommen. Eine wichtige Variante eines solchen Abschlusses ist die schriftliche Fixierung des Ver___________ 14

Vgl. dazu u.a. die „Electronic Commerce Enquête I und II“ von Müller/Schoder (1999) bzw. von Eggs/Engelert (2000), sowie die e-Reality 2000 – Studie von Strauss/ Schoder (2000). 15 In der Untersuchung von Müller/Schoder (1999) haben über 71 % der Befragten diesen Punkt als zutreffend eingestuft. Er steht damit an der Spitze von 32 abgefragten potentiellen Hemmnissen für den elektronischen Handel. Bei Strauss/Schoder (2000) befindet er sich immer noch an der Spitze der „zehn wichtigsten Hürden des Electronic Commerce“.

198

Hansueli Stamm

tragsinhaltes, versehen mit der handschriftlichen Unterschrift der beiden bzw. aller Vertragsparteien. Durch diese handschriftlichen Signaturen können die Unterzeichnenden identifiziert und im Falle einer Verletzung der Vertragsbedingungen dafür haftbar gemacht werden. Der Vertragspartner kann also sicher sein, dass die Unterschrift tatsächlich von seinem Geschäftspartner stammt (Authentizität) und dass er diesen auch identifizieren kann. Diese für handschriftliche Signaturen ungebräuchliche Trennung von Authentizität und Identität ist notwendig, um die Vertrauensprobleme, die mit dem Aufkommen elektronischer Verträge entstanden sind, zu verstehen. Eine digitale Signatur besteht aus einer binären Ziffernfolge, die dank einer entsprechenden Rechenvorschrift die gesamte zu signierende Meldung repräsentiert und die mit dem privaten Schlüssel16 des Unterzeichnenden verschlüsselt werden. Sie wird den signierten Daten angehängt.17 Dank dieser kryptographischen Verfahren ist es technisch möglich, eine digital signierte Nachricht zweifelsfrei dem privaten Schlüssel zuzuordnen, mit dem sie signiert wurde. Authentizität, d.h. das Feststellen der Herkunft einer Nachricht ist damit sichergestellt. Im Gegensatz zu einer handschriftlichen Unterschrift enthält eine digitale Signatur aber keinerlei Informationen über die Identität des Unterzeichnenden. Genau diese Lücke zwischen Authentizität und Identität ist es, die ein neues Problem beim elektronischen Handel darstellt. Sie ist eine der Ursachen der neu entstandenen Unsicherheit bei Transaktionen über das Internet. Ohne Sicherheit über die Identität und somit die Vertrauenswürdigkeit seines Vertrags- und somit Kommunikationspartners, wird sich ein Händler auf einen Abschluss nicht einlassen. Struktur des Problems: die Authentizitäts-Identitäts-Lücke Das Problem der Lücke zwischen Authentizität und Identität (A-I-Lücke) einer digitalen Unterschrift ist dem Gefangenendilemmaproblem um eine Stufe vorgelagert. Bevor die Mechanismen zur Lösung des Gefangenendilemmas eingesetzt werden können, muss sowohl Authentizität als auch Identität aller am Handel Beteiligten gesichert sein. Am einfachsten lässt sich dies am Beispiel eines elektronischen Vertragsabschlusses zeigen, der in einer einzigen ___________ 16 Seit einiger Zeit existieren in der Kryptographie so genannte asymmetrische Verschlüsselungsverfahren. Dabei besteht der Schlüssel aus einem privaten und einem öffentlichen Teil. Während der private Schlüssel geheim, d.h. nur dem Besitzer bekannt ist, kann der öffentliche Teil des Schlüssels von jedermann verwendet werden. Eine mit dem privaten Schlüssel verschlüsselte Mitteilung kann mit dem zugehörigen öffentlichen Schlüssel entschlüsselt werden, eine mit dem öffentlichen Schlüssel verschlüsselte Nachricht nur vom Inhaber des privaten Schlüssels. 17 Vgl. die ausführlichere Beschreibung der Entstehungsweise einer digitalen Signatur in Stamm (2001).

Entstehung von Vertrauen beim elektronischen Handel

199

Jurisdiktion stattfindet, in der davon ausgegangen werden kann, dass der Staat das Einhalten von Verträgen garantiert, das Gefangenendilemmaproblem somit gelöst wäre. Ist ein Händler zwar sicher über die Authentizität der digitalen Unterschrift unter einem Vertrag, kennt er jedoch die Identität des elektronisch Signierenden nicht, so kann ihm im Falle der Nichterfüllung des Vertrages durch seinen Vertragspartner auch die Durchsetzungsgewalt des Staates nicht helfen, zu seinem Recht zu kommen. Auch der Staat hat keine Möglichkeit aufgrund der digitalen Signatur die Identität des Unterzeichnenden festzustellen. Dieses Problem besteht ebenso im Falle des Lösungsansatzes über ein repetitives Spiel, da Reputation personen-(identitäts-)gebunden ist und im Falle ohne lückenschliessende Institution keine Gewähr dafür besteht, dass hinter der (authentischen) Signatur sich bei jeder Transaktion dieselbe Person (Identität) verbirgt. Die Lücke zwischen Authentizität und Identität bei Unterschriften, die mit der Einführung des neuen Mediums Internet auftaucht, stellt somit ein Problem dar, das eine neue Lösung erfordert. Die bisher in Situationen von Unsicherheit aufgrund fehlenden Vertrauens angewandten Reputationsmechanismen oder die Delegation der Lösung an den Staat mit dessen Durchsetzungsmöglichkeiten versagen, solange nicht klar ist, wessen Reputation beschädigt ist bzw. bei wem das staatliche Gewaltmonopol ausstehende Forderungen eintreiben kann. Solange die Lücke zwischen Identität und Authentizität institutionell nicht gefüllt werden kann, ist elektronischer Handel zwischen sich nicht bekannten Partnern nicht zu erwarten. Elektronischer Handel ist aber zu beobachten, was den Schluss nahe legt, dass es Möglichkeiten gibt, die Authentizitäts-IdentitätsLücke zu schliessen. Lösungsansätze Ohne zusätzliche Institution ist das Schliessen der A-I-Lücke einzig dann möglich, wenn sich die am Handel Beteiligten gegenseitig kennen. Im elektronischen Handel wäre dies beispielsweise bei Unternehmen gegeben, die bereits vor der „E“-Zeit miteinander im Kontakt standen.18 Im Bereich des elektronischen Handels sind im Zusammenhang mit der digitalen Unterschrift Zertifizierungsstellen („Certification Authorities“ (CA)) genannte Institutionen entstanden, die diese Aufgabe übernehmen, indem sie so genannte „Public-Key“-Infrastrukturen zur Verfügung stellen.

___________ 18 Ein Beispiel aus dem Business to Business-Bereich ist die Einführung von Electronic Banking bei Bankkunden, die bereits ein Konto oder Depot bei der entsprechenden Bank haben.

200

Hansueli Stamm

Public Key19-Infrastrukturen (PKI) werden von privaten, meist kommerziellen Institutionen angeboten. Es handelt sich dabei um drei zusammengehörige Dienstleistungen: Als erstes werden elektronische Zertifikate20 ausgegeben, die eine digitale Signatur mit der Identität ihres Inhabers verbindet. Um dies glaubhaft tun zu können, muss diese Institution zweitens eine Form der Registrierung eines neuen Kandidaten für ein Zertifikat anbieten können, die die Identität des Zertifikateinhabers bestätigt (Registration Authority) und schliesslich muss sie eine öffentlich zugängliche Datenbank führen, der die gültigen sowie die abgelaufenen und gesperrten Zertifikate (Revocation List) zu entnehmen sind. Diese drei Funktionen ermöglichen es, die Informationslücke zwischen Authentizität der digitalen Signatur und der Identität des Inhabers prinzipiell zu schliessen.21 Ein Problem ist durch diese Konstruktion der externen dritten PKIInstitutionen aber noch nicht gelöst. Das Vertrauensproblem ist zwar auf der untersten Ebene verschwunden, damit aber nur um eine Stufe nach oben verschoben worden. Mit anderen Worten: wer garantiert die Vertrauenswürdigkeit der PKI-Anbieter, d.h. der Zertifizierungsstellen? Vier Lösungsmöglichkeiten sind denkbar: a)

Die Institutionen zertifizieren sich gegenseitig, d.h. die Reputation der einen Zertifizierungsstelle hinge somit auch vom Ruf der anderen ab.

___________ 19 Der Begriff „Public Key“ bezeichnet diejenige kryptographische Methode, mit der digitale Signaturen hergestellt werden. 20 Ein Zertifikat ist ein öffentlicher, d.h. für jedermann abfragbarer Datenbankeintrag bei einer Zertifizierungsstelle, der einerseits die Identität des Inhabers des Zertifikates und andererseits den öffentlichen Schlüssel, mit dem die digitale Unterschrift entschlüsselt werden kann, enthält. Zertifikate haben eine bestimmte Gültigkeitsdauer und müssen nach deren Ablauf erneuert werden. Verletzt ein Inhaber die Voraussetzungen, die er für die Registrierung erbringen musste, so wird sein Zertifikat in der Datenbank als gesperrt gekennzeichnet. 21 Der Typ der „Zertifizierungsinstitution“, die dank ihrer eigenen Reputation jemandem bestimmte Informationen bezüglich gewisser Eigenschaften über einen Dritten zukommen lässt, ist nicht neu. Beispiele sind das Handelsregisteramt, das u.a. die Zeichnungsberechtigung der Vertreter von Unternehmen ausweist und auf Anfrage entsprechende „Zertifikate“ ausstellt oder das Prüfungsamt einer Universität, das „Zertifikate“ in Form von Diplomurkunden ausstellt, die bestätigen, dass der Inhaber einen gewissen Kanon an Qualifikationen besitzt. Der Unterschied solcher bestehender Zertifizierungsinstitutionen zu denjenigen, die das Schliessen der AI-Lücke ermöglichen, ist, dass sie zwar die Informationsbeschaffung erleichtern, Handel oder die Besetzung von offenen Stellen aber auch ohne sie denkbar sind (Reputationsmechanismus bzw. Prüfung der Qualifikationen durch den potentiellen Arbeitgeber). Certification Authorities (CAs), die Public Key-Infrastrukturen anbieten, vereinfachen aber nicht nur das Zustandekommen von Verträgen unter Unbekannten im Internet, sie ermöglichen sie erst. Ohne CAs ist der Einsatz digitaler Signaturen aufgrund der in oben dargelegten Gründe nicht zu erwarten.

Entstehung von Vertrauen beim elektronischen Handel

201

b) Die Trägerschaft der Institutionen garantiert mit ihrem Namen für die Reputation der PKI-Institutionen. Die Zertifizierungsstelle „erbt“ dadurch den Ruf ihrer Geldgeber.22 c)

Der Wettbewerb unter den Zertifizierungsstellen und die günstigen und schnellen Informationsmöglichkeiten im Netz (Rating-Agenturen, die entsprechende Informationen für Anleger bekannt geben, wären bspw. denkbar23) werden dafür sorgen, dass ein Reputationsverlust für die betroffene Institution grosse negative Auswirkungen nach sich ziehen würde.

d) Die Zertifizierungsstellen gründen eine gemeinsame Institution mit einer Liste von Standards, die für die Mitglieder als verbindlich gelten. Mitglieder, die sich nicht an diese Vorgaben halten, werden ausgeschlossen. Die Vertrauensprobleme, die aufgrund des Auseinanderfallens von Authentizität und Identität bei der digitalen Signatur entstanden sind, können dank dem Auftauchen von privaten Zertifizierungsdiensten gelöst werden. Auch das Problem des Vertrauens in die Zuverlässigkeit dieser Zertifizierungsstellen ist auf privater Ebene mittels der oben vorgestellten Mechanismen denkbar und in der Realität auch beobachtbar. Die durch die Nutzung der Möglichkeiten des Internet aufgekommenen neuen Vertrauensprobleme beim digitalen Vertragsabschluss sind auf privater Basis institutionell lösbar.24 Interessanterweise werden digitale Signaturen aber eher selten in der Praxis eingesetzt.25 Das heisst, dass das Überbrücken der oben beschriebenen Lücke zwischen Authentizität ___________ 22 Ein solches Beispiel war Swisskey, eine Zertifizierungsstelle, die getragen wurde von zwei Schweizer Grossbanken, dem ehemaligen Schweizer Telekom-Monopolisten und einem Zusammenschluss der kantonalen Handelskammern. Vgl. Swisskey (1999). Diese Zertifizierungsstelle ist allerdings am 31. Dezember 2001 nicht aufgrund mangelnder Reputation aber mangels Nachfrage wieder geschlossen worden. Vgl. http://www.telekurs-services.com/swisskey/index.html, 12. Oktober 2007. 23 Dies käme allerdings bereits wieder der Einführung einer weiteren Ebene gleich, auf der theoretisch dasselbe Spiel wieder beginnt. 24 Es existieren in den bestehenden nationalen Rechtsrahmen jedoch Passagen, in denen für die Gültigkeit einer Transaktion die Schriftform verlangt wird. Um diesen Teil des Handels ebenfalls dem Electronic Commerce zugänglich zu machen, ist eine Änderung des staatlichen Regelrahmens notwendig: Entweder wird die Verpflichtung zur Schriftlichkeit an allen entsprechenden Stellen aufgehoben, oder die digitale Unterschrift wird der handschriftlichen gleichgesetzt. 25 In der Zusammenfassung der Berichterstattung über eine einschlägige Fachtagung im Januar 2007 zum Thema digitale Signatur heisst es ernüchtert, dass „10 Jahre nach der Verabschiedung des [deutschen] Signaturgesetzes der Einsatz der Technik weit hinter den Erwartungen bleibt.“ Vgl. http://www.heise.de/ct/hintergrund/meldung/print/ 84331, 10. Oktober 2007.

202

Hansueli Stamm

und Identität und somit das Vertrauen in den Kommunikations- und Handelspartner in vielen Fällen alternativ gelöst werden muss. Am Beispiel des bekannten (und im Vergleich mit anderen Electronic Commerce-Unternehmen gut dokumentierten) Unternehmens eBay soll im nächsten Abschnitt eine alternative Möglichkeit vorgestellt werden, wie die Kluft zwischen Regelgeltungs- und Regelbefolgungsinteresse mit entsprechenden Anreizmechanismen zu überbrücken ist.

2. Beispiel für eine „alte“ institutionelle Lösung des Vertrauensproblems: Reputation26 eBay ist ein klassisches Beispiel für ein „dot.com“-Unternehmen, das sich (bisher) trotz aller Wirrnisse im Umfeld des Electronic Commerce behaupten konnte.27 Es hat sich in wenigen Jahren vom Hobby eines Software-Bastlers in einen Weltkonzern mit Milliardenumsätzen verwandelt. Das Interessante an eBay ist die Idee des reinen Vermittlers zwischen Käufern und Verkäufern. Das einzige Produkt, das eBay verkauft, sind seine Regeln, nach denen Güter getauscht werden können. Sein eigentliches Kapital sind seine mittlerweile weit über 100 Millionen registrierten Benutzer mit ihren in den bisherigen Transaktionen erarbeiteten Reputationsdaten. Die Ursprünge von eBay gehen zurück auf eine Idee von Pierre Omidyar im Herbst des Jahres 1995. Sein Ziel war es, die neue Technik des Internet zu nutzen, um die Kluft zwischen ökonomischer Theorie und der entsprechenden Praxis zu verkleinern, d.h. dem „perfekten Markt“ näher zu kommen.28 In perfekten Märkten geht man von vollständiger Information aus. Perfekte Information wiederum ist ein Garant für Sicherheit, da alle alles wissen. Das Internet sollte also dazu dienen, dank dessen Kommunikationsmöglichkeiten, Informa___________ 26

Für eine Auseinandersetzung mit Reputation als Vertrauen stiftendes Element im elektronischen Handel vgl. Einwiller (2003). 27 eBay ist ein typisches Beispiel für Unternehmen im Bereich Consumer to Consumer (C2C). Für weitere Beispiele zur Überwindung des Vertrauensproblems aus den Bereichen Business to Consumer (B2C) und Business to Business (B2B), vgl. Stamm (2006), S. 159ff. 28 Vgl. die wahrscheinlich etwas beschönigende Darstellung bei Cohen: „It occurred to him [Pierre Omidyar] that the Internet could solve this problem [the gap between theory and praxis; H.S.] by creating something that had never existed outside the realm of economic textbooks: a perfect market. […] Instead of selling products from a centralized source, it [eBay] connected individuals to other individuals, so that anyone on the network could buy from or sell to anyone else. […] Buyers would all have the same information about products and prices, and sellers have the same opportunity to market their wares.“ Vgl. Cohen (2002), S. 6f.

Entstehung von Vertrauen beim elektronischen Handel

203

tionen über die Verfügbarkeit von Produkten fast kostenlos zugänglich zu machen und somit den Preismechanismus sehr effizient spielen zu lassen. Das neue Medium vereinfacht dank seinen Möglichkeiten zwar die Suche und das Finden von Transaktionspartnern, über die Vertrauenswürdigkeit der potentiellen Handelspartner gibt es aber keine Auskunft. Da die zunächst nur im Freundeskreis betriebene Auktionssoftware immer beliebter wurde und sich der Kreis der Nutzer schnell vergrösserte und gelegentlich auch erste Betrugsfälle auftraten, musste ein Mechanismus gefunden werden, der nicht nur Informationen über die zu handelnden Güter zur Verfügung stellte, sondern auch solche über deren Anbieter und Nachfrager. Die bekannteste Einrichtung von eBay, um Vertrauen in seine Regeln und die daraus hervorgehenden Tauschakte zu bringen, ist der so genannte Feedback-Mechanismus. Dabei bewerten die beiden an einer Transaktion Beteiligten nach deren Abschluss sich gegenseitig, indem sie ihrem Gegenüber entweder einen Plus-, einen Minus- oder gar keinen Punkt erteilen. Zusätzlich können kurze schriftliche Kommentare hinterlassen werden. Der Punktestand sowie die Kommentare sind allen zukünftigen „Handelspartnern“ zugänglich.29 Dieses System entspricht dem in Abschnitt III.b. vorgestellten Reputationsmechanismus, der im Idealfall das Problem der fehlenden Wiederbegegnungswahrscheinlichkeit löst. Zwar wird ein Grossteil der Waren, die bei eBay zum Verkauf angeboten werden, von Käufern ersteigert, die in derselben Jurisdiktion leben wie die Verkäufer; die Sanktionsmöglichkeit mittels öffentlichem Rechtssystem und staatlichem Gewaltmonopol müsste daher für das Zustandekommen einer Transaktion reichen. Da es sich aber bei den Beträgen, um die es bei eBay-Auktionen hauptsächlich geht, kaum lohnt, bei einer Streitigkeit den Justizapparat in Bewegung zu setzen, ist das eBaysche Reputationssystem die weniger Kosten verursachende Alternative, Sicherheit für eine Transaktion herzustellen. Dies gilt natürlich umso mehr, wenn Transaktionen über Landesgrenzen hinaus getätigt werden. ___________ 29

Lucking-Reiley et al. haben in einem Experiment mit versteigerten Penny-Münzen bei eBay eine positive Korrelation zwischen Feedback-Bewertung und erzieltem Versteigerungserlös nachgewiesen: „A 1 % increase in the seller’s positive feedback ratings yields a 0.03 % increase in the auction price, on average. The effect of negative feedback ratings is much larger, and in the opposite direction: a 1 % [de]crease causes a 0.11 % decrease in auction price, on average.“ Vgl. Lucking-Reiley et al. (2006), S. 9. Auch Resnick et al. weisen einen positiven Zusammenhang zwischen positivem Feedback-Record und Zahlungsbereitschaft der Käufer fest: „Looking at matched pairs of lots – batches of vintage postcards – buyers were willing to pay a strong-reputation seller 8.1 % more on average than a new seller.“ Vgl. Resnick et al. (2006), S. 99. HOUSER & WOODERS finden, dass „that seller reputation (but not bidder reputation) is a statistically and economically significant determinant of auction prices.“ Vgl. Houser/Wooders (2006), S. 367. Auch Cabral & Hortaçsu kommen zum Schluss, dass „the mechanism has ‘bite’.“ Vgl. Cabral & Hortaçsu (2006), S. 40.

204

Hansueli Stamm

Das Feedbackprogramm von eBay hat seit seiner Einführung im Februar 1996 diverse Veränderungen erfahren.30 Zunächst war es ein offenes Forum, in dem jeder jederzeit irgendeinem anderen Mitglied eine Bewertung zu Teil werden lassen konnte. In einer ersten Modifikation durfte pro Transaktion noch maximal eine negative Beurteilung abgegeben werden. Als auch die Möglichkeit, positive Kommentare beliebig abgeben zu können immer mehr missbraucht wurde, wurde im März 2000 auch hier die Feedbackmöglichkeit auf eine Äusserung je Transaktion beschränkt.31 Zum gleichen Zeitpunkt wurde auf der amerikanischen Seite von eBay neu eingeführt, dass die Anzahl zurückgezogener Gebote32 hinter dem Namen eines Käufers auftauchte, um auch hier entsprechenden Missbrauch zu verhindern.33 eBay (wie viele andere Handelsunternehmen im Internet) hat das Vertrauensproblem zu einem guten Teil also analog zu den oben erwähnten mittelalterlichen Händlern gelöst, indem das Unternehmen – neben seiner Funktion als riesiges virtuelles Schaufenster – als Informationsdrehscheibe über die Zuverlässigkeit jedes einzelnen der auf ihrem Marktplatz Auftretenden fungiert. Aber warum ist Handel bei eBay möglich ohne elektronische Unterschrift, wenn doch im letzten Kapitel behauptet wurde, ohne eine solche Unterschrift komme es nicht zu einer Transaktion über das Internet? Zum einen sind Verträge, die über eBay abgeschlossen werden, rein privatwirtschaftliche und somit an keine speziellen Formvorschriften gebunden. Dazu kommt, dass eBay neben ___________ 30

Das Feedback-System wurde von eBay-Gründer Pierre Omidyar mit folgender Meldung bei den Mitgliedern motiviert: „Most people are honest, however, some people are dishonest. Or deceptive. This is true here, in the newsgroups, in the classifieds, and right next door. It’s a fact of live. But here, those people can’t hide. We’ll drive them away. Protect others from them. This grand hope depends on your active participation. Become a registered user. Use our Feedback Forum. Give praise where it is due; make complaints where appropriate. [...] Deal with others the way you would have them deal with you. Remember that you are usually dealing with individuals, just like yourself. Subject to making mistakes. Well-meaning, but wrong on occasion. That’s just human.“ (Pierre Omidyar zitiert in Cohen (2002), S. 27f.). 31 Da, wie in den in Fussnote 29 zitierten Studien gezeigt wurde, positives Feedback bei eBay zu höheren Verkaufserlösen führt, hat sich auf eBay auch ein „market for trust“ (vgl. Brown/Morgan (2006)) etabliert, bei dem für geringe Beträge nicht in erster Linie Güter sondern positives Feedback erstanden werden kann. „[... S]ince reputation is not weighted by the value of the transactions giving rise to the overall feedback score, there is no way for a buyer to distinguish between a seller whose reputation derives legitimate transaction and one whose reputation derives from what are arguably only notional transactions.“ Vgl. Brown/Morgan (2006), S. 77. 32 Das Zurückziehen von Geboten ist gedacht, um beispielsweise Tippfehler beim Eingeben von Geboten korrigieren zu können. Man kann sich aber diverse Anwendungen der Möglichkeit ein Gebot zurückzuziehen ausdenken, bei der nicht die Korrektur eines eigenen Fehlers im Zentrum steht, sondern die Beeinflussung des Auktionsverlaufes zu eigenen Gunsten. 33 Vgl. Cohen (2002), S. 239.

Entstehung von Vertrauen beim elektronischen Handel

205

den Reputationsdaten der an den Auktionen Teilnehmenden auch durch seine eigene Reputation, das stete Weiterentwickeln der Sicherheitsmassnahmen, etc. mit seinem eigenen Ruf für die Nutzer gewisse Sicherheit darstellt. Zudem bietet eBay einen externen Treuhandservice und weitere optionale Sicherheitsdienstleistungen an. Ersterer schaltet sich zwischen Käufer und Verkäufer. Der Käufer bezahlt den geschuldeten Betrag zunächst an den Treuhänder. Dieser leitet das Geld erst an den Verkäufer weiter, wenn das ersteigerte Gut in tadellosem Zustand beim Käufer eingetroffen ist. Verschiedene Untersuchungen weisen darauf hin, dass nicht nur im Consumer to Consumer-Handel sondern auch bei Transaktionen zwischen Geschäftsleuten sehr oft grosse Transaktionen stattfinden, die nicht bis ins letzte Detail abgesichert sind, d.h. die einzig per Handschlag abgeschlossen werden.34 Auch in diesen Situationen spielen Reputationseffekte und die Aussicht, über längere Zeit für beide vorteilhafte Geschäfte zu machen eine wichtige Rolle.

VI. Fazit Es ist zu beobachten, dass das grundlegende Vertrauensproblem, d.h. das Auseinanderfallen des Regelgeltungs- und des Regelbefolgungsinteresses in Umgebungen, in den die Wiederbegegnungswahrscheinlichkeit eine gewisse Schwelle nicht überschreitet, auch beim Handel über das elektronische Kommunikationsmedium Internet gelöst werden kann. Das Beispiel der digitalen Signatur hat gezeigt, dass ein bisher nicht existierendes Problem, das Auseinanderfallen von Authentizität und Identität mit neuen institutionellen Ansätzen auf privatautonomer Ebene gelöst werden kann. Erst wenn die vom Staat in gewissen Situationen vorgegebenen Formvorschriften ins Spiel kommen, muss dieser für eine entsprechende Normierung sorgen. Daneben haben sich aber auch alternative, seit langer Zeit erfolgreich praktizierte Mechanismen durchgesetzt. So wurden beispielsweise die Möglichkeiten der Reputation und deren drohender Verlust neu für das Medium Internet erschlossen und erfolgreich als ein Mittel (neben anderen) zur Lösung des Vertrauensproblems eingesetzt. Diese und diverse weitere Lösungsmöglichkeiten stehen miteinender in direkter Konkurrenz, künftig auch mit solchen, von denen wir heute noch nicht einmal eine Ahnung haben.

___________ 34 Vgl. z.B. die bekannte Untersuchung von Macaulay (1963) und für das Handschlagbeispiel bspw. Bernstein (1992).

206

Hansueli Stamm

Literatur Axelrod, Robert (1984): The Evolution of Cooperation, New York. Bernstein, Lisa (1992): Opting Out of the Legal System: Extralegal Contractual Relations in the Diamond Industry, in: Journal of Legal Studies 21, S. 115–157. Brinkmann, Ulrich / Seifert, Matthias (2001): ‚Face to Interface‘: zum Problem der Vertrauenskonstitution im Internet am Beispiel von elektronischen Auktionen, in: Zeitschrift für Soziologie 30, S. 23–47. Brown, Jennifer / Morgan, John (2006): Reputation in Online Auctions: The Market for Trust, in: California Management Review 19, S. 61–82. Cabral, Luís / Hortaçsu, Ali (2006): The Dynamics of Seller Reputation: Evidence from eBay. Mimeo. (pages.stern.nyu.edu/~lcabral/workingpapers/CabralHortacsu_Mar06. pdf; 10. Oktober 2007) Cohen, Adam (2002): The Perfect Store. Inside eBay, London. Dosi, G. / Egidi. M. (1991): Substantive and Procedural Uncertainty, in: Journal of Evolutionary Economics 1, S. 145–168. Eggs, Holger / Engelert, Jürgen (2000): Electronic Commerce Enquête 2000. Empirische Untersuchung zum Business-to-Business Electronic Commerce im deutschsprachigen Raum. Leinfelden-Echterdingen. Einwiller, Sabine (2003): Vertrauen durch Reputation im elektronischen Handel, Dissertation Nr. 2743, Universität St. Gallen. Hardin, Russell (1998): Trust, in: Newman, Peter (Hrsg.) (1998): The New Palgrave Dictionary of Economics and The Law, Vol. 3, London, S. 623–628. Hartfiel, Günter / Hillmann, Karl-Heinz (1982): Wörterbuch der Soziologie, dritte Auflage, Stuttgart. Heiner, Ronald A. (1983): The Origin of Predictable Behavior, in: American Economic Review 73, S. 560–595. Houser, Daniel / Wooders, John (2006): Reputation in Auctions: Theory, and Evidence from eBay, in: Journal of Economics & Management Strategy 15, S. 353–369. Knight, Frank H. (1921/1971): Risk, Uncertainty and Profit, Chicago. Köhler, Ulrich (1985): Formen des Handels aus ethnologischer Sicht, in: Düwel, Klaus et al. (Hrsg.) (1985): Untersuchungen zu Handel und Verkehr der vor- und frühgeschichtlichen Zeit in Mittel- und Nordeuropa. Göttingen, S. 13–55. Lucking-Reiley, David / Brian, Doug / Prasad, Naghi / Reeves, Daniel (2006): Pennies from eBay: the Determinants of Price in Online Auctions, Mimeo. (Download: http://eller.arizona.edu/%7Ereiley/papers/PenniesFromEBay.pdf; 10. Oktober 2007). Luhmann, Niklas (1989): Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität, dritte, durchgesehene Auflage, Stuttgart. Macaulay, Steward (1963): Non-Contractual Relations in Business: A Preliminary Study, in: American Sociological Review 28, S. 55–67.

Entstehung von Vertrauen beim elektronischen Handel

207

Milgrom, Paul R. / North, Douglass C. / Weingast, Barry R. (1990): The Role of Institutions in the Revival of Trade: The Law Merchant, Private Judges, and the Champagne Fairs, in: Economics and Politics 2, S. 1–23. Müller, Günter / Schoder, Detlef (1999): Electronic Commerce - Hürden, Entwicklungspotential, Konsequenzen. Ergebnisse aus der Electronic Commerce Enquête. Arbeitsbericht Nr. 137 des Instituts für Informatik und Gesellschaft / Telematik der Universität Freiburg i. Br. North, Douglass C. (1990): Institutions, Institutional Change and Economic Performance. New York: Cambridge University Press. Resnick, Paul / Zeckhauser, Richard / Swanson, John / Lockwood, Kate (2006): The value of reputation on eBay: A controlled experiment, in: Journal of Experimantal Economics9, S. 79–101. Ripperger, Tanja (1998): Ökonomik des Vertrauens: Analyse eines Organisationsprinzips, Tübingen. Stamm, Hansueli (2001): Institutioneller Rahmen des Electronic Commerce: Eine ordnungsökonomische Analyse am Beispiel der digitalen Signatur, Freiburger Diskussionspapiere zur Ordnungsökonomik 01/3. – (2006): Electronic Commerce und der Markt für Märkte. Eine Analyse aus ordnungsökonomischer Sicht, Freiburg i. Br. Strauss, Ralf / Schoder, Detlef (2000): e-Reality 2000 – Electronic Commerce von der Vision zur Realität. Status, Entwicklung, Erfolgsfaktoren und ManagementImplikationen des Electronic Commerce, Frankfurt. Swisskey (1999): Certification Practice Statement. (Download: http://www.swisskey.ch/ pdf/cps2.1_d.pdf; 15. September 1999). Vanberg, Viktor J. (2000): Der konsensorientierte Ansatz der konstitutionellen Ökonomik, in: Leipold, Helmut / Pies, Ingo (Hrsg.) (2000): Ordnungstheorie und Ordnungspolitik - Konzeptionen und Entwicklungsperspektiven, Stuttgart, S. 251–276. – (2002): Markets and the Law, in: Smelser, Neil J. / Baltes, Paul B. (Hrsg.) (2002): International encyclopaedia of the social & behavioral sciences. Vol. 14. Amsterdam, S. 9221–9227. Volckart, Oliver / Mangels, Antje (1999): Are the Roots of the Modern Lex Mercatoria Really Medieval? In: Southern Economic Journal 65, S. 427–450.

Vertrauensbildung in elektronischen Märkten – Korreferat zu Hansueli Stamm – Von Mathias Erlei In seinem interessanten Beitrag untersucht Hansueli Stamm das für den Internethandel zentrale Vertrauensproblem zwischen den Marktteilnehmern. Dabei schildert er aus evolutionsökonomischer Perspektive, wie es dem Marktsystem in den unterschiedlichsten Kontexten gelingt, Instrumente zur Behebung des fehlenden Regelbefolgungsinteresses hervorzubringen. Im Zentrum seiner Analyse steht die Bewältigung des Vertrauensproblems im Internethandel. Er zeigt, auf welche Weise die digitale Signatur und die Einrichtung eines Reputationsmechanismus (eBay) Betrugsanreize eindämmen. Seine eher optimistischen Ausführungen zu beiden Bereichen stehen in einem gewissen Spannungsverhältnis zur (a) seltenen Nutzung der digitalen Signatur sowie (b) der offensichtlichen Unvollkommenheit des eBayschen Bewertungssystems, die in den Abschnitten II. bis IV. diskutiert werden. Bevor ich mit dieser Detaildiskussion beginne, soll jedoch das Verhältnis des Beitrags zur Ethik betrachtet werden.

I. Der Bezug zur Ethik Der Beitrag von Stamm ist eingebettet in eine Tagung zum Thema „Internetökonomie und Ethik“. Erstaunlicherweise spielt die Ethik in diesem Beitrag keine hervorgehobene Rolle, den Begriff „Ethik“ als solchen sucht man vergebens. Nun mag man argumentieren, der in Stamms Text zentrale Begriff „Vertrauen“ stehe in engem Bezug zur Ethik, er sei quasi ethisch „aufgeladen“. Meines Erachtens reicht ein solcher Rückbezug nicht aus, denn Vertrauen besteht – wenn auch vielleicht nur in zeitlich begrenztem Ausmaß – zwischen zwei Verbrechern, die gemeinsam einen Raubüberfall ausüben, zwischen dem Drogenboss und dem Straßendealer und zwischen Bestecher und Bestochenem. Aus diesem Grund versuche ich im Folgenden kurz, den wirtschaftsethischen Bezug, wie ich ihn wahrnehme, skizzenhaft zu rekonstruieren.

210

Mathias Erlei

Als Ansatzpunkt kann man das Konzept einer Konsensethik verwenden. Hierunter verstehe ich in Anlehnung an Suchanek (2001, S. 11), dass sich die Individuen einer Gesellschaft per Konsens allgemeinen Institutionen unterwerfen. Unter einer Institution wird dabei ein System von Regeln („Spielregeln“) inklusive ihrer Durchsetzungsmechanismen1 verstanden. Die Spielregeln stecken die Grenzen der individuellen Freiheit ab, und die Durchsetzungsmechanismen bewirken, dass es sich für die Individuen nicht lohnt, die Regeln zu brechen. Innerhalb der durch geeignete Institutionen gesetzten Regeln dürfen sich Individuen frei und ihren eigenen Interessen entsprechend verhalten. Unter Bezugnahme auf die ökonomische Theorie kann dann festgestellt werden, dass in einem wettbewerblichen Marktsystem derjenige belohnt wird, „der das Wohl der Mitmenschen fördert“2. Auf diese Weise erzeugt ein Marktsystem einen Zustand, den man als zumindest näherungsweise effizient bezeichnen kann. Darüber hinaus leistet das wettbewerbliche Marktsystem einen entscheidenden Beitrag zum Verteilungsproblem: Der Wettbewerbsprozess kann als „das großartigste und genialste Entmachtungsinstrument der Geschichte“3 angesehen werden, „weil errungene Machtpositionen immer wieder (zu) erodieren (drohen)“4. Unter Machtpositionen wird insbesondere Marktmacht verstanden, sodass der Wettbewerb tendenziell zur Entlohnung aller Faktoren nach ihrem Wertgrenzprodukt führt. Verteilungspolitisch unerwünschte Monopolrenten sind mithin nicht stabil. Eine solche ökonomische Sicht gesellschaftlicher Wettbewerbsprozesse ebnet den Weg zur ethischen Qualität des Marktsystems: „Die moralische Vorzugswürdigkeit der Marktwirtschaft liegt darin, dass sie das beste bisher bekannte Mittel zur Verwirklichung der Solidarität aller Menschen darstellt“5. Die ökonomische Theorie zeigt allerdings auch, inwiefern durch Umstände wie Marktmacht, externe Effekte, asymmetrische Informationen oder bei Nichtrivalität im Konsum bzw. Nichtexkludierbarkeit vom Konsum Marktversagen entstehen kann. In diesen Fällen besteht unter Umständen ein Bedarf an staatlichemn Eingriffen, einer Neugestaltung der Institutionen oder dem Rückgriff auf individualethisches Verhalten. Doch dieser Aspekt steht nicht im Zentrum des zu diskutierenden Beitrags von Stamm: er untersucht, wie der evolutionäre wettbewerbliche Marktprozess aus sich selbst heraus Mittel findet, die jene Probleme bewältigen helfen, die durch die Internetrevolution entstanden sind, ___________ 1

Siehe Erlei/Lechke/Sauerland (2007), S. 65. Homann/Blome-Drees (1992), S. 50. 3 Böhm (1961), S. 22, zitiert nach Homann/Blome-Drees (1992), S. 50. 4 Homann/Blome-Drees (1992), S. 50. 5 Vorwort zum ersten Band des Jahrbuchs „Ordo“, zitiert nach Homann/Blome-Drees (1992), S. 49. 2

Vertrauensbildung in elektronischen Märkten

211

nämlich die aus Informationsasymmetrien entstandenen Vertrauensprobleme. Insoweit es dem Marktprozess gelingt, funktionsfähige Lösungsansätze zu generieren, kann diesem Prozess die oben erläuterte ethische Qualität beigemessen werden.

II. Digitale Signatur Einen Themenschwerpunkt des Referats bildet die Diskussion der digitalen Signatur. Stamm zeigt die grundsätzliche Funktionsweise auf und identifiziert anschließend das Vertrauenswürdigkeitsproblem der Public-Key-Infrastrukturanbieter, für das er vier Lösungsansätze anführt. Diese Lösungsansätze werden allerdings nur aufgelistet und keiner tiefer gehenden Analyse unterzogen. Es bietet sich mithin an, hier ein klein wenig genauer und kritischer nachzusehen. Als erster Lösungsansatz wird die wechselseitige Zertifizierung der PKIAnbieter untereinander genannt. Die PKI-Anbieter bilden somit eine Art Netzwerk mit wechselseitiger Reputationsbeeinflussung. Dabei bestehen jedoch drei grundlegende Anreizprobleme, mit deren Bewältigung sich Stamm nicht auseinandersetzt: (a) Die wechselseitige Zertifizierung erfordert auch eine Kosten verursachende, wechselseitige Evaluierung. Zur Erhaltung der Netzwerkreputation ist es für jeden einzelnen Teilnehmer wichtig, dass die anderen ihre Evaluierungsdienste erbringen. Der eigene Beitrag zur Überwachung der anderen PKI-Anbieter an sich ist – insbesondere bei größeren PKI-Anbieterzahlen – für die Reputationserhaltung nur von begrenzter Bedeutung. Damit besteht ein Anreiz zum Trittbrettfahren. Sollten die anderen PKI-Anbieter ihrer Evaluierungspflicht nachkommen, ist der eigene Beitrag dazu nicht mehr essentiell. Sollten die anderen PKI-Anbieter hingegen nicht dazu bereit sein, die Evaluierungskosten zu tragen, dann wird auch die eigene Überwachungsleistung die Reputation nicht retten können. Jedes Mitglied des PKI-Anbieter-Netzwerks befindet sich somit in einem Gefangenendilemma, das die Funktionsfähigkeit der wechselseitigen Zertifizierung in Frage stellt. (b) Ein weiteres Problem der wechselseitigen Zertifizierung resultiert aus dem Umstand, dass die Netzwerkmitglieder letztlich Konkurrenten um die Gunst der Nachfrager sind. Jeder PKIAnbieter kann seine eigene Marktposition verbessern, indem er dem zu zertifizierenden Konkurrenten Qualitätsmängel attestiert. Damit sabotiert der Anbieter jedoch die Funktionsfähigkeit des Zertifizierungsnetzwerks, und da alle PKI-Anbieter demselben Verleumdungsanreiz unterliegen, ist die Funktionsfähigkeit des Zertifizierungsnetzwerks fragwürdig. (c) Im letzten Punkt (b) wurde die Konkurrenzbeziehung der PKI-Anbieter als Ursache für ein Anreizproblem ausgemacht. Ein anderes Anreizproblem ergibt sich jedoch, wenn zwischen den Anbietern keine Konkurrenz herrscht. In diesem Fall können sie ihr Verhalten wie in einem Kartell aufeinander abstimmen, um sich wie ein Monopolist zu

212

Mathias Erlei

verhalten. Sollte eine solche Kollusion gelingen, bestehen für das Kartell dieselben Anreize wie für einen einzigen, isolierten Anbieter, sodass die wechselseitige Zertifizierung unglaubwürdig wird. Die Nutzer einer PKI müssen mithin befürchten, Beiträge zu einem nicht zuverlässigen System, in dem die Nutzer durch ein Quasi-Kartell mit schlechter Produktqualität ausgebeutet werden, zu leisten. Mit diesen Anmerkungen ist deutlich geworden, dass die wechselseitige Zertifizierung mit erheblich Anreizproblemen belastet ist. Der zweite Lösungsansatz basiert auf der Vorstellung, dass die eine PKI tragende Einrichtung bereits über eine Reputation aus anderen Tätigkeiten verfügt und ihren guten Ruf als Reputationskapital in die PKI einbringen kann. Ohne Zweifel kann man mit einem solchen Verfahren das Vertrauensproblem an sich lösen. Dies verursacht allerdings Kosten: Die Menge der entsprechenden PKIAnbieter wird damit auf Unternehmen beschränkt, die bereits über eine in anderen Branchen erworbene Reputation verfügen. Ob die verbleibende Menge allerdings derjenigen entspricht, die über das erforderliche Knowhow verfügt, ist zweifelhaft. In der New Economy sind es gerade die kleinen, flexiblen Unternehmen, die neuen technologischen Lösungen zum Durchbruch verhelfen. Hinzu kommt, dass das Erfordernis des Verfügens über eine Vorab-Reputation eine erhebliche Markteintrittsschranke darstellt, die die Funktionsfähigkeit des Marktes gefährden kann. Zum einen verursachen solche Marktschranken eine eher starre Marktstruktur, und zum anderen ist zu befürchten, dass ein bereits erfolgreiches Unternehmen, das eine neue PKI in den Markt bringt, große Vorsichtsmaßnahmen treffen wird, damit die neue Unternehmenssparte nicht die Unternehmensreputation gefährdet. Zwar ist dies die eigentliche Grundidee des zweiten Lösungsansatzes, doch beinhaltet es vermutlich auch, dass der „alte“ Unternehmensteil die neue, die PKI anbietende Sparte in erheblichem Ausmaß kontrollieren und regulieren wird. Damit verringert sich die Flexibilität der PKI-Sparte, was in der sehr dynamischen Welt des Internets überaus kritisch sein kann. Der dritte Lösungsvorschlag ist kein eigentliches Instrument zur Beseitigung des Vertrauensproblems, sondern entspricht eigentlich nur dem Vertrauen darauf, dass der Marktmechanismus schon eine Lösung hervorbringen wird. Unter welchen Bedingungen der Markt dies realisiert, wird nicht angesprochen. Die Argumentation Stamms ist schon recht kurios: Zunächst konstatiert er ein dem Markt für PKIs inhärentes Vertrauensproblem, und anschließend löst er mit dem dritten Ansatz das Problem dadurch, dass der Wettbewerbsprozess das Problem schon selbst beseitigen werde! Der angefügte Hinweis auf eine mögliche Rolle der Reputation löst das Problem der Unvollständigkeit des Arguments nicht. Die vierte Lösung besteht darin, eine „gemeinsame Institution“ einzurichten, die Standards setzt und durchsetzt. Unter der „gemeinsamen Institution“ ist

Vertrauensbildung in elektronischen Märkten

213

wohl so etwas wie ein Verband, ein Klub oder eine Genossenschaft zu verstehen, deren Mitglieder sich zur Einhaltung des gemeinsamen Verhaltenskodex verpflichten. Damit eine solche Verpflichtung glaubhaft ist, wird einem solchen Verein auch eine Durchsetzungsinstanz hinzugefügt, der sich die Mitglieder durch ihren Beitritt unterwerfen. Auf diese Weise kann der Anreiz zur individuellen Ausbeutung des Informationsvorsprungs der einzelnen PKI-Anbieter beseitigt werden. Es stellt sich allerdings nach wie vor das Problem des kollektiven Missbrauchs der Informationsasymmetrie durch den Klub als Anbieterkartell. Das Vertrauensproblem wird mithin wieder nur um eine Ebene verschoben. Wichtig wäre es zu zeigen, mit Hilfe welcher Instrumente ein solcher Klub eine glaubhafte Bindung an die Einhaltung der eigenen Standards erzeugen könnte. Ein denkbarer Weg könnte darin bestehen, dass der Klub für etwaiges Fehlverhalten der Mitglieder haftet. Eine Voraussetzung dafür ist allerdings, dass ein hinreichend hohes (Haftungs-)Kapital vorliegt. Da digitale Signaturen zur Abwicklung zahlloser Transaktionen eingesetzt werden sollen, müsste das Haftungskapital allerdings sehr hoch ausfallen. Alle vier von Stamm angeführten Lösungsvorschläge sind folglich mit nicht vernachlässigbaren Anreizproblemen belastet. Ob damit die Vertrauensprobleme tatsächlich „gelöst“ werden (Stamm, in diesem Band, S. 201), wurde meines Erachtens nicht gezeigt. Vielleicht liegen in den hier von mir skizzierten Anreizproblemen die Ursachen dafür, dass die digitale Signatur „eher selten in der Praxis eingesetzt“ wird6.

III. eBays Reputationsmechanismus Neben der digitalen Signatur als „neuem“ Konzept untersucht Stamm auch den Feed-back-Mechanismus von eBay als Ansatz zur Lösung des Vertrauensproblems im Internethandel. Dieser Mechanismus ist in dem Sinn „alt“, als er auf einem seit Jahrhunderten genutzten Prinzip beruht: dem Reputationsmechanismus. Stamm beschreibt die Entwicklung des Mechanismus bei eBay, der aus seiner Sicht „erfolgreich als ein Mittel (neben anderen) zur Lösung des Vertrauensproblems eingesetzt“7 wird. Es lässt sich kaum in Abrede stellen, dass eBay ein erfolgreiches Unternehmen ist. Dennoch stellt sich die Frage, ob der Feed-back-Mechanismus von eBay das Vertrauensproblem wirklich gelöst hat. Der kommerzielle Erfolg von eBay verdeutlicht zwar den aktuellen Zuspruch zum System, und er zeigt, dass viele Teilnehmer dem System derzeit vertrauen, doch bleibt offen, ob dieser ___________ 6 7

Stamm, in diesem Band, S. 201. Stamm, in diesem Band, S. 205.

214

Mathias Erlei

Zustand nachhaltiger Natur ist. So berichtet etwa das Handelsblatt vom 11.02.2008 über eine anstehende Änderung des Feed-back-Mechanismus: Aufgrund von „Rachebewertungen“ als Antwort auf negative Bewertungen des Verkäufers vermeiden viele Käufer negative Bewertungen ihrer Handelspartner. Ein solches Verhalten höhlt den eBayschen Reputationsmechanismus aus, weshalb eBay nun eine weitere Modifikation ankündigt. Auch die Literatur liefert Anhaltspunkte für nicht gelöste Probleme beim eBay-Tauschforum. Bolton et al. (2003) berichten von einem ökonomischen Experiment, bei dem ein Internet-Tauschhandel im Experimentallabor rekonstruiert wurde. Dabei vergleichen sie drei institutionelle Ausgestaltungen des Tauschforums: (a) einmalige, anonyme Tauschbeziehungen mit Online-Feedback-Mechanismus („Feedback“), (b) einmalige, anonyme Tauschbeziehungen ohne Feed-back-Mechanismus („Strangers“) und (c) wiederholte Tauschbeziehungen zwischen denselben Akteuren („Partners“), die den „klassischen“ Reputationsmechanismus repräsentieren. Dabei gelangen die Autoren zu folgenden Ergebnissen: 1. Der in Anlehnung an eBay abgebildete Feed-back-Mechanismus erzielt nur mittlere Effizienzgrade zwischen 30 % und 50 %. Während das „Stranger“Treatment geringere Effizienzgrade (10 % bis 40 %) aufweist, erweist sich die „Partner“-Konstellation mit Effizienzgraden von 70 % bis 80 % als deutlich überlegen. Man beachte, dass bei anderen Ausgestaltungen von Tauschforen – etwa in Form einer sogenannten Doppelten Auktion zumeist Effizienzgrade von deutlich über 90 % erreicht werden. 2. Bolton et al. messen das Vertrauen der Käufer als Prozentsatz der geleisteten Zahlungen der Kunden vor Lieferung. Dabei zeigt sich, dass das Vertrauen im „Partners“-Handel deutlich höhere Vertrauenswerte aufweist als im Feedback-Handel. Gleiches gilt auch für die Vertrauenswürdigkeit der Verkäufer. Dies verdeutlicht: das Vertrauensproblem wird nicht gelöst, sondern es wird durch den Feed-back-Mechanismus nur abgeschwächt! Lee/Malmendier (2006) haben eBay-Auktionsdaten ausgewertet und festgestellt, dass die endgültigen Auktionspreise in der Mehrzahl der Auktionen sogar über auf derselben Webseite verfügbaren Festpreisangeboten liegt. Die Transaktionspreise bei eBay sind aus Sicht der Käufer mithin eindeutig überhöht. Jin/Kato (2005) untersuchen die Einhaltung von Qualitätsversprechen im eBayHandel. Dabei stellen sie fest, dass bei hohen Qualitätsversprechen zwar höhere Preise gezahlt werden, diese aber nicht durch eine höhere Qualität belohnt werden. Als Ursache für die gefundenen Betrugsmuster deklarieren sie Mängel im Feed-back-Mechanismus. Kauffman/Wood (2003) finden ein heimliches Mitbieten der Verkäufer in ca. 6 % der betrachteten Fälle. Schließlich ist bis heute das Problem des Angebots von Hehlerware ungelöst (Handelsblatt, 11.02.08).

Vertrauensbildung in elektronischen Märkten

215

All dies verdeutlicht die noch immer vorliegenden Vertrauensprobleme selbst beim derzeit erfolgreichsten Internet-Handelsforum eBay. Zweifelsfrei schwächt der eBay-Reputationsmechanismus das Vertrauensproblem ab, doch sollte man keinesfalls von der Lösung des Problems sprechen: hier ist wohl noch ein langer Weg zu gehen!

IV. Der Selbstdurchsetzungscharakter von Institutionen Stamm erklärt völlig zu Recht den Konflikt zwischen Regelgeltungs- und Regelbefolgungsinteresse zum Kern des Vertrauensproblems. Institutionen bzw. institutionelle Arrangements, verstanden als System von Regel und ihren Durchsetzungsmechanismen, enthalten beide Aspekte. Stamm beschreibt aktuelle Ausgestaltungen zur Lösung des Vertrauensproblems, vernachlässigt aber die zentrale Selbstdurchsetzungseigenschaft von Institutionen8. Grundsätzlich soll das Regelbefolgungsinteresse durch einen Durchsetzungsmechanismus, etwa durch Einrichtung einer Regeldurchsetzungsinstanz, gesichert werden. Doch es stellt sich die Frage, wie gewährleistet werden kann, dass die Durchsetzungsinstanz ihre Aufgabe auch erfüllt? Wie kann sichergestellt werden, dass der Polizist den Dieb tatsächlich zu fangen versucht? Warum sollte ein Richter neutral bleiben? Würde nun die Regeldurchsetzung abermals durch einen (weiteren) Durchsetzungsmechanismus unterstützt werden, so verlagert man das Problem nur um eine weitere Ebene nach oben. Um nicht in einen infiniten Regress zu verfallen, muss auf irgendeiner Durchsetzungsebene das Kriterium der Selbstdurchsetzung erfüllt sein. Das besagt, dass sich die Regeln auf dieser Stufe insoweit selbst durchsetzen, als es im Interesse aller Beteiligten liegt, die Regeln auch ohne übergeordneten Durchsetzungsmechanismus einzuhalten. In Stamms Terminologie könnte man auch formulieren: auf einer Durchsetzungsebene (dies kann auch die untere Regelebene sein) darf kein Konflikt zwischen Regelgeltungs- und Regeleinhaltungsinteresse bestehen. So ein Zustand wird dann erreicht, wenn – aus spieltheoretischer Sicht – die Regeleinhaltung ein Nash-Gleichgewicht darstellt. Ist dies nicht der Fall, so wird über kurz oder lang die Regel erodieren. Die im dritten Abschnitt angeführten Regeleinhaltungsprobleme zeigen jedoch deutlich, dass im Falle von eBay noch nicht von einer Selbstdurchsetzung gesprochen werden kann. Solange das eBay-Forum hinreichende Anreize für Regelverletzungen aufweist, solange befindet das gesamte Marktgefüge in einer prekären Lage: auf der einen Seite existieren erhebliche Potenziale für Tauschgewinne, die für den dauerhaften Erhalt des so organisierten Internethandels ___________ 8

Vgl. Greif (2006), S. 53.

216

Mathias Erlei

sprechen. Auf der anderen Seite signalisieren die „erfolgreichen“ Betrugsfälle, dass am eBay-Markt ein großes Potenzial an ausbeutbaren Teilnehmern existiert. Dies lockt weitere Betrüger an und vernichtet die Aussichten auf realisierbare Tauschgewinne, was letztlich zu einem Marktzusammenbruch führen kann. Es ist keineswegs erstaunlich, wenn eBay bis auf den heutigen Tag versucht, die Marktregeln den Problemen anzupassen, denn noch ist das Vertrauensproblem nicht gelöst. eBay funktioniert vor allem deshalb, weil das Verhältnis zwischen ehrlichen und unehrlichen Marktteilnehmern noch vergleichsweise gut ausfällt. Werden die vorhandenen Anreizlücken jedoch nicht hinreichend schnell geschlossen, wird es nicht lange dauern, bis die unehrlichen Teilnehmer ihr Engagement hinreichend ausgedehnt haben bzw. hinreichend viele neue betrugswillige Akteure an den Markt kommen, und das wäre sicher das Ende von eBay.

Literatur Bolton, Gary E. / Katok, Elena / Ockenfels, Axel (2003): How effective are electronic reputation mechanisms? An experimental investigation, Working Paper, University of Cologne. Erlei, Mathias / Leschke, Martin / Sauerland, Dirk (2007): Neue Institutionenökonomik, 2. Aufl., Stuttgart. Greif, Avner (2006): Institutions and the path to modern economy, Cambridge. Homann, Karl / Blome-Drees, Franz (1992): Wirtschafts- und Unternehmensethik, Göttingen. Jin, Ginger Zhe / Kato, Andrew (2005): Price, quality and reputation: evidence from an online field experiment, erscheint in: Rand Journal of Economics. Kauffman, Robert J. / Wood, Charles A. (2003): Running up the bid: detecting, predicting, and preventing reserve price shilling in online auctions, in: ACM International Conference Proceeding Series, Bd. 50, Proceedings of the 5th international conference on Electronic commerce, Pittsburgh. Lee, Hanh / Malmendier, Ulrike (2006): The Bidder’s Curse, NBER Working Paper W13699. Suchanek, Andreas (2001): Ökonomische Ethik, Tübingen.

Vertrauen im elektronischen Handel – Korreferat zu Hansueli Stamm – Von Michael Florian

I. Einleitung In seinem Beitrag beschäftigt sich Hansueli Stamm aus ordnungsökonomischer Sicht mit den institutionellen Voraussetzungen der Entstehung von Vertrauen im elektronischen Handel. Den Ausgangspunkt bildet die Überlegung, dass in (elektronischen) Märkten ein grundsätzliches Koordinations- und Kooperationsproblem besteht, das auf der mangelnden Zuverlässigkeit der verfügbaren Informationen beruht, was für Stamm den Kern des Vertrauensproblems bildet. Weil potentielle Tauschpartner (insbesondere in anonymen Märkten) wechselseitig nicht sicher einschätzen können, wie verlässlich die Informationen über Produkteigenschaften, die Zahlungsbereitschaft und die Bereitwilligkeit zum fairen Austausch sind, wird der Tauschhandel und die Entwicklung von Märkten durch mangelndes Vertrauen belastet. Die Möglichkeiten, die Vertrauensbildung in Märkten durch institutionelle Regeln positiv zu beeinflussen, werden dadurch erschwert, dass in Situationen strategischer Interdependenz das Regelgeltungsinteresse und das Regelbefolgungsinteresse „sehr oft“ auseinander fallen und deshalb wirksame Anreize zur Befolgung institutioneller Regeln geschaffen werden müssen. Mit dem Entstehen und der Verbreitung der Internetökonomie stellt sich die Frage, inwieweit sich herkömmliche institutionelle Mechanismen auch für die Lösung von Vertrauensproblemen im elektronischen Handel bewähren, was Stamm am Beispiel der Entwicklung digitaler Signaturen für die Gewährleistung von Authentizität und Identität im Electronic Commerce sowie anhand der Nutzung von Reputation im Feedbacksystem der Auktionsplattform eBay analysiert. Meine Einwände richten sich vor allem gegen das Vertrauenskonzept, das Stamm für die Analyse des Problems der Entstehung von Vertrauen im elektronischen Handel benutzt. Meine These ist, dass der Ansatz von Stamm gravierende Mängel aufweist, die eine theoretische Erklärung und empirische Analyse von Vertrauen im elektronischen Handel unnötig belasten.

218

Michael Florian

II. Probleme der Definition von Vertrauen Vertrauen ist ein äußerst vielschichtiges soziales und psychisches Phänomen, für das es bis heute noch keine einheitliche und allgemein verbindliche Konzeption gibt. Deshalb ist bei der Definition von Vertrauen besondere Sorgfalt gefordert, insbesondere auch dort, wo verschiedene Disziplinen sich im Kontext von Internetökonomie und Ethik über die fachlichen Grenzen hinaus zu verständigen suchen. Leider gelingt es Stamm nicht, die Konfusion um den Vertrauensbegriff durch eine tragfähige und dem gegenwärtigen Diskussionsstand angemessene Definition aufzulösen, die zugleich eine Integration unterschiedlicher Dimensionen des Vertrauensphänomens zu leisten vermag. Stamm definiert Vertrauen als „Maß, Umfang oder Grad der Verlässlichkeit einer Information über einen Tatbestand, z.B. das zu erwartende Verhalten des potentiellen Tauschpartners“. Für ihn ist Vertrauen „ab einer gewissen Wahrscheinlichkeitsschwelle gegeben“, d.h. mit der Prognose einer „genügend großen Wahrscheinlichkeit“ eines zukünftigen Ereignisses verbunden. Dabei möchte Stamm ausdrücklich die Bezugnahme auf Werte und die riskante Vorleistung, die für ihn nicht Teil der Definition, sondern eine ökonomische Folge von Vertrauen ist, aus der Definition von Vertrauen ausschließen. Die Vertrauenskonzeption von Stamm wirft eine Reihe gravierender Probleme auf. Erstens bezieht sich die Verlässlichkeit einer Information, die Stamm als entscheidendes Kriterium der Vertrauensbildung heranzieht, allein auf die Eigenschaft eines Nachrichteninhaltes, zuverlässig oder glaubwürdig zu sein. Sie sagt noch nichts aus über die Vertrauenswürdigkeit von Akteuren, über die mehr oder weniger verlässliche Kenntnisse vorliegen. Aus der Verlässlichkeit der Information über einen potentiellen Tauschpartner kann noch nicht auf die Zuverlässigkeit des Tauschpartners selbst geschlossen werden, denn zwischen der Wahrscheinlichkeit verlässlicher Informationen und der Vertrauenswürdigkeit möglicher Tauschpartner besteht kein notwendiger Zusammenhang. Zuverlässige Informationen über die mangelnde Vertrauenswürdigkeit eines Betrügers lassen sich wohl kaum als ein Merkmal für Vertrauen interpretieren. Und die geringe Wahrscheinlichkeit zuverlässiger Informationen über einen vertrauenswürdigen Partner würde bei mangelndem Vertrauen einen Tauschakt verhindern, der als verpasste Chance zu bedauern wäre und letztlich zu einer mangelnden Effizienz des Marktes beitragen würde. Nicht allein die Verlässlichkeit von Informationen, sondern vor allem die potentielle Zuverlässigkeit von Akteuren bildet den zentralen Bezugspunkt für die Vertrauenswürdigkeit und eine daran orientierte Vertrauensbildung. Für die Verlässlichkeit einer Information benötigen wir die Kategorie des Vertrauens nicht, da hierfür der Begriff der Reliabilität oder Zuverlässigkeit völlig ausreicht und auch angemessener erscheint. Im Gegenteil, für eine trennscharfe Abgrenzung des Vertrauensbegriffs ist es sogar sinnvoll und geboten, die moralfreie Zuverlässigkeit (reliability)

Vertrauen im elektronischen Handel

219

und Glaubwürdigkeit (credibility) gegenüber der Vertrauenswürdigkeit (trustworthiness) im engeren Sinne zu unterscheiden, weil die Verwendung des Vertrauensbegriffs eine moralische Qualität der Ehrenhaftigkeit mit sich führt, die Vertrauen zu einem Sonderfall der Zuverlässigkeit macht.1 Diese wichtige Möglichkeit zur Unterscheidung und Präzisierung der Kategorie des Vertrauens geht bei Stamm aber verloren, weil er ohne einen Wertbezug auskommen möchte. Dies führt uns zum zweiten Problem: der proklamierten Wertfreiheit von Stamms Vertrauenskonzeption. Mit seiner Vertrauensdefinition will Stamm ausdrücklich eine Bezugnahme auf Werte wie z.B. die Kompetenz, die Integrität und die wohlwollende Gesinnung oder Absicht eines Tauschpartners vermeiden. Meine These ist dagegen, dass die Zuverlässigkeit von Informationen und die Vertrauenswürdigkeit möglicher Tauschpartner ohne einen Wertbezug auf die potentielle Schädlichkeit der von Tauschpartnern zu erwartenden Verhaltensweisen zu einem abstrakten und inhaltsleeren Kriterium für die Bestimmung und die Vergabe von Vertrauen wird. Dies zeigt sich schon allein daran, dass Stamm selbst die Ausblendung von Wertbezügen nicht konsequent durchhalten kann.2 Schon die Rede über potentielle Schäden oder die Berücksichtigung der Bewertung von Tauschpartnern bei eBay als konstituierendes Element der Reputationsbildung offenbaren, dass Wertfreiheit kein geeignetes Merkmal ist, um die Bildung von Vertrauenswürdigkeit und die Entstehung von Vertrauen im elektronischen Handel zu verstehen. Von ihm selbst unbemerkt führt Stamm dann auch den Wertbezug durch die Hintertür wieder ein, wenn er behauptet, dass Vertrauen dann vorliegt, wenn der Ausgang eines künftigen Ereignisses im Voraus mit einer genü___________ 1 Vgl. Ortmann (2003), S. 216f. und Elster (1989), S. 274f. zur moralischen Qualität von Vertrauen in Abgrenzung zur Reliabilität sowie Dasgupta (1988), S. 56 zum Vertrauen als „moralische Ressource“ im Anschluss an Hirschman (1984), S. 93. 2 Auch die von Stamm angeführten Referenzen eignen sich nicht für eine Unterstützung seines wertfreien Vertrauensbegriffs. So kommt die soziologische Vertrauensdefinition von Hartfiel/Hillmann (1982) gerade nicht ohne einen Verweis auf bestimmte Werte aus, denn Vertrauen bildet „ein zentrales Element in Konzepten eines prosozialen Verhaltens“ (Hartfiel/Hillmann (1982), S. 789). Als prosozial wird üblicherweise eine Verhaltensweise bezeichnet, die einer Gemeinwohlorientierung (z.B. Altruismus) folgt oder einer Berücksichtigung der Interessen oder des Wohls anderer hohen Wert beimisst. Auch für Hardin (1998) ist bei Vertrauen nicht die Wahrscheinlichkeitsschwelle verlässlicher Informationen an sich bedeutsam, wie Stamm behauptet, sondern das Wissen über relevante Sachverhalte, „especially about your motivation toward me“ (Hardin (1998), S. 624). Die Motivation mir gegenüber, sei es in Form eines bestimmten Interesses (z.B. Berücksichtigung meines Interesses vs. unbedingtes Eigeninteresse von Tauschpartnern) oder einer spezifischen Gesinnung (z.B. Wohlwollen vs. Opportunismus), führt aber notwendig einen Wertbezug in die vertrauensrelevante Tauschbeziehung ein, den Stamm eigentlich ausschalten will. Zur Bedeutung von Absichten, Dispositionen und Motivationen für ein wirtschaftswissenschaftliches Vertrauenskonzept vgl. auch Dasgupta (1988), S. 52.

220

Michael Florian

gend großen Wahrscheinlichkeit prognostiziert werden kann und dabei die Höhe dieser Wahrscheinlichkeit vom Risikoverhalten des Akteurs abhängt, „wie viel potentiellen Schaden er im Falle eines Vertrauensbruches sich leisten kann oder will“. Erwägungen über einen möglichen Schaden oder Nutzen sind aber ohne Wertbezüge sinnlos. Konsequenterweise ist der Vertrauensbegriff im alltäglichen Sprachgebrauch ebenso wie in der üblichen wissenschaftlichen Verwendungsweise grundsätzlich mit einer Bewertung verbunden, d.h. an positive Erwartungen geknüpft, die ein Akteur z.B. hinsichtlich der künftigen Verhaltensweise eines potentiellen Tauschpartners hegt. Dieser Wertbezug zielt auf eine besondere Eigenschaft vertrauenswürdiger Tauschpartner, sich mir gegenüber verlässlich, gut, wohlwollend, ehrlich oder ehrenhaft zu verhalten, mich nicht (willentlich) zu betrügen oder meine Interessen nicht (absichtlich, mit Vorsatz) zu verletzen. Wird dieser Bewertungsaspekt ignoriert, wie Stamm es vorschlägt, geht eine wichtige Referenz der Vertrauenskategorie verloren. Die behauptete Wertabstinenz wirft ein drittes Problem auf, wonach Stamms Vertrauensbegriff sich hilflos zeigt gegenüber der grundsätzlichen Mehrdeutigkeit und Interpretationsbedürftigkeit des Verhaltens von (potentiellen) Tauschpartnern. Die mangelnde Zuverlässigkeit eines Akteurs in einem ökonomischen Tauschprozess einschließlich der geringen Verlässlichkeit der über ihn verfügbaren Informationen muss nicht notwendig zu einem Vertrauensverlust führen, wenn die wahrgenommenen Defizite auf nicht-intentionale Ursachen zurückgeführt werden können wie z.B. auf widrige „äußere Umstände“, auf zufällige Ereignisse, auf „höhere Gewalt“, auf beiderseitige Missverständnisse oder auf unbeabsichtigte Fehler und versehentliche Irrtümer. Selbst eindeutig zuzuordnende Mängel, die der fehlenden Kompetenz des Tauschpartners anzurechnen sind, werden nicht in jedem Fall unmittelbar vertrauensrelevant. Sie erfordern zumindest eine Interpretation, wie weit die Kompetenzdefizite reichen und inwieweit sie sich auf künftige Transaktionen auswirken können. Dies unterstreicht die Bedeutung, Vertrauen als ein mehrdimensionales Konzept zu begreifen, in dem Kompetenz, Integrität und Gesinnung als Ansatzpunkte für die Einschätzung der Vertrauenswürdigkeit eines Akteurs und als Bezugspunkte für die wissenschaftliche Analyse von Vertrauen differenziert werden und dadurch auch unabhängig voneinander variieren können.3 Meine These ist, dass mangelnde Verlässlichkeit nur dann und insofern vertrauensrelevant wird, wenn diese Eigenschaft im Zusammenhang mit der Zuschreibung einer bösen Absicht oder eines schädlichen Vorsatzes geschieht, d.h. in einem Zusammenhang mit der Gesinnungsdimension interpretiert und moralisch bewertet wird. In jedem Fall wird deutlich, dass die verfügbaren Informationen stets interpre___________ 3 Zum Vertrauen als „multidimensionales Konstrukt“, das auf eine „situationsspezifische Kombination von Kompetenz, Integrität und Gesinnung“ zielt, vgl. Brinkmann/Seifert (2001), S. 24 und 26f.

Vertrauen im elektronischen Handel

221

tationsbedürftig sind und von den Akteuren aufgrund ihrer bisherigen Erfahrungen bewertet werden, so dass die jeweilige „Definition der Situation“ maßgeblich darüber entscheidet, ob Vertrauen gewährt wird oder nicht. Die eindeutige Interpretation mehrdeutiger Verhaltensweisen als Vertrauensbruch ist nur unter Bezugnahme auf eine Zurechnung von Verantwortlichkeit und bei einer absichtlichen Verletzung von Werten auf Seiten des Vertrauensnehmers möglich. Diese grundsätzliche Interpretationsbedürftigkeit aller Informationen wird auch in empirischen Studien über Vertrauen und Reputation im elektronischen Handel bestätigt.4 Die Deutung und Bewertung der Gesinnung, Motive oder Absichten in ökonomischen Tauschprozessen spielt eine zentrale Rolle für die Bestätigung, Enttäuschung oder Zerstörung von Vertrauen.5 Eine präzise Bestimmung des Schwellenwertes, an dem Misstrauen in Vertrauen übergeht (und umgekehrt) ist ohne die Einbeziehung subjektiver Überzeugungen über die Vertrauenswürdigkeit und die möglichen Motive potentieller Tauschpartner nicht möglich. Für die Bewährung oder Enttäuschung von Vertrauen ist entscheidend, ob das schädigende Verhalten von Tauschpartnern auf böse Absichten, vorsätzlichen Betrug oder opportunistische Motive zurückgeführt wird. Die Abhängigkeit vom „Risikoverhalten“ des vertrauenden Akteurs enthält eine subjektive Komponente, deren Integration in die Vertrauenskonzeption von Stamm völlig unklar bleibt. Klar ist jedoch, dass Vertrauen damit nicht allein unter Bezug auf den Grad der Verlässlichkeit von Informationen bestimmt werden kann, sondern bei der Festlegung einer Wahrscheinlichkeitsschwelle die subjektive Bereitschaft zur Übernahme von Risiken und die Erwartungen an die Vertrauenswürdigkeit potentieller Tauschpartner berücksichtigen muss. Dabei ist von einem „Toleranzbereich“ auszugehen, innerhalb dessen die Handlungen von Tauschpartnern bewertet werden, wobei je nach Schadenshöhe und Kontext unterschiedliche Normalitätsvorstellungen über die spezifische Ausprägung der (Un-)Angemessenheit von Vertrauenserwartungen zu berücksichtigen sind.6 Die subjektive Risikobereitschaft auf Seiten des Vertrauensgebers führt uns zu einem vierten Kritikpunkt: Die riskante Vorleistung des Vertrauensgebers wird von Stamm nicht als Bestandteil der Definition von Vertrauen begriffen, ___________ 4

Vgl. zur Interpretationsbedürftigkeit Brinkmann/Seifert (2001), S. 27, 39f. und 41f. Vgl. Brinkmann/Seifert (2001), S. 26f. Die Relevanz von Wertvorstellungen wie Fairness oder Gerechtigkeit („equity“) sowie die Rolle intrinsischer Motivationen und sozialer Präferenzen (z.B. Reziprozität und Altruismus) für die Vertrauenswürdigkeit ökonomischer Akteure wird inzwischen auch in neueren theoretischen Konzeptionen und in zahlreichen Studien der experimentellen Ökonomik bestätigt (vgl. z.B. Ockenfels (2003), Bolton/Ockenfels (2000), Fehr/Schmidt (1999) oder Fehr/Gächter (2000)). 6 Vgl. Brinkmann/Seifert (2001), S. 27. 5

222

Michael Florian

sondern als eine direkte „ökonomische Folge“ des erfüllten oder enttäuschten Vertrauens verstanden. Stamm begründet dies am Beispiel der „Tit for Tat“Strategie beim Spiel des Gefangenendilemmas, bei dem eine Kooperation aufgrund fehlenden Vertrauens scheitert, wenn der „erste Vertrauensversuch“ (!) vom Partner nicht entsprechend erwidert wird. Dabei ignoriert Stamm jedoch die Vielschichtigkeit des Vertrauensphänomens als Erwartungshaltung und als „Merkmal sozialer Beziehungen“7 sowie die Prozesshaftigkeit der Vertrauensbildung, die mit einer Vertrauensgabe beginnt. Ein Vertrauensgeber gibt Vertrauen in Ungewissheit und zunächst unabhängig davon, ob die Offerte vom potentiellen Vertrauensnehmer tatsächlich angenommen wird oder nicht. Allerdings wechselt das Vertrauen im Laufe des Handlungsprozesses seine Form: Es besteht zunächst nur in einer positiven Erwartungshaltung des Vertrauensgebers, dass seine einseitige Vorleistung als ein Vertrauensvorschuss vom Tauschpartner angenommen und entsprechend honoriert und erwidert wird. Die Ablehnung einer Vertrauensofferte ändert prinzipiell nichts daran, dass Vertrauen in Form einer positiven Erwartung vorgelegen hat. Auch gescheiterte Vertrauensversuche setzen Vertrauen als (riskante) Vorleistung voraus. Als Eigenschaft sozialer Beziehungen reicht diese Vorleistung selbstverständlich nicht aus, weil erst die Vollendung des Tauschprozesses durch den Vertrauensnehmer aus der einseitigen Vorleistung eine beiderseitige Vertrauensbeziehung macht. Diese wichtige Differenz kommt aber in der Vertrauensdefinition von Stamm eigentlich nicht vor, weil er Vertrauen nicht als einen, die Vor- und Gegenleistung übergreifenden sozialen Prozess versteht, sondern auf die Verlässlichkeit vorab verfügbarer Informationen reduziert. Je nach analytischer Perspektive ist Vertrauen begreifbar als eine kognitivemotionale Erwartung, eine soziale Handlung oder eine soziale Beziehung zwischen Akteuren, die gegenseitig positive Erwartungen hegen und zur Grundlage ihrer Tauschprozesse machen.8 Vorleistungen des Vertrauensgebers sind damit keineswegs nur eine Folge von Vertrauen, wie Stamm behauptet, sondern unmittelbar in den Prozess der Vertrauensbildung selbst integriert. Die mit Vertrauen verbundene einseitige Verletzbarkeit oder riskante Vorleistung ist denn auch ein zentrales Merkmal vieler einschlägiger Vertrauenskonzeptionen in der Ökonomik ebenso wie in der Soziologie und anderen Sozialwissenschaften.9 ___________ 7

Vgl. Preisendörfer (1995), S. 264 und Endreß (2002), S. 71. Die Unterscheidung und gleichzeitige Berücksichtigung von Vertrauen als Erwartung und als Handlung (oder als Eigenschaft einer sozialen Beziehung) findet sich in vielen Vertrauenskonzepten (vgl. für die Ökonomik z.B. Ripperger (1998), S. 45). 9 Vgl. z.B. Mayer/Davis/Schoorman (1995), S. 712; Rousseau et al. (1998), S. 395; für die Ökonomik vgl. z.B. Ripperger (1998), S. 45; James (2002), S. 291; Ludwig (2005), S. 49; für die Soziologie vgl. z.B. Luhmann (1973), S. 23f.; Coleman (1991), 8

Vertrauen im elektronischen Handel

223

III. Konklusion Das Vertrauenskonzept von Stamm wird der Multidimensionalität, Komplexität und sozialen Prozesshaftigkeit des Vertrauensphänomens nicht gerecht. Für eine tragfähige theoretische Erfassung und empirische Analyse der Vertrauensbildung im elektronischen Handel müssen aus meiner Sicht mindestens sechs Bedingungen erfüllt sein. Erstens liegt ein Vertrauensproblem nur dann vor, wenn Akteure zueinander in einer sozialen Interdependenzbeziehung stehen, so dass sie ihre Entscheidungen innerhalb einer sozialen Struktur gegenseitiger Abhängigkeit treffen müssen.10 Zweitens besteht in Vertrauenssituationen eine prinzipielle Ungewissheit über das Verhalten möglicher Tauschpartner, die sich nicht durch formelle vertragliche Sicherungen oder andere Schutz- und Kontrollmaßnahmen vollständig beseitigen lässt, sondern mittels Vertrauen zumindest soweit reduziert werden muss, dass die Handlungsfähigkeit gewahrt bleibt.11 Drittens ist Vertrauen als relativ dauerhafte positive Erwartungen eines Akteurs (Vertrauensgeber) zu begreifen hinsichtlich der Zuverlässigkeit eines Vertrauensnehmers, dass dieser sich trotz des Fehlens von Schutzmaßnahmen und Kontrollmöglichkeiten nicht opportunistisch verhalten wird.12 Vertrauen erfordert viertens eine Bereitschaft, sich trotz Ungewissheit durch einseitige Vorleistungen einer Verletzlichkeit auszusetzen, bei der ein potentieller Verlust größer ist als der möglicherweise zu erwartende Gewinn.13 Vertrauen lässt sich fünftens als ein sozialer Prozess verstehen, der zu einer vorübergehenden oder dauerhaften Stabilisierung der wechselseitigen Interdependenzen in Form sozialer Vertrauensbeziehungen führen kann.14 Darüber hinaus ist sechstens zu berücksichtigen, dass sich die Vertrauensbildung in der Anonymität elektronischer Märkte über subjektive Erwartungen und interpersonelle Beziehungen hinaus vor allem auch auf die Vertrauenswürdigkeit sozialer Institutionen und Systeme bezieht.15 Ob diese konzeptionelle Grundlage sich als tragfähig genug erweisen wird, um die interdisziplinäre Erforschung der Vertrauensbildung im elektronischen Handel zu stärken, wird die Zukunft zeigen. Erste Ansätze hierfür sind bereits ___________ S. 115; Preisendörfer (1995), S. 266; Brinkmann/Seifert (2001), S. 27; Beckert (2002; 2006), S. 318; Möllering (2006). 10 Vgl. Dasgupta (1988), S. 51f., 56 und Rousseau et al. (1998), S. 395. 11 Vgl. Beckert (2002; 2006) und Möllering (2006). 12 Vgl. Ripperger (1998), S. 45, Ludwig (2005), S. 49 und die „inability to monitor other’s actions“ bei Dasgupta (1988), S. 51. 13 Vgl. Luhmann (1973), S. 23f., Ripperger (1998), S. 45, Rousseau et al. (1998), S. 395 und Ludwig 2005, S. 49. 14 Vgl. Endress (2002) und Möllering (2006). 15 Vgl. insbesondere Luhmann (1973) zur Bedeutung von „Systemvertrauen“.

224

Michael Florian

vorhanden.16 Die ordnungsökonomische Perspektive von Stamm könnte hier anschließen, wenn die kritisierten theoretischen Defizite erkannt und behoben werden.

Literatur Beckert, Jens (2002): Vertrauen und die performative Konstruktion von Märkten, in: Zeitschrift für Soziologie 31, S. 27–43. – (2006): Trust and Markets. In: Bachmann, Reinhard / Zaheer, Akbar (Hrsg.) (2006): Handbook of Trust Research, Cheltenham, S. 318–331. Bolton, Gary E. / Ockenfels, Axel (2000): ERC: A Theory of Equity, Reciprocity and Competition, in: American Economic Review 90, S. 166–193. Brinkmann, Ulrich / Seifert, Matthias (2001): ‚Face to Interface‘: Zum Problem der Vertrauenskonstitution im Internet am Beispiel von elektronischen Auktionen, in: Zeitschrift für Soziologie 30, S. 23–47. Coleman, James S. (1991): Grundlagen der Sozialtheorie, Band 1 Handlungen und Handlungssysteme, München. Dasgupta, Partha (1988): Trust as a Commodity, in Gambetta, Diego (Hrsg.) (1988): Trust: Making and Breaking Cooperative Relations, New York, Oxford, S. 49–72. Elster, Jon (1989): The Cement of Society: A Study of Social Order, Cambridge. Endreß, Martin (2002): Vertrauen, Bielefeld. Fehr, Ernst / Gächter, Simon (2000): Fairness and Retaliation: The Economics of Reciprocity, in: Journal of Economic Perspectives 14, S. 159–181. Fehr, Ernst / Schmidt, Klaus M. (1999): A Theory of Fairness, Competition and Cooperation, in: Quarterly Journal of Economics 114, S. 817–868. Hardin, Russell (1998): Trust, in: Newman, Peter (Hrsg.) (1998): The New Palgrave Dictionary of Economics and the Law, Vol. 3, London, S. 623–628. Hartfiel, Günter / Hillmann, Karl-Heinz (1982): Wörterbuch der Soziologie, dritte Auflage, Stuttgart. Hirschman, Albert O. (1984): Against Parsimony: Three Easy Ways of Complicating Some Categories of Economic Discourse, in: American Economic Review 74, S. 88– 96. James, Harvey S. Jr. (2002): The Trust Paradox: A Survey of Economic Inquiries into the Nature of Trust and Trustworthiness, in: Journal of Economic Behavior & Organization 47, S. 291–307. Ludwig, Peter (2005): Vertrauen beim Online-Shopping: Eine empirische Arbeit über Vertrauensrelevanz, Determinanten und Maßnahmen für die Bildung von Vertrauen zu Online-Shops, Lengerich.

___________ 16 Vgl. z.B. die theoretischen Überlegungen und empirischen Analysen von Brinkmann/Seifert (2001) und Ludwig (2005).

Vertrauen im elektronischen Handel

225

Luhmann, Niklas (1973): Vertrauen: Ein Mechanismus der Reduktion sozialer Komplexität, 2. erweiterte Auflage, Stuttgart. Mayer, Roger C. / Davis, James H. / Schoorman, F. David (1995): An Integrative Model of Organizational Trust, in: Academy of Management Review 20, S. 709–734. Möllering, Guido (2006): Trust: Reason, Routine, Reflexivity, Oxford. Ockenfels, Axel (2003): Reputationsmechanismen auf Internet-Plattformen, in: Zeitschrift für Betriebswirtschaft 73, S. 295–315. Ortmann, Günther (2003): Organisation und Welterschließung: Dekonstruktionen, Wiesbaden. Preisendörfer, Peter (1995): Vertrauen als soziologische Kategorie: Möglichkeiten und Grenzen einer entscheidungstheoretischen Fundierung des Vertrauenskonzepts, in: Zeitschrift für Soziologie 24, S. 263–272. Ripperger, Tanja (1998): Ökonomik des Vertrauens: Analyse eines Organisationsprinzips, Tübingen. Rousseau, Denise M. / Sitkin, Sim B. / Burt, Ronald S. / Camerer, Colin (1998): Not so different at all: A Cross-Discipline View of Trust, in: Academy of Management Review 23, S. 393–404.

Soziale Ungleichheiten überwinden und Partizipationschancen eröffnen – der Digital Divide als ethische Herausforderung Von Johannes J. Frühbauer Keine andere Technologie hat in Deutschland – und fraglos auch in anderen Industriestaaten – eine derart schnelle Verbreitung erlebt wie das Internet. Innerhalb weniger Jahre hat sich die Anzahl der Nutzer verachtfacht.1 Dieser beispiellose Verbreitungsprozess hält in seiner Dynamik an. Was bei Innovationen generell zu beobachten ist, gilt auch für das Internet: Die Verbreitung ist im Vergleich einzelner Bevölkerungssegmente sehr unterschiedlich ausgeprägt. Im Laufe der letzten Jahre konnten Unterschiede zwischen verschiedenen Bevölkerungsschichten zwar abgeschwächt, jedoch nicht gänzlich nivelliert werden.2 Diese Unterschiede werden in der öffentlichen Diskussion wie auch in der sich vielfältig entwickelten Fachliteratur als „Digital Divide“ oder „Digitale Spaltung“3 bezeichnet. Da das Internet weithin als ein wertvolles gesellschaftliches Gut betrachtet wird, bringt die Bezeichnung Digital Divide mitunter die Befürchtung bzw. Kritik zum Ausdruck, dass Menschen, die zu bestimmten Bevölkerungsgruppen gehören, von der Nutzung dieses Gutes ausgeschlossen sein könnten. Und gerade die Nutzung des Internet eröffnet neben den Unterhaltungs- und Konsummöglichkeiten auch die Möglichkeiten zur Informationsbeschaffung in Ausbildung und Beruf sowie zur politischen Kommunikation und gesellschaftlichen Partizipation. Diese mit dem Schlagwort Digital Divide vorgebrachte Kritik knüpft in ihrer grundsätzlichen Sozialdiagnose an den Begriff der Wissenskluft an, der bereits in den 1970er Jahren diskutiert wurde und die Korrelation zwischen Mediennutzung einerseits und Wissensverfügung andererseits problematisierte.4 In den folgenden Ausführungen geht es zunächst um eine Erfassung und differenzierende Beschreibung des Problems des Digital Divides. Zweitens geht es ___________ 1

Vgl. Pohl (2007), S. 3. Vgl. Pohl (2007), S. 40. 3 Im Folgenden jeweils ohne Anführungszeichen. 4 Vgl. Pohl (2007), S. 25. 2

228

Johannes J. Frühbauer

um einen kurzen Blick auf die Internutzung in Deutschland mit einigen empirisch ermittelten Kennzahlen aus der Onliner- und Offliner-Statistik. Drittens wird in einem grundsätzlichen Zugang die Problematik der sozialen Ungleichheit thematisiert, vor allem auch um anzudeuten, in welcher Weise die digitale Spaltung in einem Wechselverhältnis zu sozialen Ungleichheiten steht. Inwiefern sich ethische Argumentationen bemühen, gute Gründe für die Überwindung des Digital Divides vorzubringen, versucht der vierte Abschnitt anhand von ausgewählten Begründungsansätzen darzustellen. Fünftens geht es exemplarisch um geographisch spezifische Situationen: zum einen wird die Frage nach dem Digital Divide in Afrika skizziert, zum anderen eine partikulär entwickelte Perspektive aus Lateinamerika vorgestellt.5

I. Digital Divide(s) – Differenzierungen eines komplexen Phänomens Unter dem Schlagwort „Digital Divide“ wird – immer mit Bezug auf das Internet – ganz allgemein die „Spaltung“ in zwei Gruppen von Menschen verstanden: Auf der einen Seite des digitalen Grabens stehen diejenigen, die einen Zugang zum Internet haben, auf der anderen Seite jene, für die dies nicht zutrifft. Ihre Bedeutung bekommt diese Spaltung vor dem Hintergrund der Annahme, „dass Menschen durch die Internetnutzung einen besseren Zugang zu gesellschaftlich wertvollen Gütern und Diensten erlangen können und das sich daraus erweiterte Lebenschancen in Form von mehr Bildung, besseren Jobs und höherem Einkommen ergeben können. Personen, die von der Nutzung ausgeschlossen sind, bleiben diese Chancen verwehrt“.6 Durch den intensiven öffentlichen und wissenschaftlichen Diskurs lässt sich die Rede von dem einen Digital Divide inzwischen in eine ganze Vielzahl unterschiedlicher Divides ausdifferenzieren – nicht zuletzt, weil ein simple dichotome Zuschreibung (information-rich vs. information-poor, haves vs. have-nots, user vs. loser), auf die man in der Literatur immer wieder trifft, in der Widerspiegelung des komplexen Phänomens nicht hinreichend ist. Hierzu an dieser Stelle – gewissermaßen zu einer allgemeinen Orientierung – einige Beispiele für weitere Ausdifferenzierungen: Molnár unterscheidet zwischen einem Early Digital Divide, einem Primary Digital Divide und einem Secondary Digital Divide. Der Hintergrund für diese Differenzierung bildet die Beobachtung, dass die Verbreitung von technischen Innovationen verschiedene Phasen kennt: die Early Adaption, den Take off und ___________ 5 6

Vgl. hierzu auch Seibold in diesem Band, S. 255ff. Pohl (2007), S. 2.

Der Digial Divide als ethische Herausforderung

229

die Saturation.7 Im Gegensatz zu anderen, optimistischen Annahmen, geht Molnár jedoch davon aus, dass „durch die zunehmende gesellschaftliche Verbreitung des Internet die Digitale Spaltung eben nicht überwunden werde, sondern, dass immer neue Formen der Spaltung entstehen würden“8. Bezogen auf Deutschland verfügten in der Phase der Early Adoption „nur die besonders Aufgeschlossenen, Technikversierten, Bessererdienenden, Hochgebildeten und junge Männer über einen Zugang zum Internet“9. Die Phase des Take off wurde 1999 erreicht: Zwar zeichnen sich Zuwächse wiederum in der Gruppe jener Menschen ab, die ohnehin zu den Early Adopters zu zählen waren, doch faktisch nimmt ab diesem Zeitpunkt die Zahl der Internetzugänge in allen soziodemographischen Gruppen zu.10 Doch gerade in der Take off-Phase stellt sich zunehmend die Frage, wer nicht nur Zugang zum Internet hat, sondern dies auch tatsächlich nutzt (Zugang vs. Nutzung als „Primäre Digitale Spaltung“11). In der Phase der Saturation kommt es zur Sekundären Digitalen Spaltung: hier lassen sich Nichtnutzer durch starke Ablehnung gegenüber dem Internet und durch Nutzungsverweigerung kennzeichnen.12 In dieser Phase gilt die Aufmerksamkeit dann insbesondere den Unterschieden innerhalb der Nutzerschaft: Hier lassen sich digitale Ungleichheiten diagnostizieren. Zur Analyse dieser digitalen Ungleichheiten zieht Pohl folgende Kategorien heran: (1) technische Voraussetzungen der Nutzer, (2) Nutzungsautonomie, (3) Fertigkeiten der Nutzer, (4) soziale Unterstützung sowie (5) Zweck bzw. Ziel der Nutzung.13 Neben den bisher genannten Unterscheidungen bei Molnár resp. Pohl gibt es weitere, anders akzentuierte Unterscheidungen: Im einschlägigen Diskurs begegnen Bezeichnungen wie etwa Global Divide, Social Divide, Democratic Divide, Content Divide. Insbesondere der Social Divide weist starke Berührungspunkte zu den voraufgehenden Kennzeichnungen im Kontext digitaler Ungleichheiten auf. Der Global Divide bezieht sich auf festzustellende Gefälle und Unterschiede im weltweiten Vergleich, der Democratic Divide fokussiert auf die Möglichkeit zur (zivil)gesellschaftlichen und politischen Partizipation, der Content Divide schließlich verweist erstens auf die Kluft zwischen den im Internet angebotenen Inhalten und den tatsächlichen Bedürfnissen der Menschen, zweitens auf das Problem der sachlichen Richtigkeit und des Wahrheits___________ 7 Vgl. Pohl (2007), S. 26: Da die von Pohl verwendete Quelle nicht mehr zugänglich ist, sind sämtliche Referenzen auf Molnár nach Pohl zitiert bzw. paraphrasiert. 8 Pohl (2007), S. 27 [vgl. Molnár (2003), S. 2]. 9 Pohl (2007), S. 27. 10 Vgl. Pohl (2007), S. 30. 11 Pohl (2007), S. 30. 12 Vgl. Pohl (2007), S. 34 [vgl. Molnár (2003), S. 5]. 13 Pohl (2007), S. 35, S. 35–40.

230

Johannes J. Frühbauer

gehaltes bereitgestellter Informationen und drittens auf die geographischkulturelle Ungleichheiten in der Produktion der Inhalte.

II. Onliner & Offliner: Notizen zur Internetnutzung in Deutschland Die jährlich publizierte ARD/ZDF-Online-Studie bringt in einer sehr differenzierten Weise die jüngsten Daten zur Entwicklung und Nutzung des Internets zur Darstellung. Im Folgenden werden einige aus der Online-Studie 2007 zentralen Fakten und Gesichtspunkte benannt. Birgit van Eimeren und Beate Frees weisen in ihrem Beitrag auf die verschiedenen Entwicklungsphasen des Internet in Deutschland hin: Von der anfänglichen Nutzung durch eine „gut gebildete Infoelite“ habe sich das Internet zu einem Alltagsmedium auch für zunächst internetferne Bevölkerungsgruppen entwickelt. Kennzeichned für die jüngste Entwicklung ist die Multimedialität des Internets und das Schlagwort Web 2.0, das zuweilen auch als „MitmachNetz“ bezeichnet wird.14 Einige Zahlen veranschaulichen die Internetnutzung in Deutschland: –

2007 wurde zum ersten Mal die 40-Millionen-Grenze bei der Zahl der Internetnutzer überschritten: 40,8 Millionen Menschen ab 14 Jahren haben einen Zugang zum Internet;



bemerkenswert ist in der Nutzungsentwicklung, dass der Anteil der Frauen (57 %) sowie der Generation 50plus (64 %) deutlich zugenommen hat;



besonders bemerkenswert ist dass die Gruppe der so genannten „Silver Surver“ (= die Gruppe der ab 60jährigen) mit 5,1 Millionen inzwischen größer ist als die Gruppe der 14–19 Jährigen, wenngleich gerade diese Gruppe (in der Binnenbetrachtung) mit 95,8 Prozent den größten Nutzeranteil hat;



das Wachstumpotenzial bei den Jugendlichen kann als nahezu ausgeschöpft angesehen werden, während bei der Gruppe der 60-Jährigen, zu der insgesamt 20,4 Millionen zählen, noch deutliche „Ausschöpfungspotenziale“ vorhanden sind.

Aus diesen wenigen ausgewählten Zahlen wird deutlich, dass ursprünglich vorhandene Divides (etwa der gender gap oder der generation gap) mehr und mehr überwunden werden. Dennoch gibt es auch weiterhin eine beträchtliche Zahl an Offlinern: Für 2007 weist die ARD/ZDF-Online-Studie insgesamt 37,5 % Offliner bzw. Nicht-Nutzer aus. Dabei werden diese folgendermaßen ___________ 14

van Eimeren/Frees (2007), S. 362.

Der Digial Divide als ethische Herausforderung

231

typologisiert: jeweils 6,9 Millionen gelten als „Ablehnende“ oder „Distanzierte“; 4,8 Millionen werden als „Desinteressierte“ gekennzeichnet, die Gruppe der „Erfahrenen“ umfasst 3,4 Millionen und die kleinste Gruppe bilden die „Nutzungsplaner“ mit insgesamt 2,2 Millionen Menschen.15 Von Interesse dürfte noch ein kurzer Blick auf die Argumente sein, die von Zwei Dritteln oder mehr der Offliner für die Anschaffung eines Internetzugangs sprechen: „das Lernen, also die Aneignung neuer Techniken bzw. Anwendungen; die Möglichkeit, dadurch an interessante Informationen heranzukommen; die generell vom Internet ausgehende Faszination; die Möglichkeit, über das Internet schnell und zeitunabhängig das Neueste zu erfahren; schließlich die empfundene Selbstverständlichkeit, einen Internetzugang zu haben.“16 Aus der Sicht von Gerhards und Mende könnten von einer weiter verbesserten Netzsicherheit sowie einer „Internetsprache“, die die Voraussetzungen und Bedürfnisse der Offliner, die dem Internet „in einer Mischung aus Akzeptanz, distanziertem Interesse und manifesten Vorurteilen“17 gegenüberstehen, entscheidende Zugangsimpulse ausgehen.

III. Der Digital Divide und die Frage nach sozialer Ungleichheit Den Schnittpunkt zwischen empirischer Analyse einerseits und ethischer Reflexion bildet zumeist die Diagnose sozialer Ungleichheit, die sich in der Frage des Zugangs zu und der Nutzung von digitalen Medien nicht nur fortsetzt, sondern zuweilen auch verschärft. Bevor wir daher der Frage nach der ethischen Relevanz des Digital Divide und seiner Überwindung nachgehen werden, gilt unsere Aufmerksamkeit – mit einem kurzen Blick – dem Phänomen sozialer Ungleichheit. Wenn wir uns als Philosophen, Ethiker oder Soziologen daran machen, über Gleichheit nachzudenken, so finden wir uns ziemlich unvermittelt im Spannungsfeld zweier Pole wieder: Auf der einen Seite identifizieren wir sofort unverzichtbare Gleichheitsforderungen, die uns zur Selbstverständlichkeit geworden sind: etwa die Forderung nach Gleichheit vor dem Gesetz oder nach politischer Gleichheit hinsichtlich der bürgerlichen Grundfreiheiten wie sie als Errungenschaften der europäisch-westlichen Moderne gelten und substanziellen Eingang in Menschenrechtskataloge und Verfassungstexte gefunden haben. Auf der anderen Seiten kommen wir nicht umhin, eingestehen zu müssen: In allen Gesellschaften gibt es Ungleichheiten, die als unvermeidbar erscheinen oder es faktisch sind. Darüber treffen wir selbstredend auch auf Ungleichheiten, ___________ 15

Vgl. Gerhards/Mende (2007), S. 380. Gerhards/Mende (2007), S. 383. 17 Gerhards/Mende (2007), S. 383. 16

232

Johannes J. Frühbauer

die entweder „gemacht“ und das heißt: strukturell bedingt bzw. verursacht sind, und die sich bei einer Korrektur der Strukturen und ihrer Wirkungen mindern oder sogar vermeiden lassen, oder auf unverschuldete Einzelschicksale zurückgehen. Doch gerade mit diesen letzten Überlegungen befinden wir uns bereits im Übergang von der bloßen Beobachtung und Feststellung hin zur Analyse und Reflexion. Und wenn wir uns von der Beobachtung und Intuition hinbewegen zur Reflexion, dann gelangen wir zu grundlegenden Fragen: Wie gleich muss die Gleichheit tatsächlich sein, und wie ungleich dürfen Ungleichheiten wirklich sein? Allerdings gibt es nun auf diese Fragen weder eine schnelle noch eine eindeutige und unumstrittene Antwort. Das werden die weiteren Darlegungen zeigen. Blicken wir auf die gesellschaftlichen Gegebenheiten, so kommt sozialempirisch keiner an den nüchternen Realitäten der Ungleichheit vorbei. Prima facie nehmen wir Ungleichheit wahr als Verschiedenheit, und zwar zumeist und zunächst als binäre Verschiedenheit: Mann/Frau, jung/alt, reich/arm, gebildet/ungebildet, behindert/nicht-behindert, weiß/farbig, beschäftigt/arbeitslos etc. Diese Verschiedenheiten sind zum Teil natürlich bzw. biologisch bedingt, und wir können sie äußerlich wahrnehmen, zum Teil sind sie aber auch sozial generiert oder durch Schicksal und Unglück verursacht. Setzen wir an dieser Stelle zur Vereinfachung zunächst Verschiedenheit und Ungleichheit gleich. Die verschiedenen Entstehungsfaktoren bzw. -ursachen von Ungleichheit legen nahe, dass es zum Abbau, zur Minderung oder zur Vermeidung von biologisch bedingter, gesellschaftlich generierter oder schicksalhaft verursachter Ungleichheit unterschiedlicher Konzepte bedarf. Umstritten ist dabei vor allem, inwiefern bzw. in welchem Umfang es der Solidarität einer Gesellschaft oder dem Handeln des Staates obliegt, Maßnahmen gegen Ungleichheiten zu ergreifen, die entweder natürlich oder möglicherweise selbst verschuldet sind. Nimmt man nun nicht generell Verschiedenheiten in den Blick, sondern begrenzt die Wahrnehmung und den Diskurs auf so genannte soziale Ungleichheiten, dann lässt sich von diesem Grundverständnis ausgehen: Soziale Ungleichheit kennzeichnet die Situation von Menschen, die im Vergleich miteinander nicht einfach in einer bestimmten Hinsicht verschiedenartig, sondern faktisch als besser oder schlechter, höher oder tiefer gestellt, als privilegiert oder benachteiligt anzusehen sind. Diese komparativen Differenzierungen nennt der Soziologe Stefan Hradil „Erscheinungen sozialer Ungleichheit“18. Von diesen ausgehend entfaltet Hradil nun drei begriffliche Komponenten: Erstens bezieht sich soziale Ungleichheit auf solche Güter, die als gesellschaftlich wertvoll erachtet werden: Je mehr der Einzelne von diesen wertvollen Gütern besitzt, desto günstiger sind seine Lebensbedingungen. ‚Wertvolle Güter‘ sind in den ___________ 18

Hradil (2001), S. 27.

Der Digial Divide als ethische Herausforderung

233

Wertvorstellungen und partikulären Zielvorstellungen eines guten Lebens einer Gesellschaft verankert.19 Zweitens verbindet sich mit dem Begriff der sozialen Ungleichheit eine Vorstellung davon, wie die ‚wertvollen Güter‘ unter den Mitgliedern einer Gesellschaft verteilt sein müssen, um im Ergebnis der Verteilung als ungleich zu gelten. Drittens schließlich umfasst soziale Ungleichheit nur jene ‚wertvollen Güter‘, „die aufgrund der Stellung von Menschen in gesellschaftlichen Beziehungsgefügen auf regelmäßige Weise (absolut) ungleich verteilt werden. Nicht alle Vor- und Nachteile, nicht alle Besser- bzw. Schlechterstellungen sind also Erscheinungsformen sozialer Ungleichheit, sondern nur jene, die in gesellschaftlich strukturierter, vergleichsweise beständiger und verallgemeinerbarer Form zur Verteilung kommen“20. Wenngleich etwa ein Lottogewinn oder eine Erbschaft zu plötzlichem Reichtum führt und im interpersonalen Vergleich zweifelsohne Ungleichheit erzeugt, so deklariert gerade das dritte Kriterium diesen Sachverhalt als irrelevant für die Erfassung sozialer Ungleichheit. Infolgedessen gelten der soziologischen Begriffsbestimmung zufolge natürliche, individuelle, momentane und zufällige Ungleichheiten nicht als soziale Ungleichheiten. Diese definitorische Abgrenzung darf jedoch nicht dazu führen, den Blick für das Zusammenwirken und die vielfältige Verschränkung natürlicher, individueller, momentaner oder zufälliger Ungleichheit mit sozialen, strukturierten Ungleichheiten zu verlieren.21 Aus der soziologischen Annäherung an die Problematik der sozialen Ungleichheit geht unübersehbar die konstitutive Bedeutung der Verfügung über „wertvolle Güter“22 für die Lebensbedingungen der Menschen hervor. Eine soziologische Analyse des vielfältigen Phänomens sozialer Ungleichheit durch ungleiche Verfügung über wertvolle Güter lässt deutlich werden, „dass sich ungleiche Lebensbedingungen auf alle Bereiche des gesellschaftlichen Lebens auswirken. In einer informations- und wissensbasierten Gesellschaft wird das Internet ebenfalls Auswirkungen auf die Lebensbedingungen des Einzelnen haben“23. Und Pohl erläutert: „Die Internetnutzung ist gesellschaftlich wichtig, weil es durch seinen universellen Zugang und den vielen Anwendungsmöglichkeiten nicht nur neue Kommunikations-, Unterhaltungs- und Konsumwege, sondern auch neue Aus- und Weiterbildungschancen eröffnet. Dabei sind einige Anwendungsmöglichkeiten des Internet für ungleiche Lebensbedingungen bedeutsamer als andere“24. ___________ 19

Vgl. Hradil (2001), S. 29. Hradil (2001), S. 29. 21 Vgl. Hradil (2001), S. 30. 22 Als wertvolle Güter gelten in postindustriellen Gesellschaften vor allem materieller Wohlstand, Bildung, Macht und Prestige (vgl. Pohl (2007), S. 14). 23 Pohl (2007), S. 14. 24 Pohl (2007), S. 14. 20

234

Johannes J. Frühbauer

IV. Die Überwindung des Digital Divide aus ethischer Sicht Sowohl im wissenschaftlichen, als auch im öffentlich-politischen Diskurs begegnen Schlagworte, die auf eine ethische Bedeutsamkeit des Digital Divide hinweisen: Es ist immer wieder die Rede von „einem gesellschaftlichen wertvollen Gut“ oder vom „Menschenrecht auf Bildung“ bzw. „auf Information“. Zuweilen wird auf eine „digitale Ungleichheit“ verwiesen, zum andern wird „Informationsgerechtigkeit“ oder „informationelle bzw. digitale Chancengleichheit“ eingefordert. Die Problematik des Digital Divide wird seit geraumer Zeit auch aus einer ethischen Perspektive beleuchtet. Der bisherige ethische Diskurs zum Digital Divide weist dabei eine bemerkenswerte Vielgestaltigkeit auf.25 Nichtsdestoweniger ist nicht zu übersehen, dass menschenrechts- und gerechtigkeitsethisches Denken eine zentrale Bedeutung hat. Dies dürfte auch aus den nachfolgenden Abschnitten deutlich werden, die sich zunächst mit der Frage nach dem „Menschenrecht auf Information“, dann mit dem Postulat der informationellen Gerechtigkeit und schließlich mit Überlegungen zur praktischen Realisierung des Universalisierungsgrundsatzes durch die Überwindung der digitalen Spaltung befassen.

1. Das Menschenrecht auf informationelle Grundversorgung Beim Ansatz einer menschenrechtlichen Argumentation zur Überwindung des Digital Divide wird zumeist auf den Artikel 19 der Allgemeinen Erklärung der Menschenrechte verwiesen: „Everyone has the right to freedom of opinion and expression; this right includes freedom to hold opinions without interference and to seek, receive and impart information and ideas through any media and regardless of frontiers.“

Zur Deutung dieses Artikels aus der Menschenrechtserklärung legen sich zunächst zwei grundsätzliche, einander ergänzende Interpretationsweisen nahe: Zum einen lässt sich das hier ausformulierte Menschenrecht als „individuelles Abwehrrecht gegen staatliche Verbotsmaßnahmen“ deuten, zum andern als Recht auf „Zugang zu Medien und Informationsbeständen“; zusammengenommen formuliert der Artikel 19 infolgedessen sowohl einen negativen sowie einen positiven Freiheitsanspruch.26 Im Kontext der Digital Divide-Problematik ist vor allem der zweite Deutungsstrang, der die Frage nach dem Zugang zu Medien und deren Inhalten artikuliert, von Bedeutung. Hier sieht man sich rasch mit der Frage der Reich___________ 25 Scheule/Capurro/Hausmanninger (2004); zur Vielfalt sozialethischer Fragestellung zur Problematik des Digital Divide siehe Frühbauer (2003). 26 Bolken (2004), S. 81.

Der Digial Divide als ethische Herausforderung

235

weite des Geltungsanspruchs konfrontiert: „Geht es um einen faktisch gewährleisteten, d.h. so weit wie irgendwie möglich von ausschließenden Bedingungen befreiten oder um einen potenziellen, an die Erfüllung bestimmter Vorausetzung gebundenen und insofern eingeschränkten Zugang?“.27 Da Eike Bohlken insbesondere aus technisch-praktischen und intellektuell-hermeneutischen Gründen ein faktisch gewährleistetes Zugangsrecht zu allen Informationen für nicht realisierbar und durchsetzbar hält, plädiert er „für ein Recht auf potenziellen Zugang zu allen Arten von Informationen im Sinne einer informationellen Grundversorgung“.28 Was meint er damit? Als informationelle Grundversorgung charakterisiert Bohlken den Zugang zu jenen Informationen, „die für einen Menschen erforderlich sind, um am wirtschaftlichen, sozialen und kulturellen Leben innerhalb seiner Gesellschaft teilzunehmen“29. Und Bohlken betont an dieser Stelle, dass das „Recht auf die Nutzung bestimmter Medien“ der Textstruktur von Artikel 19 zufolge „funktional der Suche nach Informationen“ nachgeordnet sei (ebd.). Demzufolge besteht in erster Linie ein Anspruch auf Informationen und erst in zweiter Linie ein Anspruch auf die Nutzung jener Medien, über die diese Informationen gewonnen werden können.30 Schlussendlich gelangt Bohlken zu der Auffassung, dass der Zugang zum Internet kein Grundgut, sondern lediglich ein Bedingungsgut sei:31 „Die Verringerung des Digital Divide wird […] im Rahmen des Rechtes auf Meinungsund Informationsfreiheit nur dann relevant, wenn der durch dieses Recht abgedeckte Zugang zu den für eine Teilnahme am sozialen, wirtschaftlichen und kulturellen Leben erforderlichen Informationen nur über digitale Medien hergestellt werden kann“32. Diese konditionale Bindung der Verringerung des Digital Divide bzw. des Anspruchs auf Information an die Frage des Mediums ist fraglos nachvollziehbar. Ein anderer Punkt allerdings bleibt offen: nämlich die teleologische Perspektive, die Bohlken als Begründung für das Recht auf Information wiederholt einfließen lässt: Das Kriterium der Partizipation. Mit anderen Worten: Men___________ 27

Bolken (2004), S. 81; Hervorhebung im Original. Hervorhebung im Original. 29 Bolken (2004), S. 81. 30 Prima facie scheint diese Trennung zwischen Information und Medien in dieser Weise gerechtfertigt zu sein. Nichtsdestoweniger wäre hier die Gegenprobe anzustellen, ob diese Trennung von Information und Medium sinnvoll ist. Um jedoch überprüfen zu können, inwiefern sie in der Lebenspraxis tatsächlich greift, müssten sowohl „Informationen“ wie auch „Medien“ ausdifferenziert und einander zugeordnet werden. Auf diese Überprüfung soll jedoch hier aus rein pragmatischen Gründen verzichtet werden. 31 Hervorhebung J.J.F. 32 Bolken (2004), S. 82. 28

236

Johannes J. Frühbauer

schen haben deshalb ein Recht auf Information und medialen Zugang zu Informationen, weil es ihnen ermöglicht in grundlegender Weise am wirtschaftlichen, politischen und kulturellen Leben teilzunehmen.33 Dieser Begründungsaspekt müsste meines Erachtens zunächst stärker und das heißt letztlich gerechtigkeitsethisch zugespitzt werden. Zudem gilt es in diesem Zusammenhang eine Verbindung mit der Verständigung über gesellschaftlich wertvolle Güter herzustellen.

2. Informationelle Gerechtigkeit Durch die inzwischen eingetretene Veralltäglichung des Mediums Internet bietet sich der Informationsethik die Chance, prospektiv Orientierungen zu entwerfen, Handlungsoptionen zu ermitteln und berechtigte Bedenken zu formulieren. Unter den politisch-philosophischen Annäherungen an die Informationsethik hat in besonderer Weise der Potsdamer Philosoph Karsten Weber den Anschluss an Rawls’ Gerechtigkeitsdenken und dessen Idee der Gerechtigkeit als Fairness gesucht.34 Welche informationsethischen Fragen, die sich auch als relevant für die Problematik der digitalen Spaltung ausweisen lassen, wirft nun Weber auf? Unmißverständlich gibt Weber zu verstehen, dass es auch im Bereich der Informationsethik um die „alten Fragen der Verteilung von Gütern“ gehe – ungeachet der evidenten Relevanz von Technikfolgenabschätzung oder etwa der Frage nach Formen der Netiquette.35 Vereinfacht gesagt: Informationsethik führt auf direktem Wege zu Gerechtigkeitserwägungen. Weber sieht „die zentrale Aufgabe einer neuen Informationsethik“ darin, „zum einen Maßstäbe mitzuentwickeln, die helfen, Regelungen des technischen Handelns im Bereich der IuK-Technik zu entwickeln und hinsichtlich ihrer sozialen Gerechtigkeit und Verträglichkeit zu bewerten. Hinzu kommt, mögliche Folgen zu antizipieren [...], um aus dieser Vorwegnahme rückkoppelnd auf die Regelungen selbst einzuwirken“36. Vor dem Hintergrund dieser Aufgabenbestimmung ist es nur naheliegend, den informationsethischen Herausforderungen auf politisch-philosophischem Wege zu begegnen. Zur Beantwortung einer der klassischen Fragen der Politi___________ 33 Die von Bohlken unterschiedlich gereihte Nennung der gesellschaftlichen Lebensbereiche ist grundsätzlich diskussionswürdig: So lässt sich etwa die Überlegung anstellen, ob die kulturelle Partizipation, die Sprache und Bildung umfasst, daher den beiden anderen Partizipationsdimensionen nicht vorangestellt werden müsste. 34 Vgl. Weber (2001), S. 140. 35 Vgl. Weber (2002), S. 156. 36 Weber (2001), S. 160.

Der Digial Divide als ethische Herausforderung

237

schen Philosophie, nämlich wie Rechte und Ansprüche einzelner Personen gegeneinander und die Ansprüche und Rechte einzelner gegenüber einem Kollektiv (Gruppe, Institution oder Gesellschaft) gewahrt und mit den entsprechenden Ansprüchen und Rechten der anderen ausgeglichen werden können, kontrastiert Weber zwei unterschiedliche Ansätze. Zum einen bringt er den liberalen Ansatz, den er an Rawls’ Gerechtigkeitsdenken festmacht, ins Spiel, zum andern den so genannten libertären Ansatz, der sich insbesondere mit Robert Nozick verbindet. Obwohl Weber dem libertären Ansatz nicht zuletzt durch seine Effektivität eine gewisse Plausibilität zuerkennt und Gemeinsamkeiten mit der liberalen Position unterstreicht,37 sieht er die aus freiwilligen Tauschakten oder Erstaneignungen resultierenden Ungleichverteilungen, welche die libertären Positionen dann als legitim ansehen, kritisch: Bei diesen bleibe „systematisch unterbelichtet, dass die Personen, unter denen Güter verteilt sind, in der Regel sehr unterschiedlichen Startbedingungen unterworfen waren und sind. Aus libertärer Sicht ist Gleichheit eine Frage der Gleichbehandlung bei Tauschakten, aber keine der gleichen Güterverteilung oder der gleichen Startposition“38. Aus liberaler Sicht ist nun auf Ungleichheiten in der folgenden Weise zu reagieren: „Soziale Grundgüter sollten umverteilt werden, so dass eine Güterverteilung entsteht, die einerseits absichts-sensitiv und andererseits ausstattungsinsensitiv ist: Die Folgen eigener Entscheidungen sollen nicht ausgeglichen werden, aber unverschuldete Nachteile und Handicaps sehr wohl“39. Vor dem Hintergrund dieser Überlegungen favorisiert Weber für die Informationsethik nun Rawls’ gerechtigkeitstheoretische Konzeption mit den beiden Gerechtigkeitsgrundsätzen in ihrem Zentrum. Allerdings müssen das Rawls’sche Gleichheits- und das Differenzprinzip präzisiert und modifiziert werden. Den Möglichkeiten des Zugriff auf Informationen muss aus der Sicht ___________ 37 Vgl. Weber (2002), S. 150 und S. 154. Hier geht es schlicht und ergreifend um die Bewertung von Gütern durch Angebot und Nachfrage auf dem Forum des Marktes: „Diese Einfachheit des Allokationsmechanismus von Gütern macht die libertäre Position so attraktiv, denn ohne Zweifel ist er effektiv. Es wird keine Steuerungsagentur benötigt, sondern es entsteht spontan eine Ordnung. Es existiert eine Anreizstruktur zur Produktion von nachgefragten Gütern gleich welcher Art. Die Verteilung der Güter geschieht absichts-sensitiv – eine wichtige Forderung auch aller liberalen Autoren. Doch sie geschieht nicht ausstattung-insensitiv – genau dies führt zu schwerwiegenden Problemen im Umgang mit Informationen“ (Weber (2002), S. 154). Weber illustriert diese Probleme anhand von Bildungsprozessen und der Frage nach Zugriff auf Informationen sowie anhand des Streits um Urheberrechte hinsichtlich des TRIPS-Reglements (TradeRelated Aspects of Intellectual Property Rights; vgl. Weber (2002), S. 155f.). 38 Weber (2004), S. 116. 39 Weber (2004), S. 116; Weber sieht eine durch Nachfrage stimulierte Allokationsstrategie im Bildungswesen als nicht ausstattungs-insensitiv an. Die Folge: Die Idee der Chancengleichheit wird verabschiedet (vgl. Weber (2002), S. 155).

238

Johannes J. Frühbauer

Webers restriktiv begegnet werden. Nur so lassen sich liberale Freiheitsrechte schützen, nur so kann informationelle Eingriffsfreiheit gewahrt werden. Das Differenzprinzip ist dabei nicht mehr positiv zu formulieren: Denn nicht ein Mehr an sozialen Grundgütern, sondern ein Weniger in Bezug auf den Informationszugang muss begründet werden: „Das informationelle Differenzprinzip dient also nicht nur zur Begründung von informationellen Ungleichheiten, sondern vor allem zur Abwehr von Informationszugangsansprüchen.“40 Was spricht überdies aus Webers Sicht für den Ansatz von Rawls als strategischen Beitrag zu einer politisch-philosophisch eingetauchten Informationsethik? Im Anschluss an die Theorie der Gerechtigkeit setzt Weber auf Fairness als zentrale Kategorie der Informationsethik und expliziert das gerechtigkeitstheoretische Verfahren zur fairen Entscheidungsfindung.41 Mit dem Rekurs auf Urzustandselemente wie dem Schleier des Nichtwissens sucht Weber das Rawls’sche Gerechtigkeitsdenken den Erfordernissen des Internets anzupassen und formuliert schließlich zwei informationelle Gerechtigkeitsgrundsätze, die in Webers Verwendungsweise der Durchführung der dritten und vierten Stufe im Rawls’schen Vier-Stufen-Gang dienen. Weber geht es also vor allem darum, Regelungen des Zugriffs auf Informationen auf ihre Gerechtigkeit hin zu überprüfen.42 Die Weber’schen informationellen Gerechtigkeitsgrundsätze lauten nun wie folgt: –

Erster Gerechtigkeitsgrundsatz: „Jedermann43 soll gleiches Recht auf Zugang zum umfangreichen System von Informationen und Wissen haben, das mit dem gleichen System für alle anderen vereinbar ist“.



Zweiter Gerechtigkeitsgrundsatz: „Informationelle Ungleichheiten sind so zu gestalten, dass a) vernünftigerweise zu erwarten ist, dass sie zu jedermanns Vorteil dienen, und b) sie mit Positionen und Ämtern verbunden sind, die jedem offen stehen.“44

Mit dieser ersten vorläufigen Form der informationellen Gerechtigkeitsgrundsätze lassen sich laut Weber Regelungen der Informationsnutzung, wie sie von Gesetzgebern in diversen Ländern geplant wurden oder werden, kritisch überprüfen. So müssen verschiedene Kontrollmechanismen und Überwachungsmaßnahmen, die sich als Eingriffe in das umfangreiche System von Informationen und Wissen kennzeichnen lassen, insbesondere jenen gegenüber gerechtfertigt werden, die von diesen Eingriffen betroffen sind. Sind diese Ein___________ 40

Weber (2004), S. 117. Vgl. Weber (2001), S. 162ff. 42 Vgl. Weber (2001), S. 164, Fn. 7. 43 Mit ‚jedermann‘ können sowohl Individuen als auch Kollektive gemeint sein (vgl. Weber (2001), S. 170f. 44 Weber (2001), S. 168; vgl. hierzu auch Weber (2002), S. 148f. 41

Der Digial Divide als ethische Herausforderung

239

griffe jedoch nicht in Einklang mit dem zweiten Grundsatz zu bringen, dann sind sie weder zu rechtfertigen noch als fair anzusehen.45 Sieht man auf die realen Verhältnisse im und rund um das Internet, lassen sich „starke Ungleichgewichte in den tatsächlichen Einflussmöglichkeiten“ ausmachen. Derartige Ungleichgewichte bedürfen einer Rechtfertigung durch den zweiten informationellen Gerechtigkeitsgrundsatz, unter der Voraussetzung, dass zugleich die Bedingung ‚zu jedermanns Vorteil‘ tatsächlich erfüllt ist.

3. Praktische Realisierung des Universalisierungsgrundsatzes durch die Überwindung des Digital Divide? In ihrer Analyse der internationalen Programme und Massnahmen zur Informationsgesellschaft im Allgemeinen und zur Schließung der digitalen Spaltung im Besonderen hat sich die Philosophin Jessica Heesen eingehend mit dem World Summit on the Information Society (WSIS) der Vereinten Nationen sowie mit der Initiative der G8-Staaten Digital Opportunity Task Force (DOT Force) befasst.46 Aus einer philosophisch-ethischen Lektüre der einschlägigen Dokumente lässt sich Heesen zufolge entnehmen, „dass es bei der Schaffung der globalen Informationsgesellschaft nicht nur um einen technischen Strukturwandel, sondern um die technische Implementierung eines normativen Leitbegriffs geht“47. Hinsichtlich der Überwindung des Digital Divide zeigt sich, dass diese eine gewisse Entsprechung zur „inneren Logik der Universalisierung als ethischem Begründungsmodell“ aufweist. Dabei wird die Vergegenständlichung des Universalisierungsgedankens in der Informations- und Kommunikationstechnik durch mindestens zwei weitere Aspekte ergänzt: „der Koppelung der weltweiten Nutzung des Internets an einen normativen Öffentlichkeitsbegriff“ sowie der „Schaffung einer globalen Sozialutopie in dem Begriff der Informationsgesellschaft“48. Wenngleich diese drei Aspekte – Vergegenständlichung der Universalisierung, normativer Öffentlichkeitsbegriff, globale Sozialutopie – eng miteinander verbunden sind bzw. sich konstruktiv aufeinander beziehen lassen,49 möchte ich mich an dieser Stelle auf den Universalisierungsgedanken konzentrieren: In welcher Weise lässt sich die globale Informationsgesellschaft ___________ 45

Vgl. Weber (2001), S. 168f. Vgl. Heesen (2004). 47 Heesen (2004), S. 214. 48 Heesen (2004), S. 215. 49 So betont Heesen: „Die Verbindung des Universalisierungsgedankens mit den demokratischen Grundsätzen allgemeine Partizipation und Diskursivität führt zu einem modernen normativen Begriff von Öffentlichkeit“ (Heesen (2004), S. 219). 46

240

Johannes J. Frühbauer

als „praktische Realisierung des Universalierungsgrundsatzes“ verstehen? Die Informationsgesellschaft eröffnet jedem und jeder die Möglichkeit, „in einem universalen Kommunikationsnetz frei zu einem Thema Stellung“ zu beziehen. Infolgedessen lässt sich von einer ‚Vergegenständlichung‘ des Universalisierungsgrundsatzes sprechen, als dass dieser – ausgehend „von einer qualitativen Ebene (Entscheidungen fällen, ob alle zustimmen könnten)“ –, um eine „quantitative Ebene (tatsächliche Zustimmungsmöglichkeit) erweitert wird“50. Im Rekurs auf den Universalisierungsgrundsatz kommt nun Heesen zu folgender Schlussfolgerung: Der Universalisierungsgedanke geht aus einem Begründungsmodell hervor, das „auf der Zustimmungsfähigkeit einer vorgestellten Allgemeinheit“ gründet – infolgedessen wäre es ein performativer Widerspruch, wenn man die digitale Spaltung bestehen ließe. Mit anderen Worten: Der Universalisierungsgrundsatz, wie er hier von Heesen appliziert wird, verpflichtet im Grunde genommen ethisch dazu, alles daran zu setzen, um den Digital Divide zu überwinden. Denn will sich die Informationsgesellschaft an ihren eigenen Prinzipien bewähren, so muss sie – ganz im Sinne des Universalisierungsgrundsatzes und seiner praktischen Realisierung – alle mit einschließen.51 Aus der Sicht Heesens entspricht die Schließung der digitalen Spaltung – über den philosophisch-ethischen Akzent hinaus – „dem Gedanken der Etablierung eines Universaldienstes mit dem Ziel der Herstellung einer kritischen Öffentlichkeit“52; dabei soll – analog zur informationellen Grundversorgung der gesamten Bevölkerung durch den Rundfunk – ein solcher Universaldienst „mit der Schaffung einer Medienöffentlichkeit jedem Individuum die Teilhabe am gesellschaftlichen und politischen Leben ermöglichen“53. Im Kontext ihrer Überlegung weist Heesen nicht nur auf die grundlegende Bedeutung der ICT und ihrer „gesellschaftlichen Eingriffstiefe“ hin, sondern sie gibt auch einige kritisch akzentuierte Problemanzeigen. So weist sie etwa nachdrücklich auf die Gefahr hin, dass die ICT – gerade aufgrund ihrer zuvor aufgezeigten Affinität zur Denktradition des Universalismus – mit hohen moralischen Erwartungen überfrachtet wird. Sie mahnt an, technische Aspekte und politische Entscheidungen getrennt zu halten. Denn Gerechtigkeitsfragen und Gesellschaftsordnungen sind zuallererst Folgen politischen Entscheidens und Handelns, und nicht etwa Resultate technologischer Entwicklungen. Mit Blick auf die Leitbilder der Informationsgesellschaft ist unverkennbar, dass diese offenkundig „mit den Wertesystemen, den Hierarchien, den Ansichten über ein gelingendes Leben, den Sitten oder Rationalitätsvorstellungen des modernen ___________ 50

Heesen (2004), S. 220. Vgl. Heesen (2004), S. 220. 52 Heesen (2004), S. 220. 53 Heesen (2004), S. 221, Fn. 1. 51

Der Digial Divide als ethische Herausforderung

241

westlichen Gesellschaftstyps […] verbunden sind“54. Mittels der ICT erfolgt letztlich die Globalisierung des westlichen Gesellschaftsmodells, dem sich mit Blick auf seine „humanen Visionen“ kaum jemand entgegen stellen wird. Dies scheint nun jedoch der Preis der Technik zu sein, insofern diese die in der Regel partikulären Lebensumstände radikal verändert: „Im Moment ihrer informationstechnischen Erfassung werden traditionelle, gemeinschaftliche Werte und Praktiken zur Dispostion gestellt.“55 Dies wirkt sich nicht nur als „ästhetisierende Entfremdung der Inhalte von ihren lebensweltlichen Kontexten“ aus, sondern auch – und meines Erachtens viel grundlegender – als „Dekontextualisierung kultureller und gruppenspezifischer Besonderheiten“56. Auf normativer Ebene kommt nun Heesen zufolge „genau jener Prozess in Gang, den kommunitaristische Diagnosen als Entfremdung von gemeinschaftlichen Wertvorstellungen und als Ursache der Überführung pluraler gemeinschaftlicher Traditionen in abstrakte und vereinheitlichende Rechtsordnungen beschreiben“57. Zu welchen Fazit gelangt Heesen? Insofern die programmatischen Gehalte der Initiativen zur Gestaltung der internationalen Informationsgesellschaft politische Transparenz, Partizipation, Geschlechtergerechtigkeit, Abschaffung von Handelsbeschränkungen als praktisch-konkrete Zielbestimmungen ausweisen, geht es letztlich nicht nur um die „Schaffung einer universalen kommunikationstechnischen Infrastruktur“, sondern vielmehr und grundlegender um „die Schaffung der netzetxternen internationalen und nationalen politischen Rahmenbedingungen“58. Damit dürfte aber deutlich werden, dass es „im Grunde nicht um die Überbrückung des Digital Divide, sondern vielmehr um die Grundlegung einer gerechteren Gesellschaftsordnung geht“59.

V. Der Digital Divide als globale Herausforderung und Ansätze zu seiner Überwindung aus kontinentalen Perspektiven60 Mit den internationalen Initiativen des WSIS sowie der DOT Force wird deutlich, dass mit der Digital Divide-Problematik eine globale Herausforderung gegeben ist. Wenngleich es angezeigt ist, dass sich globale Programme mit der Überwindung des Digital Divide befassen, ist es ebenso unerläßlich, dass konkrete Handlungsstrategien aus den spezifischen Problemkontexten und nicht ___________ 54

Heesen (2004), S. 221. Heesen (2004), S. 221f. 56 Heesen (2004), S. 222. 57 Heesen (2004), S. 222. 58 Heesen (2004), S. 223. 59 Heesen (2004), S. 223. 60 Zur globalen digitalen Kluft vgl. auch Seibold in diesem Band, S. 255ff. 55

242

Johannes J. Frühbauer

zuletzt aus zivilgesellschaftlichen Impulsen heraus entwickelt werden. Mit einem Blick von außen auf Afrika zum einen, und mit einer binnengesellschaftlichen Perspektive aus Lateinamerika zum andern befassen sich die beiden folgenden abschließenden Abschnitte.

1. „Get Africa Connected!“ – Notizen zur Überwindung des Digital Divides auf dem schwarzen Kontinent Sollten wir uns nicht um drängendere Probleme in Afrika kümmern, als zu erörten, wie sich die ICT-Situation auf dem schwarzen Kontinent verbessern läßt? Müsste nicht zunächst alles dafür getan werden, dass Hunger, extreme Armut, AIDS und die zahllosen Kriege überwunden, nachhaltig bekämpft und gelindert werden? Diese Einwände begegnen nicht selten, wenn aus politischer, sozialwissenschaftlicher und nicht zuletzt auch aus ethischer Sicht die Notwendigkeit ins Spiel gebracht wird, den Digital Divide auch und in gerade in Afrika bzw. in afrikanischen Gesellschaften zu reduzieren und letztlich zu überwinden. Leben und Überleben zu sichern hat zweifellos höchste Priorität. Aber wo dieses Leben und Überleben von strukturellen Faktoren und Entwicklungschancen abhängt, da kann und darf der ICT-Sektor nicht ausgeblendet werden, da muss in der Tat auch die Frage gestellt werden, welche Perspektiven die Überwindung des Digital Divide etwa für die Frage der Bildung, der Gesundheit, der gesellschaftlichen Partizipation, der beruflichen Perspektiven bietet. Dabei ist gewiss zu betonen, dass die Überwindung des Digital Divide niemals einem reinen Selbstzweck genügen darf, Internetzugang und Internetnutzung haben in diesem Zusammenhang alles andere als einen intrinsischen Wert: Es geht vielmehr um eine instrumentelle Bedeutung des Internets und der Überwindung des Digital Divide, insofern damit die Voraussetzungen geschaffen werden, dass sich nachhaltige Perspektiven und Chancen in den oben gebannten Bereichen ergeben. Emlyn Hagen hat in einer sehr differenzierten und methodologisch anspruchsvollen Studie die Frage des Digital Divide in Afrika untersucht. Zu welchen Ergebnissen und Erkenntnissen Hagen aufgrund ihrer empirischen Analysen kommt, soll hier in diesem Abschnitt kurz notiert werden.61 Digital Divide in Afrika bedeutet – insbesondere im Vergleich zu anderen Kontintenten – zunächst: weniger Telefonverbindungen, weniger Mobiltelefone, weniger Computer, weniger Internetanschlüsse. Oder anders gesagt: Die Menschen in Afrika haben kaum oder allenfalls nur elementaren Zugang zu Informations- und Kommunikationstechnologien (ICTs).62 Hagen betont, dass ___________ 61 Weitergehende Betrachtungen der globalen digitalen Kluft mit Fokus auf Entwicklungsländer enthält das Korreferat von Seibold in diesem Band, S. 255ff. 62 Vgl. Hagen (2007), S. 1.

Der Digial Divide als ethische Herausforderung

243

die Überwindung der digitalen Spaltung ganz wesentlich mit der Verringerung von Ungleichheiten zusammenhängt. Die Abwesenheit des Internet führe dazu, dass sich der Graben zwischen den „haves“ und „have nots“ vergrößere; dies lässt sich vor allem mit Blick auf Wohlstand, Bildung und Zugang zur Gesundheitsversorgung verdeutlichen.63 Und Hagen ist – wohl nicht zuletzt aufgrund ihrer Studien – der festen Überzeugung, dass die ICT den afrikanischen Gesellschaften dazu verhelfen können, die Verbesserungen zu erreichen, derer diese so dringend benötigen: „Thus, the reason to bring ICT’s to Africa is to integrate the continent in the Global Information Society. [...] Thus helping African nations not only close the Digital Divide, but also reduce poverty, introduce democracy, and reduce resource tensions.“64 Als konkrete Strategien zur Überwindung der digitalen Spaltung schlägt Hagen vor, zunächst in Verbindungen zwischen Firmen und größeren Kooperationen, Regierungsinstitutionen und Dienstleistungen, Universitäten und Schulen zu investieren, bevor man sich der Aufgabe stellt, die digitale Stadt-Land-Spaltung zu vermindern; denn hier sieht Hagen vor allem logistische und infrastrukturelle Hindernisse (Stromversorgung, Sicherheit), die offenbar nicht so einfach zu heben sind. Zudem sieht es Hagen als erforderlich an, in den Einzelstaaten Regulierungsbehörden einzurichten, die ihre Aufmerksamkeit auf Wettbewerb und Privatisierung richten. Nur so seien Effizienz, ein besserer Service, niedrigere Preise und eine steigende Verbreitung gewährleistet. Vor allem gilt es, die Strominfrastruktur zu reformieren und zu optimieren – eine absolut notwendige Voraussetzung für die Verbreitung von Computern und der Entwicklung von ICT. Und wo immer es möglich ist, soll grenzüberschreitend zusammen gearbeitet werden. Hagen kommt – in ihren stark marktorientierten Überlegungen – schlussendlich zu dem Fazit, dass die Aussichten für arme Staaten, einen gut entwickelten ICTMarkt zu bekommen, gewiss begrenzt seien; dies hänge vor allem vom politischen Klima und von den regulativen Rahmenbedingungen ab. Und da es als Notwendigkeit gesehen wird, dass auch ärmere Staaten Teil der Informationsgesellschaft sind, eröffne sich in Afrika ein nachhaltiger ICT-Markt.65

2. MISTICA – eine lateinamerikanische Perspektive Hinter dem Kürzel MISTICA66 verbirgt sich eine virtuelle Gemeinschaft von rund zweihundert Wissenschaftlern aus Lateinamerika und der Karibik. In dem ___________ 63

Vgl. Hagen (2007), S. 1. Hagen (2007), S. 1. 65 Hagen (2007), S. 95f. 66 = Metodología e Impacto Social de las Tecnologías de Informacíon y Comunicacíon en América. 64

244

Johannes J. Frühbauer

2002 veröffentlichten Dokument, das ein Ergebnis sowohl von face-to-face als auch virtueller Begegnungen ist, wird eine originär in diesem geographischen Kontext entwickelte Perspektive formuliert, die bezogen auf die konkreten Probleme der dortigen Gesellschaften erörtert, „was genau unter ‚digitaler Spaltung‘ aus sozialkritischer Sicht verstanden werden sollte, und was getan werden müsste, um auf eine Lösung hinzuarbeiten“67. Mit dem MISTICA-Dokument68 soll dem Informationsethiker Rafael Capurro zufolge zum einen dazu angeregt werden, „die digitale Herausforderung von den konkreten lokalen Bedürfnissen lateinamerikanischer Gesellschaften her zu denken und danach zu handeln“69, zum anderen geht es mitunter darum, „eine lateinamerikanische Antwort auf die Nutzungsmöglichkeiten des Internet zu geben“70. Zu den wichtigsten Überlegungen des Dokumentes gehören erstens die Feststellung, dass das Internet nicht bloß eine technische oder kommerzielle, sondern eine soziale Angelegenheit ist. Zweitens wird die „Gleichheit bezüglich der Möglichkeit des Zugangs zum Internet sowie bezüglich seiner sinnvollen Nutzung und sozialen Aneignung“ befürwortet. Drittens wird betont, dass das Internet zwar eine Chance darstellt, aber in seiner Eigenschaft als technisches Werkzeug nicht überbewertet werden darf. Viertens ist hervorzuheben, dass der Begriff ‚Digitale Spaltung‘ nicht aus einer individuellen, sondern aus einer kollektiven Sicht zu füllen sei. Infolgedessen bedeutet die digitale Spaltung zu überwinden, „nicht nur über Computer zu verfügen, sondern auch die notwendigen Fähigkeiten in der Bevölkerung zu fördern, damit sie von diesem technischen Werkzeug zur Verbesserung der politischen, sozialen und ökonomischen Entwicklung Nutzen ziehen kann. Das bedeutet – ganz abgesehen vom Zugang zu vernetzten Computern – die persönliche Selbstachtung zu verbessern ebenso wie die Organisation der eigenen Gemeinschaft, das Niveau der Ausbildung, die eigenen Interaktionsfähigkeiten gegenüber anderen Personen und Gruppen, die Machtposition, um Vorschläge machen zu können, und vieles mehr. Die digitale Spaltung zu überwinden bedeutet, dass die Gruppen, mit denen wir arbeiten, genügend Fähigkeiten besitzen, um von dieser Technik für die Verbesserung ihrer Lebensbedingungen und die ihrer Umgebung profitieren zu können“71. Fünftens wird ausdrücklich betont, dass das Internet ‚Information‘, nicht aber ‚Wissen‘ zur Verfügung stelle. Sechtens wird die Wirkung des Internet in den sozialen Veränderungen gesehen, zu denen es führt: „Wenn wir davon sprechen, die Wirkung des Internet zu bewerten, versuchen wir zu verstehen, in welchem Maße das Internet das soziale Leben sowohl von einzelnen Personen als auch ___________ 67

Capurro (2004), S. 225. Siehe http://funredes.org/mistica; siehe auch Capurro (2004), S. 231–240. 69 Capurro (2004), S. 227. 70 Capurro (2004), S. 228. 71 Capurro (2004), S. 234. 68

Der Digial Divide als ethische Herausforderung

245

von Gruppen beeinflusst. Es geht uns nicht um die Anzahl der Computer, die Geschwindigkeit der Online-Verbindung, die Anzahl der Botschaften usw. Dies sind unserer Meinung nach Elemente, die uns zwar erlauben mögen, den Kontext zu verstehen, in dem wir uns bewegen. Aber wir versuchen über diese Erscheinungen hinaus zu gehen, um das Wesentliche, das diese Umwandlung überdauern wird, zu verstehen.“72 Und siebtens wird – bemerkenswerterweise nach all den sehr differenzierten und reflektierten Überlegungen – ganz lapidar festgestellt: „Man kann auch ohne Internet leben.“73

Literatur Bohlken, Eike (2004): Verlangt die Forderung nach kultureller Autonomie die Überwindung des Digital Divide. Eine kritische Grundrechtsdiskussion, in: Scheule, Rupert M. / Capurro, Rafael / Hausmanninger, Thomas (Hrsg.) (2004), Vernetzt gespalten. Der Digital Divide in ethischer Perspektive (ICIE-Schriftenreihe Bd. 3), München, S. 71–83. Capurro, Rafael (2004): MISTICA. Eine lateinamerikanische Antwort auf die digitale Spaltung, in: Scheule, Rupert M. / Capurro, Rafael / Hausmanninger, Thomas (Hrsg.) (2004), Vernetzt gespalten. Der Digital Divide in ethischer Perspektive (ICIESchriftenreihe Bd. 3), München S. 225–240. Eimeren, Birgit van / Frees, Beate (2007): Internetnutzung zwischen Pragmatismus und YouTube-Euphorie, in: MEDIA PERSPEKTIVEN 8, S. 362–378 [ARD/ZDFOnline-Studie 2007: http://www.daserste.de/service/ardonl0107.pdf; letzter Zugriff 14.04.2008]. Frühbauer, Johannes J. (2003): „To be online or not to be“ – Digital Divide als Herausforderung zu sozialethischer Reflexion, in: Filipovic, A. / Kunze, A.B. (Hrsg.) (2003): Wissensgesellschaft. Herausforderungen für die christliche Sozialethik, Münster, S. 89–98. Gerhards, Maria / Mende, Annette (2007): Offliner: Zunehmend distanzierter, aber gelassener Blick aufs Internet, in: MEDIA PERSPEKTIVEN 8, S. 379–392 [ARD/ZDF-Online-Studie 2007; http://www.daserste.de/service/ardonl0207.pdf; letzter Zugriff]. Hagen, Emlyn (2007): The Digital Divide in Africa. Cross-sectional time series analysis of the African Digital Divide Factors, Saarbrücken. Heesen, Jessica (2004): Technik als Mission: Wie Vereinte Nationen und G8 die digitale Spaltung überwinden wollen, in: Scheule, Rupert M. / Capurro, Rafael / Hausmanninger, Thomas (Hrsg.) (2004), Vernetzt gespalten. Der Digital Divide in ethischer Perspektive (ICIE-Schriftenreihe Bd. 3), München, S. 213–223. Hradil, Stefan (2001): Soziale Ungleichheit in Deutschland, Opladen.

___________ 72 73

Capurro (2004), S. 237. Capurro (2004), S. 238.

246

Johannes J. Frühbauer

Molnár, Szilnárd (2003): The Explanation Frame of the Digital Divide: Online: http:// www.cs.kav.se/IFIP-summerschool/proceedings/molnar.pdf [zitiert nach Pohl 2007]. Pohl, Martina (2007): Soziale Ungleichheit im digitalen Zeitalter. Eine Analyse der Internetnutzung in Deutschland, Saarbrücken. Scheule, Rupert M. / Capurro, Rafael / Hausmanninger, Thomas (Hrsg.) (2004): Vernetzt gespalten. Der Digital Divide in ethischer Perspektive (ICIE-Schriftenreihe Bd. 3), München. Weber, Karsten (2002): Grundlagen der Informationsethik. Politische Philosophie als Ausgangspunkt informationsethischer Reflexion, in: Hausmanninger, Thomas / Capurro, Rafael (Hrsg.) (2002): Netzethik. Grundlegungsfragen der Internetethik, München, S. 141–156. – (2004): Digitale Spaltung und Informationsgerechtigkeit, in: Scheule, Rupert M. / Capurro, Rafael / Hausmanninger, Thomas (Hrsg.) (2004): Vernetzt gespalten. Der Digital Divide in ethischer Perspektive, München, S. 115–120.

Der Digital Divide aus medienrechtlicher Sicht: Informationelle Grundversorgung durch Medienkompetenzförderung – Korreferat zu Johannes J. Frühbauer – Von Thorsten Ricke

I. Einleitung Die Entwicklung der Internetdurchdringung und seine Integration in Tätigkeiten und Tagesabläufe werden häufig und zu Recht als Erfolgsgeschichte beschrieben. Kein anderes Medium hat in einer solchen Geschwindigkeit Einzug in die Büros und Privathaushalte gehalten. Vor zehn Jahren hatten erst 6,5 Prozent der Bundesdeutschen Zugang zum Internet. Bereits im Jahr 2003 wurde aber die 50-Prozentmarke überschritten und im Jahr 2007 waren knapp 63 Prozent der Bundesbürger online.1 Für viele Nutzer ist der Umgang im bzw. mit dem Netz selbstverständlich geworden. Sowohl in beruflichen als auch in vielen privaten Kontexten erscheint das Internet mit seinen Anwendungsmöglichkeiten und Angeboten unentbehrlich. Gerade deshalb ist und bleibt das Thema Digital Divide aber relevant. Auch wenn der Anteil der Offliner – derjenigen, die das Internet (noch) nicht nutzen – in Deutschland weiter sinkt, liegt die Internetpenetration noch klar hinter der der Massenmedien Radio und Fernsehen. Grundsätzlich ist daher auch den Kernaussagen Frühbauers zuzustimmen. Über die Gefahren und Auswirkungen des Problems des Digital Divide besteht weitestgehend Einigkeit. Soweit es aber zum Teil juristische Ausführungen und das Recht auf informationelle Grundversorgung betrifft, sind die Ausführungen von Frühbauer zu kritisieren bzw. zumindest zu ergänzen. In der Konsequenz ist das momentane Kernproblem – zumindest in Deutschland – und entsprechend die Lösung auch nicht allein in einem Zugangsanspruch, sondern eher in einer stärkeren Medienkompetenzförderung zu sehen.

___________ 1

Gerhards/Mende (2007), S. 379.

248

Thorsten Ricke

II. Das Recht auf informationelle Grundversorgung Frühbauer sieht in dem Menschenrecht auf Information den ethischen Ausgangspunkt zur Überwindung des Digital Divide und verweist dabei auf Art. 19 der Allgemeinen Erklärung der Menschenrechte (AEMR). Er zeigt im Folgenden die einander ergänzenden Interpretationsweisen auf: Das Menschenrecht auf Information zum einen als individuelles Abwehrrecht gegen staatliche Verbotsmaßnahmen, zum anderen als Recht auf Zugang zu Medien und Informationsbeständen.2 Art. 19 AEMR garantiert in der Tat theoretisch einen solchen negativen und positiven Freiheitsanspruch. Da diese Vorschrift die Informationsquellen nicht abschließend aufzählt, sollte sie sich auch auf das Internet erstrecken. Frühbauer übersieht aber, dass Art. 19 AEMR rein deklaratorisch ist und keine bindende Wirkung hat. Unabhängig von der Frage, wie weit der Freiheitsanspruch also tatsächlich reichen würde, ist eine Geltendmachung für den Einzelnen in der Praxis nicht möglich. Die AEMR ist weder ein völkerrechtlicher Vertrag noch sonst eine andere verbindliche Vereinbarung. Nach herrschender Meinung in der Rechtswissenschaft besitzt die AEMR daher keine rechtliche Bindungswirkung, sondern stellt als eine Resolution der Generalversammlung der Vereinten Nationen nur eine programmatische Absichtserklärung dar.3 Der Bürger kann sich daher nicht unmittelbar auf die AEMR berufen. Er kann seinen Anspruch weder z. B. bei einer Behörde anbringen noch bei einem Gericht einklagen. Entscheidend sind einzig und allein die nationalen Regelungen. Art. 19 AEMR kann nicht herangezogen werden. In Deutschland wird ein Anspruch auf informationelle Grundversorgung dementsprechend vor allem in Zusammenhang mit Art. 87f GG bzw. Art. 5 GG thematisiert. Er wird dort aber nicht explizit erwähnt oder definiert. Inhaltlich ist der Begriff der informationellen Grundversorgung jedoch wohl ähnlich zu verstehen, wie der im Rundfunkrecht verwendete Begriff der Grundversorgung.4 Dieser wurde durch das Bundesverfassungsgericht geprägt und beinhaltet eine allgemeine und flächendeckende Empfangbarkeit der öffentlichrechtlichen Programme, die Gewährleistung eines inhaltlichen Standards der Programme sowie die Sicherung der Meinungsvielfalt. Die Herstellung einer informationellen Grundversorgung würde also folglich eine grundlegende kostengünstige Versorgung mit Informationen jeglicher Medien erfordern. Der Begriff wäre dabei – wie die Grundversorgung mit Rundfunk – dynamisch zu ___________ 2

Frühbauer in diesem Band, S. 234. Ausführlich Gets (2002), S. 67ff. 4 Bundesministerium für Wirtschaft (1996), S. 162. 3

Der Digital Divide aus medienrechtlicher Sicht

249

verstehen und würde aktuell vor allem die zugänglichen Informationen im Internet einschließen.5 Fraglich ist aber, ob das Grundgesetz in Art. 87f GG bzw. Art. 5 GG einen solchen Zugangsanspruch zu den Inhalten überhaupt gewährt oder vielmehr nur einen Zugang zur erforderlichen Technik garantiert.

1. Der Zugang zur Technik Der staatliche Auftrag erstreckt sich in Deutschland primär darauf, dem Bürger den Zugang zur erforderlichen Technik zu verschaffen. Die sog. Universaldienstrichtlinie (Richtlinie 2002/22/EG) der Europäischen Union verpflichtet alle Mitgliedstaaten, den Bürgern ein festgelegtes Mindestangebot an Diensten zu einem erschwinglichen Preis bereitzustellen. Die Bundesrepublik Deutschland trifft dementsprechend hinsichtlich der Bereitstellung der technischen Möglichkeiten ein Gewährleistungsauftrag. Art. 87f Abs. 1 GG bestimmt daher, dass im Telekommunikationssektor eine flächendeckend angemessene und ausreichende Grundversorgung sicherzustellen ist. Konkretisiert wird dieser Auftrag durch die §§ 78 ff. TKG, die die zur (technischen) Grundversorgung erforderlichen Universaldienste näher festlegen. Hierzu gehört u. a. auch ein Anschluss an ein öffentliches Telefonnetz. Die privaten Telekommunikationsanbieter sind daher verpflichtet, auch evtl. unrentable Telefonanschlüsse (wie z. B. auf Helgoland oder der Zugspitze) zu offerieren. Ein Telefonanschluss ermöglicht in aller Regel auch den (technischen) Zugang zum Internet und den darin verfügbaren Informationen. Nach bisheriger Rechtslage umfasst der Universaldienst jedoch (noch) keinen Breitbandzugang. Anders in der Schweiz: Dort gilt seit dem 1. Januar 2008 der schnelle Internetanschluss als Grundversorgung. Auch die EU-Kommission arbeitet seit dem Jahr 2006 an einem flächendeckenden Breitbandnetz, allerdings schränkt die derzeit noch geltende Universaldienstrichtlinie einzelstaatliche Initiativen in dieser Hinsicht eher ein (vgl. Art. 32 Universaldienstrichtlinie). Derzeit gewähren aber europaweit private Unternehmen– wie in Deutschland die Deutsche Telekom AG – zumindest die Versorgung mit den vorgeschriebenen Universaldiensten, so dass ein staatliches Eingreifen in dieser Hinsicht bisher nicht relevant geworden ist. In der Praxis ist in der Bundesrepublik Deutschland damit zumindest ein genereller technischer Zugang zur erforderlichen Technik bereits weitestgehend gesichert. Gerade in den Entwicklungsländern mag dies noch anders sein.6 ___________ 5 6

Kuhlen (2002), S. 1. Vgl. hierzu Seibold in diesem Band, S. 255ff.

250

Thorsten Ricke

2. Der Zugang zu den Inhalten Die Gewährleistung der technischen Universaldienste garantiert aber noch keinen Zugang zu den Inhalten im Internet.7 Ein Anspruch hierauf könnte sich theoretisch nur aus dem Grundrecht auf Informationsfreiheit des Art. 5 Abs. 1 Satz 1 GG ergeben. Davon geht scheinbar auch Frühbauer aus.8 Zwar verschafft dieses Grundrecht jedem auch das Recht, sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Es stellt jedoch ausschließlich ein Abwehrrecht gegenüber dem Staat dar und gewährt grundsätzlich kein Recht gegenüber dem Staat auf eine allgemein zugängliche Informationsquelle.9 Das Bundesverfassungsgericht hat dies im Jahr 2001 im sog. „n-tv-Urteil“ noch einmal ausdrücklich hervorgehoben.10 In den Urteilsleitsätzen formuliert es, dass aus der Informationsfreiheit des Art. 5 Abs. 1 Satz 1 GG kein Recht auf Eröffnung einer Informationsquelle folgt. Über die Zugänglichkeit einer Informationsquelle und die Modalitäten des Zugangs entscheide allein derjenige, der über ein entsprechendes Bestimmungsrecht verfügt. Das wird im Internet in der Regel der private Inhalteanbieter sein. Erst wenn dieser sein Angebot allgemein zugänglich macht, kann der Schutzbereich der Informationsfreiheit durch einen Grundrechtseingriff überhaupt betroffen sein. Der Staat ist jedenfalls aus Art. 5 Abs. 1 Satz 1 GG nicht verpflichtet, dem Bürger verfügbare Informationen zu beschaffen und zu präsentieren.

III. Förderung der Medienkompetenz Der Digital Divide ist in Deutschland aber auch nicht primär ein Zugangsproblem. Die Lösung des Digital Divide ist derzeit vielmehr in der Förderung der Medienkompetenz zu sehen. Die Technik zur Internetnutzung ist ebenso vorhanden wie ein umfassendes Angebot an Inhalten. Bedeutende Teile der Bevölkerung haben aber keinen Zugang zum Internet, nicht weil sie es (theoretisch) nicht können, sondern weil sie es nicht wollen.

1. Die Gründe für die Ablehnung des Internets Die mittlerweile auch von Frühbauer zitierten ARD/ZDF-Offline-Studien haben sich dieser Bevölkerungsgruppe in den letzten Jahren umfassend gewid___________ 7

Windhorst (2007), Rn. 14. Frühbauer in diesem Band, S. 235. 9 Herzog (2007), Rn. 101; Degenhart (2007), Rn. 359; Bethge (2007), Rn. 59. 10 BVerfGE 103, 44. 8

Der Digital Divide aus medienrechtlicher Sicht

251

met. Die Hauptargumente aller Offliner gegen die Anschaffung eines Internetzugangs sind dabei über die vergangenen Jahre stabil geblieben. Die Informations- bzw. Unterhaltungsangebote von Presse, Radio und Fernsehen reichen den Offlinern vollkommen aus, sie brauchen das Internet nicht und geben ihr zur Verfügung stehendes Geld lieber für andere Anschaffungen aus. Dies gilt umso mehr, je älter die Offliner sind. Daneben vermuten die Offliner, dass die sozialen Kontakte vernachlässigt werden. Bei den Jüngeren sind außerdem Fragen rund um das Handling oder auch grundsätzliche Vorbehalte gegen das Internet deutlich geringer ausgeprägt als bei den Älteren. Auf der allgemeinen Einstellungsebene wächst die Distanz der Offliner zum Internet. Ihre Vorstellungswelt ist einerseits sehr stark durch die realen Gefahren des Internets, wie Datensicherheit oder Suchtgefährdungen, besetzt. Andererseits aber entkoppeln sie sich in ihrem Wissen, ihren Interessen immer mehr vom Medium Internet. So hat in den vergangenen zwei Jahren bei den Offlinern insbesondere das Gefühl zugenommen, dass das Internet eine Sprache und Begriffe benutzt, die man gar nicht mehr versteht oder verstehen kann.11 Universalität und Reichtum der Informationen im Internet werden weniger als Chance und Anreiz für die eigenen Interessen und Nachfragehaltungen gesehen, sondern die Informationsflut des Internets entwickelt sich für die Offliner immer mehr zu einer Zugangsbarriere in der Onlinewelt. 61 Prozent der Offliner glauben, die vielfältigen Informationen des Netzes gar nicht mehr bewältigen zu können. Dies stellt einen Anstieg um 5 Prozent gegenüber dem Jahr 2005 dar. Und es sind nicht nur die älteren Offliner, die das Gefühl haben, mit den medialen Entwicklungen nicht mehr Schritt halten zu können. Auch die Gruppe der 40- bis 59-Jährigen ist mehrheitlich der Meinung, dass sie die Sprache und Begriffe des Internets nicht verstehen (59 Prozent) und die Informationsfülle nicht mehr zu bewältigen ist (56 Prozent). Deutlich angestiegen sind in den vergangenen Jahren auch die Sicherheitsbedenken. 53 Prozent der Offliner gehen davon aus, dass das Surfen durchs Netz für andere nachvollziehbar sei (2005: 47 Prozent). Für diese Fragen ist insbesondere die mittlere Altersgruppe der Offliner hoch sensibilisiert. Am stärksten aber problematisieren die Offliner die Suchtpotenziale des Internets. Bei den 40- bis 59-Jährigen trifft man diese Haltung am häufigsten an (89 Prozent). Ebenfalls für die Offliner charakteristisch ist die Betonung der Leistungen der herkömmlichen Medien. Zwei Drittel von ihnen glauben, auf das Internet verzichten zu können, weil Radio, Fernsehen und Zeitungen als Informationsquellen vollkommen ausreichend erscheinen. Das Wissen um das Potenzial des Internets hingegen ist lückenhaft. Jeder Zweite erkennt zwar an, dass das Internet Informationen und Nachrichten sowie Unterhaltungsangebote ___________ 11

Gerhards/Mende (2007), S. 380ff.

252

Thorsten Ricke

bereitstellt, die es in anderen Medien nicht gibt. Dieser Wert ist seit Jahren stabil geblieben und hat sich auch mit der Entwicklung von Web 2.0 nicht verändert. In der Gruppe der 40- bis 59-Jährigen aber erwartet ebenfalls nur jeder Zweite einen Mehrwert an Informationen und Unterhaltung durch das Internet. Dies zeigt, dass das Wissen um die universellen Angebote und Fazilitäten des Internets eher rudimentär ist und neuere Entwicklungen kaum wahrgenommen werden.12 Insgesamt verlieren die konkreten Angebote des Internets immer mehr an Strahlkraft, um die Offliner für dieses neue Medium zu gewinnen. Die Offliner sehen keinen persönlichen Nutzen darin, sich die Leistungsvielfalt des Netzes zu erschließen. Für ihren Mikrokosmos sind die traditionellen Informationskanäle ausreichend. Insofern ist auch in Zukunft nicht davon auszugehen, dass spezifische – die reale Bedürfnisstruktur der Offliner durchaus tangierende – Internetangebote relevante Wachstumsimpulse hervorrufen könnten.

2. Medienkompetenzförderung als Lösung Die Offliner wünschen sich vielmehr einen Zugang zum Internet, der an ihre vorhandene technische Expertise anknüpft und sich stärker an ihren Bedürfnissen orientiert. Sie wollen einen einfachen Zugang zum Internet haben, vergleichbar der unkomplizierten Handhabung der TV-Fernbedienung. Für die meisten Offliner ist das Internet nach wie vor ein Medium mit einer komplizierten Zugangstechnologie. Von großer Relevanz sind auch die Möglichkeiten, entsprechende PC- und Internetschulungen zu nutzen sowie mehr allgemein verständliche und allgemein zugängliche Informationen rund um das Internet zu erhalten. Für die Mehrheit der Offliner wären dies interessante und nachgefragte Angebote. Die Faktoren Benutzerfreundlichkeit, niedrige Kosten sowie eine für Offliner verständliche Ansprache und Informationsvermittlung bleiben damit die entscheidenden Impulsgeber für weitere Zuwachsraten im Onlinemarkt.13 Hier kann der Staat eingreifen und die Medienkompetenz – die Fähigkeit zum eigenverantwortlichen und kritischen Umgang mit Medien (besonders dem Internet) – der Bürger fördern. Er muss darüber aufklären, dass die Sicherheit persönlicher Daten sowie der Schutz vor Internetkriminalität gewährleistet werden können. Die Vermittlung der „Internetsprache“ kann zudem helfen, die Hemmschwellen abzubauen. Durch Schulungen und verständliche und allgemein zugängliche Informationen rund um das Internet können die Vorzüge des ___________ 12 13

Gerhards/Mende (2007), S. 380ff. Gerhards/Mende (2007), S. 389f.

Der Digital Divide aus medienrechtlicher Sicht

253

Internet aufgezeigt werden und die Bedenken (Sprache, Informationsflut, Sicherheit) ausgeräumt werden. Wichtig für die weitere digitale Integration ist, dass die Offliner sich nicht entkoppeln von den Entwicklungen der Onlinewelt, dass sie informiert sind über neue Applikationen, über interessante Möglichkeiten der Kommunikation und Interaktion.14 In Deutschland ist diese Aufgabe größtenteils den Landesmedienanstalten übertragen worden. In Nordrhein-Westfalen hat beispielsweise die Landesanstalt für Medien (LfM) den gesetzlichen Auftrag, Medienkompetenz im Land zu fördern, Medienerziehung zu unterstützen und zum selbstverantwortlichen Umgang mit allen Formen analoger und digitaler Medienkommunikation sowie zur gleichberechtigten Teilhabe an ihr beizutragen (§ 39 Landesmediengesetz (LMG) NRW). Sie hat hierzu insbesondere innovative Projekte der Medienerziehung und Formen des selbst organisierten Lernens zu fördern (§ 88 Abs. 3 LMG NRW). Vor dem Hintergrund dieser Aufgabe hat die LfM bereits vielfältige Aktivitäten zur Förderung von Medienkompetenz entwickelt. Diese müssen in Zukunft noch stärker ausgebaut werden und vor allem die bisherigen Offliner im Blick haben. Auf internationaler Ebene setzt sich beispielsweise auch die UNESCO mit ihrem Programm „Information für alle“ für die Förderung der Medienkompetenz im Internet ein. Dazu kooperiert die Deutsche UNESCO-Kommission u. a. mit dem Projekt „klicksafe.de“ (www.klicksafe.de) und hat die Schirmherrschaft über das Internet-Portal „Internet-ABC“ (www.internet-abc.de), das Kindern, Eltern und Lehrern hilft, das Internet sicher und verantwortungsbewusst zu nutzen. Die Lösung des Digital Divide ist somit nicht allein darin zu sehen, dem Bürger die Technik bereitzustellen und die Inhalte frei verfügbar zu machen. Der Einzelne verlangt vielmehr Orientierung und Anleitung. Erste Initiativen bestehen hier bereits, die aber sowohl national als auch international weiter ausgebaut werden müssen.

Literatur Bethge, Herbert (2007): Kommentierung des Art. 5 GG, in: Sachs, Michael (Hrsg.) (2007): Grundgesetz. Kommentar, 4. Auflage, München, Rn. 1–232. Bundesministerium für Wirtschaft (1996): Info 2000: Deutschlands Weg in die Informationsgesellschaft, Bonn.

___________ 14

Gerhards/Mende (2007), S. 392.

254

Thorsten Ricke

Degenhart, Christoph (2007): Kommentierung des Art. 5 GG, in: Abraham, Hans-Jürgen / Dolzer, Rudolf (Hrsg.) (2007), Bonner Kommentar zum Grundgesetz, Heidelberg, Rn. 1–945. Frühbauer, Johannes J. (2008): Soziale Ungleichheiten überwinden: Der Digital Divide als ethische Herausforderung, in: Aufderheide, Detlef / Dabrowski, Martin (Hrsg.) (2008): Internetökonomie und Ethik, Berlin, S. 227–246. Gerhards, Maria / Mende, Annette (2007): Offliner 2007: Zunehmend distanzierter, aber gelassener Blick aufs Internet. ARD/ZDF-Offline-Studie 2007, in: Media Perspektiven 2007, S. 379–392. Gets, Marina (2002): Meinungsäußerungs- und Informationsfreiheit im Internet aus der Sicht des Völkerrechts, Berlin. Herzog, Roman (2007): Kommentierung des Art. 5 GG, in: Maunz, Theodor / Dürig, Günter (Hrsg.) (2007): Grundgesetz. Kommentar, München, Rn. 1–302. Kuhlen, Rainer (2002): Einige Anmerkungen zum Begriff der informationellen Grundversorgung zur Verwendung der AG 6 Wissensgesellschaft der EK-Globalisierung der Weltwirtschaft, Konstanz. Seibold, Balthas (2008): Die globale digitale Kluft ist eine Lern- und Innovationskluft, in: Aufderheide, Detlef / Dabrowski, Martin (Hrsg.) (2008): Internetökonomie und Ethik, Berlin, S. 255–267. Windhorst, Kay (2007): Kommentierung des Art. 87f GG, in: Sachs, Michael (Hrsg.) (2007): Grundgesetz. Kommentar, 4. Auflage, München, Rn. 1–40.

Die globale digitale Kluft ist eine Lern- und Innovationskluft Ethische Herausforderungen und Lösungsansätze durch Fokus auf Aus- und Weiterbildungschancen – Korreferat zu Johannes J. Frühbauer – Von Balthas Seibold Die Online-Enzyklopädie Wikipedia umfasst zur Zeit in ihrer englischsprachigen Fassung über 2,3 Millionen Einträge, bei etwa 340 Millionen englischen Muttersprachlern weltweit. Die arabische Fassung von Wikipedia enthält ganze 50.883 Artikel, bei über 420 Millionen Muttersprachlern, das ist weniger als ein Fünfzigstel1. Dies zeigt: Aus globaler Perspektive sind die digitalen Spaltungen noch viel größer und oft anders gelagert als im Hinblick auf die Situation innerhalb der industrialisierten Welt. Im Folgenden wird daher erstens die Definition der „digital divide“ auf globaler Ebene analysiert. Zweitens werden Herausforderungen und Lösungsansätze herausgearbeitet als Überwindung der „learning divide“ und „innovation divide“. Drittens wird die These Frühbauers zum „Bedingungsgut“ Internet2 aus entwicklungsethischer Perspektive kritisiert sowie Lösungsansätze skizziert.

I. Die digitale Spaltung auf globaler Ebene: „access divide“ als „poverty divide“? Gleich zweimal richtete die Weltgemeinschaft in den vergangenen fünf Jahren ihre kollektive Aufmerksamkeit auf die digitale Kluft auf globaler Ebene: ___________ 1

Vgl. http://en.wikipedia.org/wiki/Main_Page und http://ar.wikipedia.org/wiki (Stand: 6.5.2008) für die Anzahl der Artikel. Die Angaben zu Muttersprachlern schwanken je nach Quelle, siehe dazu http://en.wikipedia.org/wiki/List_of_languages_by_num ber_of_native_speakers und http://en.wikipedia.org/wiki/Ethnologue list_of_most_spo ken_languages. Zudem ist bei dem Vergleich zu berücksichtigen, dass Arabisch eine „Schrift-Muttersprache“ ist und kulturelle Faktoren eine Rolle spielen mögen. Dennoch ist der Unterschied der Zahl der Einträge in jedem Falle frappant. 2 Vgl. den Beitrag von Frühbauer in diesem Band.

256

Balthas Seibold

2003 und 2005 diskutierten die Mitgliedsstaaten der Vereinten Nationen auf zwei Weltgipfeln in Genf und in Tunis über die „global divide“. Die in diesem Zusammenhang genannten Formen der digitalen Kluft werden für Entwicklungsländer oft verkürzt diskutiert als „access divide“, als fehlende Konnektivität. Besonders in Entwicklungsländern jedoch gilt: Die digitalen (und analogen) Gräben bilden sich entlang der tektonischen Linien der sozialen Ungleichheit innerhalb der jeweiligen Länder: Stadt-Land, Bildung, Geschlecht, Einkommen, Alter3. Die Zugangskluft und die daraus resultierende Wissenskluft4 ist demnach eine Abbildung der Armutskluft, und zwar im Sinne der umfassenden Armutsdefinition von UNDP und Amartya Sen, die Armut nicht nur als Einkommen, sondern als Verwehrung von Entwicklungspotenzialen („capabilities“) begreift, die durch fehlende Chancen im Bereich Bildung, Gesundheit, politischer Teilhabe und wirtschaftlichen Ressourcen charakterisiert sind5. Die digitale Spaltung wird im Extremfall zur Spiegelbild sozialen Ausschlusses. Damit ist klar: Das Problem ist nicht (nur) mit einem „Zugang“ gelöst. Der Schlüssel zur Überwindung auf globaler Ebene liegt daher nach Auffassung dieses Beitrags nicht in der Fokussierung auf die „digital divide“, sondern auf die „learning divide“ und die „innovation divide“.

II. „Learning divide“ – die Lern-Kluft Hier wird der Aspekt relevant, den Johannes Frühbauer „gesellschaftlich wichtige Internetnutzung“ nennt: Das Internet nicht (nur) als Kommunikations-, Unterhaltungs- und Konsum-Ermöglicher, sondern als Ermöglicher von Informations-, Aus- und Weiterbildungschancen. Diese Nutzungsform ist aber nur dann möglich, wenn zum reinen Zugang auch die Fähigkeit der Menschen kommt, mit der Informationsflut umzugehen.6 „As long as vast swathes of the global population lack equal opportunity in terms of access to education – in order to master the available information with critical judgement and thinking, and to analyse, sort and incorporate the items they consider most interesting in a knowledge base – information will never be anything but a mass of indistinct data“7. Zum allgemeinen Zugang gehören demnach neben dem technischen Zugang auch zahlreiche weitere Faktoren von der Motivation bis hin zur Me___________ 3

Vgl. TAB (2007), S. 61–72, Philippovic (2007), S. 198, 246. Vgl. Arnhold (2003), S. 44ff., UNESCO (2005), S. 22, 160ff., Zwiefka (2007), S. 57–84, Frühbauer in diesem Band, S. 227. 5 Vgl. Sen (1999), S. 97ff., UNDP (1990). 6 Vgl. Frühbauer in diesem Band, S. 232. 7 Vgl.UNESCO (2005), S. 19; siehe auch Ricke in diesem Band, S. 247ff. 4

Die globale digitale Kluft ist eine Lern- und Innovationskluft

257

dienkompetenz8. Lernen und „Lernen lernen“ sind also stärker denn je die Schlüsselfähigkeiten zum Kompetenzerwerb als „Kernwert von Wissensgesellschaften“9. Damit wird die Überwindung der „learning divide“ global zu einem wichtigen Faktor, um die ehrgeizigen Entwicklungsziele der Weltgemeinschaft zu erreichen, die sogenannten „Milleniumsziele“10. Welches sind nun mit Blick auf die überwiegende Mehrheit der Menschheit, die in Entwicklungsländern lebt, die wichtigsten Dimensionen der „learning divide“? Während in den industrialisierten Staaten des Nordens komplexe Konzepte wie „lebenslanges Lernen in digitalen Medien“, „E-Learning“, oder „Computer als Bildungsmedien“ diskutiert werden, fehlt es in vielen Entwicklungsländern vor allem an Bildungs-Fachleuten. Zudem wandern vorhandene Experten in Industrieländer ab („Brain Drain“11). Dieser Mangel potenziert sich im Bereich des IKT-gestützten Lernens, da hier ein eklatanter Mangel an ITFachleuten hinzukommt. Wenn man früher von der „Hilfe zur Selbsthilfe“ sprach, war die Analogie, „die Angel statt den Fisch zu geben“. Doch was ist, wenn die Angel heute alle zwei Jahre ein neues Betriebssystem benötigt? Dann fehlen vielerorts die IT-Fachleute mit Bildungsbezug:12 Ausbilder und entsprechende Netzwerke zum lebenslangen Lernen dieser Multiplikatoren werden zum Schlüssel, um die Lern-Kluft zu schließen. Daher mahnt die Weltbank zum Handeln: „Unless substantial steps are taken to raise basic competencies and invest in local networks that successfully disseminate technologies and technological competencies, many of these [developing] countries are not expected to be able to master anything more than the simplest of forthcoming technologies“13.

___________ 8

Vgl. Arnhold (2003), S. 44ff., Zwiefka (2007). Vgl. UNESCO (2005), S. 60, Insgesamt hat sich der internationale Diskurs vom Begriff „globale Informationsgesellschaft“ zu dem Begriff der „inklusiven, vielfältigen und vernetzten Wissensgesellschaften“ hinentwickelt (vgl UNESCO 2005). Analog muss auch das Konzept der „digital divide“ mit seinem Fokus auf Zugang und Informationsübermittlung transformiert werden in ein Konzept der „knowledge divides“ beziehungsweise der „digital inequality“ (Zwiefka 2007). 10 Vgl. http://www.bmz.de/de/ziele/ziele/millenniumsziele/index.html (Stand: 6.5. 2008). 11 TAB (2007), S. 165f. 12 Initiativen aus der Praxis der deutschen Entwicklungszusammenarbeit, die die Kapazitäten der nationalen IKT- und Bildungs-Sektoren stärken, siehe http://www.bmz.de/ de/themen/wirtschaft/arbeitsfelder/Informationstechnik/index.html sowie http://www.itinwent.org (Stand: 6.5.2008). 13 Vgl. The World Bank (2008), S. 151. 9

258

Balthas Seibold

III. „Innovation divide“ – die Innovationskluft Geht es also um das Zuschütten von „Wissensklüften“ durch globale digitale Bildungsoffensiven? Dieser Beitrag geht einen Schritt weiter und postuliert so wie der jüngste „Least Developed Countries Report 2007“ der UNCTAD: Die Wissens- und Lernkluft ist wiederum nur Ausdruck und gleichzeitig Erzeuger der „innovation divide“, der Innovationskluft. Gemeint ist die Fähigkeit von Individuen, Institutionen und Gesellschaften, mit rascher werdenden Innovationszyklen umzugehen und selbst angepasste Innovationen zu schaffen. Das oben genannte Beispiel der wechselnden Betriebssysteme von Computern ist dabei nur die Spitze des Eisbergs, viel alarmierender ist die generelle Verkürzung der „Halbwertszeit von Wissen“, das nur durch ständige Weiterbildung aktualisiert werden kann.14 Insgesamt speist sich in diesem Fall der zunehmend digital organisierte Innovationskreislauf positiv selbst als „application of such knowledge to knowledge generation and information processing/communication devices, in a cumulative feedback loop between innovation and the uses of innovation“15. Im Umkehrschluss kann das Fehlen von innovationsrelevantem Wissen und dessen digitalen Medien aber auch zur völligen Exklusion führen. Hier spielen für Entwicklungsländer drei Faktoren eine wesentliche Rolle, die im folgenden diskutiert werden: Sprach- und Lokalisierungsbarrieren, fehlende Inhalte sowie digitale Macht- und Eigentums-Klüfte.

1. Sprach- und Lokalisierungsbarrieren – „language divide“ Wie das Wikipedia-Beispiel zeigt, ist die Dominanz weniger globaler Verkehrssprachen wie Englisch im digitalen Raum ungebrochen16. Wer kein Englisch spricht, kann über die Hälfte aller Inhalte des Internets nicht lesen17. Er ist zudem nicht in der Lage, selbst an Innovationen des digitalen Kommunikationsraums mitzuarbeiten, da die zugrundeliegenden Programmiersprachen für Software ebenfalls Englisch voraussetzen. Auch sind digitale Medien trotz einiger Anstrengungen der letzten Jahre noch zu oft blind für die Bedürfnisse nicht-europäischer Sprachen (wie etwa von rechts nach links zu schreiben). ___________ 14

Vgl Castells (1996), S. 66ff., David/Foray (2002), S. 20f., Sagasti (2003), S. 36f. Dies gilt im übrigen nicht nur im „Hochtechnologiebereich“, sondern auch in Basistechnologien wie Landwirtschaft oder verarbeitendem Gewerbe, die für Entwicklungsländer von großer Bedeutung sind. 15 Castells (1996), S. 36. 16 Vgl. Seibold (2004), S. 178 für eine Diskussion der Sprachenverteilung im Internet in Bezug auf Entwicklungsländer und Quellen. 17 Frei zugängliche Zahlen für das gesamte Internet schwanken und sind oft nicht aktuell, siehe etwa http://global-reach.biz/globstats/refs.php3 (Abruf: 6.5.08, Stand: 2004) sowie Seibold (2004), S. 178 für eine Diskussion der Zahlen und weitere Quellen.

Die globale digitale Kluft ist eine Lern- und Innovationskluft

259

Schließlich gibt es kaum breitenwirksame Angebote für nicht-literate Bevölkerungsgruppen.

2. Fehlende Inhalte und Medienkompetenz – „content divide“ Auch der „content divide“ ist eine Innovationsbarriere. Hier spricht Frühbauer von einer Kluft zwischen den Inhalten und den „tatsächlichen Bedürfnissen“ der Menschen.18 Doch was sind diese auf die Entwicklungsproblematik bezogen? Genannt werden müssen hier im Wesentlichen (a) lebens-relevante Inhalte in (b) relevanter (lokaler) Sprache, vermittelt durch (c) angepasste digitale Systeme19. Die schon zuvor angesprochene Medienkompetenz als kritisches Verstehen-Können und Hinterfragen-Können wiegt natürlich umso schwerer, je weniger die global angebotenen Inhalte mit lokalen Lebensrealitäten zu tun haben. Dies betrifft besonders die „Verdaulichkeit“ von oft global angebotenen Bildungs- und (Fach-)Informationen, ihre (fehlende) Verständlichkeit und der Mangel an Selbstlern-Didaktik20. Daher spricht einiges dafür, dass man in Entwicklungsländern noch stärker auf das auch für Industrieländer festgestellte Phänomen stößt, dass direkt nach der Zugangsbarriere die „Wissenskluft“ durch fehlende Inhalte lauert: „Closing the digital divide will not suffice to close the knowledge divide, for access to useful, relevant knowledge is more than simply a matter of infrastructure – it depends on training, cognitive skills and regulatory frameworks geared towards access to contents.“21 Wie die oft als Lösung propagierten „lokalen Inhalte“ allerdings produziert und finanziert werden, wie sie das Vertrauen der Nutzer gewinnen sollen und wer sie im Innovations-Karussell ständig mit globalem Wissen abgleicht, ist völlig unklar.

3. Digitale Macht- und Eigentums-Klüfte Ein kurzer Blick auf die digitalen Macht- und Eigentumsklüfte, die Industrie- und Entwicklungsländer trennen: Die Industriestaaten USA, Japan, Korea, China und die europäische Union melden drei Viertel aller weltweit neu vergebenen Patente22 an. Diese Staaten halten insgesamt 97 Prozent aller Patente. Seit den TRIPS-Verträgen unterliegen auch die ärmsten Entwicklungsländer ___________ 18

Vgl. Frühbauer in diesem Band, S. 229f. Vgl. Seibold (2004), S. 174f. 20 Vgl. Seibold (2004), S. 181f. 21 Vgl. UNESCO (2005), S. 22. 22 UNCTAD (2007a), S. 93. 19

260

Balthas Seibold

(LDCs) strengen internationalen Urheberrechtsverträgen. Und weltweit werden noch bestehende Flexibilitäten für Entwicklungsländer durch regionale und bilaterale Handelsverträgen beschnitten23. All dies ist heute Realität, obwohl UNCTAD konstatiert: „The current intellectual property right regime may hinder or prevent catch-up strategies, thus locking poorer countries even more firmly into a low-technology, low added-value growth path and further widening the knowledge divide between those countries and developed countries“24. Als Beispiel sei wieder das Betriebssystem eines Computers genannt, für dessen Gebrauch bei proprietären Anbietern Lizenzgebühren anfallen. Diese sind für viele Nutzer in Entwicklungsländer schlichtweg unerschwinglich, trotz nach Ländern gestaffelter Preise25. Die Folge sind entweder fehlende und veraltete Systeme oder eine Erosion des Urheberrechtssystems mit hohen Nutzungsraten nicht-lizensierter Software-Kopien und einer Kriminalisierung der Nutzer als „Softwarepiraten“. Im Bereich Software sind Modelle wie „freie und quelloffene Software“ eine Alternative, die weniger Restriktion und mehr Innovation für Entwicklungsländer bietet. Die Innovations-Kluft steht also hinter vielen Phänomenen der digitalen Kluft. Gleichzeitig verstärkt sie diese dadurch, dass erstens die Mittel fehlen, die zu ihrer Überwindung nötig wären und zweitens weitere Barrieren wie fehlende Sprachanpassung, Lokalisierung, Inhalte sowie Macht- und EigentumsKlüfte hinzukommen. Sind Entwicklungsländer also gefangen in einen „futile race of catching up“?26 Der UNCTAD-Bericht rät zu einem Bündel von Maßnahmen, die auf den Abbau der oben beschriebenen Barrieren zielt. Insgesamt kommt der Report zu dem Schluss: „Low-income countries should focus on strengthening their absorptive and learning capacities, enhance the efficacy of their domestic knowledge systems and improve their knowledge ecology“27. Doch stehen sie in diesem Bemühen wiederum untereinander und weltweit in Konkurrenz um das beste Innovationssystem, denn auch die finanzstarken In___________ 23

UNCTAD (2007a), S. 99f. UNCTAD (2007a), S. 101. 25 Gosh rechnete 2003 das Beispiel für Windows XP / Office XP durch und kam auf 560 USD Lizenzgebühren in den USA, das sind 0,19 Monate des GDP/capita . In Südafrika kostet das gleiche Produkt jedoch 2,5 Monate des GDP/capita in Südafrika, in Vietnam 16 Monate. Dies ist, als würde man 7.500 bzw. 48.000 USD pro Lizenz in den USA verlangen (http://www.firstmonday.org/issues/issue8_12/ghosh/#g2). Es sei angemerkt, dass inzwischen große Anbieter wie etwa Microsoft stark verbilligte Produkte etwa in Ländern wie Südafrika anbieten (dann allerdings auch oft mit beschränktem Nutzungsumfang), sowie kostenlose Lizenzen für Bildungseinrichtungen. Insgesamt bleibt jedoch eine Strategie der Preisdifferenzierung bei einem global gehandelten (und kopierten) Produkt limitiert. 26 Vgl. Menkhoff/Evers/Chay (2005), S. 74, Vgl. auch TAB (2007), S. 8f., Sagasti (2003). 27 UNCTAD (2007a), S. 119. 24

Die globale digitale Kluft ist eine Lern- und Innovationskluft

261

dustrie-Staaten optimieren ihre jeweiligen Wissenssysteme (im Wesentlichen Bildungs- & Forschungssysteme) durch „knowledge governance“28. Es droht im Bereich der Wissensgüter eine Arbeitsteilung, die viele Regionen dauerhaft von den Innovations-Chancen der digitalen Wissensökonomie abschneidet. „[There is] the risk of a specialization of the world that would lead to its being divided into two knowledge „civilizations“ (one based on the production of knowledge and the other on its consumption or application)“29. Die tiefgreifende Spaltung in „Wissens-Hersteller“ und „Wissens-Verbraucher“ führt direkt in die Diskussion der ethischen Dimension der digitalen Kluft aus globaler Sicht.

IV. Ethische Dimensionen aus globaler Sicht 1. Digitale Informationswelt als „un-bedingt nötiges Gut“ Frühbauer diskutiert in seinem Beitrag die Idee des Rechts auf „informationelle Grundversorgung“, schränkt dieses aber mit Bohlken30 dahingehend ein, dass es nicht auf Medien, sondern nur auf die Verfügbarkeit der gesellschaftlich relevanten Informationen an sich abhebe. Doch stellt sich die Frage nach der „informationellen Grundversorgung“ in vielen Entwicklungsländern viel radikaler als in Industrieländern, wo eine reiche „analoge Informationswelt“ existiert, von Fach-Büchereien über öffentlich-rechtlichen Rundfunk bis hin zu freier und unabhängiger Presse und einem wettbewerbsfähigen Verlagswesen. Wo all dies fehlt oder schlecht organisiert ist, wird das „Bedingungsgut“ Internetzugang31 sehr schnell zum „un-bedingt nötigen Gut“ für die Aneignung von Wissen, - und auch für Entwicklung. Der aktuelle Weltreport der UNESCO zum Thema sieht konsequenterweise im Motto „from the knowledge divide to knowledge sharing“ über digitale Medien den einzigen Weg, um soziale, wirtschaftliche und kulturelle Entwicklung überhaupt erst möglich zu machen32. ___________ 28 Vgl. Menkhoff/Evers/Chay (2005), für Innovations- und Wissenschaftspolitiken in Entwicklungsländern siehe auch UNCTAD (2007b), S. 1–16, 191–210 sowie für Afrika TAB (2007): S 183ff. 29 UNESCO (2005), S. 163. 30 Bohlken (2004), S. 81f. 31 Vgl. Bolken (2004), S. 82, Frühbauer in diesem Band, S. 235. 32 Die von Frühbauer dargestellte Diskussion zum generellen „Sinn von Internet für Afrika“ ist inzwischen auch (selbst) im deutschsprachigen Raum in der Fachliteratur weitestgehend überholt. Eine gute Zusammenfassung der konkreten Potenziale der Internetnutzung in Afrika legte gerade das Büro für Technikfolgen-Abschätzung beim deutschen Bundestag (TAB) vor unter dem Titel „Internetkommunikation in und mit Entwicklungsländern – Chancen für die Entwicklungszusammenarbeit am Beispiel Afrika“; vgl. TAB (2007).

262

Balthas Seibold

Wenn Bildungseinrichtungen, kleine Unternehmen oder marginalisierte Bevölkerungsgruppen in der analogen Welt vieler Entwicklungsländer von Informationen und Partizipationsmöglichkeiten weitgehend abgeschnitten sind (oder werden), dann werden digitale Medien direkte Mittel zur (Info-)Armutsbekämpfung im oben beschriebenen Sinn. Sie transportieren „Informationen als soziale Grundgüter“33. So hat Frühbauer recht, eine gerechtigkeitsethische Zuspitzung des Kriteriums der Partizipation im Sinne eines Universalisierungsgrundsatzes zu fordern.34 Diese Partizipation wird wiederum von Filipoviü als „Beteiligungsgerechtigkeit in der Wissensgesellschaft“ durchdekliniert35.

2. Wissen als globales öffentliches Gut Eine solche Zuspitzung ist die Diskussion um Wissen als globales „öffentliches Gut“36. Diese führt oft zu einer Kritik der geltenden Urheberrechts- und Patentbestimmungen37. Leider ist diese Diskussion auf globaler Ebene bisher nur im eng gefassten Gesundheitsbereich überhaupt angestoßen worden. Hier geht es etwa um Ausnahmetatbestände bei dem Patentschutz für lebenssichernde AIDS-Medikamente im Afrika, wo fehlendes Wissen und zu hohe Preise für Wissensgüter unmittelbar tödliche Wirkungen haben38. Nur die UNESCO wagt sich einen Schritt weiter. Sie benennt auch „agricultural knowledge or educational material“ als mögliches „basic knowledge good“ neben medizinischem Wissen39 und erhebt wissenschaftliches Wissen in den Rang eines öffentlichen Gutes40. Doch ist dieses Terrain einerseits vermint mit gegenseitigen Ansprüchen und mächtigen Interessen von Haltern von Urheberrechten. Zum anderen scheint in der internationalen Diskussion (bisher) nur ganz „drastisches“ fehlendes Wissen wie das um den kostengünstigen Nachbau eines lebensrettenden Medikaments als „öffentliches Gut“ zu gelten. Doch schon die Forschungsarbeit zu der gleichen Krankheit, das Fernstudium der Krankenschwester, die das dazugehörige Gesundheitssystem trägt, sowie das Curriculum der Ärzteausbildung fallen aus dem moralischen Raster, und werden meist durch strenge Ur___________ 33

Vgl. Weber (2004), S. 115f. Vgl. Frühbauer in diesem Band, S. 239f. 35 Vgl. Filipoviü (2007), S. 245. 36 Vgl. UNESCO (2005), S. 170f., S. 21, Lessig (2001), S. 19–23, Weber (2002), S. 154, Kaul et al. (2003), Seibold (2004), S. 172. 37 UNESCO (2005), S. 173f., Weber (2002), S. 155f., für Patent siehe auch Prinz in diesem Band, Seibold (2004), S. 169ff., weitere Quellen siehe nächster Abschnitt. 38 Vgl. Menkhoff/Evers/Chay (2005), S. 74. 39 Vgl. UNESCO (2005), S. 196. 40 Vgl. UNESCO (2005), S. 172. 34

Die globale digitale Kluft ist eine Lern- und Innovationskluft

263

heberrechtsregime und internationale Bildungsgebühren abgeschottet41. Dabei könnte man selbst aus einer libertären Position heraus argumentieren, dass hier durch Urheberrechte oft „einer Person etwas entzogen wird, das unmittelbar zur Erhaltung des Lebens notwendig ist“42. Auf der Umsetzungsebene ergibt sich in all diesen Fällen als moralische Forderung: „Care should therefore be taken ... to measure the consequences for the poorest countries of intellectual property protection standards adopted at the national and international levels“43. Und damit wird das Thema ein politisch-ethisches, da es im Norden eine Politikkohärenz und Moralpolitik erfordert, besonders was die eventuellen „NebenWirkungen“ der weltweiten Durchsetzung von Urheberrechts- und anderen Schutzrechten angeht. Die öffentliche Diskussion hat noch nicht einmal begonnen darüber, wie besonders im Bildungsbereich die Wirtschaftsinteressen des Nordens und globaler privater Akteure mit Entwicklungsmöglichkeiten des Südens in Einklang gebracht werden können. Diskussionsanstöße könnte eine starke weltweite digitale Bürger-Solidarität als „globalisierter Tugendanspruch“44 sein oder eine Rückbesinnung auf (digital vermittelte) Bildung als Menschenrecht45. Zusammen mit den zuvor diskutierten Ansätzen zu „capabilities“ und „Wissen als öffentliches Gut“ ergeben sich einige Bausteine einer „globalen digitalen Gütergerechtigkeit“, für die im folgenden Lösungsansätze dargestellt werden.

V. Lösungsansätze: Kommunikationssystem für Innovation und globale digitale Gütergerechtigkeit offen halten Die hier skizzierten Lösungs-Ansätze enthalten zum Teil politisch-normative Setzungen des Autors. Doch genau diese „Frag-Würdigkeit“ gilt es herzustellen, als globalen Diskussionsprozess um die Grundlagen zukünftiger Wissensgesellschaften.

___________ 41

Vgl. Seibold (2004), S. 172 zur Diskussion um „tiered pricing“ und Open Content, dazu auch nächster Abschnitt. 42 Vgl. Weber (2002), S. 151, 153. 43 UNESCO (2005), S. 176. 44 Vgl. Scheule (2005), S. 19f., Weber (2004), S. 118f. 45 Vgl. UNICEF/UNESCO (2007) für einen aktuellen Überblick der Debatte um Bildung als Menschenrecht, vgl. auch Bolken (2004), S. 81, Fußnote 21. Hier entwirft er einen Ansatz, in dem „Informationsungleichheit“ von „Informationsungerechtigkeit“ abgrenzt wird: im letzteren betrifft die Verwehrung von Chancen oder deren Nichtvorhandensein die Ausübung oder Wahrung von Menschenrechten, im ersten Fall betrifft es keine Menschenrechte – diese Argumentation führt direkt zurück zu dem „capabilites“Ansatz von Sen (Sen (1999)).

264

Balthas Seibold

Eine dieser Grundlagen ist es sicherlich, dass auf allen Schichten des sich abzeichnenden Kommunikationssystems der digitalen Welt Wege für Innovation und die zuvor postulierte „globale digitale Gütergerechtigkeit“ offen gehalten werden. Lessig hat hier für das Internet Lösungsansätze für die drei Schichten „physical Layer“ (Hardware der Vernetzung), „code layer“ (Software) sowie die „content layer“ (Inhalte) definiert46. Diese sind in der unten stehenden Tabelle 1 schlagwortartig dargestellt. Unter dem Gesichtspunkt der globalen digitalen Kluft sollte diesem Modell noch eine wichtige vierte Schicht hinzugefügt werden: die „learning layer“ als vernetztes Aneignen und Lernen. Tabelle 1 Vier Schichten des digitalen Kommunikationssystems & offene Wege für Innovation und globale digitale Gütergerechtigkeit Schichten des verWichtige offene Wege für Innovation und globale digitale Güternetzten Kommunika- gerechtigkeit tionssystems 1.) „physical layer“: Hardware

Freies Spektrum für drahtlose Datenübertragung, öffentlich finanzierte Hochgeschwindigkeitswege für Forschung, Open Hardware, Mesh Networking, freie Mobilfunkhardwarestandards

2.) „logical / code layer“: Software

Free and Open Source Software (siehe unten), Neutrale Plattformen durch „Open Access“ Regulierung

3.) „content layer“: Inhalte

Reformiertes Urheberrecht / Patentrecht, Open Content (z.B. Creative Commons-Lizenzen), Freie nutzergenerierte Inhalte / Web 2.0, weitere zu entwickelnde Anreizsysteme zur Erzeugung von Inhalten

4.) „learning layer“: Aneignung / Lernen

Open Educational Resources, Open Courseware, Open Access zu wissenschaftlichen Publikationen, offene Peer-Lernnetzwerke, learning by coding, Education 3.047

Quelle: Lessig 2001: 240-261 und Autor für den vierten Layer sowie die Kompilation der offenen Innovationswege. Jeweils quer zu den Layern liegt eine „culture of innovation“, die wiederum durch offenes Lernen und Austausch charakterisiert ist48.

___________ 46

Vgl. Lessig (2001), S. 240–261. Vgl. Keats/Schmidt (2007). 48 Vgl. UNESCO (2005), S. 57f. und S 163; „Creativity is a natural and renewable resource that is best spread worldwide, and that ... needs to be promoted and protected in order to achieve its full potential.“ Siehe auch vorangehende Abschnitte. 47

Die globale digitale Kluft ist eine Lern- und Innovationskluft

265

Fallbeispiel Free and Open Source Software Da hier nicht auf alle Schichten eingegangen werden kann, nur ein Verweis auf einen der vier Aspekte: Das Freihalten des „code-Layers“ durch „Free and Open Source Software“, also freie und quelloffene Software.49 Exemplarisch soll gezeigt werden, wie eine technisch anmutende Entscheidung (für freie Software) die oben beschriebenen Spaltungen reduzieren und wichtige entwicklungspolitische Gestaltungsprinzipien50 durchsetzen kann. Aus dem Blickwinkel einer globalen Strukturpolitik für Entwicklungsländer geben sich folgende Freiheitsgrade für Entwicklung51: Tabelle 2 Open Source Software und entwicklungspolitische Gestaltungsprinzipien Designprinzipien und Chancen von Open Sour- Gestaltungsprinzipien der Entwickce Software für Entwicklung lungszusammenarbeit Entwicklung angepasster & unabhängiger Software-Infrastrukturen

--> Partizipation, Unabhängigkeit

Aufbau eigener IT-Expertise und Kontrolle über --> Empowerment52 die eigenen Systeme Wertschöpfung vor Ort und Lokalisierung der Software (z.B. Sprache)

--> Wohlstandstransfer, lokale Anpassung

Nachhaltiges Lernen durch Änderung des Softwarecodes

--> Eigenverantwortung53

Entschärfung von Legalitätsproblemen

--> Schutz von Eigentumsrechten

Ergebnisse der Softwareentwicklung stehen weltweit für andere zur Verfügung

--> Nichtdiskriminierung, Chancengleichheit, Wissenstransfer

___________ 49

„Free and Open Source Software“ (FOSS) verfügt über einen offenen Quellcode, ist weltweit über das Internet zugänglich und kann kostenfrei genutzt, modifiziert und weitergegeben werden. Vgl. auch UNESCO (2005), S. 172, 179 sowie die seit 2004 erscheinenden „Open Source Jahrbücher“, online verfügbar unter http://www.opensource jahrbuch.de. 50 Vgl. http://www.bmz.de/de/ziele/deutsche_politik/regeln/gestaltungsprinzipien/in dex.html. 51 Weitere Informationen zu einigen deutschen Initiativen im Bereich Open Source in der Entwicklungszusammenarbeit siehe http://www.it-inwent.org sowie http://www.itfoss.org 52 Vgl. Frühbauer in diesem Band, S. 241ff. 53 Vgl. Ghosh/Glott (2005).

266

Balthas Seibold

VI. Fazit Die globale digitale Kluft ist eine Lern- und Innovationskluft. Daher können auch die ethischen Herausforderungen und Lösungsansätze nur durch den zuvor dargestellten Fokus auf Aus- und Weiterbildung bearbeitet werden. Sie müssen Aspekte wie Mangel an IT-Bildungsexperten, Sprachbarrieren, fehlende Inhalte sowie digitale Macht- und Eigentumsunterschiede berücksichtigen. Aus ethischer Sicht sollten innerhalb des digitalen Kommunikationssystems der globalisierten Welt erstens offener Zugang für alle zu Hardware, zu Software (siehe oben) und zu entwicklungsfördernden Inhalten bestehen. Dazu muss als conditio sine qua non eine globale „learning layer“ kommen als Freiheit zur Aneignung und zum Lernen, um weltweit Wege für Innovation und globale digitale Gütergerechtigkeit zu öffnen.

Literatur Arnhold, Katja (2003): Digital Divide. Zugangs- oder Wissenskluft, München. (= Band 10 Internet Research). Bohlken, Eike (2004): Verlangt die Forderung nach kultureller Autonomie die Überwindung des Digital Divide? Eine kritische Grundrechtsdiskussion, in: Rupert M. Scheule / Rafael Capurro / Thomas Hausmanninger (Hrsg.), Vernetzt gespalten. Der Digital Divide in ethischer Perspektive (ICIE-Schriftenreihe Bd. 3), München, S. 71–83. Castells, Manuel (1996): The Information Age. Economy, Society and Culture. The Rise of the Network Society (Band 1), Malden /Oxford. David, Paul / Foray, Dominique (2002): An introduction to the economy of the knowledge society. International Social Science Journal: The Knowledge Society, Heft 171, S. 9–23. Filipoviü, Alexander (2007): Öffentliche Kommunikation in der Wissensgesellschaft. Sozialethische Analysen, Bielefeld. Ghosh, Rishab / Glott, Rüdiger (2005): Free/Libre and Open Source Software – Policy Support (FLOSSPOLS) Skills Survey Interim Report. Maastricht: MERIT, University of Maastricht, 2005. Abrufbar im Internet. URL: http://flosspols.org/deliverables/ FLOSSPOLS-D10-skills%20survey_interim_report-revision-FINAL.pdf, Stand: 6.5.2008. Kaul, Ingrid / Conceição, Pedro / Le Goulven, Kattel / Mendoza, Ronald (Hrsg.) (2003): Providing Global Public Goods. Managing Globalization, New York/Oxford. Keats, Derek / Schmidt, Jan Philipp (2007): The genesis and emergence of Education 3.0 in higher education and its potential for Africa, First Monday, volume 12, number 3. Online verfügbar. URL: http://firstmonday.org/issues/issue12_3/keats/, Stand: 08.05.2008. Lessig, Lawrence (2001): The Future of Ideas. The Fate of Commons in a Connected World, New York.

Die globale digitale Kluft ist eine Lern- und Innovationskluft

267

Menkhoff, Thomas / Evers, Hans-Dieter, Chay, Yue Wah (2005): Governing and Managing Knowledge in Asia, Singapore. Sagasti, Francisco (2003): The Sisyphus Challenge: Knowledge, Innovation and the Human Condition in the 21st Century, Lima: Foro National/International. Abrufbar im Internet. URL: http://www.globalcentres.org/html/docs/Sisyphus_Challenge.pdf, Stand: 06.05.2008 Scheule, Rupert (2005): Das Digitale Gefälle als Gerechtigkeitsproblem. in: Informatik Spektrum, Band 28, S. 474–488. Seibold, Balthas (2004): Verfügbar, verständlich und relevant – was Nutzer in Entwicklungsländern von Onlineinhalten erwarten. In: Beck, Klaus / Schweiger, Wolfgang / Wirth,Werner (Hrsg.): Gute Seiten – schlechte Seiten. Qualität in der Onlinekommunikation (=Band 15 der Reihe InternetResearch), München, S. 168–189. Abrufbar im Internet. URL: http://www.webwort.de/index_stiftungskolleg_studie.htm. Stand: 6.5.2008. Sen, Amartya (1999): Development as Freedom, Oxford / New York. TAB – Büro für Technikfolgen-Abschätzung beim deutschen Bundestag (2007): Internetkommunikation in und mit Entwicklungsländern – Chancen für die Entwicklungszusammenarbeit am Beispiel Afrika, Berlin. UNCTAD (2007a): The Least Developed Countries Report 2007. Knowledge, Technological Learning and Innovation for Development, New York / Geneva. – (2007b): Information Economy Report 2007–2008. Science and Technology for Development: the new Paradigm of ICT, New York / Geneva. UNDP (1990): Human Development Report 1990. Concept and Measurement of human development, New York / Oxford. UNESCO (2005): Towards Knowledge Societies. UNESCO World Report, Paris. UNICEF / UNESCO (2007): A Human Rights-Based Approach to Education For All, New York / Paris. Abrufbar im Internet. URL: http://unesdoc.unesco.org/images/ 0015/001548/154861E.pdf, Stand: 6.5.2008. Weber, Karsten (2002): Grundlagen der Informationsethik. Politische Philosophie als Ausgangspunkt informationsethischer Reflexion, in: Hausmanninger, Thomas / Capurro, Rafael (Hrsg.), Netzethik. Grundlegungsfragen der Internetethik, München, S. 141–156. – (2004): Digitale Spaltung und Informationsgerechtigkeit, in: Scheule, Rupert M. / Capurro, Rafael / Hausmanninger, Thomas (Hrsg.), Vernetzt gespalten. Der Digital Divide in ethischer Perspektive, München, S. 115–120. The World Bank (2008): Global Economic Prospects. Technology Diffusion in the Developing World, Washington DC. Zwiefka, Natalie (2007): Digitale Bildungskluft. Informelle Bildung und soziale Ungleichheit im Internet, München.

Autorenverzeichnis Dr. Florian Bien, Lehrstuhl für Bürgerliches Recht, Handels- und Wirtschaftsrecht, Universiät Tübingen. Prof. Dr. Mathias Erlei, Abteilung für Volkswirtschaftslehre, Technische Universität Clausthal-Zellerfeld. Dr. Alexander Filipoviü, Lehrstuhl für Christliche Soziallehre und allgemeine Religionssoziologie, Fakultät Katholische Theologie, Universität Bamberg. Dr. Michael Florian, Institut für Technik und Gesellschaft, Technische Universität Hamburg-Harburg. Dr. Johannes J. Frühbauer, Lehrstuhl für Christliche Sozialethik, Katholisch-Theologische Fakultät, Universität Augsburg. Dr. Karsten Giese, GIGA Institut für Asien-Studien, Hamburg. Prof. Dr. Stefan Klein, Institut für Wirtschaftsinformatik, Universität Münster. Dr. Stefan Kooths, Deutsches Institut für Wirtschaftsforschung (DIW), Berlin. Prof. Dr. Christoph Lütge, Lehrstuhl f. Wirtschaftsethik, Universität München. Eric Christian Meyer, Institut für Genossenschaftswesen, Universität Münster. Frank Pallas, Institut für Wirtschaftsinformatik, Technische Universität, Berlin. Jürgen Pelzer, kath.de Medienservice, Frankfurt/Main. Prof. Dr. Aloys Prinz, Institut für Finanzwissenschaft, Universität Münster. Thorsten Ricke, Institut für Informations-, Telekommunikations- und Medienrecht, Universität Münster. Balthas Seibold, InWEnt – Internationale Weiterbildung und Entwicklung gGmbH, Bonn. Dr. Hansueli Stamm, Abteilung Wirtschaftswissenschaften, Fernfachhochschule Schweiz, Regensdorf. Prof. Dr. Karsten Weber, Lehrstuhl für philosophische Grundlagen kulturwissenschaftlicher Analyse, Frankfurt/Oder. PD Dr. Klaus Wiegerling, Institut für Philosophie, Universität Stuttgart.