Electronic Government - vom User zum Bürger: Zur kritischen Theorie des Internet [1. Aufl.] 9783839401477

Das Internet steht nach seiner kurzen Entwicklung an einer entscheidenden Schwelle: der Lösung des Anonymitätsproblems i

152 64 904KB

German Pages 152 Year 2015

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Electronic Government - vom User zum Bürger: Zur kritischen Theorie des Internet [1. Aufl.]
 9783839401477

Table of contents :
INHALT
Vorwort
Einleitung
Zur Geschichte des Internet. Erste Phase: Entstehen von Computernetzwerken aus der militärischen Forschung
Zweite Phase: Expansion im akademischen Sektor
Dritte Phase: Breitenwirksame Expansion
Popularisierung in akademisch-politischen Milieus
Wirtschaftliche Bedeutung des Internet
Exkurs: Zur Warenförmigkeit digitaler Produkte
Breitenwirksame Expansion II
Neue Kommunikationsformen
Tendenzen der weiteren Ausdehnung des Internet
Vierte Phase: Das Problem der Nutzerauthentifizierung
Zur Geschichte des Authentifizierungsproblems im Internet
Das Authentifizierungsproblem und seine Akteure
Wirtschaftliche Akteure: Microsoft und die Liberty Alliance
Microsofts .NET-Passport
Die Liberty Alliance
Exkurs: Asymmetrische Verschlüsselung und die Digitale Signatur
Asymmetrische Verschlüsselung
Die Digitale Signatur
Signaturbasierte Authentifizierungssysteme der Wirtschaft
Microsofts Palladium/Next Generation Secure Computing Base
Die Trusted Computing Platform Alliance/Trusted Computing Group
Der Staat als Akteur beim Authentifizierungsproblem des Internet: Electronic Government
Die staatliche Digitale Signatur Beispiel Deutschland
Legitimationsvorteile der staatlichen Digitalen Signatur
Zur Bedeutung der Warenförmigkeit digitaler Produkte für den Staat
Electronic Government und das Internet als allgemeine Infrastruktur Notwendigkeit und Perspektiven der De-Anonymisierung des Internet
Interventionsebenen des Electronic Government
Zur Geschichte des Electronic Government
Interne Ebene: E-Government als Rationalisierungsinstrument
Externe Ebene: Electronic Government als Partizipationsinstrument
Exkurs: Post-Tayloristische Bürokratie
Rekurs: Post-Tayloristische Bürokratie auf staatlicher Ebene: Partizipation als geteilte Ressourcenverantwortung
Ausblick

Citation preview

Christoph Engemann Electronic Government – vom User zum Bürger

Christoph Engemann (Dipl. Psych.) ist PhD Fellow an der Graduate School of Social Sciences Universität Bremen.

Christoph Engemann Electronic Government – vom User zum Bürger Zur kritischen Theorie des Internet

Gefördert mit Mitteln der Hans Böckler Stiftung

Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Angaben sind im Internet über http://dnb.ddb.de abrufbar.

© 2003 transcript Verlag, Bielefeld Umschlaggestaltung: Kordula Röckenhaus, Bielefeld, Lektorat: Christoph Engemann, Judith Heckel Satz: Christoph Engemann Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 3-89942-147-7

INHALT Vorwort von Bernhard Siegert 9 Einleitung 13 Zur Geschichte des Internet Erste Phase: Entstehen von Computernetzwerken aus der militärischen Forschung 17 Zweite Phase: Expansion im akademischen Sektor 23 Dritte Phase: Breitenwirksame Expansion 31 Popularisierung in akademisch-politischen Milieus 32 Wirtschaftliche Bedeutung des Internet 34 Exkurs: Zur Warenförmigkeit digitaler Produkte 41 Breitenwirksame Expansion II 45 Neue Kommunikationsformen 45

Tendenzen der weiteren Ausdehnung des Internet 47 Vierte Phase: Das Problem der Nutzerauthentifizierung 57 Zur Geschichte des Authentifizierungsproblems im Internet 60 Das Authentifizierungsproblem und seine Akteure 65 Wirtschaftliche Akteure: Microsoft und die Liberty Alliance 65 Microsofts ›.NET-Passport‹ 67 Die Liberty Alliance 70 Exkurs: Asymmetrische Verschlüsselung und die Digitale Signatur 75 Asymmetrische Verschlüsselung 77 Die Digitale Signatur 83 Signaturbasierte Authentifizierungssysteme der Wirtschaft 87 Microsofts Palladium/Next Generation Secure Computing Base 88 Die Trusted Computing Platform Alliance/ Trusted Computing Group 95

Der Staat als Akteur beim Authentifizierungsproblem des Internet: Electronic Government 101 Die staatliche Digitale Signatur – Beispiel Deutschland 102 Legitimationsvorteile der staatlichen Digitalen Signatur 107 Zur Bedeutung der Warenförmigkeit digitaler Produkte für den Staat 109 Electronic Government und das Internet als allgemeine Infrastruktur – Notwendigkeit und Perspektiven der De-Anonymisierung des Internet 110 Interventionsebenen des Electronic Government 115 Zur Geschichte des Electronic Government 116 Interne Ebene: E-Government als Rationalisierungsinstrument 119 Externe Ebene: Electronic Government als Partizipationsinstrument 122 Exkurs: Post-Tayloristische Bürokratie 127 Rekurs: Post-Tayloristische Bürokratie auf staatlicher Ebene: Partizipation als geteilte Ressourcenverantwortung 131 Ausblick 137

Literatur 139 Internet-Links 145

VORWORT von Bernhard Siegert »Meine Absicht war es«, schrieb Michel Foucault wenige Jahre vor seinem Tod, »eine Geschichte der verschiedenen Verfahren zu entwerfen, durch die in unserer Kultur Menschen zu Subjekten gemacht werden.« Die Dimension, in die das von Christoph Engemann hier vorgelegte Buch gerückt werden muss, ist in nichts weniger als in diesem Foucaultschen Projekt zu sehen, für dessen Fortsetzung in die Gegenwart es den Rahmen und die Leitlinien konturiert. Das Stichwort Bürokratie, das das Buch durchzieht, bezeichnet mit hoher Präzision jene Form der Macht, durch deren Medien und diskursive Praktiken seit der frühen Neuzeit Subjekte produziert worden sind. In der Tat waren es ja im 16. Jahrhundert die Akten der Inquisition, später im 18. Jahrhundert die Archive der Rousseauschen Confessions, der Autobiographik und der intimen Tagebuchschrift, die die Menschen als Individuen aufschreibbar und regierbar gemacht haben. Während jedoch die Form, in der die Subjekte ihre Wahrheit zu Protokoll gaben, das unfreiwillige oder freiwillige Geständnis ihrer Intimität war, solange die Bürokratie dem Reich der Literatur (im weitesten Sinne) eingegliedert war, gingen die modernen Psychologen und Anthropologen – wie z. B. Lombroso, Mosso, Wundt, C. G. Jung oder Münsterberg – daran, das Individuum mithilfe einer Natursemiotik aus den Spuren des Realen zu entziffern. Seit dem Aufkommen elektrischer Übertragungsgeschwindigkeiten und analoger Aufzeichnungsmedien ist die eigene Wahrheit für das Ich unzugänglich geworden – die Psychoanalyse ist neben der Kriminalistik nur eine der Wissenschaften, die seitdem die verborgene Wahrheit des Subjekts erforscht. Als Francis Galton den Fingerabdruck einführte und Alphonse Bertillon die Anthropometrie, wurde das, was Individualität definierte, den Bedingungen der Möglichkeit analoger Aufzeichnungsmedien unterstellt.

9

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Bis hierhin ist die Geschichte einigermaßen bekannt. Der Cyberspace dagegen galt und gilt noch vielen als ›glatter Raum‹, als ein Raum, in dem es keine Spuren des Realen gibt, in dem folglich die sprechenden Wesen dem Zwang zur Individualisierung, Identifizierung und Authentisierung entkommen könnten. Hier nun setzt Engemanns Buch in gänzlich illusionsloser Weise ein. Ohne jeden Hang zur verklärenden Mystifizierung der Anfänge des Internet teilt es die Geschichte des Internet in vier Phasen ein, wobei die simulationstheoretischen, postkolonialistischen, postfeministischen oder dekonstruktivistischen Theorien, die sich vom Internet die praktische Überwindung der logo- und ethnozentrischen Metaphysik erhofften, vom Verfasser nüchtern einer bereits im Schwinden begriffenen ›Epoche‹ des Internet zugeordnet werden. Im Unterschied zu den genannten Theorien schlägt Engemann vor, das Internet aus der Perspektive einer Frage nach der Art der von ihm oder in ihm produzierten Machteffekte zu beschreiben. Nicht Hybridisierung der Subjekte, sondern Identifizierung und Authentifizierung sind dann die Begriffe, die – vom gegenwärtigen Standpunkt aus – die Zukunft des Internet als Reich des Symbolischen, in dem Subjekte prozessiert werden, angemessen beschreiben. Dabei wird klar, dass nicht erst in der vierten Phase der Netzentwicklung, auf der der Schwerpunkt des Buches liegt und die vom Problem der Nutzerauthentifizierung charakterisiert ist, eine Art ›Sündenfall‹ eingetreten ist, der Umschlag eines freiheitlich-basisdemokratischen Mediums in ein Herrschaftsinstrument. Gegen den Mythos eines basisdemokratischen ›Wesens‹ des Netzes, das in den Anfängen erlebbar gewesen wäre, setzt Engemann die Einsicht in die selbstreferentielle Logik der Netzstruktur: Vernetzung ermöglicht wechselseitige Kommentierung, wechselseitige Kommentierung ermöglicht Adaption an unterschiedliche Bedingungen und damit weitere Vernetzung. Das basisdemokratische Wesen war also immer schon ein Moment der Autopoiesis des Netzsystems und seine ›Erlebbarkeit‹ Moment systeminterner Selbst-Optimierung. Die beschriebene Entwicklung des Internet hat allerdings ihre Ursache nicht in der Willkür dunkler Mächte und ihrer Intentionen, sondern besitzt einen – wie man in einem Exkurs zur Warenförmigkeit digitaler Produkte erfährt – in der Natur der Digitalität liegenden medienökonomischen Grund. Der von den Philosophien der Postmoderne so gern reflektierte Sachverhalt, dass die Unterschei-

10

VORWORT

dung von Original und Kopie im Raum digitaler Ökonomie nicht existiert, führt dazu, dass im Fall digitaler Daten deren Warenförmigkeit erst künstlich hergestellt werden muss. Der Mangel an ›Exemplarität‹ sowie ihre Entropiefreiheit hat zur Folge, dass Knappheit kein Merkmal digitaler Güter sein kann und infolgedessen die aus der (fehlenden) Stofflichkeit herstammenden Eigenschaften der ›Wirtschaftsgüter‹ im Symbolischen simuliert werden müssen. Der Hauptteil des Buches erläutert die Strategien zur Lösung des Authentifizierungsproblems dreier wirtschaftlicher Akteure – Microsofts ›Passport‹ und ›Next Generation Secure Computing Base‹, das ›Circle-of-Trust‹-System der Liberty Alliance und die Authentifizierungslösung der Trusted Computing Group –, bevor am Beispiel Deutschlands die vom Staat im Rahmen des Electronic Government geplanten Praktiken der Nutzeridentifizierung analysiert werden. Dabei lässt sich in Bezug auf Electronic Government eine Transformation des staatlichen Machtdispositivs diagnostizieren, die im Übergang von Produktionsverantwortung zu Gewährleistungsverantwortung besteht. Der Staat produziert nicht mehr Sicherheit und Identität seiner Bürger, sondern legt die Regeln und Normen fest, nach denen von privater/kommerzieller Seite solche Elemente der Staatlichkeit erzeugt werden. Staat und Staatlichkeit driften auf diese Weise auseinander, der Staat wird zu einer kybernetischen Kontrollinstanz der Staatlichkeit: »er schmilzt im Idealbild ab auf eine Moderations- und Legitimationsinstitution«. Fast unvermeidlich wird man hierbei an die Tendenzen erinnert, die Deleuze in seinem »Post-scriptum sur les sociétés de contrôle« mit beschrieben hat. Auf der Grundlage einer an Foucault geschulten Machttheorie werden die diagnostizierten Entwicklungstendenzen schließlich analysiert, wobei sich subjektmetaphysische Theorien und Szenarien der Macht, wie sie etwa von George Orwell in 1984 geliefert wurden, schnell als unzureichend erweisen. Vielmehr entsprechen – entgegen einer Repressionshypothese der Macht – Liberalisierung, Entbürokratisierung, partnerschaftliche Verhältnisse zwischen Staat und Bürger etc. einer produktiven Existenzform der Macht. Was als Entbürokratisierung und Freiheitsgewinn erlebt wird, stellt sich als Vergrößerung und Verfeinerung der Produktionssphäre der Macht heraus. Durch die Liberalisierung und Individualisierung bürokratischer Abläufe wird Individualität in verfeinerter Form erst erzeugt,

11

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

beobachtet und archiviert und liegt damit zur Weiterverwendung in verschiedenen Zusammenhängen, sei es in kommerziellen, didaktisch-aufklärerischen oder kriminalistischen, vor. In drei Richtungen könnte man die von Engemann analysierten Entwicklungen über den hier gezogenen Horizont hinaus weiter verfolgen: Da wäre zum einen die Verbindung oder Konfrontation der Engemannschen Diagnose einer Transformation des Staates mit der juridischen Theorie der Souveränität oder etwa mit einer sozialgeschichtlichen Rekonstruktion des Bevölkerungsbegriffs. Da wären zum anderen die sozialgeschichtlichen Aspekte der Staatlichkeit, Aspekte, die mit der Unterscheidung Sesshaftigkeit/Nichtsesshaftigkeit zusammenhängen. Nicht zufällig werden ja die Aktivitäten der Nutzer im Internet – das ›Besuchen‹ von Websites – im Diskurs der empirischen Sozialforschung im Netz als ›Migration‹ beschrieben. Der gesamte Diskurs, der das Online-Verhalten von Personen beschreibt, bedient sich präsentistischer Formen, die von einer permanenten Löschung der Differenz zwischen dem sujet d'énonciation und dem sujet d'énoncé gezeichnet sind. Was heißt das, ließe sich fragen, für die Art von Subjektivität, die durch die geplanten Authentifizierungspraktiken konstruiert wird? Was heißt das für die Dimension des Bruchs, vor dem wir mit der vierten Phase der Internetentwicklung stehen – vor dem Hintergrund der kulturgeschichtlich weitreichenden Verkopplung von Identität und Sesshaftigkeit in Europa? Und drittens wäre da die Frage, ob die im vorliegenden Buch beschriebenen Vorgänge nicht zugleich auch einem Übergang von nationalen zu neo-imperialen Strukturen zuzuschreiben wären. Oder anders gefragt: Wie verhält sich die Transformation des Staates zur Transformation bzw. zum Verschwinden des Nationalen? Christoph Engemann arbeitet an der Fortführung und Vertiefung der hier vorgelegten Analysen. Die Leser dürfen gespannt sein.

12

EINLEITUNG Das Internet ist mittlerweile im gesellschaftlichen Verkehr zu einer bedeutenden Größe geworden. Alle gesellschaftlichen Bereiche in den Industrienationen befinden sich unter dem Einfluss dieses eigentümlichen Mediums im Umbruch. Mit der vorliegenden Studie möchte ich versuchen, schlüssig darzulegen, warum die Entwicklung des Internet an einem Punkt steht, an dem eine De-Anonymisierung desselben notwendige Voraussetzung für die Entfaltung der gesellschaftlichen Potenziale ist, die mit dieser medialen Infrastruktur vorliegen. Dabei wird sich zeigen, dass die Machtapparatur Bürokratie und das Internet in enger Verwandtschaft stehen und in Zukunft eine vertiefte Verbindung und wechselseitige Verstärkung beider ansteht. Gleichzeitig soll Licht auf den Umstand geworfen werden, dass die Beziehung beider Instanzen zu den Subjekten im Begriff massiver Veränderungen ist und möglicherweise neue Sozialisationsbedingungen für die Subjekte entstehen. Zu letzteren versucht der Text am Schluss des Buches erste Orientierung zu geben. Das Phänomen Bürokratie war keinesfalls Ausgangspunkt der auf den folgenden Seiten wiedergegebenen Suchbewegung. Die Persistenz, die die Bürokratie in diesem Buch hat, rührt auch nicht allein aus dem im Titel angesprochenen ›Electronic Government‹, das wesentlich eine Modernisierung staatlicher Bürokratie darstellt. Ausgangspunkt war ursprünglich eine zweifache Unzufriedenheit: mit der Diskussion der mit dem Internet einhergehenden Überwachungspotentiale einerseits, mit der akademischen Diskussion des Internet, vor allem im Umfeld der postmodernen Theorie, andererseits. Während der Diskurs über die Überwachungsaspekte mir allzu oft in paranoide Bahnen geriet,1 vor allem aber analytisch keine ü1

Was die tatsächlich erschreckenden Ausmaße der mit dem Internet verbundenen Überwachungsstrukturen und –pläne keinesfalls mindern soll, wie sich später im Text auch noch zeigen wird.

13

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

berzeugenden Argumente aufbringen konnte, warum individualisierte Datenerfassung Teil des Internet ist, schienen mir breite Teile der postmodernen Diskussion im Internet allzu leichtfertig das emanzipatorisches Medium par excellence zu sehen. Beide Diskurse, so ein Ergebnis dieser Arbeit, haben die Ökonomie und die mit ihr einhergehenden Zwänge in ihrer Analyse vernachlässigt. Was ich im Folgenden dagegen zu zeigen versuche, ist, neben den dargestellten Ergebnissen, die Notwendigkeit und analytische Reichweite eines Ansatzes, der die zur Verhandlung stehenden Phänomene in ihren Beziehungen zum verallgemeinerten Warentausch aufklärt – und deswegen auch ein Beitrag zu einer kritischen Theorie des Internet zu sein beansprucht. In meiner Analyse trat die Bürokratie zunehmend in den Vordergrund, da sie im aufeinander verweisenden Dreieck – Staat/Ökonomie/Subjekte –, das die kapitalistische Gesellschaft hervorgebracht hat und stetig neu konstituiert, das zentrale – weil legitime – Transaktionsmedium der Beziehungen der Elemente untereinander darstellt. Das Internet mit seiner beinahe universellen Verbreitung, seiner Minimierung der Faktoren Raum und Zeit, mit seiner Schnittstellenvielfalt tritt im Zuge der hier analysierten Entwicklung als Verstärker2 in dieses Dreieck ein. Die Bürokratie bleibt das privilegierte Transaktionsmedium, gewinnt aber über das Internet neue Potenziale an Legitimität und Kapazität – die aus dem sich in Verfertigung befindenden ›Potenzial individueller Adressierung‹ rühren. Das Paradoxe an dieser Entwicklung ist, dass die Beziehungen zwischen Staat, Ökonomie und Subjekten hier gleichzeitig weiter und enger werden. Weiter, da eine Bürokratie, die individuell adressieren kann, ihre gruppenzentrierten Maßstäbe, die nicht immer auf das konkrete Subjekt passen mögen, zugunsten ›maßgeschneiderter‹ Lösungen verlassen kann. Enger, da damit auch individuelle Aspekte in den bürokratischen (Macht-)Apparat eingehen. Die angesprochene Spaltung der Internetdiskurse in Idealisierung einerseits und Entwertung andererseits, rührt möglicherweise aus diesem paradoxen Verhältnis von Freiheitsgewinn und vertiefter Bindung an Machtapparaturen. 2

So hat es Katja Diefenbach einmal treffend bezeichnet: Vgl. Katja Diefenbach: »Kontrolle, Kulturalisierung, Neoliberalismus – Das Internet als Verstärker«, in: Nettime (Hg.), Netzkritik – Materialien zur Internet-Debatte, Berlin: Edition ID-Archiv 1997, S. 71-88.

14

EINLEITUNG

Im Zuge der Erarbeitung des Materials stellte sich heraus, dass dieses mit dem Internet einhergehende Paradoxon seine Wurzeln tief in den fundamentalen Designentscheidungen zu Beginn seiner Geschichte hat. Daher entfalte ich meine Thesen entlang der geschichtlichen Entwicklung des ›Netz der Netze‹. Die technische Natur des Internet und sein Ursprung in der amerikanischen Computerwissenschaft bringen es dabei notwendig mit sich, dass ich viele Anglizismen verwenden muss. Auch liegen viele der hier verwandten Quellen ausschließlich im Netz selbst vor, dessen dynamischer Charakter die verlässliche Referentialisierung erschwert. Wo nicht anders angegeben, wurden die angezeigten Weblinks in der Endredaktion des Buches nochmals überprüft. Ein Buch, zumal ein erstes, entsteht niemals nur durch den Autor allein. So haben auch am Zustandekommen dieses Buches eine ganze Reihe von Personen direkt oder indirekt Anteil gehabt: Den Teilnehmern des Forschungskolloquiums bei Helmut Reichelt: Christine Kirchhoff, Boris Krapp, Lars Lippmann, Lars Meyer, Hanno Pahl und Helmut Reichelt selbst verdanke ich wichtige Anregungen. Gleiches gilt für Ulrich Bröckling, Tilman Reitz und Rainer Rilling. Sven Golchert, Frank Dirkopf, Lambert Heller, Frank Oliver Sobich und Norbert Schepers haben mir mit technischer und theoretischer Expertise geholfen. Meine Eltern, Klaus Weber, Walter Reinhard, Renate Hesse, Monika Müller-Jacobi und Dirk Kneten haben auf je ihre Weise einen Beitrag geleistet, dass ich überhaupt dahin gekommen bin, ein Buch schreiben zu können. Der Hans Böckler Stiftung danke ich für die großzügige finanzielle Unterstützung. Walter R. Heinz und Bernhard Siegert gilt mein besonderer Dank für Rat und Unterstützung, auch auf schwierigen Wegen. Ebenfalls besonderer Dank geht an Judith Heckel, ohne deren inhaltliche und formale Hilfe dieser Text nicht hätte entstehen können. Allen voran danke ich Anna Tuschling, der ich und dieses Buch mehr als nur Ideen verdanken und der ich es widme.

15

ZUR GESCHICHTE DES INTERNET – ERSTE PHASE: ENTSTEHEN VON COMPUTERNETZWERKEN AUS DER MILITÄRISCHEN FORSCHUNG

Zur Geschichte des Internet existieren unzählige Veröffentlichungen, die sich insbesondere auf den Homepages der mit dem Netz befassten Forschungseinrichtungen und Institutionen finden.1 Im Folgenden gebe ich einen kurzen Überblick der mittlerweile vierzigjährigen Geschichte elektronischer Datennetzwerke, zu deren Beschreibung ich ein Vier-Phasen-Modell vorschlagen möchte. Dabei soll gezeigt werden, wie aus einem relativ experimentellen Forschungsprojekt zur elektronischen Datenübertragung im akademisch-militärischen Umfeld die universelle Infrastruktur »Internet« gewachsen ist. Als erste Phase der Geschichte des Internet, ist die theoretische und praktische Entwicklung von Computernetzwerken durch die US-amerikanische Rüstungsforschung im Jahrzehnt zwischen 1960 und 1970 anzusetzen. In der Folge des ›Sputnik-Schocks‹2 gründete das amerikanische Verteidigungsministerium ›Department of Defence‹ (DoD) 1958 die ›Advanced Research Projects Agency‹ (ARPA), um den vermeintlichen technischen Rückstand der amerikanischen (Militär-)Forschung gegenüber der russischen Wissenschaft aufzuholen. Eine der wesentlichen Forschungsaufgaben der 1

2

Siehe: http://www.sbg.ac.at/ges/people/wagnleitner/gui01.htm; http://www.isoc.org/internet/history/, oder die Seite des ›World Wide Web Consortiums‹ (W3C): http://www.w3.org/History.html. Eine gute, aber leider seit etwa 1999 nicht mehr gepflegte Liste mit Links zur Geschichte des Internet findet sich unter: http:// staff-www.uni-marburg.de/~rillingr/net/netges.html, gesehen am 20.06.2002 Am 4. Oktober 1957 wurde der erste künstliche Satellit Sputnik von der Sowjetunion in den Orbit geschossen.

17

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

ARPA war die Untersuchung der Potenziale von Computertechnologie für den militärischen Einsatz.3 Die Forschungsarbeiten der 1960er Jahre mündeten u.a. in der Entwicklung des auch heute noch verwandten Betriebssystems UNIX4, vor allem aber in der theoretischen und praktischen Konzeption von Methoden der Computervernetzung, die die Grundlagen des heutigen Internet bilden. Die fundamentale Struktur des Internet ruht auf einem Paradigmenwechsel in der Technologie der Datenübertragung: anstelle des so genannten ›Circuit-Switching‹ tritt das ›Packet-Switching‹. Ersteres stellt die Betriebsweise des klassischen Telefonsystems dar. Eine Nachricht wird hier übermittelt, indem zwischen Sender und Empfänger eine direkte Verbindungsschaltung hergestellt wird (circuit = [Strom]Kreislauf). Die Innovation des Packet-Switching besteht darin, dass die Nachricht von der Leitungsverschaltung gleichsam emanzipiert wird. Die eigentliche Nachricht wird digital codiert und dann in Pakete zerlegt, die neben den Nachrichteninformationen jeweils auch Informationen über Absender, Ziel sowie über die Gesamtgröße der Ursprungsnachricht tragen. Die Weiterleitung der Nachrichten erfolgt dabei nicht mehr notwendig durch eine direkte Verschaltung zwischen Sender und Empfänger für die Dauer der Nachrichtenübermittlung, sondern durch die schrittweise Übertragung der Datenpakete in einem theoretisch unbegrenzt großen Netzwerk von Computern. An den Begriff Netzwerk schließt sich der zweite Paradigmenwechsel der Kommunikationstechnologie an, den diese Forschung bewirkt hat. Im Unterschied zu klassischen Nachrichtenübertragungssystemen werden hier keine zentralen Verschaltungsinstanzen benötigt. Ihre Vermeidung war eines der Forschungsanliegen der ARPA, da nur die Abkehr von zentralistischen und/oder hierarchischen Kommunikationsinfrastrukturen eine Immunisierung militärischer Kommunikation gegen feindliche Angriffe bieten konnte.5 3

4 5

Michael Hauben, Internet-Historiker an der Columbia University N.Y.: »ARPA was assigned to research how to utilize their investment in computers via Command and Control Research (CCR)« http://www.dei.isep.ipp.pt/docs/arpa.html. UNIX bildet z.B. das Fundament des Betriebssystems Mac OS X des Computers, auf dem dieser Text verfasst wurde. Vgl. das Memorandum RM-3420-PR »On Distributed Communications« der RAND Corporation vom August 1964, gesehen auf: http:// www.rand.org/publications/RM/RM3420/RM3420.summary. htm.

18

ERSTE PHASE: ENTSTEHEN VON COMPUTERNETZWERKEN

Die theoretischen Grundlagen des Packet-Switching wurden in den 1960er Jahren von drei Arbeitsgruppen6 unabhängig voneinander entwickelt. Die konkrete Umsetzung des ersten Packet-SwitchingComputernetzwerks fand 1969 unter der Federführung der ARPA statt. Das sogenannte ARPANET verband Computeranlagen vierer amerikanischer Westküsten-Universitäten.7 ARPANET gilt als erstes überregionales Computernetzwerk der Geschichte und bildete nicht nur theoretisch, sondern auch praktisch die Basis für die weitere Entwicklung hin zum Internet. Im Verlauf der 1970er Jahre wurden in einem langsamen, aber stetigen Wachstumsprozess immer mehr Rechner amerikanischer Universitäten und staatlicher Forschungseinrichtungen an das ARPANET angeschlossen. Gleichzeitig entwickelte sich eine Reihe weiterer Computernetzwerke, die auf der Packet-Switching-Technologie basierten, aber unterschiedliche Protokollstandards verwandten. Der Datenverkehr zwischen den verschiedenen Netzen war somit nicht oder nur sehr aufwendig möglich. Mitte der 1970er Jahre wurden daher von der ARPA, die mittlerweile DARPA8 hieß, Protokolle entworfen, die die Interoperabilität zwischen den Netzen ermöglichen sollten. Leitendes Konzept war dabei nicht, die Kompatibilität der einzelnen Netze zu erzwingen, sondern einen Protokollstandard als ›Meta-Sprache‹ zu entwerfen, der zwischen den unterschiedlichsten Anwendungen und Netzen vermitteln konnte. Bob Kahn, der bei der DARPA mit der Entwicklung dieses ›Metaprotokolls‹ betraut war, prägte für dessen universell vermittelnde Funktion den Begriff ›Internetting‹9. Die technische Umsetzung des Meta-Protokolls bekam die Bezeichnung ›TCP/IP‹ (Transmission Control Protocol/Internet Protocol) und 6

7 8 9

1961: Leonard Kleinrock, MIT: »Information Flow in Large Communication Nets«, 1964: Paul Baran, RAND Corporation: »On Distributed Communication Networks«, sowie Donald Watts Davies vom Britischen ›National Physics Laboratory‹, der den Begriff ›Packet‹ prägte. Die Internetseite http://www.cybergeography.org/atlas/historical. html bietet einige anschauliche Grafiken der frühen Entwicklung des Netzes. 1971 kam das ›D‹ für ›Defence‹ zum Namen der ARPA. 1993 wurde es fallen gelassen, 1996 wieder hinzugefügt. Daher heißt die Einrichtung heute DARPA. Siehe: http://www.darpa.mil. Siehe Seite 4 der Darstellung der Geschichte des Internet durch den Entwickler von TCP/IP Bob Kahn: http://www.unesco.org/webworld /infoethics/speech/kahn.htm.

19

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

ermöglichte ab den späten 1970er Jahren tatsächliche Interoperabilität zwischen verschiedenen Netzwerken.10 Anfang der 1980er Jahre wurde dann das mittlerweile von vier auf über 50011 registrierte Computer gewachsene ARPANET vollständig auf TCP/IP umgestellt. Durch die Einführung von TCP/IP war es fortan möglich, dass Daten nicht mehr auf das jeweilige Netz beschränkt waren, in dem sie kodiert worden waren, sondern sie konnten ihren Weg durch eine beliebige Anzahl unterschiedlicher Netze nehmen. Aus dieser Vernetzungswirkung des TCP/IP zwischen den schon in den 1970er Jahren in die Hunderte gehenden separaten Netzwerken, die international mehrere tausend angeschlossene Computer umfassten, resultierte dann das Internet als das »Netz der Netze«. Ende der 1970er Jahre trat zu der durch TCP/IP ermöglichten Integration der verschiedenen Netzwerke eine weitere wichtige Vereinfachung in der Nutzung: der ›Domain Name Service‹ (DNS) setzte die im von TCP/IP definierten globalen IP-Adressraum12 vorliegenden Nummerncodes der einzelnen Rechner in Namen um. Fortan musste zur Verbindung eines Computers nicht mehr dessen genaue numerische Adresse bekannt sein, sondern es konnte stattdessen ein leicht zu merkender Name genutzt werden.13 Die dem Internet zugrunde liegenden theoretischen und technischen Voraussetzungen sind also direkte Produkte der militärischen Computerforschung der 1960er und 1970er Jahre. Die wesentlichen Probleme, die hier angegangen wurden, bestanden darin, die Vernetzung von Computern überhaupt zu ermöglichen, diese fehlertolerant und in großen Maßstäben anwendbar zu machen. Die Nutzung der Technologie war damals auf einen relativ kleinen Kreis von Computerwissenschaftlern und militärischem Forschungspersonal beschränkt. Über die konkreten Inhalte der militärischen Nutzung 10 Kahn und seine Mitarbeiter waren natürlich nicht die einzigen, die ein solches Universalprotokoll angestrebt haben. Die zahlreichen Konkurrenzversuche (wie z.B. Net-beui) haben sich allerdings nicht durchsetzen können. 11 Vgl. http://www.zakon.org/robert/internet/timeline/, S. 6. 12 IP-Adressraum: eine Anzahl von zuweisbaren Nummern, die als Adressen für angeschlossene Computer dienen. Der ursprünglich von TCP/IP definierte Adressraum von 4.3 Milliarden End- zu EndAdressen ist mittlerweile weitgehend erschöpft und wird derzeit erweitert (s.u.). 13 Die heute bekannten Webadressen wie www.uni-bremen.de sind ein solcher Name.

20

ERSTE PHASE: ENTSTEHEN VON COMPUTERNETZWERKEN

von Computernetzwerken zu diesem Zeitpunkt ist, abgesehen von der bloßen Gewissheit ihrer Existenz und ihres rapiden Wachstums, so gut wie nichts bekannt. Militärische und zivile Computer waren im Übrigen bis zur Abtrennung eines genuin militärischen Netzwerkes, des MILNET im Jahre 198314, gemeinsam im ARPANET vertreten. Rainer Rilling weist in seinem Entwurf für einen Wörterbucheintrag15 zum Stichwort Internet darauf hin, dass hier im Unterschied zu anderen staatlich-militärischen Großtechnologien kein ›Unikatprodukt‹ wie Atomreaktoren oder ähnliches entstanden ist, sondern eine Technologie, die im Zuge ihrer Entwicklung in sich und in ihren Akteurskonstellationen schnell schwer eingrenzbar wurde, vor allem aber den militärischen Sektor früh verlassen und über den akademischen Sektor sukzessive allgemeine Verbreitung gefunden hat. Wie ich im Folgenden erläutern möchte, liegt der Erfolg des Internet gerade in diesen heterogenen Akteurskonstellationen.

14 Das Milnet, bzw. die neueren Varianten Niprnet & Siprnet, beruhen ebenfalls auf TCP/IP, und Zugriffe zwischen Internet und Milnet sind prinzipiell in beide Richtungen möglich. Die tatsächlichen Austauschmöglichkeiten werden aber durch Sicherheitsmechanismen militärischer Netze eingeschränkt. 15 Siehe: http://www.rainer-rilling.de/texte/inkrit-internet.html.

21

ZWEITE PHASE: EXPANSION

IM AKADEMISCHEN

SEKTOR

Der Expansionsprozess des Internet im und über den akademischen Sektor der Industrienationen ist die zweite, etwa von 1972 bis 1995 anzusetzende und bisher längste Phase in dessen Geschichte. Nachdem die wesentlichen Grundlagen der Vernetzung von Computern in den beschriebenen militärisch-akademischen Kollaborationen entwickelt worden waren, verbreiteten sich Computernetzwerke schon ab Anfang der 1970er Jahre schnell an amerikanischen Universitäten. Ab Mitte der 1970er Jahre erfasste dieser Wachstumsprozess langsam Europa1 und mündete im Verlaufe der 1980er und frühen 1990er Jahre in der fast vollständigen Anbindung von Universitäten und Forschungseinrichtungen der Industrienationen an das nunmehr global gewordene Datennetz. Innerhalb der Universitäten blieb der Einfluss der Netztechnologie lange auf die Informatik2 und die naturwissenschaftlichen Fachbereiche beschränkt. Spätestens mit der in den ausgehenden 1980er Jahren stattfindenden Verbreitung von PCs3 als Textverarbeitungsinstrumente in allen 1

2

3

Schon 1972 begann Frankreich mit dem Aufbau eines eigenen »Packet-Switching«-Netzwerks namens CYCLADES. 1973 wurde dann das University College of London über Norwegen angeschlossen. Siehe http://www.zakon.org/robert/internet/timeline/, S. 4. Die Etablierung des Faches Informatik geht im übrigen unmittelbar auf die Entwicklung des ARPANET zurück. Aus den Arbeitsgruppen der vier ursprünglich am ARPANET beteiligten Universitäten entstanden die ersten Informatikstudiengänge. Siehe »In Memoriam J.C.R. Licklider« S. 6. Als PDF-Datei unter: http://memex.org /licklider.html, gesehen am 10.06.2002. Siehe auch DARPA: »Technology Transition« S. 42. PDF unter: http://www.darpa.mil/body /mission.html, gesehen am 10.06.2002. Auf die besondere Rolle des Personal-Computers (PC) für die Verbreitung des Internet kann ich hier nicht näher eingehen. Die Ablösung der ›Mainframes‹ durch schreibtisch-taugliche PCs sowie deren allgemeine Verbreitung auch außerhalb von Wirtschaft und Uni-

23

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Wissenschaftsbereichen entwickelte sich außerhalb technischer Fachbereiche eine Nutzerbasis, die zunehmend auch Netzdienste wie E-Mail in Anspruch nahm. Ausgehend hiervon setzte sich dann in der ersten Hälfte der 1990er Jahre mit zunehmender Dynamik der Gebrauch von E-Mails und Datenübertragung im gesamten akademischen Bereich durch. Spätestens ab 1995 stellten fast ausnahmslos alle Universitäten der Industrienationen ihren Mitarbeitern und Studenten die Nutzung des Internet zur Verfügung. Das Internet hat also innerhalb des akademischen Sektors einen rapiden Wachstumsprozess durchgemacht. Innerhalb von zwanzig Jahren wurde aus einer komplizierten Technologie, die nur Experten verständlich und zugänglich war, ein an Universitäten selbstverständliches, fächerübergreifend genutztes Handwerkszeug. Besondere Bedeutung sowohl für die technische Entwicklung als auch für die kulturelle Wahrnehmung des Internet kommt dabei dem Arrangement der angesprochenen Akteurskonstellationen zu. Im Unterschied zu anderen Infrastrukturen wie dem Straßenbau oder dem Telefonnetz ist die Entwicklung des Internet nicht Resultat der Organisationsleistung staatlich-zentralistischer Bürokratien, sondern geht auf eine spezifische Form der Konsensbildung über technische Standards, Protokolle und Architektur des Netzes im Schnittfeld von akademischer Computerforschung, Militär und libertärer Programmiererszene (sog. Hacker und Geeks) zurück. Dieser institutionenübergreifende, kollaborative Austausch- und Optimierungsprozess, in dem die Entwicklung des Netzwerks vorangetrieben wurde und zum Teil noch wird, bildet die Folie für die bis heute wirksamen Idealisierungen des Internet als eine fundamental demokratische Potenz. Diese Organisationsform wurzelt in den ursprünglichen Management- und Design-Entscheidungen der ARPA bei der Entwicklung des ARPANET. An dieses bestand die Anforderung, die Vernetzung heterogener Systemumgebungen zu ermöglichen, ohne diese zu verändern. Es sollte also, zugespitzt formuliert, eine Vermittlungsinstanz gefunden werden, die Differenzen erhält und gleichzeitig Gemeinsamkeit stiftet. Die ARPA definierte im Rahmen des ARPANET-Programms lediglich die Packet-Switching-Theorie als technische Grundlage und organisierte die notwendigen Verbinversitäten ist aber eine wesentliche Voraussetzung der Entwicklung des Internet gewesen.

24

ZWEITE PHASE: EXPANSION IM AKADEMISCHEN SEKTOR

dungsleitungen. Ähnlich moderner Managementmethoden gab die ARPA also nur Rahmenbedingungen und Ziel des Forschungsvorhabens vor und überließ die konkrete Ausführung den einzelnen Teams der beteiligten Universitäten.4 Diese standen zunächst vor der Herausforderung, sich intensiv über ihre jeweiligen Anforderungen an die Netzwerksoftware auszutauschen, um sicherzustellen, dass die unterschiedlichen Computersysteme miteinander funktionierten. Die Spezifikationen und Methoden mussten allgemein zugänglich sein, um die Interoperabilität des Netzes zu gewährleisten. Vor diesem Hintergrund verschickte Stephen Crocker, Leiter der ›Network Working Group‹, im April 1969 ein Forschungspapier an seine Kollegen mit der Bitte, die darin enthaltenen Vorschläge für Spezifikationen einer ›Host Software‹5 zu kommentieren und Verbesserungsvorschläge zu machen. Ein an sich alltäglicher Vorgang in Wissenschaftskreisen. Aus Crockers ›Request for Comment‹ (»RFC«) erwuchs allerdings die gleichnamige bis heute bestehende wichtige Instanz zur Diskussion der Netzarchitektur.6 Der Charakter der RFC unterscheidet sich von den üblichen akademischen Diskursmethoden wie Büchern oder Zeitschriften dadurch, dass ein unmittelbarer, zeitnaher Rücklauf der Kritik gefordert ist, die idealerweise sofort in die Optimierung der in Frage stehenden Software eingehen soll. Akademische Titel und Ränge spielten im RFCvermittelten Optimierungsprozess eine vergleichsweise geringe Rolle, vielmehr wurde über die gegenseitige Begutachtung und Kommentierung angestrebt, ›best-practices‹ der Netzwerkprogrammierung zu isolieren. Sobald das ARPANET zur Distribution von Tex4

5

6

Neben der Diskussion technischer Spezifikationen werden immer wieder auch RFCs veröffentlicht, die gleichsam selbstreferentiell Geschichte und Jargon behandeln. Zu den Management-Entscheidungen der ARPA im Zusammenhang mit dem Aufbau des ARPANET siehe hier: http://rfc.sunsite.dk/rfc/rfc2555.html. Einen knappen und allgemein verständlichen Überblick der wichtigsten Internet-Gremien und des Ablaufs der Standardfindung mittels RFC-Diskussionen bietet dieses unter http://www.gafner.hypermart .net/IPv4/ipv4.html zugängliche Vorlesungsskript, das auch ausführlich die technischen Grundlagen des Internet erläutert (Stand des Dokuments ist 1998, die wesentlichen Punkte sind aber nach wie vor gültig). Die ›Request for Comment‹ werden unter http://www.faqs.org /rfcs/ index.html verwaltet und archiviert und sind außerdem hier zugänglich: http://www.rfc-editor.org/, http://rfc.sunsite.dk/rfc /rfc1.html oder http://ds.internic.net.rfc.

25

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

ten tauglich war, wurde der Distributions- und Kommentierungsprozess der RFCs über dieses abgewickelt; die archivierten wie aktuellen Dokumente standen und stehen permanent zu Ansicht bereit. Hier treten Nutzung und Optimierung des Netzes zusammen und münden schlussendlich in einem Ideal: allgemeine Zugänglichkeit der RFCs soll in allgemeiner Zugänglichkeit des Netzes resultieren und andersherum. Davon ausgehend beteiligten sich mit dem Wachstum des ARPANET – später Internet – immer mehr militärische, akademische und privatwirtschaftliche Institutionen und nicht zuletzt auch einzelne Individuen7 am Diskussions- und Optimierungsprozess der Netzarchitektur, wobei Anschluss und Adaptionsprozess der Akteure und des Netzes sich gegenseitig präformierten. Die oben pointierte Anforderung an das Internet, Gemeinsamkeit zu stiften und Differenz zu wahren, in dem Sinne, dass unterschiedliche Computersysteme angeschlossen werden konnten bzw. auch unterschiedliche Nutzerbedürfnisse berücksichtigt werden konnten, hat seine Organisierung durch den offenen Charakter der Netzentwicklung über die RFCs gefunden. Dabei ist natürlich nicht zu leugnen, dass die einzelnen Interessengruppen unterschiedlich starken, durch ökonomisches und/oder symbolisches Kapital bewirkten Einfluss auf die Konsensbildung der Netzarchitektur hatten. Der Modellcharakter, der von den RFCs ausging und der nicht zuletzt die ›ideologische‹ Wahrnehmung des Netzes mitgestiftet hat, bleibt davon aber weit gehend unberührt. Die Organisationsform, die den Erfolg des Internet ausmacht, besteht also aus einer Amalgamierung von Vernetzungsleistung und Konsensbildung, in der technologische und soziale Transformationsleistungen aufeinander verweisen. Sie soll im Folgenden näher erläutert werden, da hier meines Erachtens eine Vermittlung von Optimierungs- und (sozialen) Rückkopplungspro7

Damit sind vor allem die so genannten Hacker gemeint, Computernutzer, die seit den 1970er und 1980er Jahren im Umfeld vor allem der amerikanischen Universitäten eine eigene Subkultur bildeten. Sie wiesen oftmals erhebliche Expertise im Umgang mit Computern auf und traten gleichzeitig mit anarchistischen oder libertären Ansichten über Computernutzung an die Öffentlichkeit. Einen Überblick der ›Ideologiegeschichte‹ des Hackertums bieten: Richard Barbrook/Andy Cameron: »Die kalifornische Ideologie«, in: Nettime (Hg.), Netzkritik – Materialien zur Internet-Debatte, Berlin: Edition ID-Archiv 1997, S.15-36, und die mehrteilige Artikelserie »Libertäre Ideologie« von Peter Mühlbauer im Internet-Magazin Telepolis: http://heise.de/tp/deutsch/special/libi /4221/1.html.

26

ZWEITE PHASE: EXPANSION IM AKADEMISCHEN SEKTOR

zessen entstanden ist, die erstens die Adaptionsfähigkeit des Internet und zweitens ein wichtiges Potenzial des Electronic Government ausmacht. Die Struktur der Organisationsform lässt sich folgendermaßen bestimmen: Vernetzung ermöglicht wechselseitige Kommentierung, wechselseitige Kommentierung ermöglicht Adaptierung an die unterschiedlichen Begebenheiten und damit fortschreitende Vernetzung. Der zugrunde liegende Konsens besteht im Willen zur Vernetzung und, und das ist von entscheidender Wichtigkeit, im Willen zur Ressourcenschonung, den ich ›geteilte Ressourcenverantwortung‹ nennen möchte. Dieser resultiert aus den technischen Notwendigkeiten, die effizientes Programmieren erfordern, aber auch aus ökonomischen Knappheitskalkülen – Computer sind teuer,8 Bandbreite ist teuer, Programmierer sind teuer! Die Eingaben der einzelnen Akteure in den Entwicklungsprozess werden also unter diesen Maximen gelesen: treiben sie die Vernetzung voran und leisten sie dies in effizienter Weise? Der Optimierungsprozess, so meine These, wirkt in beide Richtungen, er bringt eine ›schlanke‹ und funktionierende Netzwerktechnologie hervor, die offen für Anschlüsse an unterschiedlichste Strukturen ist, er organisiert aber auch die Orientierung der Akteure an eben diesen Kriterien. Dabei ist er offen genug, je spezifische, den unterschiedlichen Bedingungen entsprechende Lösungen zu finden, die die Anschlussfähigkeit herstellen ohne gleichzeitig ›alles umbauen‹ zu müssen. Diese spezifische Struktur der (netzvermittelten) Konsensbildung bei geteilter Ressourcenverantwortung wird uns beim Electronic Government wieder begegnen. Vorläufig ist aber festzuhalten, dass ein zentraler Faktor bei der unabgeschlossenen Expansionsbewegung des Internet die offene, nach dem Muster des ›freien‹ wissenschaftlichen Diskurses auf Konsensbildung9 angelegte Entscheidungsstruktur bezüglich der Netzkomponenten ist. Daraus rührt ein zweiter, ebenso zentraler 8

9

Integrierte Schaltkreise (IC), also die heute bekannten ›Chips‹ wurden 1971 erfunden und erst in der Folge entwickelte sich die Miniaturisierungsdynamik, die schon 1976 den ersten Personal Computer (Apple I) hervorgebracht hat, und bis heute anhält. Mindestens bis dahin waren Computer die bekannten raumfüllenden Ungetüme mit Preisschildern für Verteidigungshaushalte. Dass dies eine bestimmte, derzeit hegemoniale Auffassung von Wissenschaft darstellt, die kritikwürdig ist, soll kann dieser Stelle nur angemerkt werden.

27

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Aspekt des Erfolgs des Internet: das Wissen um dessen Aufbau und Funktion ist prinzipiell frei verfügbar, es ist gesellschaftliches Wissen im Wortsinn. Weder können bestimmte Staaten oder deren Institutionen unmittelbaren Anspruch darauf erheben, noch können einzelne Kapitalien per Patentrecht oder Geheimhaltung die Nutzung dieses Wissens exklusiv gestalten. Zwar haben ökonomisches und symbolisches Kapital in den technischen und organisatorischen Verwaltungsgremien des Internet erheblichen Einfluss, eine vollständige Kontrolle des Wissens ist aber nicht möglich. Die Entscheidungen der zuständigen Gremien10 basieren auf der Grundlage von öffentlich zugänglichen und frei diskutierbaren Spezifikationen, so dass Versuche, Änderungen vorzunehmen, die Partikularinteressen dienen sollen, sofort auffallen und entsprechend kritisiert werden können. Diese formelle Allgemeinheitsorientierung ist einer der wichtigsten Garanten der Anschlussfähigkeit, der prinzipiellen Offenheit und damit der fortschreitenden Expansion des Internet. Sie steht in einem frappierenden Widerspruch zur materiellen Exklusivität des Netzes.11 Die physikalischen Infrastrukturen waren ursprünglich ausschließlich in militärischen und universitären Institutionen angesiedelt, haben sich aber teilweise in die globalen Telekommunikationsunternehmen verlagert, die ihrerseits ganze Geschäftsteile von Circuit-Switching auf Packet-Switching umgestellt 10 Hier sind die Internet Engineering Task Force (IETF), ein transnationaler Zusammenschluss von Ingenieuren, der auch die RFCs verwaltet, und das World Wide Web Consortium (W3C) zu nennen. In erster Linie ist aber die Internet Corporation for Assigned Names and Numbers (ICANN), eine gemeinnützige Gesellschaft (nach kalifornischem Recht), die euphemistisch auch häufig als ›Internet-Regierung‹ bezeichnet wird, seit dem Jahre 1998 mit der internationalen Koordinierung der rechtlichen und technischen Aspekte des Internet betraut. Handlungsfähigkeit und Legitimität dieser Institution haben aber durch Verfahrensstreitigkeiten, institutionalisiertes Lobbying und fortdauernde US-amerikanische Interventionen in den letzten zwei Jahren wiederholt in Frage gestanden. Websites: http://www. icann.org www.ietf.org und www.w3c.org. 11 Vgl. Rainer Rilling »Textprojekt Internet«: http://www.rainerrilling.de/texte/inkrit-internet.html. Die Konzentration der materiellen Netzinfrastrukturen in den Industrienationen, und hier im erheblichen Maße in den USA, birgt dabei schwer einschätzbare Folgen für die Allgemeinheitsorientierung des Internet. Insbesondere in internationalen Konfliktfällen sind Szenarien denkbar, in denen souveränitätsrelevante, auf das Internet rekurrierende staatliche Infrastrukturen in ihrer Handlungsfähigkeit eingeschränkt werden könnten.

28

ZWEITE PHASE: EXPANSION IM AKADEMISCHEN SEKTOR

haben12 bzw. aus dem Zugang zum Netz selbst ein Geschäftsfeld gemacht haben. Der kontinuierliche Wachstumsprozess, der für das Internet in den 1970er und 1980er Jahren im akademischen Sektor beobachtbar war, beruhte neben der dargestellten Strukturäquivalenz zwischen akademischer Wissensproduktion und Gestaltung des Internet darauf, dass die Universitäten der primäre Ort gesellschaftlicher Wissensproduktion sind, dort also Grundlagen und Umsetzung vernetzter Informationstechnologie hauptsächlich entwickelt wurden. Im subventionierten Milieu der Freiheit zur Wissenschaft, in der damit gegebenen Freiheit zum Experiment abseits unmittelbarer ökonomischer Zwänge und abseits der Notwendigkeit zur Nutzenlegitimation, reifte das Internet von einem relativ primitiven Medium innerwissenschaftlicher Kommunikation zu der sich heute abzeichnenden allgemeinen Infrastruktur. Bevor allerdings dieser Zustand erreicht war, stand noch der Sprung des Internet über die Schwelle des akademischen Sektors hinaus an. Der Übergang ist in der ersten Hälfte der 1990er Jahre anzusetzen und geht auf mindestens zwei weitere Bedingungen zurück13: zunächst die schon angesprochene Verbreitung des Personal Computers in allen gesellschaftlichen Bereichen und zweitens die damit zusammenhängende Vereinfachung der User-Interfaces von Computern.

12 Die klassische Vermittlung von Telefongesprächen über festverdrahtete ›Circuits‹ wird teilweise abgelöst durch die Codierung und Versendung von Gesprächen über das Internet (sog. ›Voice over IP‹). 13 Die allgemeine Verfügbarkeit von Telefonanschlüssen einmal vorausgesetzt, was schon zeigt, dass Allgemeinheit sich hier auf die Industrienationen beschränkt.

29

DRITTE PHASE: BREITENWIRKSAME EXPANSION Als dritte und gegenwärtig noch anhaltende Phase möchte ich die breitenwirksame Durchdringung und Anbindung aller gesellschaftlichen Funktionssysteme, seien es Militär, Universitäten, Wirtschaft oder Medien, an das Internet ansetzen. Wie eben angeführt, geht das Fortschreiten der Expansionsbewegung der Vernetzung über den wissenschaftlichen Sektor hinaus. Diese Entwicklung geht auch auf eine enorme Popularisierung des Internet durch die Vereinfachung der Benutzer-Schnittstellen bei gleichzeitiger Integration multimedialer Inhalte zurück. Angestoßen hat dies vor allem Tim Berners Lee mit der Entwicklung einer Softwarespezifikation1 namens ›World Wide Web‹, kurz ›WWW‹. Berners Innovation bestand darin, die grafische Benutzeroberfläche von der Nutzung des PC auf die des Internet zu übertragen. Die Idee grafischer Benutzeroberflächen war im Übrigen ebenfalls im Umfeld der ARPANET-Forschung konzipiert worden.2 Aufgrund der beschränkten Rechenund Darstellungskapazität der damaligen Computer verfolgte man diese allerdings nicht weiter. Erst Mitte der 1980er Jahre setzte die Firma Apple dann eine grafische Benutzeroberfläche kommerziell erfolgreich auf ihren Personal-Computern ›Macintosh‹ um. Bis Tim Berners Lee mit dem WWW aufkam, dessen Spezifikationen er auf oben beschriebene Weise zur allgemeinen Kommentierung und Verbesserung offen legte, war das Internet nur über Kommandozeile zugänglich. Ähnlich wie bei den Personal-Computern stellte diese Form des Benutzerinterfaces für die breitenwirksame Nutzung eine erhebliche Schwelle dar. Mit der Einführung von WWW konnten im Netz vorfindliche Informationen grafisch repräsentiert und in ihnen geblättert (browsen = blättern) werden. Die 1 2

Im Prinzip handelt es sich auch hier um einen Protokollstandard. Durch Doug Engelbart, der auch an der Entwicklung des ARPANET maßgeblich beteiligt war. Siehe http://www.scis.nova.edu/~spera nor/DCTE790Assignment2-HTML.htm.

31

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Umsetzung der schon aus den 1960er Jahren stammenden Idee des Hypertextes,3 also des Setzens komplexer Verweisungs- und Verknüpfungszusammenhänge zwischen Daten, seien es Text, Bild oder Ton, war damit in einer unmittelbar anschaulichen Qualität möglich. WWW versprach, den Traum unmittelbarer Zugänglichkeit multimedialer Informationen in einem weltweit ausgedehnten,4 maximal beweglichen Archiv auf dem Schreibtisch möglich zu machen. Aufsetzend auf die zunehmende Multimediafähigkeit der PersonalComputer brachte WWW einen ungeheuren und letztlich immer noch anhaltenden Popularisierungsschub für das Internet. Innerhalb der drei Jahre nach der 1991 erfolgten Vorstellung von WWW vertausendfachte sich die Anzahl der darüber zugänglichen Systeme. Diese Dynamik hat seither nicht nachgelassen.

Popularisierung in akademisch-politischen Milieus Interessanterweise setzte erst mit der Entwicklung des WWW auch eine breite geisteswissenschaftliche Diskussion über das Internet, das zu diesem Zeitpunkt schon fast zwei Jahrzehnte alt war, ein. Das ist umso bemerkenswerter, als im Rahmen der Populärkultur schon in den 1980er Jahren eine Reihe von Thematisierungen des Netzes stattgefunden hatten. Vor allem Science-Fiction-Filme wie ›Wargames‹ und ›Tron‹ sowie die Welle der Cyberpunk-Romane5 griffen schon früh in den 1980er Jahren das Netz thematisch auf und haben in erheblichem Maße die damit verbundene Metaphorik geprägt. Diese frühen, etwa bis Mitte der 1990er Jahre vorherrschenden Theoretisierungen des Internet knüpften unmittelbar an die durch das WWW anschaulichen Qualitäten an: Ihr Gegenstand waren einerseits die neue Räumlichkeit des ›Cyberspace‹ oder der ›Virtuellen Welten‹, die auch in den genannten populärkulturellen Produkten im Mittelpunkt standen, andererseits vor allem die neuen Formen von Kontextualität und Interaktivität, die mit dem Hypertext 3 4

5

Siehe www.w3c.org/history.html. Berners präsentierte 1991 die erste lauffähige Version seines WWW. Das Internet war zu diesem Zeitpunkt schon auf ca. 400.000 angeschlossene Computer in 2.500 verschiedenen Netzwerken gewachsen. Siehe Hobbes Internet Timeline: www.zakon.org.robert/inter net/timeline, S.20, gesehen am 23.06.2002. Am prominentesten ist William Gibsons Roman ›Neuromancer‹ von 1984, in dem er auch den Begriff ›Cyberspace‹ prägte. William Gibson: Neuromancer, München: Heyne 1986.

32

DRITTE PHASE: BREITENWIRKSAME EXPANSION

einhergingen. Dabei überwogen Ansichten, die mit dem Internet Subversions- und Befreiungspotenziale verbanden: von Teilen der Linken unter dem Eindruck von Hackerromantik als Waffe gegen ›die Herrschenden‹ bzw. als Medium herrschaftsfreier Kommunikation und Plattform neuer Kollektivität idealisiert,6 fand es bei postmodernen Theoretikern Anklang durch die Möglichkeiten der Aufhebung von Autorenschaft, des Unterlaufens von Identitätskategorien,7 dem ›Gender-Swapping‹8 und ›Posthumanität‹9, mithin als ›Ort‹10 gelebter Dekonstruktion. Beide Diskursstränge waren zu diesem Zeitpunkt mit einer vergleichsweise schwach regulierten Infrastruktur Internet11 konfrontiert. Das hat die Tendenzen der Diskussi6

7

8

9 10 11

Dass viele dieser vermeintlichen Linken letztlich (neo-)liberale Marktradikale waren, ist ebenfalls ein Schluss, zu dem Richard Barbrook und Andy Cameron kommen: R.Barbrook/A.Cameron: »Die kalifornische Ideologie«, in: Nettime (Hg.), Netzkritik - Materialien zur Internet-Debatte, Berlin: Edition ID-Archiv 1997, S.15-36. Katja Diefenbach gibt im selben Buch im schon erwähnten Text: »Kontrolle, Kulturalisierung, Neoliberalismus – Das Internet als Verstärker«, einen kritischen Überblick zur politischen Idealisierung des Netzes. Diskursprägend und von erheblicher Anreizwirkung war hier Sherry Turkles Bestseller »Life on the Screen – Identity in the Age of the Internet«, in dem auf populärwissenschaftliche Weise Erfahrungsberichte von Internet-Usern vermengt mit Versatzstücken postmoderner Philosophie präsentiert werden. Sherry Turkle: Life on the Screen – Identity in the Age of the Internet, New York: Simon & Schuster 1995. Wichtige Protagonistin war neben Sherry Turkle, allerdings auf hohem reflexivem Niveau, auch Sadie Plant. Bekannt geworden ist vor allem ihr Text »BINARY SEXES, BINARY CODES«: http://www.t0.or. at/sadie/sadie.htm. Siehe z.B. Donna Harraways Cyborg-Manifest: http://www.stanford. edu/dept/HPS/Haraway/CyborgManifesto.html. Natürlich stand und steht auch die Dekonstruktion von Räumlichkeit zur Debatte. Auch wenn die Regulation erst jetzt einzusetzen scheint, wurden damals schon wichtige Entscheidungen vor allem in Sicherheitskreisen getroffen. Zur Vorgeschichte sind zwei populärwissenschaftliche Bücher interessant, die sich mit den großen Hacker-Fällen der 1980er Jahre beschäftigen und implizit zeigen, wie die Sicherheitsbehörden auf ihre Souveränitätsdefizite in elektronischen Netzen aufmerksam wurden: Bruce Sterling: The Hacker Crackdown, New York: Penguin Books 1994 und Clifford Stoll: Kuckucksei, Frankfurt/Main: Fischer 1998. Zu den in den 1990er Jahren ergriffenen Maßnahmen internationaler Koordinierung zur Telekommunikationsüberwachung siehe auch Christoph Engemann/Anna Tuschling: »Zeig mir dein Profil«, in: Jungle World 44/2000, sowie die umfangreichen

33

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

on meines Erachtens erheblich beeinflusst. Es wird sich im Weiteren zeigen, dass sich viele der damaligen Positionen nicht mehr halten lassen. Einstweilen ist festzuhalten, dass diese geisteswissenschaftlichen Debatten das Internet in hohem Maße mit politischen und ästhetischen Erwartungen individueller und/oder kollektiver Emanzipation aufgeladen haben. In der Folge wuchs ab Mitte der 1990er Jahre in bis dato eher technoskeptizistischen akademischen und politischen Milieus rapide die Bereitschaft zum ›Anschluss‹. Mittelbar wurde dadurch auch die öffentliche Wahrnehmung des Netzes als demokratisches Medium geprägt, was sich bis in die Legitimationsdiskurse des Electronic Government durchschlägt und zum damaligen Zeitpunkt der breitenwirksamen Expansion des Internet zusätzliche Schubkraft verliehen hat.

Wirtschaftliche Bedeutung des Internet Neben der Popularisierung des Internet durch WWW, die zu großen Teilen dem damit einhergehenden massenmedialen Aspekt im Sinne einer neuen, multimedialen und interaktiven Unterhaltungsmöglichkeit geschuldet ist, sowie der ›diskursiven Explosion‹ im und über das Netz in den intellektuellen Milieus, geht dessen explosionsartiges Wachstum vor allem auf seine wirtschaftliche Bedeutung zurück. Die in diesem Zusammenhang stehenden Fragestellungen sind Gegenstand umfangreicher Debatten, die vor allem in der Soziologie unter den Schlagworten ›Wissensgesellschaft‹ oder ›Informationsgesellschaft‹ seit ca. 20 Jahren geführt werden.12 Da aber eine angemessene Würdigung insbesondere der Probleme der Charakterisierung des Computers und der Rolle der Information den Rahmen meiner Arbeit sprengen würde, muss ich mich hier darauf beschränDokumentationen im Internet-Magazin Telepolis: http://www.heise .de/tp/deutsch/special/enfo/default.html. 12 Überblick u.a. bei Martin Heidenreich: »Die Debatte um die Wissensgesellschaft«, gesehen auf http://www.uni-bamberg.de/sowi/ europastudien/erlangen.htm, Uwe H. Bittlingmayer: »Spätkapitalismus oder Wissensgesellschaft«, in: Aus Politik und Zeitgeschichte 36 (2001) S. 15-22; Frank Webster: Theories of the Information Age, London/New York: Routledge 1995, aus Sicht der Marxschen Theorie: Nicolai Egloff: »Postindustrielle Dienstleistungsgesellschaft oder industrielle Arbeitsgesellschaft? Zum gesellschaftstheoretischen Kontext der These von der Informationsgesellschaft« in: Rudi Schmiede (Hg.), Virtuelle Arbeitswelten, Berlin: edition sigma 1996.

34

DRITTE PHASE: BREITENWIRKSAME EXPANSION

ken, nur eine grobe Orientierung zu leisten. Dabei geht es mir vor allem um die auch im weiteren Zusammenhang des Electronic Government wichtige Dynamisierung der Wirtschaft durch die ›informationstechnische Revolution‹. Diese lässt sich für die hier in Frage stehenden Phänomene mit einer pragmatischen13 Dreiteilung in Zirkulationssphäre, Produktionssphäre und Konsumtionssphäre kurz skizzieren. Zirkulationssphäre In der Zirkulationssphäre haben internationalisierte Datennetze ihre früheste Implementation und Anwendung erfahren. Banken und Finanzinstitutionen bedienen sich ihrer einerseits zur Beschaffung von aktuellen Marktdaten im globalen Maßstab und andererseits unmittelbar daran anschließend zur zeitnahen, zielgenauen Übertragung und Investition von Kapital. Die wirtschaftlichen Vorteile liegen in der gesteigerten Reaktionsfähigkeit auf Marktbewegungen sowie in den gesunkenen Transaktionskosten durch die digitale Abwicklung der Zahlungsvorgänge. Beide Aspekte eröffnen darüber hinaus Einsparungspotenziale beim Personalstand, da Daten automatisiert erhoben werden können und Handelsvorgänge in erheblichem Maße an Computer delegiert werden können. Produktionssphäre In der Produktionssphäre hat die Einführung der Informationstechnologie die sichtbarsten Spuren gezeitigt; auf allen Ebenen des Produktionsprozesses haben tiefgreifende Umwälzungen stattgefunden. Zunächst sind auch hier die innerbetrieblichen Transaktionskosten durch verbesserte Koordinationsmöglichkeiten zwischen den Betriebsteilen zurückgegangen. Weiterhin haben Computer die Rationalisierung auch komplexer Arbeitsabläufe ermöglicht, d.h. erhebliche Einsparungspotenziale bei den Arbeitskräften bewirkt, und drittens hat sich die Form der Arbeitsorganisation und des Managements durch neue Dimensionen der Verfügbarkeit von Wissen über Arbeitsabläufe grundlegend gewandelt. Alle drei Faktoren ermöglichen eine erhebliche Verkürzung von Produktionszyklen, optimierten Arbeits- und Ressourceneinsatz (›just in time production‹) und 13 Diese Dreiteilung erfolgt hier allein aus darstellungsökonomischen Gründen und soll keiner etwaigen Trennung der ökonomischen Sphären das Wort reden.

35

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

schnellere Reaktion des Betriebs auf Markterfordernisse (›build on demand‹). Der Netztechnologie kommt dabei ein integrativer Charakter in mehrfacher Hinsicht zu: sie ermöglicht die Verknüpfung sämtlicher innerbetrieblicher Daten und die gleichzeitige Selektion dieser nach betriebswirtschaftlichen Erfordernissen. Im selben Zuge dient sie als Feedbackinstanz, die die Steuerung der angeschlossenen Subsysteme ermöglicht. Innerhalb des Netzwerkes, dessen Dichte unablässig zunimmt, d.h. genauer innerhalb der hier eingesetzten Enterprise Ressource Management Software (z.B. SAP) entsteht somit eine strukturelle Verdopplung des Betriebes auf der symbolischen Ebene.14 Diese tritt an Stelle der Abbildung der Betriebsabläufe im klassischen Papierapparat der Unternehmensbürokratie und bildet über die Gleichzeitigkeit von Erfassung, Auswertung und Steuerung die Basis für moderne Formen der Unternehmensorganisation. Die globale Reichweite des Internet ermöglicht dabei die Einholung weltweit verteilter Unternehmensbereiche in die betriebliche Entscheidungsfindung. Damit einhergegangen sind neue Zentrums-Peripherie-Konstellationen zwischen verstreuten Produktionsstandorten und zentralisierten Entscheidungsstandorten.15 Während die Produktionsstätten flexibel nach Marktlage, Ar14 Vgl. Rudi Schmiede: »Informatisierung, Formalisierung und kapitalistische Produktionsweise«, in: R. Schmiede (Hg.), Virtuelle Arbeitswelten, S. 22ff. Schmiede zeichnet den Bedeutungsgewinn der Unternehmensbürokratie im Zuge der ›Verwissenschaftlichung der Arbeit‹ im Taylorismus nach und zeigt, dass die Informationstechnik die Automation vieler tayloristischer Vorgänge ermöglicht hat. In diesem Zusammenhang ist auch das folgende Zitat von Jeremy Rifkin interessant: »Der Computer könnte für das mittlere Management dasselbe sein, was das Fließband für den gewöhnlichen Arbeiter ist.« Rifkin 1995, zitiert nach R. Schmiede: »Informatisierung und gesellschaftliche Arbeit – Strukturveränderungen von Arbeit und Gesellschaft«, in: R. Schmiede (Hg.), Virtuelle Arbeitswelten, S. 114. Techniken des Managements komplexer Prozesse über ihre symbolische Abbildung in Computersystemen sind außerdem beim USamerikanischen Militär in Form strategischer Computerspiele in den 1950er und 1960er Jahren entwickelt worden: vgl. Klaus Pias: »Welt im Raster – Historische Szenen strategischer Interaktivität«, in: Ästhetik & Kommunikation Heft 115 ›Computerspiele‹ (2001), S.39-50. 15 Vgl. Saskia Sassen: »Kontrollverlust? Der Staat und die neue Geographie der Macht«, in Gewerkschaftliche Monatshefte 7-8 (1999) S. 447-458; Saskia Sassen: The global city: New York, London, Tokyo, Princeton: Princeton University Press 2001; Manuel Castels: The Informational City: Information Technology, Economic Restructuring and the Urban-Regional Process, Oxford: Blackwell 1989.

36

DRITTE PHASE: BREITENWIRKSAME EXPANSION

beitspreisen und geforderten Qualifikationsniveaus international ausgesucht werden, konzentrieren sich die Stätten, in denen Unternehmensstrategien, Mittelallokation und Rahmenbedingungen der Produktion entschieden werden, auf wenige Orte in den Industrienationen.16 Die Ursache für dieses Phänomen liegt in der dort gegebenen räumlichen Nähe zu Banken (die aus denselben Gründen parallele Konzentrationsprozesse durchmachen) und politischen Institutionen, in der Notwendigkeit, auf genügend hoch qualifiziertes Personal zurückgreifen zu können und in der Verfügbarkeit hochwertiger Telekommunikationsinfrastrukturen. Letzteres verweist noch einmal auf den angesprochenen Strukturwiderspruch von formeller Allgemeinheit bei gleichzeitiger materieller Exklusivität des Internet, der sich, wie hier zu sehen ist, immer wieder aufs Neue fortschreibt. Den Umwälzungen der internen Organisationsstrukturen durch die Informationstechnologie entsprechen dynamisierte Außenbeziehungen der Unternehmen. Hier ermöglicht die globale Vernetzung ebenfalls präzisere Marktbeobachtung und direkte Kundenansprache. Damit können Zwischenhändler teilweise entfallen und »selbst kleinste Märkte mit weltweit verstreuten Kunden lukrativ«17 werden. Ausdifferenzierte Produktpaletten bis hin zur individualisierten Ware sind der Fluchtpunkt dieser Entwicklung, die aus dem Potenzial der präzisen Adressierung18 der Kunden(bedürfnisse) erwächst.19 16 Sassen identifiziert New York, London, Tokyo, Paris und Frankfurt als die wichtigsten Städte in diesem Zusammenhang. Vgl. S. Sassen: Kontrollverlust?, S. 448f und S. Sassen: The Global City. 17 So Hutter 2000, zitiert nach Wolfgang F. Haug: »Prolegomena zu einer Kritik der Neuen Ökonomie«, in: Das Argument 238 (2000), S. 619-645, hier S. 625. 18 »Precision-targeting information is just as important as precisiontargeting weapons, and the new media will make this possible to an unprecedented degree.« Alvin Toffler/Heidi Toffler (1993): War And Antiwar, zitiert nach Elvis Claßen,: »Information Warfare - Information als Ware oder: Wer bestimmt, was ›wirklich‹ ist?«, in: Forschungsgruppe für Sicherheit in der Informationsgesellschaft (Hg.), Texte zur Sicherheitspolitik in der Informationsgesellschaft 19971999, S. 15. Vgl. www.fogis.de, gesehen am 10.06.2002. 19 »Das Ideal […] eine Ware erst dann zu produzieren, wenn sie gekauft wird, rückt damit erheblich näher.« Andrea Baukrowitz/ Andreas Boes: »Arbeit in der ›Informationsgesellschaft‹«, in: R. Schmiede (Hg.): Virtuelle Arbeitswelten, S. 144.

37

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Konsumtionssphäre Hier schließt die dritte Ebene, das aufeinander verweisende Auftauchen neuer Waren und Bedürfnisse in der Konsumtionssphäre, an. Das gilt zunächst natürlich für die Wirtschaft, die aus oben beschriebenen Gründen Großabnehmer von Hard- und Software ist und wo unter dem Druck der Konkurrenz der Zwang zur Adaption immer neuer Technologien, die neue Rationalisierungen ermöglichen, besteht: der Markt für Unternehmensorganisationssoftware – Enterprise Ressource Management Software (ERM) – wächst seit Jahrzehnten ungebrochen und generiert immer neue Module, derzeit vor allem Human Ressource Management- und Customer Relation Management-Module (HRM und CRM), die die Nutzung des innerbetrieblichen ›Know How‹ und die Optimierung der Kundenbetreuung in den bestehenden informationstechnischen Organisationsstrukturen verbinden. Neben dieser Ausdifferenzierung des wirtschaftsimmanenten Warenuniversums hat sich seit Mitte der 1980er Jahre auch beim Normalverbraucher ein Massenmarkt für Hard- und Software entwickelt. Treibender Faktor waren nicht allein die Gebrauchseigenschaften der Personal-Computer, als Textverarbeitungsinstrument etwa, sondern seine unter dem Stichwort ›Multimedia‹ fungierenden Unterhaltungsmöglichkeiten. Vor allem den Computerspielen20, deren Umsätze mittlerweile die der Filmindustrie übertreffen21, kommt dabei eine wichtige Rolle zu. Sie haben sich zu einem eigenen Segment der Kulturindustrie ausgewachsen und in mehrfacher Hinsicht Lokomotivfunktion gewonnen: zunächst sind sie zentrale Sozialisationsinstanz für den Umgang mit Computern geworden, über die schon sehr junge Kinder mit Computern Umgang bekommen; daran anschließend haben sich um den Konsum bestimmter Spiele eigenständige Subkulturen gebildet, die im erheblichen Maße auch selbst

20 Diese sind im Übrigen ebenfalls ›Abfallprodukt‹ militärischer Technologie. Die ersten Computerspiele wurden von gelangweiltem Radarpersonal als Abwechslung auf ihren Displays programmiert. Mündliche Mitteilung von Klaus Pias am 01.12.01 auf der Tagung »Machinations, Imaginations – Musik erfinden mit maschinischen Verfahren« der Projektgruppe Neue Musik (www.pgnm.de). 21 Siehe: http://www.3sat.de/nano/bstuecke/26566/ gesehen am 28. 07.2002 und die Meldung des Hans Bredow Instituts vom 04.10.01: http://www.rrz.uni-hamburg.de/hans-bredow-institut/service/pre sse.html, gesehen am 28.07.2002.

38

DRITTE PHASE: BREITENWIRKSAME EXPANSION

Spiele(-modifikationen)22 produzieren23. Mittlerweile geben Computerspiele außerdem zunehmend die Vorlage für Filmproduktionen ab, wie in jüngster Zeit mit ›Tomb-Raider‹ und ›Resident Evil‹ geschehen. Weiterhin sind Computerspiele durch ihre hohen und ständig wachsenden Anforderungen an die Hardware ein treibender 22 So ist das Spiel ›Counterstrike‹, das im Zusammenhang mit dem Attentat in Erfurt im Mittelpunkt der öffentlichen Diskussion stand, ein solcher ›Mod‹; eine durch Amateure vorgenommene Umprogrammierung des kommerziellen Spiels ›Half-Life‹. Counter-Strike ist mit stündlich etwa 70.000 Online-Spielern das derzeit populärste Online-Spiel, aktuelle Statistiken unter: http://www.gamespy.com /stats/; siehe außerdem: http://www.counter-strike.net. 23 Diese von ›Amateuren‹ hergestellten Modifikationen in den Zusammenhang des Kulturindustrie-Begriffes zu stellen, könnte Irritationen hervorrufen. Wird doch die Kulturindustriehypothese häufig als Manipulationstheorie rezipiert. Dazu ist dreierlei anzumerken: 1.Wie bereits angeführt, stellen ›Mods‹ einen erheblichen Wirtschaftsfaktor für die kommerzielle Spielindustrie dar, die ihre Programme immer häufiger explizit ›mod-able‹ macht. Mods erhöhen die Identifikation mit den Programmen und verlängern ihre Lebenszeit (›Shelf-Time‹ genannt) auf dem Markt. 2. Die kommerziellen Spieleentwickler rekrutieren ihren Nachwuchs zunehmend aus der ModSzene. 3. und entscheidend: im Anschluss an die werttheoretische Konzeption des Kulturindustriebegriffs (wie vor allem durch Adorno aufgefasst - das Kulturindustrie-Kapitel in der »Dialektik der Aufklärung« stammt weitgehend von Adorno) ist das Kriterium für ein kulturindustrielles Produkt vor allem seine Durchformung anhand antizipierter Konsumentenerwartungen. Zu deren Erfassung haben die Spieleindustrie und die Mod-Szene avancierte Instrumente hervorgebracht, die das Konsumenten-Feedback in den Entwicklungsprozess einbauen. Das stellt im Grunde eine Anwendung des RFCPrinzips dar. Die Produktionsmethoden von Online-Computerspielen haben mit ihrer starken Kundeneinbindung über Individualisierungsoptionen, Feedback-Systeme, Subskriptionsprogramme und Teilöffnung des Produktes zur allgemeinen Weiterentwicklung/Adaption an eigene Wünsche meines Erachtens Avantgardecharakter. Vgl. Max Horkheimer/Theodor W. Adorno: »Dialektik der Aufklärung«, in: Theodor W. Adorno: Gesammelte Schriften Bd. 3, Frankfurt/Main: Suhrkamp 1998, S. 141-191. Außerdem Theodor W. Adorno: »Resumé über Kulturindustrie«, in: Gesammelte Schriften Bd. 10.1, Frankfurt/Main: Suhrkamp 1998, S. 337-345. Dort: »Neu an der Kulturindustrie ist der unmittelbare und unverhüllte Primat der ihrerseits in ihren typischsten Produkten genau durchgerechneten Wirkung.[…] Die Kulturwaren der Industrie richten sich […] nach dem Prinzip ihrer Verwertung, nicht nach dem eigenem Gehalt und seiner stimmigen Gestaltung. Die gesamte Praxis der Kulturindustrie überträgt das Profitmotiv blank auf die geistigen Gebilde.« T. W. Adorno: Resumé über Kulturindustrie, S. 338.

39

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Faktor im Hardwaremarkt. Bei der Nutzung des Internet kommt Computerspielen ebenfalls ein wichtiger Stellenwert zu. Schon in den 1970er Jahren war das Online-Rollenspiel ›MUD1‹24 die meistgenutzte Anwendung der damaligen Computernetzwerke. Während diese Spiele aus dargestellten Gründen weit gehend auf Nutzer der akademischen Community beschränkt waren, ist seit Mitte der 1990er Jahre die breite Masse der kommerziellen Spiele onlinefähig. Auch hier ist davon auszugehen, dass Spiele für viele Konsumenten einen wesentlichen Einstiegspunkt in die Nutzung des Internet darstellen. Mit der maßgeblich durch Computerspiele forcierten Verbreitung multimediafähiger Personal-Computer hat der Konsum ›klassisch-medialer‹ Produkte wie Bilder, Musik und Video über das Internet an Bedeutung gewonnen. An erster Stelle steht hier die Pornographie, der derzeit wohl einzig kommerziell erfolgreiche OnlineKontent.25 Mit den aufgeführten kulturindustriellen Produkten sowie ihren Produktionsmitteln ist demnach ebenfalls ein ganzes Warenuniversum entstanden, das wesentlichen Anteil an der Popularisierung der Informationstechnik hat und zu dessen Distributionskanal das Internet geworden ist.

24 Siehe http://www.zakon.org/robert/internet/timeline/, S. 5, gesehen am 28.07.2002. 25 ›Kontent‹ ist der Sammelbegriff für alle Inhalte, die im Internet angeboten werden. Zum wirtschaftlichen Erfolg der InternetPornographie siehe die Meldungen des amerikanischen Magazins Wired vom 19.02.02: Noah Shachtman (2002): »Pay for Content? Ha, Say Users« http://www.wired.com/news/ebiz/0,1272,51146,FF. html, gesehen am 19.02.02, sowie in Wired vom 09.03.01: Jenn Shreve: »Smut Glut Has Porn Sites Hurting«, http://www.wired.com /news/business/0,1367,42061,00.html, gesehen am 19.02.02. Siehe auch die Meldung von BBC-NEWS vom 16.06.2003: Mark Ward: »Will porn kick-start the video phone revolution?«: http://news.bbc. co.uk/go/pr/fr/-/1/hi /technology/2992914.stm.

40

EXKURS: ZUR WARENFÖRMIGKEIT DIGITALER PRODUKTE

Digitale Waren wie Software oder digital übertragene Musik, Bilder, Videos etc. weisen ein spezifisches Problem auf: ihr immaterieller Charakter als Information, die verlustfrei vervielfältigbar ist, enthebt sie der bei klassisch-stofflichen Waren vorliegenden Einmaligkeit – mithin der Knappheit. Knappheit aber »ist Unterscheidungsmerkmal zwischen freien und wirtschaftlichen Gütern«1. Ist die Produktion digitaler Waren – und als Waren werden sie produziert, da ihre Gebrauchswerte für den Produzenten lediglich den Zweck haben, als Tauschwert zu dienen2 – sehr arbeitsaufwendig, also teuer, so ist die Realisierung der Kosten oder gar eines Mehrwertes durch die Kopierbarkeit in Frage gestellt. Der Produzent einer Ware könnte nun einem einzelnen Käufer die Gesamtkosten der Produktion plus Profit im Preis weitergeben. Unter diesen Umständen wird er aber in der Regel keinen Käufer finden. Er ist also darauf angewiesen, seine Ware in ›Exemplare‹ zu unterteilen und die Kosten auf diese umzuschlagen. Zwar mögen dann genügend Menschen ein Bedürfnis haben, auf die der Gebrauchswert der digitalen 1 2

Geigant: Lexikon der Volkswirtschaft zitiert nach: W. F. Haug: Prolegomena zu einer Kritik der Neuen Ökonomie, S. 627. »Seine Ware [des Warenbesitzers/Produzenten C.E.] hat für ihn keinen unmittelbaren Gebrauchswert. Sonst führte er sie nicht zu Markt. Sie hat Gebrauchswert für andre. Für ihn hat sie unmittelbar nur den Gebrauchswert, Träger von Tauschwert und so Tauschmittel zu sein. Darum will er sie veräußern für Ware, deren Gebrauchswert ihm Genüge tut [vornehmlich gegen Geld, das als ›allgemeines Äquivalent‹ gegen alle Gebrauchswerte tauschbar ist. C.E.]. Alle Waren sind Nicht-Gebrauchswerte für ihre Besitzer, Gebrauchswerte für ihre Nicht-Besitzer. Sie müssen also allseitig die Hände wechseln. Aber dieser Händewechsel bildet ihren Austausch, und ihr Austausch bezieht sie als Werte aufeinander und realisiert sie als Werte.« Karl Marx: Das Kapital. Erster Band, Berlin: Dietz Verlag, 1989 (1867), S. 100.

41

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Ware geht, um sie Gewinn bringend zu verkaufen, diese erlangen durch den Kauf aber nicht je ein einzelnes ›Exemplar‹ der Ware sondern immer eine quasi unendliche Anzahl derselben. Sie können, sobald sie über die Digitale Ware verfügen, selbst an die Stelle des Produzenten treten. Ein Händewechsel der Waren, d.h. ein Wechsel der Verfügung3 über eine Ware, von dem Marx im Zusammenhang mit dem Austauschprozess der Waren spricht, findet nicht statt. Der Verkäufer behält seine Ware, obwohl er sie verkauft, er verfügt sogar,ist die Ware einmal hergestellt, ebenfalls über eine quasi unendliche Anzahl davon. Genauso verhält es sich beim Käufer, wenn er entsprechende Kopiermöglichkeiten hat. Außerdem verschleißt die digitale Ware durch ihre Konsumtion nicht, sie besteht in ihrer ursprünglichen Beschaffenheit fort. Die Realisierung des Tauschwertes, also das Erlangen eines Äquivalentes für die aufgebrachten Mittel zur Produktion der digitalen Ware, ist also gefährdet: »Was kein knappes Gut ist, kann nicht als Gegengabe für knappe Güter fungieren.«4 Haug5 ist mit Rifkin6 der Auffassung, dass die Finanzierung digitaler Waren in Zukunft über eine »Ökonomie der Zugangsbesteuerung oder des Abonnements« erfolgen soll, dass also pauschalierte 3

4 5 6

Vgl.: BGB Buch 3. Sachenrecht – Abschnitt 1. Besitz §854 (1) »Der Besitz einer Sache wird durch die Erlangung der tatsächlichen Gewalt über die Sache erworben. (2) Die Einigung des bisherigen Besitzers und des Erwerbers genügt zum Erwerb, wenn der Erwerber in der Lage ist die Gewalt über die Sache auszuüben.« Wobei »Sachen« nach BGB §90 nur körperliche Gegenstände sind. Titel 3 »Erwerb und Verlust des Eigentums an beweglichen Sachen – Untertitel 1. Übertragung § 929 Einigung und Übergabe Zur Übertragung des Eigentums an einer beweglichen Sache ist es erforderlich, dass der Eigentümer die Sache dem Erwerber übergibt und beide darüber einig sind, dass das Eigentum übergehen soll. Ist der Erwerber im Besitze der Sache, so genügt die Einigung über den Übergang des Eigentums.« Der Eigentümer einer Sache kann darüber hinaus »soweit nicht das Gesetz oder Rechte Dritter entgegenstehen, mit der Sache nach Belieben verfahren und andere von jeder Einwirkung ausschließen.« BGB § 903. Eigentum ist die rechtliche Herrschaft über eine Sache, Besitz lediglich die tatsächliche Gewalt über diese. Bürgerliches Gesetzbuch 51. Auflage, München: Deutscher Taschenbuch Verlag 2002. W. F. Haug: Prolegomena zu einer Kritik der Neuen Ökonomie, S.627. Vgl. ebd. Jeremy Rifkin: Access – Das Verschwinden des Eigentums, Frankfurt/Main, New York: Campus 2000.

42

EXKURS: ZUR WARENFÖRMIGKEIT DIGITALER PRODUKTE

Preise beim Zugang zum Netz bzw. zu bestimmten Netzarchiven, die besonders ›wertvolle‹ Waren speichern, erhoben werden, die dann im Umschlagverfahren die abgerufenen digitalen Waren gegenfinanzieren. Das Scheitern diverser Abonnentenprogramme – der berühmteste Fall ist sicherlich die Musiktauschbörse ›Napster‹, die der Bertelsmann-Konzern im Jahre 2000 für 8 Millionen Dollar gekauft hatte – zeigt, dass dieses Modell derzeit nicht rentabel realisierbar ist. Das liegt vor allem daran, dass die Abonnenten die gesuchten digitalen Waren häufig auch aus anderen, kostenfreien Quellen im Netz beziehen können bzw. dass sie die digitalen Waren, die sie einmal erhalten haben, selbst über verschiedene Kanäle weitergeben können. In beiden Fällen fließt kein Geld an die Produzenten, die Gefahr von Verlusten droht. Im Unterschied zu Haug und Rifkin bin ich der Auffassung, dass digitale Produkte in Zukunft vor allem über einen Mechanismus der ›Quasi-Exemplarität‹ finanziert werden sollen: Um die Warenform eines digitalen Produktes zu realisieren, muss eine QuasiExemplarität, eine Vereinzelung des Produktes herbeigeführt werden, so dass der Käufer nur über ein ›Exemplar‹ verfügen kann (=künstliche Verknappung auf Käuferseite). Bei heutiger Software wird das in der Regel herbeigeführt, indem entweder eine Lizenz mit einer Codenummer, die das Produkt aktiviert, oder ein Hardwarezusatz (sog. Dongle) mit derselben Funktion beigelegt wird. Auch reine Software-basierte Lösungen, die mit kryptographischen Methoden die Nutzung von Daten an bestimmte Programme, Computer, Abspielgeräte oder an eine Onlineüberprüfung binden, sind weit verbreitet. Solche Vereinzelungsmechanismen werden allgemein als ›Digital Rights Management‹ (DRM) bezeichnet. Sie stellen Substitute der fehlenden Stofflichkeit des digitalen Produktes dar und machen dieses zu einer Quasi-Sache (also einem einzelnen Gegenstand) im Sinne des bürgerlichen Rechts. Für den Käufer tragen sie nichts zum Gebrauchswert der digitalen Ware bei, sie sind kein ›an sich‹ der Ware. Sie haben lediglich für den Produzenten Nutzen, dessen Profit sie sichern sollen. Solche ›Quasi-Vereinzelungslösungen‹ schließen Abonnementkonzepte nicht aus. Sie machen sie wahrscheinlich erst wirtschaftlich, da der Abonnent wirkungsvoll daran gehindert werden kann, die digitalen Produkte, die er einmal erhalten hat, unkontrolliert weiterzugeben.

43

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Für die weitere Darstellung ist es entscheidend, dass die QuasiVereinzelung digitaler Produkte eine Beziehung zwischen dem je einzelnen digitalen Produkt (das ja eigentlich kein Einzelnes sein kann) und der je einzelnen (Rechts-)Person des Käufers herstellt, an deren Bestehen der Käufer eigentlich kein Interesse hat, die aber für den Produzenten überlebenswichtig ist. Resultat der Beziehung ist vor allem, dass dem Käufer eine Verfügung über die ›vereinzelte‹ digitale Ware zugeschrieben wird und er damit auch die Verantwortung für den Verbleib derselben hat. Es liegt also eine Erzwingung der Warenförmigkeit digitaler Produkte durch Personalisierung vor. Auf diesen Punkt wird im Zusammenhang mit dem Handel und der Besteuerung digitaler Waren im Internet zurückzukommen sein.

44

B R E I T E N W I R K S A M E E X P A N S I O N II Neue Kommunikationsformen Eng verbunden mit dem kulturindustriellen Kontext ist der Bedeutungsgewinn des Internet als interpersonelles Kommunikationsmedium. Schon 19711 erzeugten im ARPANET E-Mails etwa 75% des Netzverkehrs.2 Später in den 1970er Jahren kamen dann erste ChatProgramme dazu, elektronische Foren, die Diskussionen auf der Grundlage von Textnachrichten in Echtzeit ermöglichten. Unterformen davon wie ›Discussion-Boards‹ und die ›Multi User Dungeons‹ (MUD) genannten Online-Spiele sind nicht zwingend auf die Echtzeit-Online-Präsenz angewiesen, rekurrieren aber ebenfalls auf die Möglichkeit der Darlegung des persönlichen Standpunkts3 bzw. auf die direkte Adressierung der Nachrichten Dritter über das Netz. Für die Verbreitung des Internet hatten und haben diese Kommunikationskanäle eine zentrale Bedeutung. So bildeten E-Mail und elektronische schwarze Bretter zunächst ein neues Medium wissenschaftlicher Verständigung, das natürlich für die Entwicklung des Netzes selbst, z.B. über die Zirkulation der RFCs, genutzt wurde. Darüber hinaus diente es aber auch als exklusives Tratsch- und Unterhaltungsmedium der akademischen Community. Für die später angeschlossenen Privatunternehmen hat der wirtschaftliche Nutzen der E-Mails, der aus der Ersparnis von Porto und der Unmittelbarkeit des Kontaktes hervorgeht, diese zu einer ›Killer-Applikation‹, 1 2 3

Siehe die Dokumentation »How E-Mail was invented«, gesehen auf: http://www.livinginternet.com/?e/ei.htm. Siehe http://www.zakon.org/robert/internet/timeline/ S. 4. Die erste kommerzielle E-Mail wurde allerdings erst 1988 (sic!) versandt: http://www.livinginternet.com/?e/ei.htm. Die durch die mediale Distanz ermöglichte Einnahme diverser ›persönlicher‹ Standpunkte, die letztlich auf die fehlende Nutzerauthentifizierung (s.u.) in elektronischen Netzen zurückgeht, ist die Grundlage für euphemistische Identitäts-Dekonstruktionen à la Sherry Turkle.

45

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

d.h. zu einer Notwendigkeit, um in der Konkurrenz zu bestehen, gemacht. Aber auch in der Konsumtionssphäre sind die Kommunikationskanäle des Internet die meistgenutzte Anwendung. Das Medium E-Mail setzt sich derzeit zusätzlich zur postalischen Adresse als personale Adressmöglichkeit allgemein durch.4 Die Ursache liegt wahrscheinlich in einer Mischung aus Lust am Erreichbar-Sein und dem Zwang, ›angeschlossen‹ sein zu müssen, um nicht von der gesellschaftlichen Dynamik ausgeschlossen zu werden. Jedenfalls ist EMail auch im privaten Bereich eine der meistgenutzten Webanwendungen. Dazu kommen Chaträume, so genannte Instant-Messenger wie ›ICQ‹, die beide massenhaften Zuspruch finden, sowie unzählige private Homepages, ›Weblogs‹5 und sogar Webtagebücher. Das Internet bietet hier Identitätsinszenierungen und ›authentischen‹ Selbstdarstellungen bei unmittelbarer eigener Ansprechbarkeit Raum. Zugleich kann selektive Zielgruppenansprache und globale Reichweite gewährleistet werden. Das Netz hat somit die klassischen sozialen Unterscheidungen zwischen privater Schutzzone und öffentlicher Verbreitungszone dynamisiert.6 In diesem Zusammenhang spielen kulturindustrielle Produkte als Identifikationsobjekte oder Objekte der Ablehnung7 eine wesentliche Rolle und sind zentraler Gegenstand zahlreicher Selbstinszenierungsprozesse im Internet. Entsprechend bieten Fernsehsender, Film- und Spieleindustrie auf breiter Front Diskussionsforen und Chaträume zu ihren jeweiligen Produkten an. Die Fernsehsendung ›Big Brother‹ hatte den bisher umfassendsten Versuch dieser vertikalen Integration der verschiedenen Medien unternommen und sehr geschickt ›passive‹ Fernsehrezeption mit Internet-vermittelter interaktiver Teilhabe am 4

5

6 7

Die chinesische Post bietet die Zustellung von Mails in ausgedruckter Form an und will in einem zweiten Schritt E-Mail allgemein durchsetzen: siehe http://www.wired.com/news/politics/0,1283,53860, 00.html. Ursprünglich in der Programmiererszene entstandene öffentlich zugängliche Status-Reports, die Auskunft über Stand und Probleme von Programmierprojekten geben, die aber auch private Kommentare zu anderen Ereignissen enthalten. Mittlerweile werden Weblogs von vielen Menschen angefertigt, die darin (z.T. täglich) Auskunft über ihre Ansichten und ihr Dasein geben. Vgl. Rainer Rilling, »Textprojekt Internet«: http://www.rainerrilling.de/texte/inkrit-internet.html. Im Internet finden sich zu beinahe jedem kulturindustriellen Produkt von Usern angefertigte Hass-Seiten.

46

BREITENWIRKSAME EXPANSION II

Sendegeschehen verknüpft. Besonders hervorzuheben ist außerdem, dass Frauen in hohem Maße Gebrauch von den genannten Kommunikationsmöglichkeiten8 machen und dass das Internet damit eine der wenigen Technologien ist, deren Nutzung nicht von Männern dominiert wird. Dieser Umstand hat ebenfalls stark zur Popularisierung des Internet beigetragen und zeigt die Universalität der Anschlussdynamik, die mit dem Netz verbunden ist.

Tendenzen der weiteren Ausdehnung des Internet Abgesehen von den angesprochenen kulturindustriellen Kontexten und den neuartigen Kommunikationsaspekten des Internet sind noch eine ganze Reihe weiterer Entwicklungen auf Basis der Computertechnik und des Netzes entstanden, Telekommunikationsausstattung, Autonavigationssysteme, Steuererklärungssoftware sowie die vielen nicht auf den ersten Blick als Computer erkennbaren ›Embedded Systems‹ in Alltagsgegenständen, die neue Märkte gleichzeitig schaffen und erschließen. Unter den Schlagworten ›Pervasive Computing‹ oder ›Ubiquitous Computing‹ wird derzeit der nächste Schritt der Universalisierung von Computern und Internet9 diskutiert. Computer sollen die gesamte Alltagswelt durchdringen (pervasive) und allgegenwärtig (ubiquitous) werden. Damit ist die Loslösung des vernetzten Computers vom Schreibtisch und sein universeller Einsatz in Alltagsgegenständen gemeint. Computer sollen weitgehend autonom agieren und zu einer im Hintergrund wirkenden Selbstverständlichkeit werden, wie es heute Elektrizität ist.10 Als Anwendungen werden die

8

Was sich auch darin reflektiert, dass Frauen sehr früh und ausführlich zum Internet als Kommunikationsmedium geforscht haben (Sherry Turkle z.B. schon 1995). In Deutschland hat Nicola Döring dieses Feld aufgerollt. Nicola Döring: Sozialpsychologie des Internet: Die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen, Göttingen: Hogrefe Verlag 1999. 9 Hier aufgrund der beabsichtigten Omnipräsenz auch gerne als »EverNet« bezeichnet. Vgl. Gundolf S. Freyeremuth: »Der Große Kommunikator«, in: c`t Magazin für Computertechnik 15/2002, S. 214ff. 10 Siehe z.B. das Interview mit Stephen Garland vom MIT/DARPA Projekt Oxygen: http://www.infoworld.com/articles/hn/xml/02/06/ 20/020620hnmitproject.xml und die Selbstdarstellung auf der Web-

47

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Automation alltäglicher Aufgaben wie der Haushaltsführung, die verbesserte Koordination zwischen den heutigen mobilen und vernetzten Menschen in Arbeit und Freizeit sowie die individuelle Unterstützung bei der Informationssuche und Informationsselektion angestrebt. Geleistet werden soll dies durch den Einsatz miteinander vernetzter ›intelligenter Agentensysteme‹, die in Wohnungen, Arbeitsplatz, Autos, Kleidung, generell allen möglichen Gegenständen angebracht sind. Mit Hilfe umfangreicher und ebenfalls vernetzt agierender Sensoren sollen die Aktivitäten der Menschen von den Computern ›wahrgenommen‹ werden, um diesen dann bei ihren Verrichtungen, seien es Arbeitsvorgänge, seien es Freizeitvergnügen, zu helfen. Ökonomisch interessant und damit durchsetzungsfähig sind Anwendungen des Pervasive Computing vorerst nicht in der Konsumtionssphäre, sondern in Produktion und Handel. Hier sollen die einzelnen Waren oder Teile mit computerisierten und funknetzfähigen Etiketten ausgestattet werden. So können Stoffströme in Fabriken und Lagern den jeweiligen Produktions- und Verkaufsanforderungen entsprechend fein koordiniert werden bzw. sich aufgrund der eingebauten Logik selbst koordinieren. Neben stückgenauen Verbrauchszahlen, die die Lagerhaltung und Transportkosten minimieren, können genaue Verweildauern und Fehlerraten an jeder Stelle des Produktions- und Distributionsprozesses erhoben werden. Das Unternehmen erhält über die hier gewonnenen Daten innerhalb seiner ›Enterprise Ressource Management Software‹ ein feingranuliertes Bild der Abläufe und Kostenfaktoren und kann die Interaktion von Rohstoffen, Maschinen und Arbeit(ern) weiter optimieren. Entsprechende Versuche laufen bereits in verschiedenen Branchen11 und haben profitträchtige Verbesserungen der bestehenden ›just-intime‹-Strukturen gezeitigt.

on, as pervasive and free as air, naturally into people's lives« http: //www.oxygen.lcs.mit.edu/Overview.html. Außerdem die Website des Fraunhofer Instituts für integrierte Publikations- und Informationssysteme, das zu ähnlichen Konzepten forscht: http://ipsi.fhg.de /ipsi/nav/ipsi_f_contact.html. 11 So z.B. im Kooperationsprojekt für »intelligente Warenwirtschaft« der Firmen von SAP und Metro, gesehen auf: http://www.heise.de /newsticker am 24.04.2002.

48

BREITENWIRKSAME EXPANSION II

Einen weiteren derzeit in der Umsetzungsphase befindlichen Anwendungsfall des Pervasive Computing stellt das geplante LKWMautsystem auf deutschen Autobahnen dar. Mit dem am 12. April 2002 in Kraft getretenen Autobahnmautgesetz wurde gesetzlich geregelt, dass im Jahr 2003 eine entfernungsabhängige Abrechnung der Autobahnnutzung für LKWs eingeführt wird. Um den Verkehrsfluss nicht, wie bei aus anderen Ländern bekannten Mautsystemen, zu behindern, soll die kilometergenaue Erfassung der zurückgelegten Distanzen über die GPS-Ortung12 einer im Fahrzeug angebrachte Transponderbox13 während der Fahrt erfolgen. Die anfallenden Daten, z.B. Fahrzeugtyp und -eigner, zurückgelegte Distanzen etc., werden über das Mobilfunknetz drahtlos an ein EDV-System übermittelt, das schließlich die gefahrenen Kilometer dem Fahrer oder dem Spediteur in Rechnung stellt. Die flächendeckende Einführung eines solchen Systems stellt eine erhebliche Herausforderung dar, die die mit dieser Aufgabe betraute Firma Toll Collect, 14 ein Konsortium der Firmen DaimlerChrysler, Deutsche Telekom und des französischen Autobahnbetreibers Cofiroute, veranlasst hat, den Start mehrfach zu verschieben.

12 GPS – Akronym für Global Pointing System, ein ursprünglich vom USMilitär in Betrieb genommenes und mittlerweile auch kommerziell genutztes System aus 36 geostationären Satelliten zur (zentimeter-) genauen geographischen Ortung. Unter dem Namen Galileo plant die Europäische Union ein analoges Satellitensystem, ein chinesisches Pendant ist unter dem Namen ›Beidou‹ im Aufbau. 13 Für Fahrzeuge, die nicht mit der Transponderbox ausgestattet sind, besteht die Möglichkeit der manuellen Einbuchung über das Internet oder Mautstellen an Autohöfen, Tankstellen usw. Kontrollen finden über ein an Autobahnbrücken und –ausfahrten angebrachtes Videosystem statt, das die Nummernschilder der vorbeifahrenden Fahrzeuge online mit den manuell eingebuchten Nummernschildern vergleicht. Befindet sich das gescannte Nummernschild nicht in der Datenbank der Toll-Collect GmbH wird vom System die Durchführung einer Kontrolle veranlasst. Perspektivisch ist davon auszugehen, dass die Transponderbox Pflichtteil der Fahrzeugausstattung wird und das System auch auf PKW ausgeweitet wird. Alle Angaben aus »Wissenswertes über Toll Collect« abrufbar unter www.toll-collect. de/fragenundantworten/, gesehen am 28.05.2003. 14 Der Toll-Collect GmbH wurde aufgrund der hier notwendig stattfindenden gigantischen Datenerfassung in Form von Bewegungsprofilen jedes einzelnen LKW auf deutschen Autobahnen der jährlich verliehene Big Brother Award 2002 zuerkannt. Vgl. http://www.big brotherawards.de, gesehen am 28.05.2003.

49

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Fernziel dieses Systems ist, neben der »verursachergerechten«15 Finanzierung der Verkehrswege, die Integration der verschiedenen verkehrsbezogenen Technologien, den schon bestehenden Verkehrsleitsystemen der Autobahnen einerseits und dem anstehenden Mauterhebungsystem andererseits, hin zu einer Telematik genannten dynamischen Echtzeitsteuerung der Verkehrsflüsse. Die Rückbindung solcher Informationen an die Routenplanung von Spediteuren und letztlich auch an die Produktionsplanung der belieferten Unternehmen ist ein Fluchtpunkt dieser Entwicklungen.16 Telematik ist damit eine auf die bestehende staatliche Verkehrsinfrastruktur aufsetzende Pervasive Computing Technologie, die bei entsprechender Umsetzung nicht nur Hilfe bei der Bewältigung des wachsenden Verkehrsaufkommens17 leisten könnte, sondern potenziell einen wichtigen Standortvorteil18 darstellt. Das Internet ist dabei das Rückgrat des Systems, da es mit seiner universellen Verfügbarkeit und offenen Schnittstellenarchitektur die Verkoppelung der verschiedenen Prozesse überhaupt erst ermöglicht. 15 Vgl. »Fakten zur LKW-Maut. Streckenbezogene LKW-Maut sorgt für verursachergerechte Anlastung der Wegekosten.« auf der Website des BMVBW: http://www.bmvbw.de/lkw-maut-.720html. 16 Vgl. die Pressemitteilung 169/03 des Bundesministeriums für Verkehr vom 20. Mai 2003: »›Die LKW-Maut ist der technologische Quantensprung in der Verkehrspolitik‹, betonte [Bundesverkehrsminister C.E.] Stolpe. […] Die weltweit erstmalige Realisierung eines Erfassungssystems [sic! C.E.] auf Basis der Satelliten- und Mobilkommunikation könne in Deutschland auch einen Innovationsschub in der Informationstechnologie auslösen. Nach erfolgreichem Abschluss des Fusionskontrollverfahrens bei der Europäischen Kommission bestehe auch die Möglichkeit, das LKW-Mautsystem künftig als Plattform für Mehrwertdienste zu nutzen. Mehrwertdienste sind alle Dienstleistungen und Anwendungen der Verkehrstelematik, die unter Zuhilfenahme der technischen Einrichtungen des Mautsystems angeboten werden können: z.B. Flottenmanagement, Sendungsverfolgung, dynamische Routenführung, Disposition, Informationssendungen.« http://www.bmvbw.de/Pressemitteilungen-.942.htm, gesehen am 20.05.2003. 17 In diesem Zusammenhang wird häufig auf die zu erwartende Zunahme des Verkehrs durch die EU-Osterweiterung verwiesen. 18 Abgesehen von den damit möglicherweise weiter sinkenden Produktionskosten in Deutschland sieht Bundesverkehrsminister Stolpe außerdem »[…] gute Chancen, dass sich unser Mautsystem zu einem Exportschlager entwickelt.« Pressemitteilung 169/03 des BMVBW unter: http://www.bmvbw.de/Pressemitteilungen-.942.htm.

50

BREITENWIRKSAME EXPANSION II

›Pervasive‹ bzw. ›Ubiquitos Computing‹ schreibt die mit der Bürokratie schon einsetzende »Formalisierung aller sozialen Beziehungen als Informationsverhältnisse«19 tiefer in den Alltag der Menschen der Industrienationen ein. Der Fortschritt des Pervasive Computings liegt darin, dass sich die Schnittstellen, die die Anbindung disparater Prozesse an informationsverarbeitende Systeme erlauben, weiter ins Alltagsleben hinein vervielfältigen. Pervasive Computing mit seiner unbemerkten Allgegenwart, die noch weniger als bisher auf die intentionale Interaktion mit den Computersystemen angewiesen ist, ist so ein weiterer Schritt in Richtung auf die Verdopplung des Bestehenden in der universellen Infrastruktur Internet. Während das Pervasive Computing teilweise noch eine Laborvorstellung, ähnlich der des Internet vor dreißig Jahren, ist, wird im militärischen Bereich die Informatisierung sämtlicher Interaktionen von Soldaten, Geräten, Gelände usw. zunehmend Wirklichkeit. Die amerikanischen Streitkräfte führen zum Beispiel derzeit verschiedene Systeme ein, die die Soldaten in mehrfacher Hinsicht vernetzen. Das Programm ›Objective Force Warrior‹20, für das erste Beschaffungsverträge unterschrieben worden sind, ist eine von Grund auf neu entwickelte Uniform, die u.a. die Gesundheitsdaten des Soldaten, Kamerabilder seines Waffenvisiers21 und seines Helms in ein Funknetzwerk einspeist, über das der Soldat gleichzeitig Audio/Video-Befehle seines Kommandeurs bzw. Satelliten- oder ähnliche Aufklärungsdaten empfangen kann. Der Fluchtpunkt solcher ›Network-Centric-Warfare‹ ist die möglichst totale Erfassung aller Ereignisse auf dem Schlachtfeld – ›Battlefield Persistance‹ genannt – um den Kommandeuren die ge19 R. Schmiede: Virtuelle Arbeitswelten, S. 12. 20 Vgl. die Meldung auf der Website des Militärnachrichtendienstes ›Janes‹: http://www.janes.com/defence/land_forces/news/jdw/ jdw020610_1_n.shtml, gesehen am 17.07.2002. 21 Das unter Mitarbeit von Heckler & Koch unter der Projektbezeichnung ›OICW‹ entwickelte und ab 2006 einzuführende neue Gewehr der US-Army ›XM 29 Sabre‹ ist vernetzungsfähig. Für das Gewehr ›FAMAS‹ der französischen Armee ist ein äquivalentes System unter dem Namen ›FAMAS-FELIN‹ geplant. Weitere Entwicklungen wie das drahtlose ›CombatID‹ System, das die Identifizierung von Standort und Gesundheitszustand sämtlicher Soldaten im Empfangsbereich ermöglicht, werden auf der Website des ›U.S. Marine Corp Warfighting Lab‹ vorgestellt: http://www.mcwl.quantico.usmc.mil/frames. html. Siehe außerdem dieses Forschungsdokument der US-Army: http://www.aro.army.mil/phys/Nanoscience/sec4soldier.htm

51

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

steigerte ›Situation Awareness‹22 und ›Information-Supremacy‹23 zu geben, denn: »The more you know, the less you bleed.«24 Im militärischen Kontext wird damit die Verdopplung der stofflichen ›RealWorld‹25 im ›Datenraum‹ weiter vorangetrieben. Diese – im übrigen maßgeblich von der DARPA betriebenen – Forschungsprogramme werden aller Voraussicht nach vielfältige zivile ›Spin-Offs‹ generieren. Ich gehe davon aus, und das ist für die weitere Argumentation wichtig, dass diese Technologien allgemein darauf abzielen, Datenraum und stoffliche Welt in immer stärkerem Maße zur Deckung zu bringen, dass hier die Netzdichte zunimmt und verfeinerte Schnittstellen26 zwischen den Subjekten und dem Netz geschaffen werden, die immer neue Lebensbereiche anschließen und letztlich ihren Telos in einer möglichst vollständigen Durchdringung der Alltagswelt mit Netzwerkschnittstellen haben. Das Internet, so ist zu resümie22 Siehe den Tätigkeitsbericht »Technology Transition« der DARPA S. 70.: http://www.darpa.mil. 23 ›Informationsüberlegenheit‹ ist seit etwa zwanzig Jahren neben den klassischen Faktoren ›Feuerkraft‹ und ›Bewegung‹ Bestandteil militärischer Doktrin. Vgl. hier das Strategiepapier der US-Army »JointVision 2010« http://www.army.mil/2010/, gesehen am 10.05.2003. Interessant ist dort, dass zu den fünf Zentraldoktrinen auch die ›focused logistics‹ zählen, die präzise individuelle Adressierung der logistischen Güter per vernetzter Informationssysteme. Zur Bedeutung der Logistik für das Militär wird Hitlers Feldmarschall Rommel folgende Aussage zugeschrieben: »Amateure studieren Taktik, Profis studieren Logistik.« Eine Zusammenfassung zur Rolle der Information für die moderne Kriegsführung bietet Ralf Bendrath: »Militärpolitik, Informationstechnologie und die Virtualisierung des Krieges«, in: Forschungsgruppe für Sicherheit in der Informationsgesellschaft (Hg.), Texte zur Sicherheitspolitik in der Informationsgesellschaft 1997-1999. Gesehen auf www.fogis.de. 24 So eine Überschrift auf der Website http://www.strategypage.com während des Irakkrieges 2003. 25 Der Begriff ›Real-World‹, oder als Akronym ›RL‹, stammt aus dem Hacker-Jargon und soll den Unterschied zwischen der »realen« und der»virtuellen« Welt bezeichnen. 26 Am intensivsten werden Spracherkennung, Raumerfassung und biometrische Verfahren beforscht, die es ermöglichen, jenseits der Kommandozeile oder der grafischen Benutzeroberfläche mit Computern zu interagieren. Diese sollen die Computer darüber hinaus in die Lage versetzen, auch ohne intentionale und strukturierte Eingabe Daten aus der Umwelt zu aggregieren, Handlungsintentionen der Subjekte abzuschätzen und darauf zu reagieren. Mögliche Anwendungen liegen z.B. in Sicherheitssystemen, die Zugangsrechte kontrollieren.

52

BREITENWIRKSAME EXPANSION II

ren, hat die Tendenz des alles Einschließenden, es duldet kein Außen. Deutlich sichtbar ist das auch an der gegenwärtig geplanten Erweiterung des Adressraums von TCP/IP. Die mit dem bisher angewandten Verfahren IPv4 mögliche Anzahl an Computeradressen (IP-Adressen) ist mittlerweile weit gehend ausgeschöpft.27 Das Nachfolgeprotokoll IPv6, dessen Einführung u.a. die EU zu einem vordringlichen politischen Ziel erklärt hat,28 ermöglicht es, buchstäblich jeden Quadratzentimeter der Erdoberfläche mit Milliarden von IP-Adressen zu versehen.29 Die aufgewiesenen Potenziale des Internet in allen drei Sphären – Zirkulation, Produktion, Konsumtion – haben gemeinsam, dass sie die Verfügbarkeit materieller wie immaterieller Prozesse über ihre (digital unifizierte30) strukturierende und verdichtende symbolische Repräsentation erhöhen.31 Sie können damit als eine Fortschreibung 27 s.o. 28 Die EU hat dazu eigens eine ›Task Force‹ eingerichtet: http:// www.ipv6-taskforce.org/, gesehen am 01.06.2003. 29 IPv4 hat einen Adressraum von 4.3 Milliarden (4.3x109) Nummern, die einzelnen Computern zugewiesen werden können, während IPv6 3.4x1038 (sic!) Adressen zur Verfügung stellt. Bei einer Weltbevölkerung von 6 Mrd. sind das pro Mensch 6.5x1028 IP-Nummern. IPv6 wird natürlich auch über RFCs diskutiert und entwickelt. Siehe http:// www.ipv6-net.org/themen/uebe/page2.php und http://www.ipv6. org/. 30 D.h. die Wandlung analog unterschiedlicher Zustände wie Geräusch, Text, Bild, Messdaten etc. in digitale Daten als zugrunde liegende Unifizierung. Vgl. außerdem die Bemühungen, digitale Kodifizierungen über den Dokumentenstandard XML weltweit zu vereinheitlichen: Peter Schüler: »Software-Esperanto. XML ersetzt proprietäre Datenformate«, in: c`t Magazin für Computertechnik 2/2002, S. 176. 31 Damit ist keinesfalls ein unidirektionaler Zusammenhang zwischen symbolischer ›Abbildung‹ und ›Realität‹ unterstellt. Die Debatten um das Verhältnis von Ereignis, Abbild, Medienwirkung und Simulation wären gegenzulesen mit der von mir hier unterlegten Theorie der Herrschaftsleistung der Bürokratie als regelhaftes System symbolischer Verfügung. Das steht noch aus – und konnte von mir bisher auch nicht geleistet werden. Mir geht es zunächst einmal darum, dass bürokratische Datenerfassung und -verarbeitung strukturell Herrschaftscharakter hat. Vgl. auch die bürokratische Struktur der von Michel Foucault in »Überwachen und Strafen« beschriebenen Diziplinartechnologien; z.B.: »Jedem Individuum seinen Platz und auf jedem Platz ein Individuum. Gruppenverteilungen sollen vermieden, kollektive Einnistungen sollen zerstreut, massive und unübersichtliche Vielheiten sollen zersetzt werden. Der Disziplinarraum hat die Tendenz, sich in ebenso viele Parzellen zu unterteilen,

53

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

der Herrschaftsleistung der Bürokratie verstanden werden, die in ihrer modernen Form ihren Ursprung im Umfeld des Frühkapitalismus hat.32 Während die klassische Bürokratie den Makrokosmos der Mannigfaltigkeit im Mikrokosmos ihrer Schreibstuben und Archive nur unter Mühen und mit erheblicher Komplexitätsreduktion abzubilden vermochte,33 tendiert das Internet idealerweise zu einer vollwie Körper oder Elemente aufzuteilen sind. […] Es geht darum, die Anwesenheiten und Abwesenheiten festzusetzen und festzustellen, zu wissen, wo und wie man die Individuen finden kann; die nützlichen Kommunikationskanäle zu installieren und die anderen zu unterbrechen; jeden Augenblick das Verhalten eines jeden überwachen, abschätzen und sanktionieren zu können; die Qualitäten und die Verdienste zu messen. Es handelt sich also um eine Prozedur zur Erkennung, zur Meisterung und zur Nutzbarmachung. Die Disziplin organisiert einen analytischen Raum.« (Hervorhebung von mir C.E.). Michel Foucault: Überwachen und Strafen, Frankfurt/Main: Suhrkamp 1994, S. 183. Zur Beziehung von ›Realität‹ und ›Repräsentation‹ und der historischen Rolle der Bürokratie darin vergleiche außerdem: Bernhard Siegert: Passage des Digitalen. Zeichenpraktiken der neuzeitlichen Wissenschaften 1500-1900, Berlin: Brinkmann & Bose 2003. 32 Siehe Cornelia Vismann über die bürokratische Zentralinnovation des Registers: »Der stetige Grund des Staates ist sein Register.[…] Register homogenisieren nicht nur Zeit, sie vereinheitlichen auch sachlich und räumlich disparate amtliche Handlungen. Sie sind universelle Vermittler, universal exchanger. Als Prozessoren zur Verschaltung von Diversitäten stellen sie Beziehungen zwischen und auf Papieren her, als Synopse und Abgleich von Soll und Haben. Die Sprache der Buchhaltung ist hier wörtlich zu nehmen. Register haben sich aus dieser Technik entwickelt. In Format und Ausstattung gleichen die Register aus der sizilianischen Kanzlei denen der kaufmännischen Buchführung im 12. Jahrhundert in den italienischen Stadtkommunen.« (Hervorhebung im Original C.E.) Cornelia Vismann: Akten – Medientechnik und Recht, Frankfurt: Fischer Taschenbuch Verlag 2000, S. 144. Offensichtlich fällt das Aufkommen des »universal exchanger« Registratur mit der beginnenden Wertvergesellschaftung zusammen. Vgl. zu den Ursprüngen der Bürokratie im Frühkapitalismus außerdem die Bemerkungen Leo Koflers auf S. 21ff in: Leo Kofler: Stalinismus und Bürokratie, Neuwied am Rhein: Sammlung Luchterhand 1979. 33 Das Trauma der verarbeitungskapazitätsbedingten Komplexitätsreduktion als potentielle Souveränitätsbedrohung zeichnet sowohl die ältesten als auch die jüngsten Aktivitäten staatlicher Bürokratien. So bedeutete die Entdeckung Amerikas im 15. Jh. einen Innovationsschub bürokratischer Verwaltungstechniken, da hier die mittelalterliche Herrschaftsform des Präsenzkönigtums nicht mehr praktikabel war. Wie Bernhard Siegert in seinem Text »Totales Wissen versus totaler Ruin« zeigt, ›erfand‹ die spanische Krone zusammen mit der

54

BREITENWIRKSAME EXPANSION II

ständigen Abdeckung des Makrokosmos.34 Datenauswertung und Entscheidungsfindung sind aber stärker noch als in der klassischen Bürokratie an elaborierte technische Instrumente35 und hoch qualifiziertes Personal gebunden, was sich in dem oben schon angesprospanischen Inquisition vor diesem Hintergrund im 16. Jh. ein neues ›Betriebssystem‹ der Herrschaft: jenes bürokratische System der Informationserfassung und –verarbeitung, das in seinen Grundzügen bis heute geltende Prinzipien staatlicher Administration abgibt. Und bereits 1569 verlangte der mit einer Überprüfung der Vorgänge in Amerika betraute Inquisitor der Erzdiözese Sevilla Juan de Ovando »›entera noticia de las cosas‹ […] eine vollständige Kenntnis aller Dinge.« Fortan sollten buchstäblich alle Vorgänge in den Kolonien aufgeschrieben und somit der Bürokratie zugänglich gemacht werde. Andernfalls drohe die Gefahr der »total ruina y destruiçión.« Die ›vollständige Kenntnis aller Dinge‹ herstellbar und verfügbar zu machen, hat sich das amerikanische Verteidigungsministerium unter dem Eindruck der Ereignisse vom 11. September 2001 vorgenommen. ›Total Information Awareness‹ - Totale Informationskenntnis lautete der programmatische Titel des im Jahre 2002 bei der DARPA aufgelegten ambitionierten Forschungsprogramms. Das System ist ein zentraler Bestandteil des ›War on Terror‹ und soll die Integration aller verfügbaren Informationsquellen im In- und Ausland in einer zentralen Datenbankumgebung ermöglichen, um frühzeitig Bedrohungen erkennen zu können. Aufgrund von Kritik amerikanischer Bürgerrechtler wurde das Programm zwischenzeitlich in ›Terrorist Information Awareness‹ umbenannt und auch das ursprünglich verwendete Logo, das das Gottesauge beim Betrachten des Erdballs zeigte, geändert. Die ›Total-‹ bzw. ›Terror Information Office‹ der DARPA ist online unter http://www.darpa.mil/iao/ zu erreichen. Kritische Berichterstattung findet sich auf den Seiten der Electronic Frontier Foundation http://www.eff.org/Privacy/TIA/, und in den Online-Magazinen Telepolis und Futurezone: www.heise.de/tp und http://futurezone.orf.at. Zitate nach Bernhard Siegert »Totales Wissen versus totaler Ruin – Entropie und die Phantasmen der Bürokratie« Manuskriptfassung. Erscheint in: Wolf Kittler/Sven Spieker (Hg.): Packratten und Bürokraten: Studien im Archiv, Berlin: Kadmos Verlag 2003, vgl. auch Bernhard Siegert: Passage des Digitalen. Zeichenpraktiken der neuzeitlichen Wissenschaften 1500-1900, Berlin: Brinkmann & Bose 2003, insbsd. S. 65-110. 34 Solche Komplexitätsreduktion zeitigt dabei natürlich eine eigene Komplexität des Internet und seiner Akteure, die wiederum einer Meta-Abbildung harren. Ein Ausdruck davon sind die Versuche, das Internet zu kartographieren. Beispiele dazu finden sich unter anderem auf: http://www.cybergeography.org Auch das ›Total Information Awareness‹ Programm ist mit diesem Problem befasst. 35 Neben Computern mit der entsprechenden Rechen- und Speicherkapazität sind damit vor allem die als ›Data-Mining‹ bezeichneten Analyse-Technologien gemeint.

55

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

chenen örtlichen Konzentrationsphänomen der entsprechenden Einrichtungen niederschlägt. Aus diesem Hintergrund rührt die mit dem Internet einhergehende und unter dem Titel ›Wissensgesellschaft‹ fungierende Dynamisierung in Zirkulations-, Produktions- und Konsumtionssphäre aus Einsparungseffekten durch präzisere Mittelallokation bei genauer Orientierung am Kundenbedürfnis, welches permanent evaluiert und wieder in den Entscheidungsprozess eingespeist wird, her. Diese flexible Adaption der Kundenbedürfnisse mündet in einen wechselseitigen Prozess dynamisierter Märkte und dynamisierter Produktion, in dem immer präzisere Kundenorientierung und ausdifferenziertere Produktpaletten miteinander in immer kürzeren Zyklen konkurrieren. Als wesentliche Qualität des Internet für seine wirtschaftliche Nutzung zeigt sich somit die Möglichkeit der präzisen individuellen Adressierung. In der Erwartung der Realisierung dieser Potenziale stellte die Wirtschaft somit einen wesentlichen Motor bei der breitenwirksamen Expansion des Netzes36 dar. Bis hierher habe ich die Entwicklung des Internet aus einer relativ exotischen experimentellen Technik, aus der Schnittmenge zwischen Militär und Universitäten zu einer gesellschaftstransformativen Technologie beschrieben. Es sollte deutlich geworden sein, dass das Internet als Summe technischer Geräte und Normen gleichgültig gegenüber Zweck und Gestalt seiner Nutzung ist – dass also der zentrale Aspekt des Internet sein universeller Charakter ist. Eben dieser universelle Charakter ermöglicht es dem Internet als Querschnittstechnologie disparateste Prozesse in Wirtschaft und Gesellschaft zusammenzuschließen – was hier wie dort zu tief greifenden Änderungen geführt hat. Auf diese Universalität aufsetzend, liegt das entscheidende Potenzial des Internet meines Erachtens in der Möglichkeit individueller Adressierung der Subjekte. Genau darin liegt aber auch das zentrale Problem der Nutzung der Potenziale des Internet, die die Schwelle bilden, an der die Entwicklung derzeit steht und die die vierte Phase markieren: internetvermittelte (gegenseitige) individuelle Adressierung, die in vollem Umfang wirtschaftlich und politisch Geltung hat, benötigt eine ›eineindeutige‹ Authentifizierung der bürgerlichen Identität der ›User‹.

36 Und hat im selben Zuge riesige Intranets aufgebaut, die auf TCP/IP aufbauen, aber zum Internet hin selektiv abgeschottet sind.

56

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

›Eineindeutig‹ lautet die juristische Formel für die unabweisbare Zuschreibung einer Willenshandlung zu einem Rechtssubjekt, sei es eine natürliche oder eine juristische Person.1 Die Fähigkeit zur Willenshandlung, also intentionalem Handeln, wiederum zeichnet Personen als solche aus: »Person ist dasjenige Subjekt, dessen Handlung einer Zurechnung fähig ist.«2 Willenshandlungen sind die

1

2

Einzelne Menschen werden als natürliche Personen bezeichnet. Vereine wirtschaftlicher oder nichtwirtschaftlicher Art gelten als juristische Personen. Vgl. BGB § 1 und § 21. Bürgerliches Gesetzbuch 51. Auflage: München: Deutscher Taschenbuch Verlag 2002. Ich benutzte hier das BGB der besseren Verfügbarkeit halber. Die im Folgenden geschilderten Grundlagen des Privatrechts gelten aber allgemein für kapitalistische Gesellschaften (andere gibt es zur Zeit auch nicht – zumindest keine mit Internetanschluss). In schönster Klarheit stellt Helmut Köhler in der Einführung des BGB fest: »Privatrecht und Marktwirtschaft bedingen einander.« BGB Einführung S. XI. Bürgerliches Gesetzbuch 51. Auflage, München: Deutscher Taschenbuch Verlag 2002. Vgl. außerdem K. Marx: Das Kapital. Erster Band, S. 99: »Um diese Dinge als Waren aufeinander zu beziehen, müssen die Warenhüter sich zueinander als Personen verhalten. […] Dies Rechtsverhältnis, dessen Form der Vertrag ist, ob nun legal entwickelt oder nicht, ist ein Willensverhältnis, worin sich das ökonomische Verhältnis widerspiegelt. Der Inhalt dieses Rechts- oder Willensverhältnisses ist durch das ökonomische Verhältnis selbst gegeben.« Vgl. auch den Überblick bei Andreas Harms: Warenform und Rechtsform, Baden-Baden: Nomos Verlag 2000, insbs. S. 54-60 und 157ff. Immanuel Kant: »Die Metaphysik der Sitten«, in: Werke in sechs Bänden, Bd. IV, Wiesbaden: Insel Verlag 1956, S. 329. Es gibt natürlich auch Menschen, deren Handlungen nicht als Folgen ihres freien Willens anerkannt werden. Diese gelten dann als nicht ›geschäftsfähig‹: § 104 BGB: Geschäftsunfähigkeit. »Geschäftsunfähig ist: 1. wer nicht das siebente Lebensjahr vollendet hat, 2. wer sich in einem die freie Willensbestimmung ausschließenden Zustand krankhafter

57

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Grundlage aller Rechtsgeschäfte zwischen Personen.3 Aus Rechtsgeschäften, deren Idealform der schriftliche Vertrag ist, erwachsen für die beteiligten Personen gegenseitige Rechte und Pflichten, so genannte Ansprüche.4 Ansprüche können vor Gericht geltend gemacht werden, wenn ein in einem Rechtsgeschäft vereinbarter Vorgang (z.B. die Übergabe einer Ware) von einer der beteiligten Personen nicht erfüllt wird. Erweist sich vor Gericht, dass die Nichteinlösung der aus dem Rechtsgeschäft rührenden Pflichten Folge einer Willenshandlung war, so wird die betreffende Person dafür zur Verantwortung gezogen – sie ist haftbar. Neben der vorhergehenden Feststellung, ob bei der betreffenden Person überhaupt die Fähigkeit zu Willenshandlungen vorliegt, muss in einem solchen Fall auch ›eineindeutig‹ festgestellt werden, ob die Willenshandlung von der in Frage stehenden Person auch vollzogen wurde oder ob eine dritte Person beteiligt war. Dies ist notwendig, um auszuschließen, dass eine unbeteiligte und/oder unschuldige Person haften muss. Bei Rechtsgeschäften, bei denen für die Willenserklärung die Schriftform verpflichtend ist,5 im klassischen Fall dem Vertrag, gilt die eigenhändige Unterschrift als unabweisbar zuordenbar (sie ist ›nicht abstreitbar‹); eine Unterschrift bietet also die Möglichkeit der ›eineindeutigen‹ Authentifizierung der bürgerlichen Identität der beteiligten Personen. Wenn keine unmittelbare Schriftform vorliegt, beim Einkauf in einem Kaufhaus zum Beispiel, oder wenn Rechtsansprüche in Folge eines Unfalls entstehen, werden Belege oder gar Zeugenaussagen herangezogen, um die Urheberschaft von Willenshandlungen festzustellen.6 Hier ist die ›eineindeutige‹ Zuordnenbar-

3 4 5 6

Störung der Geistestätigkeit befindet […]« Bürgerliches Gesetzbuch 51. Auflage, München: Deutscher Taschenbuch Verlag 2002. BGB Einführung von Helmut Köhler S. XVII,vgl. ebd. BGB Einführung S. X, ebd. Siehe BGB § 116-§ 144, insbesondere § 126ff. Der Geschäftsverkehr in einem Kaufhaus z.B. läuft so lange anonym, wie er regelhaft verläuft. Erst wenn ein Kunde nicht den vorgesehenen Weg geht, seine Ware nicht zur Kasse trägt, dort bezahlt und dann den Ausgang nimmt, sondern mit der Ware direkt den Ausgang ansteuert, erst dann interessiert seine Identität. Es folgt eine Rückbindung aller Beteiligten an den Staat, die Polizei stellt die personelle Identität des Kunden fest, das Kaufhaus als juristische Person erhebt Strafanzeige. Der anonyme Vorgang des Kaufs trägt in seinem stets präsenten Gegenteil, dem Diebstahl, immer schon die Identitäten der Beteiligten in sich.

58

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

keit erschwert und damit auch die Möglichkeit, Ansprüche juristisch geltend zu machen. Die alltäglichen Beziehungen der Subjekte in kapitalistischen Gesellschaften sind also fast immer Rechtsgeschäfte, wobei wirtschaftlicher Verkehr und der Kontakt mit öffentlichen Institutionen unmittelbar die Gestalt des Vertrages haben. Das Internet ist, wie wir gesehen haben, zu einem wichtigen Vehikel des gesellschaftlichen Verkehrs geworden, für die Wirtschaft gar zu einem primären. Das Problem, das sich im Umgang mit dem Internet derzeit stellt, ist, dass keine allgemein durchgesetzte juristisch gültige Möglichkeit besteht, die bürgerliche Identität eines Users zu authentifizieren – die eigenhändige Unterschrift kann ja nicht unter ein digitales Formular oder einen digitalen Vertrag gesetzt werden. Da alle denkbaren Interaktionen, die über ein elektronisches System vermittelt stattfinden, die Kodierung derselben in digitale Daten voraussetzen, ist prinzipiell eine beliebige Manipulier- und Kopierbarkeit aller Parameter an jedem Punkt des Ablaufes gegeben. So kann der Text einer E-Mail von Dritten im Übertragungsprozess7 unbemerkt verändert werden, eine Kopie erstellt werden oder ihr Empfänger ausgetauscht werden. Das gilt natürlich auch für eine zum Beispiel einer E-Mail angefügten digitalisierten Fassung der eigenen Unterschrift. Sogar die vermeintliche Echtzeit-Videoübertragung eines Gespräches zwischen zwei Personen ist, wenn auch nur mit einigem technischen Aufwand, so fälschbar, dass ein Gespräch vorgetäuscht werden kann, wo gar keines stattfindet. Ein User kann sich außerdem vergleichsweise problemlos mit den Zugangsdaten einer anderen Person im Netz anmelden und dann in ihrem Namen Rechtsgeschäfte vollziehen. Damit ist natürlich ein erhebliches Betrugs- und Schädigungspotenzial gegeben, ohne dass letztendlich die Frage der Verantwortung, also wessen Willenshandlung hinter den Ereignissen stand, zu klären ist.

7

Der Übertragungsweg ist bei Packet-Switching-Technologie prinzipienbedingt nicht festgelegt. Die einzelnen Datenpakete werden je nach Verfügbarkeit von Übertragungskapazitäten weitergeleitet, so dass z.B. eine E-Mail unter Umständen mehrfach um den Erdball läuft, bevor sie beim Empfänger ankommt. Damit bieten sich natürlich vielfältige Möglichkeiten, die E-Mail abzufangen und zu manipulieren.

59

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Es ist diese potenzielle Anonymität der Internet-User, die zwei zentrale Probleme mit sich bringt, die der vollständigen wirtschaftlichen und politischen Nutzung des Internet im Wege stehen: 1. Um die Rechtsgrundlagen des wirtschaftlichen und gesellschaftlichen Verkehrs zu garantieren, ist es notwendig, die am Datenverkehr Beteiligten ›eineindeutig‹ identifizieren zu können. 2. Um die Warenförmigkeit digitaler Produkte zu erzwingen, ist eine (teilweise) Personalisierung des Datenverkehrs gefordert. Aus diesen beiden Gründen gehe ich davon aus, dass die rechtsgültige Authentifizierung der Internet-User, oder schärfer formuliert die sukzessive ›De-Anonymisierung‹8 des Internet, eine unhintergehbare Notwendigkeit darstellt, die ich als die vierte Phase der Entwicklung des Internet ansetzen möchte. Wie ich im Folgenden zeigen möchte, gibt es eine ganze Reihe von Belegen dafür, dass verschiedene der mit dem Internet befassten Akteure bereits seit Jahren ihre Aktivitäten auf dieses Problem konzentrieren.

Zur Geschichte des Authentifizierungsproblems im Internet In den kollaborativen9 und exklusiven akademischen Milieus, in denen das Internet die ersten zwanzig Jahre seines Bestehens fast ausschließlich genutzt wurde, war das Authentifizierungsproblem eher marginal. Die materielle und ideelle Exklusivität des fast ausschließlich auf den akademischen Sektor beschränkten Zugangs zu Netzdiensten wirkte für die Beteiligten als erste vertrauensbildende Maßnahme. Darauf aufsetzend waren lange Zeit einfache Passwortabfragen allgemein als ausreichende Authentifizierungssysteme akzeptiert. Gegenstand der Internetkommunikation zwischen den Wissenschaftlern bildete der Austausch von Daten und Forschungsfragen innerhalb sich weitgehend bekannter Arbeitsgruppen. Starken Anteil an der Nutzung des Netzmediums hatten außerdem Klatsch, 8 9

So haben Anna Tuschling und ich diesen Prozess bezeichnet. Christoph Engemann/Anna Tuschling: »Zeig mir dein Profil – Kontrolle und Anonymität im Internet«, in: Jungle World 44/2000. Wie oben mit Verweis auf die Hacker-Szene schon angemerkt, ist das Milieu der Informatik in den USA bis heute teilweise von starken kommunitaristischen Vorstellungen geprägt.

60

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

Hobbys und Onlinespiele. Die Problemstellung netzvermittelter Wirtschafts- und/oder Rechtsbeziehungen lagen dagegen zunächst außerhalb des Interessenhorizonts der Beteiligten. Vor allem aber zeugen die Kulturen der gemeinschaftlichen Entwicklung der Netzinfrastrukturen über die RFCs und andere offene Kommunikationsforen von der unmittelbaren Vertrauenskultur, die die elektronischen Netze in den ersten zwanzig Jahren ihres Bestehens prägte. Für militärische und geheimdienstliche Anwender dürfte dagegen das Problem der Nutzerauthentifizierung in elektronischen Netzen schon sehr früh im Mittelpunkt des Interesses gestanden haben. Leider ist über die Forschungsinitiativen zu diesem Thema bisher wenig bekannt. Die 1998 erfolgte Veröffentlichung eines britischen Geheimdienstmitarbeiters,10 der nachweisen konnte, noch vor Diffie und Hellmann asymmetrische Verschlüsselung (s.u.) zur Authentifizierung im militärischen Datenverkehr konzipiert zu haben, zeigt aber, dass hier vermutlich schon sehr früh entsprechende Lösungen gesucht und gefunden wurden. Mit der explosionsartigen Verbreitung des Internet als Kommunikationsmedium und der darauf aufbauenden breit einsetzenden wirtschaftlichen Nutzung desselben in der Mitte der 1990er Jahre rückte das Problem der Rechtssicherheit bei Online-Transaktionen in den Mittelpunkt der (Netz-)Politik. Interessanterweise ist zu konstatieren, dass von Seiten der wirtschaftlichen Interessengruppen bis zum Jahre 1999 so gut wie keine offenen Initiativen gestartet wurden, das Problem anzugehen. Vielmehr haben vor allem die Kreditkartenanbieter, die den größten wirtschaftlichen Schaden durch Internetbetrug davontrugen11, aus Angst vor Vertrauensverlust 10 Boris Gröndahl »Die Entdeckung der Public Key Kryptographie – Ehre wem Ehre gebührt« in: Telepolis Online Magazin vom 20.01.98 http://www.heise.de/tp/deutsch/html/result.xhtml?url=/tp/deuts ch/special/krypto/1381/1.html&words=Gr%F6ndahl, gesehen am 27.04.2002. Vgl. auch das Kapitel »Public-Key-Kryptographie: Die Geheime Geschichte«, in Simon Singh: Geheime Botschaften. Die Kunst der Verschlüsselung von der Antike bis in die Zeiten des Internet, München: Deutscher Taschenbuch Verlag 2001, S. 338ff. 11 Für das Jahr 2003 wird mit etwa 26 Mrd. US-Dollar Schaden durch Kreditkartenmissbrauch gerechnet. Vgl. Oliver Lau: »VeriSign will Kreditkartenbetrügern auf den Leib rücken«, gesehen auf: http:// www.heise.de/newsticker/data/ola-19.06.03-000/ vom 19.06.2003, siehe auch Lassak, Frank (2000): »Kreditkartenbetrug hemmt ECommerce«, gesehen auf: http://www.ftd.de/tm/eb/FTDKYIQMN GC.html?nv=cptn.

61

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

der Konsumenten die Haftung in der Regel stillschweigend übernommen und die Höhe der tatsächlichen Schäden geheim gehalten. Gleichzeitig wurde aber von anderer Seite die potenzielle Anonymität der Netz-User massiv problematisiert: die Schlagworte Cyberwar, Cyberterrorismus und Cybercrime, hier vor allem in Form der Kinderpornographie, bestimmten international die Berichterstattung über das Internet. Der Öffentlichkeit boten sich hier internetbezogene Bedrohungsszenarien, die nahtlos von der individuellen bis zur kollektiven Ebene reichten und der Möglichkeit nach jeden treffen konnten.12 In großer Diskrepanz dazu stand allerdings, dass tatsächliche Ereignisse, die den Titel Cyberterrorismus und Cyberwar rechtfertigen würden, bis zum Jahre 2000 so gut wie überhaupt nicht vorgefallen waren. Das wurde und wird in der kritischen Berichterstattung auch wiederholt angemerkt.13 Davon unbesehen bildeten die geschilderten Bedrohungsszenarien in den ausgehenden 1990er Jahren den Hintergrund für eine ganze Reihe von nationalen wie internationalen Initiativen, die die sicherheitspolitische Regulation des Netzes zum Gegenstand hatten. Maßgebliche Schauplätze stellten die großen internationalen Konferenzen der WTO14, der OECD, von Interpol15 und der G816 in den

12 Besonders eindrucksvoll die Titelillustration des ›Spiegel‹, 20/2000, ›Die @-Bombe‹, in der das aus den E-Mail-Adressen bekannte ›@‹Zeichen mit einer Atombombe verschmolzen dargestellt wird. 13 Siehe: Michael Schetsches Überblick »Internetkriminalität: Daten und Diskurse, Strukturen und Konsequenzen«, in dem er mit umfangreichem Material belegt, dass die einzige nennenswert festgestellte Internetkriminalität den Online-Vertrieb von Kinderpornographie betrifft. In: Althoff, Becker, Löschper, Stehr: Zwischen Anomie und Inszenierung, Baden-Baden: Nomos 2001. Ein Ausschnitt findet sich unter: http://www1.uni-bremen.de/~mschet/interkrim.html; außerdem: »Europa bläst zum Angriff auf Cyberkriminelle« Stefan Krempl in Telepolis: http://www.heise.de/tp/deutsch/inhalt/te/ 8092/1.html, ebenfalls Stefan Krempl: »Entspannung an der Cyberwar-Front?« in Telepolis: http://www.heise.de/tp/deutsch/special/ info/3610/1.html; Michael Dello: »Cyberwar? More Like Hot Air«, http://www.wired.com/news/print/0,1294,43520,00.html; s.a. die Informationen auf der Internetseite der »Forschungsgruppe Informationsgesellschaft und Sicherheitspolitik«: www.fogis.de, insbesondere das Dokument: »Texte zur Sicherheitspolitik in der Informationsgesellschaft 1997-1999«. 14 Florian Rötzer: »E-Commerce, Steuern für das Internet, Patente und Schutz des geistigen Eigentums«, in: Telepolis Online Magazin: http: //www.heise.de/tp/deutsch/inhalt/co/5544/1.html.

62

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

Jahren 1999 und 2000 dar. Neben Verhandlungen über Fragen der Besteuerung und Verzollung von digital gehandelten Waren bzw. von genuin digitalen Produkten nahmen die ›Gefahren des Internet‹ breiten Raum auf diesen Tagungen ein. Vor allem die InterpolKonferenz von Seoul im Jahre 1999 und der G8-Gipfel von Okinawa17 im Jahre 2000 haben sich bemüht, den Cyberterrorismus in den Mittelpunkt des öffentlichen Bewusstseins zu stellen. Die besondere nationenübergreifende Struktur des Internet, die daraus resultierenden Schwierigkeiten der Verfolgung von Verdächtigen und Tätern, die durch die fehlenden Möglichkeiten zur Nutzer-Authentifikation erhöht werden, und die geschilderte Universalität der Bedrohungsszenarien mündeten in Forderungen nach der Lösung des Problems der Rechtshoheiten im Netz. Man forderte verbesserte technische und personelle Ausstattung der Sicherheitsbehörden und schließlich die Schaffung von Authentifikationssystemen. Rückblickend ist zu konstatieren, dass in dieser Periode ein erheblicher Regulationsdruck das Internet betreffend aufgebaut wurde, der zugespitzt formuliert darauf hinausläuft, dass für alle mit dem Internet verbundenen Gefahren das Zentralproblem in der Anonymität der Internet-User liegt. Zwar lassen sich weder aus der Berichterstattung noch aus den verabschiedeten Programmen eindeutige Forderungen nach obligatorischer Nutzer-Authentifikation im Internet ablesen, aber es wurden meines Erachtens nach erstens diffuse Ängste und Misstrauen gegenüber dem Internet evoziert, die ein öffentliches Problembewusstsein erzeugt haben und zweitens wurde ein Legitimationsklima für entsprechende De-Anonymisierungs-Maßnahmen geschaffen, das bis heute anhält. Die konkret ergriffenen Maßnahmen beschränkten sich allerdings vor allem auf die Ausweitung der Abhörkompetenzen der Sicherheitsbehörden und auf die Aufweichung von Datenschutzstan-

15 Christiane Schulzki-Haddouti: »Interpol-Chef ruft zum Kampf gegen Verbrechen im Internet«, in: Telepolis Online Magazin: http:// www.heise.de/tp/deutsch/inhalt/te/5469/1.html. 16 Vgl. die Meldungen von CNN und Wired unter: http://www.cnn. com/2000/TECH/computing/05/18/global.security.idg/; http:// www.wired.com/news/politics/0,1283,36363,00.html. 17 Siehe das Programm der von den G8 in Okinawa gegründeten ›Digital Opportunity Task Force‹: http://www.dotforce.org/reports/it1. html.

63

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

dards18. Gleichwohl gehe ich davon aus, dass auf dem dargestellten Problembewusstsein weitergehende Maßnahmen aufbaubar sind. Ein erster Vorstoß in diese Richtung ist in den USA nach den Ereignissen des 11. September 2001 zu beobachten gewesen, als Larry Ellison, Chef des Datenbank-Herstellers ›Oracle‹ mit Unterstützung von U.S. Attorney General John Ashcroft, dem CIA, dem FBI und Senatorin Dianne Feinstein eine nationale Identifikationskarte (IDCard) forderte, deren Funktionsumfang auch die Internet-Authentifikation erlauben würde.19 Ellison hatte sogar angeboten, die dafür notwendige Software zu stiften. Das System kam in den USA bis heute nicht zustande, die Diskussion um die Einführung einer nationalen ID-Card, die dann auch mit Schnittstellen für biometrische Verfahren und/oder Internetauthentifizierung ausgestattet werden könnte, flammt aber in regelmäßigen Abständen wieder auf.20 Die bisherige Schilderung der öffentlichkeitswirksam geführten Debatten des Internet-Anonymitätsproblems ergibt folgendes Bild: Von Seiten der wirtschaftlichen Akteure sind lange Zeit so gut wie keine Initiativen bezüglich des Authentifikationsproblems zu verzeichnen gewesen. Von politischer Seite dagegen ist das in Frage stehende Problem öffentlichkeitswirksam vergleichsweise spät und ausschließlich im Zusammenhang mit Sicherheitsfragen angegangen worden.

18 Vgl. dazu ebenfalls C. Engemann/A. Tuschling: »Zeig mir dein Profil«. Außerdem die Dokumentationen zu den Abhörsystemen ›Enfopol‹ und ›Echelon‹ des Online Magazins Telepolis: http://www.heise .de/tp/deutsch/special/enfo/default.html, weiterhin die entsprechenden Dokumentationen der Electronic Frontier Foundation (EFF) http://www.eff.org. 19 Vgl. Declan McCullagh »Oracle Keeps Pushing ID Card«, Meldung vom 17.11.2001 auf www.wired.com, gesehen am 30.06.2002. 20 Siehe auch hier die Dokumentationen der EFF: http://www.eff.org/ Privacy/Surveillance/nationalidsystem. In Großbritannien hat das Innenministerium unter Verweis auf die Probleme der illegalen Immigration in jüngster Zeit eine Initiative zur Einführung digitaler Ausweisdokumente gestartet. Siehe das Dokument des Innenministeriums: http:www.homeoffice.gov.uk/comrace/entitlements/fraud, sowie die Berichterstattungen des eGovernment Observatory der EU: http://europa.eu.int/ISPO/ida/jsps/index.jsp?fuseAction=show Document &documentID=1228 &parent=chapter&preChapterID=0-4094, und des ›Guardian‹: http://politics.guardian.co.uk/homeaffai rs/story/0,11026,961934,00.html,alle gesehen am 28.05.2003.

64

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

Das Authentifizierungsproblem und seine Akteure Mit der Jahrtausendwende ist allerdings festzustellen, dass das Authentifizierungsproblem ein zentrales ›Schlachtfeld‹ in den Auseinandersetzungen um das Internet geworden ist. Alle relevanten mit dem Internet befassten Akteure bündeln ihre Aktivitäten spätestens seit dem Jahr 2002 auf die Lösung des Authentifizierungsproblems im Netz. Dabei haben sich in kurzer Zeit neuartige und weit reichende Allianzen auch zwischen einstmaligen Konkurrenten gebildet. Zur Zeit lassen sich vier Großakteure ausmachen, die auf diesem Gebiet tonangebend sind: die Firma Microsoft, die ›Trusted Computing Group‹ (TCG, vormals ›Trusted Computing Platform Alliance‹, TCPA), die ›Liberty Alliance‹ und die bürgerlichen Staaten mit ihren Programmen des ›Electronic Government‹. Die ersten drei Akteure kommen direkt aus der Wirtschaft. Ich werde sie im Folgenden kurz vorstellen, um im Anschluss zu zeigen, dass das Authentifizierungsproblem nicht allein von der Wirtschaft gelöst werden kann, sondern diese notwendig auf die Hilfe des Staates angewiesen ist. Entsprechende Aktivitäten laufen innerhalb der als ›Electronic Government‹ betitelten Verwaltungsreformen der bürgerlichen Staaten bereits seit fast zehn (!) Jahren.21 Ich werde sie am Beispiel Deutschlands erläutern.

Wirtschaftliche Akteure: Microsoft und die Liberty Alliance Microsoft betreibt in Bezug auf die Authentifizierung eine Fülle von Aktivitäten, die mehr oder minder direkt auf die Lösung des dargestellten Problems zielen und sich zum Teil auch überlappen. Zunächst ist das Online-Authentifizierungsprojekt mit dem Namen 21 Das welterste Signaturgesetz zur Gleichstellung von eigenhändigen und digitalen Unterschriften wurde im US Bundesstaat Utah schon am 1. Mai 1995 beschlossen. In Deutschland hat die Bundesregierung unter Helmut Kohl in den Jahren 1995-98 umfangreiche Projekte zum Electronic Government vorangetrieben. So ist z.B. das erste deutsche Signaturgesetz nach etwa dreijähriger (sic!) Vorlaufphase am 13. Juni 1997 beschlossen worden und am 1. August desselben Jahres in Kraft getreten. Weiterhin wurde schon 1997 mit der Ausschreibung des mit 60 Mio. DM dotierten ›Medi@komm‹-StädteWettbewerbs für die Umsetzungen von signaturbasierten EGovernment-Anwendungen begonnen.

65

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

›.NET-Passport‹ (sprich dot-net-passport) zu nennen. Weiterhin das Palladium/Next Generation Secure Computing Base (NGSCB) Projekt, das ein wichtiger Bestandteil von allgemeinen Authentifizierungslösungen werden könnte. Die Liberty Alliance ist eine vom Computer- und Softwarehersteller Sun Microsystems im Jahre 2001 gegründete Allianz von mittlerweile über 40 Unternehmen, darunter der weltgrößte OnlineProvider AOL, Firmen wie Sony, Nokia, Mastercard, SAP, France Telecom etc., außerdem auch NGOs und Privatpersonen22, die einen ›offenen‹ Standard für einen ›virtuellen Ausweis‹ entwickelt hat.23 ›Offener Standard‹ bezieht sich auf die Veröffentlichung der technischen Spezifikationen, die einerseits unter der Website der Allianz zugänglich sind24, für die andererseits auch ›RFCs‹ eingereicht wurden. Zu dieser Besonderheit unten mehr. Microsofts ›.NET-Passport‹ und der virtuelle Ausweis der Liberty Alliance haben gemeinsam, dass sie im ersten Schritt keine direkte De-Anonymisierung des Netzes leisten wollen, sondern zunächst eine so genannte ›Single-Sign In‹-Lösung für die Nutzung des Internet zur Verfügung stellen möchten. Dahinter verbirgt sich die Herausforderung, für die Vielzahl von Webangeboten eine allgemein akzeptierte Ausweismöglichkeit zu schaffen, die es erlaubt, sich nur einmal während einer Internet-Nutzung anzumelden und nicht bei jeder Internetseite wieder einen neuerlichen Authentifizierungsprozess durchmachen zu müssen. In der technischen Realisierung und dem Grad des Nutzereinflusses auf diesen Prozess unterscheiden sich Microsofts ›.NET-Passport‹ und die Liberty Alliance deutlich. Zunächst ist aber festzuhalten, dass diese Lösungen das Authentifizierungsproblem (noch) nicht prinzipiell lösen. Beim gegenwärtigen Stand der Projekte Liberty Alliance und Microsofts ›.NET-Passport‹ ist es für die Anmeldung in einem ›Single-Sign In‹-Verfahren nicht notwendig, sich ›eineindeutig‹ auszuweisen, also ein amtliches Dokument oder die eigenhändige Unterschrift vorzuweisen. Dieser Umstand ist wesentlich den noch fehlenden technischen Voraussetzungen geschuldet und könnte sich bald ändern.

22 Eine vollständige Liste findet sich unter http://www.projectliberty. org/members.html. 23 Siehe http://www.projectliberty.org/. 24 Ebenfalls http://www.projectliberty.org/, vgl. außerdem den Kongress ›Digital ID World‹ unter http://www.digitalidworld.com/.

66

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

Identität wird in beiden Systemen vorläufig aus einem Bündel von Eigenschaften, die regelmäßig zusammengehören, aggregiert.25 Die Rechtssicherheit, die beide Lösungen derzeit vor allem dem Handel bieten, ist die, dass Nutzer, die sich falsch ausweisen und/oder betrügen, über die gegenseitige Mitteilung sehr schnell kompromittiert werden können. Es handelt sich also zunächst um eine Maßnahme, die Schadenswahrscheinlichkeit zu minimieren. In ihren Ausbaustufen, die in den entsprechenden Dokumenten26 teilweise schon angesprochen sind, werden beide Systeme stärkere Authentifizierungssicherheit bieten können.

Microsofts ›.NET-Passport‹ Microsoft ist derzeit das weltgrößte Software-Unternehmen und hat bei den Standardbetriebssystemen der Personal-Computer einen Marktanteil von über 90%. Etwa ebenso hoch ist Microsofts Marktdurchdringung bei den beiden wichtigsten Anwendungsprodukten, der Bürosoftware ›Microsoft Office‹ und dem Web-Browser ›Internet Explorer‹. Auch auf anderen Softwaregebieten ist das Unternehmen marktbeherrschend vertreten, in jüngster Zeit hat sich Microsoft z.B. in großem Stil bei Computerspielentwicklern eingekauft. Das Unternehmen verfügt damit im Vergleich zu anderen Firmen über eine einmalige Abdeckung aller Teilbereiche des Computermarktes und hat dies auch aggressiv zu seinem Vorteil eingesetzt.27 Unter anderem ist es Microsoft damit gelungen, für Büroan25 »The network identity of each user is the overall global set of these attributes constituting the various accounts«. Liberty Alliance Project: ›Liberty Architecture Overview‹ Version 1.0 S. 6. Als PDF Dokument erhältlich unter http://www.projectliberty.org/. »We use the working definition that identity is the persistent, collective aspects of a set of distinguishing characteristics by which a person (or thing) is recognizable or known.« Microsoft White Paper Trustworthy Computing http://www.microsoft.com/presspass/exec /craig/05-01trustworthy.asp. Zu regelhaft wiederkehrenden Aspekten zählt auch die vom Nutzer eingesetzte Hardware. 26 Siehe die technischen Spezifikationen der Liberty Alliance Version 1.0 (sic!) S. 15 und S. 28. Zu .NET-Passport ist in diesem Zusammenhang wenig bekannt. Die Integration .NET-Passports in das ›Palladium‹/›NGSBC‹ Projekt, bei dem Microsoft wesentlich aggressiver die grundlegenden Mechanismen offen legt (s.u.), dürfte hier aber zukünftig weitere Aufschlüsse geben. 27 Das führte zu den bekannten, seit Jahren anhaltenden, juristischen Auseinandersetzungen Microsofts mit der amerikanischen Justiz.

67

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

wendungen und in Teilen auch bei der Darstellung von Internetseiten Standards zu setzen, von denen andere Firmen abhängig sind. Als gängigstes Beispiel sei nur das ›.doc‹-Dateiformat bei der Textverarbeitung genannt, auf dessen Kompatibilität mittlerweile buchstäblich die ganze Welt angewiesen ist. Eine solche Marktmacht, mit Zugriff auf 90% der weltweit vorhandenen Computer, bringt Microsoft in eine einmalige Position, die den Versuch erlaubt, einen selbstdefinierten Standard für Authentifizierungslösungen zu etablieren – was ökonomisch überaus einträglich sein könnte. Derzeit sieht es auch danach aus, als wolle die Firma sich ihren Einfluss entsprechend zunutze machen. Dazu betreibt Microsoft eine Fülle von miteinander zusammenhängenden Aktivitäten. Seit etwa zwei Jahren wird die ›Single-Sign In‹-Lösung ›.NET-Passport‹ jedem Benutzer bei der Installation einer neuen Version des ›Windows‹-Betriebssystems automatisch angeboten. Dabei fragt ein Systemdialog die persönlichen Daten ab und bietet eine kostenlose E-Mail-Adresse (einen ›Hotmail Account‹) an. Auf diese Weise hat Microsoft nach eigenen Angaben mittlerweile ca. 165 Millionen .NET-Passport-Kunden registriert.28 Die tatsächliche Zahl der Nutzer von .NET-Passport dürfte allerdings wesentlich niedriger liegen, genaue Zahlen nennt Microsoft nicht. Das Funktionsprinzip von .NET-Passport beruht darauf, dass Microsoft die bei der Anmeldung anfallenden Daten zentral speichert. Ein Nutzer kann sich also mit einem einzigen Passwortdialog bei .NET-Passport anmelden und wird dann bei allen Webseiten, die .NET-Passport unterstützen, automatisch ausgewiesen. Dazu wird beim Aufrufen jeder neuen Seite anhand des zentralen, bei Microsoft gespeicherten Datenbestands überprüft, ob ein ›trustworthy User‹ vorliegt. Sobald eine Falschauthentifizierung vorkommt, informiert der Geschädigte die Firma Microsoft, die fortan den entsprechenden Account sperrt. Das System erlaubt Belohnung und Sanktionen zugleich und bietet den beteiligten Unternehmen damit lukrative Möglichkeiten. Zunächst können die Accounts, die an einem Schadensfall beteiligt waren, sofort ausgeschlossen werden und sind dann auch bei anderen Betreibern nicht mehr gültig. Kunden, die sich als zuverlässig erweisen, können dagegen mit Rabatten und individuell zugeschnittenen Angeboten bedient werden. Über das 28 Siehe: http://www.microsoft.com/netservices/.NET-Passport/defa ult.asp, gesehen am 20.06.2003

68

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

Ausmaß des Austausches von solchen Kundenprofilen bei Microsoft gibt es keine zuverlässigen Angaben. Die Firma selbst beteuert, solche Profile nicht zu erstellen.29 Auf dieser Stufe stellt .NET-Passport, wie oben gesagt, lediglich ein Instrument zur Schadensminimierung dar. Die Haftung verbleibt im Zweifelsfall auf der Seite der Geschädigten, da bei der Anmeldung problemlos eine beliebige Identität angenommen werden kann, mithin das Problem der Anonymität weiter besteht. Sollte Microsoft Profile der Nutzungsgewohnheiten anlegen, in die auch Daten über die technische Ausstattung der Nutzer fließen, wäre es denkbar, kumulativ die Identifikationsleistung des Systems zu erhöhen, indem bestimmte Korrelationen von Hardware-Daten und Nutzergewohnheiten gebildet werden, die dann in Sanktionsentscheidungen einfließen könnten. Eine solche Lösung ist angesichts der zentralen Speicherung der Nutzerdaten nahe liegend, aber derzeit reine Spekulation. Mit Microsofts .NET-Passport liegt also der Versuch vor, einen hohen Authentifizierungsdruck zu erzeugen, der darauf beruht, dass Falschauthentifizierungen in einem solchen aufeinander verweisenden System sehr schnell dazu führen, dass der Nutzer seinen Computer oder seine digitalen Geräte nur noch eingeschränkt gebrauchen kann. Den beiden von mir angeführten Notwendigkeiten zur DeAnonymisierung des Internet ist mit den Perspektiven von Microsofts .NET-Passport in unterschiedlicher Weise genüge getan. Eine eineindeutige Authentifizierung der Nutzer ist vorläufig nicht möglich, die Spielräume für Falschauthentifizierungen werden aber sukzessive verengt, so dass für alle Beteiligten eine steigende Sicherheit über die beteiligten Identitäten erreicht wird. In Bezug auf die Herstellung der Warenförmigkeit digitaler Produkte durch Personalisierung kann .NET-Passport Bestandteil eines ›Digital-Rights-Management‹-Systems sein, das Nutzung oder Manipulation von Daten an das Vorliegen eines gültigen ›Passports‹ bindet. Auch hier ist durch die sukzessive Steigerung der Authentifizierungsleistung eine Verengung der Spielräume des Nutzers erreichbar. Gleichwohl bleiben aber gegenüber beiden Anforderungen für die Nutzer zu viele Ausweichmöglichkeiten, erfasst doch der Zwang zur Personalisie29 Vgl. »Microsoft: Kein Direktzugriff auf private PCs geplant« Meldung vom 07.07.2002 auf www.heise.de, gesehen am 07.07.2002.

69

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

rung, den .Net-Passport ausüben kann, letztlich nur den Nutzer von Microsoft-Produkten. Vor allem aber ist die rechtliche Anerkennung von .Net-Passport, und damit die juristische Einklagbarkeit nicht gegeben. .Net-Passport stellt sich somit als ein Instrument dar, das einerseits einen Einstieg in Authentifizierungsleistungen bietet und die Nutzer für die Notwendigkeit von Authentifizierung sensibilisieren kann, andererseits aber vor allem wirtschaftliche Vorteile für Microsoft und seine Vertragspartner bietet, indem es bei einem großen Nutzerstamm Falschauthentifizierungen erschwert.

Die Liberty Alliance Die Liberty Alliance ist ein heterogenes Konsortium von NGOs, Privatleuten, zunehmend auch staatlichen Institutionen,30 vor allem aber von Firmen der Telekommunikationsbranche, der Finanzwirtschaft, Teilen der Computerindustrie, Softwarefirmen und Medienunternehmen, die sich wohl auch unter dem Konkurrenzdruck von Microsoft zusammengeschlossen haben, um ebenfalls eine Authentifizierungslösung anzubieten, die nicht von einem einzelnen Hersteller kontrolliert werden kann. Dazu zählt auch, dass die Authentifizierungslösung der Liberty Alliance vollkommen unabhängig von der jeweiligen technischen Umgebung auf jedem Standard-WebBrowser laufen soll.31 Die Liberty Alliance ist in ihrer öffentlichen Selbstdarstellung sehr stark bemüht, sich in Abgrenzung zu Microsoft als eine vertrauenswürdige Institution zu präsentieren, die unabhängig von privaten Profitinteressen technische Grundlagen erarbeitet. Wesentlicher Aspekt dieser Bemühungen ist, dass die von der Liberty Alliance entwickelte Software quelltextoffen als ›Open-Source‹ vor-

30 So haben sich das US-Verteidigungsministerium und die ›General Services Administration‹, eine Aufsichtsbehörde für US-amerikanische E-Government Initiativen im März 2003 der Liberty Alliance angeschlossen. Vgl. Meldung auf www.heise.de vom 06.03. 2003: Andreas Wilkens: »US-Verteidigungsministerium schließt sich der Liberty Alliance an«, http:www.heise.de/newsticker/data/anw06.03.03-002. 31 »[…]do not require users to use anything other than today’s common Web browser.« Liberty Alliance Project: »Liberty Architecture Overview Version 1.0«, www.projectliberty.org, S. 7.

70

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

liegt. Das heißt, sie wird in ihren Spezifikationen und Quelltexten32 zur allgemeinen Überprüfung und Verbesserung offen gelegt und vor allem mit einer Lizenz versehen, die eine Kommodifizierung ausschließt.33 Damit folgt die Liberty Alliance dem Prinzip der RFCs, um Standards für das Internet zu entwickeln. Microsoft betrachtet dagegen seine Software als Geschäftsgeheimnis und lässt dementsprechend keine Einsicht in die genauen Vorgänge bei .NET-Passport zu. Ein weiterer wichtiger Unterschied der ›Single-Sign In‹-Lösung der Liberty Alliance zu Microsoft ist, dass keine zentrale Speicherung der Authentifizierungsdaten vorgesehen ist, eine zentrale Instanz, die über wichtige persönliche Daten verfügen könnte, also vermieden wird. Geleistet werden soll dies über ein so genanntes ›Circles of Trust‹-System, in dem die Webseiten, die der Nutzer besucht hat, sich gegenseitig über seine Identität, vor allem aber darüber, ob ihr zu trauen ist, unterrichten.34 Die unterschiedlichen Anbieter, mit denen der Nutzer Kontakt hat, geben sich also gegenseitig Garantien auf der Grundlage ihrer Erfahrungen mit dem Kunden. Der Einstiegspunkt in den ›Circle of Trust‹ kann dabei prinzipiell von jedem Webanbieter gestellt werden, wobei diese frei darin sind, welche Daten sie vom Nutzer bei der initialen Anmeldung fordern. Sie können es bei einer einfachen Namensangabe belassen, aber auch umfangreiche Daten inklusive amtlicher Dokumente fordern. Das System baut darauf, dass hier ein Wettbewerb und eine 32 Programme liegen in zwei Zuständen vor: Während der Programmierung als menschenlesbarer Quelltext (Sourcecode). Nach Abschluss der Programmierung werden sie in einen Binärcode (Binary Code) übersetzt (compiliert), der nur von Maschinen lesbar ist. 33 ›Open Source‹- oder ›Free Software‹-Lizenzen wie die ›General Public Licence‹ (GPL) sind in den 1980er Jahren entwickelt worden und formulieren ein spezifisches Set von Rechten und Pflichten für Anwender und Entwickler von Software. Diesen ist es erlaubt, die Software zu verbessern, weiterzuverarbeiten oder zu verbreiten, sie sind aber gleichzeitig verpflichtet, die modifizierte Software, Teile davon, oder daraus entstandene Programme ebenfalls offen zu legen – also ebenfalls als Open Source Software zu veröffentlichen. Dieser Anspruch ist rechtskräftig einklagbar. Vgl. www.gnu.org (Gnu Projekt), www.fsf.org (Free Software Foundation) und Volker Grassmuck: Freie Software. Zwischen Privat- und Gemeineigentum, Bonn: Bundeszentrale für politische Bildung 2002, S. 222ff. 34 Liberty Alliance Project: »Liberty Architecture Overview Version 1.0« S. 7. www.projectliberty.org.

71

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Hierarchisierung von ›Circles of Trust‹ entsteht, die darauf rekurriert, dass sich bestimmte Anbieter als zuverlässiger als andere erweisen. Eine Bank etwa, die ihren Kunden auf der Grundlage einer gewachsenen Geschäftsbeziehung eine positive Bewertung gibt, wird zum Beispiel ein guter ›Single Sign-In‹-Ausgangspunkt in einem ›Circle of Trust‹ sein. Wichtiger Bestandteil des Konzeptes ist außerdem, dass Daten immer nur zwischen zwei Stationen weitergegeben werden, in einer Kette von Authentifizierungen also der Ausgangspunkt bzw. der jeweils vorletzte Punkt nicht bekannt gemacht wird. Eine Webseite, die der Nutzer ansurft, erhält immer nur die Bestätigung der Authentifizierung durch die vorherige Station. Auch kann der Nutzer in erheblichem Maße kontrollieren, welche Daten zwischen den beteiligten Instanzen ausgetauscht werden dürfen. Das heißt, auch wenn er umfangreiche persönliche Angaben am Einstiegspunkt des ›Circle of Trust‹ gemacht hat, kann er dafür sorgen, dass ausschließlich die Authentifizierung weitergegeben wird und die restlichen Daten den anderen Beteiligten verschlossen bleiben. Das von der Liberty Alliance ersonnene System löst das Problem der eineindeutigen Authentifizierung nicht unmittelbar. Es baut vielmehr darauf auf, mittelbar eine Reihe von Instanzen im Netz zu etablieren, von denen bekannt ist, dass die von ihnen authentifizierten Nutzer vertrauenswürdig sind. Dabei ist es denkbar, dass aus diesen Instanzen ein neuer Geschäftszweig eines ›Identity-Business‹ entsteht. Diese Firmen tragen dann das Haftungsrisiko für Falschauthentifizierungen, könnten sich aber über Gebühren der Nutzer und/oder der angeschlossenen Webseiten finanzieren. Da weiterhin davon auszugehen ist, dass Authentifizierung für die Nutzung vieler Webangebote zunehmend obligatorisch wird, entsteht hier insgesamt ebenfalls ein stetiger Druck hin zur De-Anonymisierung des Internet. In Bezug auf die Personalisierung von digitalen Produkten bietet der Ansatz der Liberty Alliance zunächst keine direkten Anknüpfungspunkte. Der illegale Bezug digitaler Produkte wird mit zunehmender Verpflichtung zur Nutzerauthentifikation lediglich erschwert. Eine Integration des ›Virtuellen Ausweises‹ in ein ›DigitalRights-Management‹-System, das online die Nutzung bestimmter Daten und Programme autorisiert, ist aber leicht möglich. Ich halte diese letzte Variante auch für sehr wahrscheinlich.

72

VIERTE PHASE: DAS PROBLEM DER NUTZERAUTHENTIFIZIERUNG

Insgesamt ist beim gegenwärtigen Stand zu konstatieren, dass die Authentifizierungslösung der Liberty Alliance die größeren Chancen auf allgemeine Akzeptanz hat. Gegenüber Microsofts .NET-Passport liegt ein starker Legitimationsvorteil vor, der in der offenen Architektur einerseits und der weitgehenden Kontrolle der Nutzer über den Verbleib ihrer Daten andererseits gründet. Dieser Legitimationsvorteil zeigt sich auch am Beitritt US-amerikanischer Behörden zur Liberty Alliance. Beide Initiativen können, wie gesagt, das Authentifizierungsproblem insofern nicht lösen, als dass eine Vereindeutigung im Sinne der eigenhändigen Unterschrift nicht vorliegt. Sie zielen vielmehr auf eine sukzessive Verunmöglichung, ohne ›anerkanntes‹ digitales Authentifizierungsdokument im Netz seinen Interessen nachgehen zu können, geschweige denn zu wirtschaftlichen Transaktionen zugelassen zu werden. Mittelfristig könnte auf dieser Basis ein im Internet allgemein akzeptiertes Substitut der eigenhändigen Unterschrift entstehen, das zwar im Rechtsverkehr mit Behörden von diesen nicht unbedingt anerkannt wird, aber im wirtschaftlichen Verkehr weitgehend denselben Status hat. Was die Personalisierung der digitalen Produkte angeht, ist zu konstatieren, dass zwar gute Anknüpfungsmöglichkeiten an DRM-Systeme bestehen, beim gegenwärtigem Stand der Spezifikationen jedoch weder die .NETPassport inhärenten Möglichkeiten noch die Lösung der Liberty Alliance dazu ausreichen.

73

EXKURS: ASYMMETRISCHE VERSCHLÜSSELUNG UND DIE DIGITALE SIGNATUR Die bis hierher dargestellten Projekte der wirtschaftlichen Akteure Microsoft und Liberty Alliance bieten eine vergleichsweise schwache Authentifizierungsleistung. Sie beruht beim derzeitigen Entwicklungstand beider Systeme darauf, in einem gegebenen Nutzerkollektiv den Anteil der verlässlich Authentifizierten über Zeit zu erhöhen. Gleichzeitig werden die Spielräume für Falschauthentifizierungen geringer. Für die De-Anonymisierung des Internet im Hinblick auf Rechtsgültigkeit einerseits und Personalisierung von digitalen Produkten andererseits ist aber eine starke Authentifizierung erforderlich. Nicht allein die sukzessive Kondensation einer Gruppe von vertrauenswürdig Authentifizierten im System ist das zu erreichende Ziel, sondern eineindeutige Zuordnung digitaler Transaktionen zu den Beteiligten. Die Willenshandlungen, die Personen mit Daten vornehmen, z.B. Empfangen, Editieren, Abspielen, Kopieren, Weiterübertragen etc., müssen einer Person des bürgerlichen Rechts zuordenbar gemacht werden – anders gesagt: Daten müssen in spezifischen Situationen personalisiert werden. Erst dann ist die Durchsetzung der Warenförmigkeit digitaler Produkte wie auch die Rechtsgültigkeit beanspruchende Nutzerauthentifizierung in digitalen Transaktionen zu gewährleisten. Abgesehen von der Rechtsgültigkeit, die außerhalb der Spielräume von wirtschaftlichen Akteuren liegt und letztlich nur vom Staat legitimiert werden kann, ist zunächst die Frage zu stellen, wie die eindeutige Verknüpfung von Daten und Personen technisch herstellbar ist. Die prinzipiell beliebige Manipulierbarkeit digitaler Daten sowie die ›unsicheren‹ Übertragungswege in elektronischen Netzen bringen vier aufeinander verweisende Probleme mit sich, die ein System starker Authentifizierung technisch zu lösen in der Lage sein muss:

75

ELECTRONIC GOVERNMENT: VOM USER ZUM BÜRGER

Tabelle 1: Anforderungen an ein System starker Authentifizierung 1. Authentizität:

Identitätsnachweis (Authentisierung von Kommunikationspartnern): Eine Kommunikationspartei (z.B. Person, Organisation, ITSystem) soll einer anderen ihre Identität zweifelsfrei beweisen können. Herkunftsnachweis (Datenauthentisierung): A soll B beweisen können, dass Daten von ihr stammen und nicht verändert wurden.

2. Nichtabstreitbarkeit (Verbindlichkeit, non repudiation):

Hier liegt der Schwerpunkt verglichen mit der Datenauthentisierung auf der Nachweisbarkeit gegenüber Dritten: Nichtabstreitbarkeit der Herkunft: Es soll A unmöglich sein, das Absenden von bestimmten Daten an B nachträglich zu bestreiten. Nichtabstreitbarkeit des Erhalts: Es soll B unmöglich sein, den Erhalt von an A gesendeten Daten nachträglich zu bestreiten.

3. Vertraulichkeit/ Keine unbefugte dritte Partei soll an den InGeheimhaltung: halt der Dateien gelangen. 4. Integrität: Unbefugte Manipulationen an den Dateien (z. B. Einfügen, Weglassen, Ersetzung von Teilen) sollen entdeckt werden können. (Modifiziert nach Bundesamt für Sicherheit in der Informationstechnik: Handbuch E-Government, Bonn 2001. Kapitel »Kryptographie im E-Government«, S. 5f. Als PDF-Dokument unter www.bsi.bund.de) Die Lösung dieser Probleme ist mithilfe einer kryptographischen Technologie namens ›Digitaler Signatur‹ möglich, die auf der so genannten ›asymmetrischen Verschlüsselung‹ basiert. Kryptographie ist ein Zweig der Mathematik, der sich mit Techniken zum Schutz von Informationen in Kommunikationsvorgängen befasst.

76

EXKURS: ASYMMETRISCHE VERSCHLÜSSELUNG

Sie stellt mathematische Methoden bereit, die es ermöglichen die Kommunikation zwischen einem Sender und einem Empfänger gegen unbefugte Kenntnisnahme und Manipulation zu schützen, mithin Geheimnisse auszutauschen. Alle auf Kryptographie beruhende Authentifizierung basiert wiederum darauf, nachzuweisen, dass eine Person im Besitz eines Geheimnisses ist, das nur sie kennen kann. Da wir es im Internet ausschließlich mit mathematisierten Informationsverhältnissen zu tun haben, ist die Kryptographie die Schlüsseltechnologie um das Authentifizierungsproblem dort zu lösen. Ich werde im Folgenden versuchen, einen allgemeinverständlichen Überblick der kryptographischen Methoden, die für die Digitale Signatur genutzt werden, zu geben.1 Die relative Ausführlichkeit der folgenden Darstellung gründet in der Zentralstellung der Kryptographie für zukünftige Authentifikationsmedien.

Asymmetrische Verschlüsselung Die asymmetrische Verschlüsselung oder Public-Key-Kryptographie ist, wie bereits oben angemerkt, in den 1970er Jahren erfunden worden und hat seitdem die uralte Wissenschaft der Kryptographie fundamental verändert. Sie räumt ein zentrales Problem aller vorher bekannten Verschlüsselungsverfahren aus: der Notwendigkeit, dass Sender ›Alice‹2 und Empfänger ›Bob‹ einer Nachricht über denselben geheimen Schlüssel zum De-/Chiffrieren verfügen müssen. Ge1

2

Die folgende Darstellung beruht unter anderem auf diesen, im Internet frei zugänglichen, Quellen: RFC1421, RFC1422 und RFC1424 (www.faqs.org/rfcs/), dem »E-Government-Handbuch«, Kapitel »Kryptographie im E-Government«, des Bundesamts für Sicherheit in der Informationstechnik (PDF Dokument unter www.bsi.bund.de), der Broschüre »Die Digitale Signatur« der Regulierungsbehörde für Telekommunikation und Post (als PDF Dokument unter www.RegTP. de). Vgl. außerdem: Matthias Niesing/Klaus Schmeh: »Schlüssel des Vertrauens. Digitale Ausweise im Internet«, in: c´t Magazin für Computertechnik 4/2001, S.224-231, Simon Singh: Geheime Botschaften. Die Kunst der Verschlüsselung von der Antike bis in die Zeiten des Internet, München: Deutscher Taschenbuch Verlag 2001, S. 295-380 und Harald Neymanns: Verschlüsselung im Internet. Probleme der politischen Regulierung in den USA und der Bundesrepublik Deutschland, Frankfurt/Main, New York: Campus 2001, S. 41-62. In der Kryptographie ist es Konvention, den Sender einer Botschaft als Alice und den Empfänger als Bob zu bezeichnen. Vgl. BSI (Hg.): E-Government-Handbuch, Kapitel »Kryptographie im E-Government« S. 5.

77

ELECTRONIC GOVERNMENT: VOM USER ZUM BÜRGER

heim muss der Schlüssel sein, da andernfalls die Nachricht ja von beliebigen Dritten, Eve genannt, gelesen oder verschlüsselt werden könnte. Damit stellt sich aber wiederum die Frage, wie Alice und Bob jeweils in den Besitz des gemeinsamen geheimen Schlüssels kommen – die Kommunikation zur Übertragung des geheimen Schlüssels muss selbst geheim vonstatten gehen. Sonst ist nicht auszuschließen, dass die fortan mit diesem Schlüssel chiffrierten Nachrichten von Unbefugten, wie von Eve, gelesen, manipuliert oder gar eigenmächtig erzeugt werden können. Für die Übertragung des geheimen Schlüssels ist also ein sicherer Kommunikationskanal notwendig. Das ist häufig unpraktikabel und nur mit erheblichem Aufwand zu bewerkstelligen. Das Internet z.B. kommt aufgrund seiner oben angesprochenen offenen Struktur als Kommunikationskanal zur Schlüsselübertragung nicht in Frage. Diese Verschlüsselungsverfahren werden aufgrund des Vorliegens desselben Schlüssels bei Sender und Empfänger ›symmetrische Verschlüsselung‹ genannt. Ein Authentifizierungssystem auf Basis symmetrischer Verschlüsselung im Internet würde folgendermaßen funktionieren: Alice verschlüsselt ihre Informationen und übermittelt diese an Bob. Empfänger Bob hat vorher von Alice den Schlüssel erhalten. Ist mit diesem Schlüssel nun die Information für Bob entschlüsselbar, so stammt sie eindeutig von Alice, da der Schlüssel ein Geheimnis ist, das eindeutig Alice zuzuordnen ist. Für das Internet ist ein solches System allerdings vollkommen unpraktikabel, da hier eine sichere Übergabe des Schlüssels nicht möglich ist. Asymmetrische Verschlüsselung dagegen benötigt keine Übertragung von geheimen Schlüsseln und damit auch keine sicheren Übertragungskanäle. Hier werden vielmehr bei jedem Kommunikationspartner jeweils zwei Schlüssel, ein privater (›Private Key‹) und ein öffentlicher (›Public Key‹) erzeugt. Die Schlüssel können je nach Anwendungsfall jeweils nur zum Ver- oder zum Entschlüsseln gebraucht werden. Wegen dieses Vorhandenseins eines öffentlichen Schlüssels wird die asymmetrische Verschlüsselung als ›PublicKey-Kryptographie‹ bezeichnet. Zunächst zum Anwendungsfall der klassischen Verschlüsselung einer Nachricht, um sie gegenüber Dritten geheim zu halten. Hier wird jeweils ein privater Schlüssel zum Entschlüsseln, der im Besitz von Alice bleibt, und ein mathematisch daraus abgeleiteter öffentlicher Schlüssel zum Verschlüsseln, der allen Kommunikationspart-

78

EXKURS: ASYMMETRISCHE VERSCHLÜSSELUNG

nern frei zugänglich gemacht wird, erzeugt. Die Schlüssel zum Verund Entschlüsseln sind also nicht identisch, stehen aber in einer (eineindeutigen)3 mathematischen Beziehung.4 Der Ablauf der Ver- und Entschlüsselung gestaltet sich folgendermaßen: Alice verschlüsselt mit dem öffentlichen Schlüssel des Kommunikationspartners Bob Informationen und übermittelt diese an ihn. Bob kann mit seinem privaten Schlüssel, aus dem ja der vorher von Alice zum Verschlüsseln genutzte öffentliche Schlüssel abgeleitet wurde, die Informationen dann wieder entschlüsseln. In diesem System ist Verschlüsseln immer möglich, dazu ist lediglich einer der frei zugänglichen öffentlichen Schlüssel notwendig. Entschlüsseln dagegen kann einzig der Besitzer des privaten Schlüssels, aus dem der jeweilige öffentliche Schlüssel generiert worden ist. Ist der private Schlüssel verloren, ist es unmöglich die Nachricht wiederherzustellen. Geheimhaltung ist bei dieser Form der Verschlüsselung nur dahingehend notwendig, dass der private Schlüssel ausschließlich seinem Besitzer zugänglich sein darf. Dritte, die die Kommunikation abhören, sind, solange sie nicht in den Besitz des privaten Schlüssels des Empfängers gelangen, nicht in der Lage, die Nachricht zu entschlüsseln. Der einzige Angriffspunkt bei der asymmetrischen Verschlüsselung besteht darin, dass Dritte sich zwischen die Kommunikationspartner schalten, selbst öffentliche Schlüssel generieren und diese unter falschen Angaben verteilen. Wenn Senderin Alice dann eine Nachricht verschlüsseln will, benutzt sie den vermeintlichen öffentlichen Schlüssel des Empfängers Bob. Die Nachricht kann dann von der Dritten Eve abgefangen und entschlüsselt werden. Die Nachricht wird für den eigentlichen Empfänger Bob wiederum mit einem von Eve selbst generierten öffentlichen Schlüssel verschlüsselt, der als 3

4

Die Gründe für die eineindeutige Form der mathematischen Beziehung können hier nicht näher erläutert werden. Eine allgemeinverständliche Darstellung findet sich bei S. Singh: Geheime Botschaften, S. 329ff. Diese Beziehung muss natürlich so beschaffen sein, dass aus dem öffentlichen Schlüssel umgekehrt nicht der private Schlüssel errechnet werden kann – es muss sich um eine Einwegfunktion handeln, die nicht zurückrechenbar ist. Sonst wäre das gesamte System sofort korrumpierbar und die Zuordnung des privaten Schlüssels zu einer Person nicht mehr gewährleistet. Zum mathematischen Hintergrund der bei der asymmetrischen Verschlüsselung verwandten Einwegfunktionen vl. S. Singh: ebd.

79

ELECTRONIC GOVERNMENT: VOM USER ZUM BÜRGER

zum ursprünglichen Sender Alice gehörig ausgegeben wird, und anschließend übertragen. Diese Form des Angriffs wird ›Man in the middle‹ genannt. Um sie auszuschalten, ohne eine direkte Übergabe des öffentlichen Schlüssels vornehmen zu müssen, kann eine vertrauenswürdige dritte Instanz in die Kommunikation geschaltet werden, die bestätigt, dass ein öffentlicher Schlüssel zu einer bestimmten Person gehört. Für Authentifikationszwecke, und so auch bei der Anwendung in der Digitalen Signatur, wird das gesamte System umgekehrt. Hier ist der private Schlüssel so beschaffen, dass er nur zum Verschlüsseln benutzt werden kann; der daraus abgeleitete öffentliche Schlüssel dient dagegen nur zum Entschlüsseln. Der Ablauf der Authentifizierung gestaltet sich folgendermaßen: Alice verschlüsselt mit ihrem privaten Schlüssel Informationen und übermittelt diese an Bob. Der Empfänger Bob kann mit dem öffentlichen Schlüssel von Alice die Informationen dann wieder entschlüsseln. In diesem System ist Entschlüsseln immer möglich, dazu ist lediglich der Zugang zu dem entsprechendem öffentlichen Schlüssel notwendig. Verschlüsseln dagegen kann einzig der Besitzer des privaten Schlüssels. Liegt also eine Information vor, die mit einem bestimmten öffentlichen Schlüssel entschlüsselbar ist, so muss aufgrund der eindeutigen mathematischen Beziehung des öffentlichen Schlüssels zum jeweiligen privaten Schlüssel dessen Besitzer der Urheber dieser Information sein. Auch hier besteht der Schwachpunkt des Systems in einem möglichen ›Man in the middle‹-Angriff. Der Empfänger Bob kann nicht sicher sein, dass der öffentliche Schlüssel tatsächlich von Alice stammt. Er könnte auch von einer dritten Partei, von Eve, stammen, die sich für Alice ausgibt und sich zwischen den Austausch der öffentlichen Schlüssel geschaltet hat. Bei der Nutzung der asymmetrischen Verschlüsselung für Authentifizierungszwecke ist daher ebenfalls der Einbezug eines vertrauenswürdigen Dritten, der die Zugehörigkeit des öffentlichen Schlüssels zu einer Person garantiert (zertifiziert), notwendig. Es gibt zwei Wege, wie ein solcher vertrauenswürdiger Dritter – Zertifizierungsstelle (Certification Authority, CA) genannt – dies bewerkstelligen kann: 1. Nutzer Alice generiert ihr Schlüsselpaar selbst und legt den öffentlichen Schlüssel der CA vor. Diese sorgt dann für die allge-

80

EXKURS: ASYMMETRISCHE VERSCHLÜSSELUNG

meine Zugänglichkeit des öffentlichen Schlüssels von Alice und garantiert dessen Zugehörigkeit. 2. Die CA übernimmt die Schlüsselgenerierung selbst. Das heißt, privater und daraus abgeleiteter öffentlicher Schlüssel werden von der CA erzeugt und der private Schlüssel dann an den die Nutzer ausgegeben.5 Der öffentliche Schlüssel bleibt bei der CA und wird dort allgemein zugänglich gehalten. Die erste Variante hat den Nachteil, dass die CA nur diejenigen Schlüssel zertifizieren kann, die die Nutzer ihr vorlegen. Die Nutzer können aber auch unabhängig von ihr Schlüssel benutzen, die dann allerdings weniger vertrauenswürdig sind. Die zweite Variante hat darüber hinaus den Vorteil, dass die CA alle mit der Schlüsselgenerierung und -zertifizierung zusammenhängenden Faktoren kontrollieren kann. Grundlage einer solchen Public-Key-Infrastrukutur (PKI) genannten Struktur ist allerdings, dass die CA für alle Beteiligten vertrauenswürdig ist. Eine konkrete Umsetzung einer Public-Key-Infrastruktur sieht z.B. so aus, dass in einer Universität das Rechenzentrum nach Vorlage des Studentenausweises ein Schlüsselpaar generiert, den privaten Schlüssel auf Diskette oder einem anderen Datenträger dem Studenten übergibt und den zugehörigen öffentlichen Schlüssel auf einem Server allgemein zugänglich macht. Der Student kann dann Datentransaktionen, wie z.B. E-Mails, verschlüsseln. Der Empfänger ist anschließend in der Lage mithilfe des öffentlichen Schlüssels vom Server des Uni-Rechenzentrums die Authentizität der E-Mail zu überprüfen. Der Empfänger kann anhand des öffentlichen Schlüssels nachweisen, dass die E-Mail mit einen Geheimnis in 5

Die CA darf natürlich keine Kopie des privaten Schlüssels behalten, sonst könnte sie sich ja für einen beliebigen Nutzer ausgeben und wäre nicht mehr vertrauenswürdig. In den 1990er Jahren wurde jedoch genau dieses v.a. in den USA von staatlicher Seite verlangt. Bei der CA oder bei einer anderen dazu berechtigten Institution (z.B. dem FBI) sollten Kopien von Schlüsseln hinterlegt werden (sog. ›Key Escrow‹), um staatlichen Stellen gegebenenfalls Zugriff auf verschlüsselte Daten zu ermöglichen. Derzeit ist ›Key Escrow‹ weder in den USA noch in Europa Teil der staatlichen Forderungen zu CAInfrastrukturen, da hier ein erhebliches Legitimationsproblem, gerade in einem eventuell grenzübergreifenden Authentifizierungsverkehr, besteht. Vgl. H. Neymanns: Verschlüsselung im Internet, S. 78ff.

81

ELECTRONIC GOVERNMENT: VOM USER ZUM BÜRGER

Verbindung steht, das nur dem sendenden Studenten bekannt ist: seinem privaten Schlüssel. Die Diskette, auf der der Student in diesem Beispiel seinen privaten Schlüssel erhalten hat, ist allerdings ein vergleichsweise unsicheres Authentifikationsmedium. Es kann einerseits problemlos kopiert, andererseits leicht gelöscht werden. Auch ist eine Diskette nicht lange haltbar. Gleiches gilt für die Übertragung des privaten Schlüssels auf eine Festplatte oder andere digitale Systeme. Weder kann dabei die Integrität des Schlüssels gewährleistet werden, noch ist er hier vor Kopiert- oder Gelöschtwerden sicher. Eine zentrale Herausforderung an ein PKI-basiertes Authentifikationssystem liegt also darin, den privaten Schlüssel, der ja selbst digital vorliegt und mithin den genannten Manipulationsgefahren digitaler Daten unterliegt, erstens geheim zu halten und zweitens sicher einer Person zuzuordnen. Bei den gegenwärtigen Verfahren werden private Schlüssel in verkapselte Hardware abgelegt, die nur mit großem technischen Aufwand zu knacken sind. So können Geräte mit einem privaten Schlüssel ausgestattet, aber auch Personen damit versehen werden. Die Zuordnung zu einer Person erfolgt über eine Chipkarte – ›Smartcard‹ genannt. Der auf der Smartcard angebrachte Chip ist ein kleiner Kryptographieprozessor, der den privaten Schlüssel speichert und dessen Transaktionen mit der ›Außenwelt‹ verwaltet. Um die Smartcard an die Person zu binden sind verschiedene Verfahren möglich. Die gängigen Systeme bauen darauf auf, dass der private Schlüssel auf der Smartcard durch die Eingabe einer ›Persönlichen Identifikations Nummer‹ (PIN), ähnlich wie bei einer ECKarte, aktiviert werden muss. Die PIN erhält die Person bei der Ausgabe der Chipkarte mit der Auflage, sie absolut geheim zu halten. Der private Schlüssel kann also nur benutzt werden, wenn zwei Faktoren zutreffen: 1. Besitz der Smartcard und 2. Kenntnis der geheimen, nur einer Person bekannten, PIN. Bei den derzeit angewandten Authentifikationssystemen auf Basis von PKIs wird diese ›Zwei-Faktoren-Authentifikation‹ als ausreichende Zuordnung eines privaten Schlüssels zu einer Person angesehen. Die Integration weiterer Faktoren wie das elektronische Einlesen von Körpermerkma-

82

EXKURS: ASYMMETRISCHE VERSCHLÜSSELUNG

len – sogennante Biometrie – könnte in Zukunft Bestandteil des Zuordnungsmodus von privaten Schlüsseln werden.6

Die Digitale Signatur Die bis hierher geschilderte Technik einer Public-Key-Infrastruktur stellt also eine elegante Lösung bereit, in offenen Systemen wie dem Internet Authentifizierungsprozesse zu etablieren.7 Sie genügt den in der Tabelle formulierten Ansprüchen Authentizität (1) und Nichtabstreitbarkeit (2).8 Den Ansprüchen Vertraulichkeit/Geheimhaltung (3) und Integrität (4) ist mit dem beschriebenen System noch nicht unbedingt genügt. Da der öffentliche Schlüssel ja allgemein zugänglich ist, kann im Prinzip jeder die Nachricht entschlüsseln. Ist eine Geheimhaltung gewünscht, wie z.B. im Falle von wichtigen Geschäftsunterlagen oder medizinischen Daten, so muss zusätzlich eine Verschlüsselung des Inhalts der Dateien mithilfe von symmetrischen oder asymmetrischen Verfahren durchgeführt werden. Dies kann, muss aber nicht Bestandteil von Digitalen Signaturen sein. Integraler Bestandteil einer Digitalen Signatur ist aber die Garantie der Integrität der Daten. Der Empfänger muss sicher sein können, dass die ihm vorliegenden Daten, deren Herkunft er bereits kennt, nicht auf dem Übertragungsweg manipuliert worden sind. Um dies 6

7

8

In einem Faltblatt des BSI zur Digitalen Signatur vom Januar 2002 heißt es: »Durch mehrfache Identifikation – das heißt durch Besitz (Karte), Wissen (PIN) und Nutzung biometrischer Merkmale – kann ein Missbrauch des privaten Signaturschlüssels praktisch vollständig ausgeschlossen werden.« Gemeint ist hier aber noch nicht das elektronische Auslesen von Körpermerkmalen, sondern vom Nutzer geleistete manuelle Eingabe der Biometrie, die auch in papierenen Authentifikationsmedien Standard ist: Angaben zu Größe, Augen- und Haarfarbe etc. Siehe Faltblatt: »BSI-Kurzinformationen zu aktuellen Themen der IT-Sicherheit ›Elektronische Signatur‹«, gesehen auf http://www.bsi.bund.de am 22.06.2002. Die entsprechenden ›Request for Comment‹-Dokumente, RFC 14211424, die Standards für eine solche Public-Key-Infrastruktur vorschlagen, stammen aus dem Jahr 1993. Vgl. www.faqs.org/rfc/rfcs. Ebenfalls bereits im Jahre 1993 machte sich die frisch gewählte Clinton-Administration Gedanken über eine staatliche Public-KeyInfrastruktur für das Internet. Diese kam aber unter anderem aufgrund der Forderung nach Key-Escrow nicht zustande. Vgl. H. Neymanns: Verschlüsselung im Internet, S. 78-120. Vorausgesetzt, der private Schlüssel ist auch wirklich privat und geheim.

83

ELECTRONIC GOVERNMENT: VOM USER ZUM BÜRGER

zu gewährleisten, wird beim Sender vor dem eigentlichen Signieren aus den zu übermittelnden Daten eine Kontrollinformation, der so genannte ›Hashwert‹9 gebildet. Der Hashwert steht in einem eindeutigen mathematischen Verhältnis zu den Originaldaten. Werden die Daten verändert, passt der Hashwert nicht mehr zu ihnen. Bei der Digitalen Signatur wird dann dieser Hashwert verschlüsselt (signiert) und zusammen mit den Originaldaten versandt. Vereinfacht gesagt werden die Daten zweimal übermittelt: einmal im unverschlüsselten Originalzustand und einmal als signierter Hashwert. Authentifizierung und Integritätscheck laufen dann beim Empfänger in zwei Schritten ab. Zuerst entschlüsselt er mit dem öffentlichen Schlüssel des Senders den Hashwert. Gelingt dieses ist die Herkunft des Hashwerts geklärt, Authentifikation hat stattgefunden. An diesem Punkt ist zwar die Herkunft der Daten geklärt, aber nicht ob diese auf dem Übertragungsweg geändert worden sind. Um dies auszuschließen, berechnet der Empfänger im zweiten Schritt selbst aus den ihm zugegangenen Originaldaten deren Hashwert. Stimmt dieser mit dem Hashwert überein, der an die Daten angehängt war, so sind die Daten unverfälscht übertragen worden. Die Integrität der Daten ist für die Forderung nach Nichtabstreitbarkeit von besonderer Bedeutung: um Nichtabstreitbarkeit im vollen Sinne zu gewährleisten, muss nicht nur nachweisbar sein, dass bestimmte Daten von einer Person gesendet wurden, sondern auch, dass sie in der beim Empfänger vorliegenden Form gesendet wurden. So könnte z.B. bei einem Kaufvertrag der Empfänger die Kaufsumme nach Erhalt ändern. Solange der Sender vor Gericht dann nicht nachweisen kann, dass die ursprünglich von ihm übermittelten Daten eine andere Summe enthielten, wird er mit der Klage keinen Erfolg haben. Der oben beschriebene Mechanismus der Hashfunktionen ermöglicht hier Abhilfe. Mit einer Public-Key-Infrastruktur, in der Transaktionen mit Digitalen Signaturen an vertrauenswürdige ›Certification Authorities‹ rückgekoppelt sind und der private Schlüssel per Smartcard einer Person zugeordnet ist, liegt also ein kryptographisches Konstrukt vor, das die technischen Grundlagen eines Systems abgeben kann, welches eine eineindeutige Beziehung zwischen einer digita9

Hash ist der englische Begriff für ›Zerhacktes‹ und bezieht sich in diesem Zusammenhang auf eine mathematische Operation des Zerhackens der Daten der Nachricht, um eine Prüfsumme zu bilden.

84

EXKURS: ASYMMETRISCHE VERSCHLÜSSELUNG

len Aktivität und einer Person herzustellen vermag. Ein starkes Authentifizierungssystem müsste beim derzeitigen Stand auf dieser Technologie aufsetzen und die Interaktion mit bestimmten Daten verpflichtend an die Nutzung einer auf Chipkarten gespeicherten Digitalen Signatur binden.

85

SIGNATURBASIERTE AUTHENTIFIZIERUNGSSYSTEME

DER

WIRTSCHAFT

Weder der .Net-Passport noch der Vorschlag der Liberty Alliance beruhen in den gegenwärtigen Spezifikationen auf einer PublicKey-Infrastruktur und Digitalen Signaturen. Beide Systeme sind aber problemlos in diese Richtung erweiterbar und könnten somit einen Übergang von schwacher zu starker Authentifizierung vollziehen. In den technischen Unterlagen der Liberty Alliance werden beispielsweise die möglichen Schnittstellen zu PKI Systemen bereits benannt.1 Zur Integration des .Net-Passport in ein PKI-System sind mir derzeit noch keine Details bekannt. Microsoft betreibt jedoch neben .Net-Passport unter der Bezeichnung Palladium bzw. Next Generation Secure Computing Base (NGSCB) ein weiteres Großprojekt, das letztlich auf Authentifizierung zielt und mit verteilten Public-Key-Infrastrukturen vollständig interoperabel sein wird, mehr noch: es basiert bis ins Innerste auf dieser Technologie. Ebensolches gilt für den Beitrag, den der dritte, bisher noch nicht näher erläuterte wirtschaftliche Akteur, die ›Trusted Computing Platform Alliance‹ (TCPA), die mittlerweile unter dem Namen ›Trusted Computing Group‹ (TCG) firmiert, für die OnlineAuthentifikation entwickelt: das ›Trusted Platform Modul‹ (TPM). Das TPM ist nichts anderes als ein kryptographischer Prozessor zur asymmetrischen Verschlüsselung, der darüber hinaus private Schlüssel speichern kann. Microsofts Palladium/NGSCB und das ›Trusted Platform Modul‹ der TCG stehen in enger, wenn auch nicht abhängiger Beziehung zueinander. Diese wird beim Überblick über die Architektur von Palladium/NGSCB deutlich werden.

1

Vgl. Liberty Alliance Project: »Liberty Architecture Overview Version 1.0« S. 16 und S. 28, www.projectliberty.org.

87

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Microsofts Palladium/Next Generation Secure Computing Base ›Palladium‹ lautete der ursprüngliche Name für ein Mitte 2002 bekannt gewordenes, außerordentlich ehrgeiziges Projekt von Microsoft: die nächste Generation des Betriebsystems Windows sollte zum Kernstück eines ›Trustworthy Computing‹, einer ›vertrauenswürdigen Computerumgebung‹ werden.2 Schon kurz nach der Veröffentlichung erster Details zu Palladium zog das Projekt teils heftige Kritik einer breiten Öffentlichkeit auf sich, die von Hackern3 bis hin zur Deutschen Bundesregierung4 reichte. Es wurden Befürchtungen geäußert, dass Palladium die User entmündige, sie in ihrer Verfügung über ihren Computer und dessen Daten einschränke oder gar von Microsoft abhängig mache.5 Vor dem Hintergrund der Monopolstellung Microsofts im Softwaremarkt und dem entsprechenden Geschäftsgebaren, das die Firma historisch gezeigt hatte, war nicht auszuschließen, dass Palladium vor allem ein Modell der besonders sicheren Softwarelizenzierung darstellte. Unter dem Eindruck dieser schlechten Publicity sowie weiterer Erschütterungen von Microsofts proprietärer Strategie6 wurde das 2

3

4 5 6

»[W]ithout a Trustworthy Computing ecosystem, the full promise of technology to help people and businesses realize their potential will not be fulfilled.«, so Bill Gates, Gründer und ›Chief of Software Technology‹ von Microsoft in einem offenen Brief vom 18.07.02 an alle Microsoftkunden. http://www.microsoft.com/mscorp/execmail /2002/07-18twc.asp, gesehen am 20.07.2002. So z.B. Ross Anderson, der schon im Juni 2002 ein Frequently Asked Questions (FAQ) zu Palladium/NGDCB/TCPA ins Netz stellte: http://cl.cam.ac.uk/~rja14/tcpa-faq.html. David Safford von IBM hat im Oktober 2002 mit der Veröffentlichung des Textes »Clarifying Misinformation on TCPA« auf Anderson (und andere) reagiert: http://www.home/safford/tcpa/tcpa_rebuttal.html, jeweils gesehen am 18.05.2003. Siehe auch die frühe und panische Meldung von Thomas C. Greene (2002): »MS to eradicate GPL, hence Linux«, gesehen auf http://theregister.co.uk/content/4/25891.html am 18.05.2003. Andreas Wilkens: »Bundesregierung zeigt sich skeptisch gegenüber Microsofts Palladium«, Meldung auf www.heise.de vom 04.12.2002. Siehe wiederum Ross Andersons »Palladium/NGSCB/TCPA FAQ«. Dazu zählen der Erfolg des Betriebssystems Linux, die erfolgreichen Open-Source-Strategien von Apple und IBM, der Druck von öffentlichen Stellen, den Quellcode von Microsoft-Produkten offen zu legen, sowie die schon Jahre währende Kritik an inkompatiblen und intransparenten Dateiformaten.

88

SIGNATURBASIERTE AUTHENTIFIZIERUNGSSYSTEME DER WIRTSCHAFT

Projekt im Februar 2003 in ›Next Generation Secure Computing Base‹ (NGSCB) umgetauft. Microsoft vollzog etwa zum selben Zeitpunkt einen als fundamental zu bezeichnenden Schwenk in seiner Informationspolitik. Während früher sämtliche technischen Aspekte von Microsoft-Produkten als Geschäftsgeheimnisse angesehen wurden, hatte die Firma nun erkannt, dass für die Akzeptanz ihrer Produkte im sensitiven Feld der Authentifizierungslösungen Transparenz in zwei Richtungen notwendig ist: zum einen müssen Schnittstellen und Austauschmedien (v.a. Dateiformate) völlig interoperabel sein, zum anderen erringen Authentifizierungslösungen nur dann Legitimität, wenn sie für alle Beteiligten vollständig durchsichtig sind – mithin sich im Code keine partikularen Interessen verborgen halten könnten. Microsoft hat also die Lektion der Liberty Alliance (und der TCG/TCPA, s.u.) gelernt, dass ein Authentifizierungssystem in seinen Kernkomponenten quelltextoffen sein muss, um Akzeptanz zu finden. Auch über den strukturellen Aufbau des gesamten Systems ist schon relativ viel bekannt gemacht worden, obwohl es sich noch in der Entwicklungsphase befindet. Mit Palladium/NGSCB steht demnach ein massiver Umbau des Windows-Betriebssystems auf der Grundlage asymmetrischer Verschlüsselung an. Um das Ziel des Trustworthy Computing zu erreichen, wird Windows im Prinzip zweigeteilt. Die erste Hälfte, ›Standard Mode‹ genannt, stellt das bekannte Betriebssystem dar, die zweite Hälfte, ›Trusted Mode‹, ist eine kryptographische Umgebung, die eine vollständige Koppelung von Systemprozessen an Public-Key-Infrastrukturen ermöglicht. Die zentralen Komponenten eines Systems, Prozessverwaltung, Speicherverwaltung, Dateisystem, Netzwerk, Ein- und Ausgabe können unter den besonderen Schutz des Trusted Mode gestellt werden. Dazu greift der Trusted Mode auf einen in der PC-Hardware abgelegten privaten Schlüssel zurück, mit dessen Hilfe laufend Prüfsummen der Systemkomponenten erzeugt werden. Modifikationen an ihnen sind dann nur nach Eingabe des jeweils zugehörigen öffentlichen Schlüssels möglich.7 Gleiches gilt für Dateien, die im Trusted Mode bearbeitet werden. Aufruf, Manipulation und Abspeichern dieser Daten ist ebenfalls an 7

Dieser Vorgang wird als ›Attestation‹ bezeichnet. Vgl. Gerald Himmelein: »Blick ins Schloss. Details zu Palladium/NGSCB«, in c´t Magazin für Computertechnik 12/2003, S. 192-194, hier S. 193.

89

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

die PKI gekoppelt. Liegt keine Freigabe durch die PKI vor, bleiben die Daten gesperrt. Microsoft betont in seiner Darstellung des Trustworthy Computing vor allem diesen Aspekt: der Trusted Mode macht den einzelnen Computer sicher gegen die Manipulation durch Dritte, seien es Cracker, Viren oder auch nur Arbeitskollegen. Diese haben, solange sie nicht am System mit dem passenden öffentlichen Schlüssel angemeldet sind, keine Handhabe. ›Öffentlicher Schlüssel‹ bedeutet hier nur, dass dieser aus dem in der Hardware abgelegten privaten Schlüssel abgeleitet ist. Es bedeutet nicht unbedingt, dass dieser Schlüssel öffentlich im Sinne von allgemein bekannt ist. Vielmehr wird es in den meisten Fällen das Interesse des Nutzers sein, diesen ›öffentlichen Schlüssel‹ für sich zu behalten. Die Kenntnis dieses spezifischen öffentlichen Schlüssels weist den Nutzer gegenüber dem System als Eigentümer,8 als Administrator, aus. Er ist es, der mit dem Kauf des Systems das Recht erworben hat, dieses seinen Zwecken gemäß einzurichten. Weiterhin hat er das Versprechen erhalten, dass Palladium/NGSCB seinen Computer und seine Daten schützt und nur ihn selbst diese manipulieren lässt. Es ist dieser, von Microsoft eher en passant erwähnte Aspekt, der die eigentliche Hauptsache von Palladium/NGSCB ist: die (permanente) Prüfung von System- und Datenintegrität beinhaltet notwendig, dass diese autorisiert wird. Autorisation heißt nichts anderes, als dass die Datentransaktionen (oder auch Veränderungen an der Hardware) eindeutig auf eine Person zurückgeführt werden können. Genau das leistet Palladium/NGSCB jedoch nur eingeschränkt. Die bei Palladium/NGSCB mögliche Bindung bestimmter, als besonders wichtig erachteter digitaler Transaktionen an eine PKI-Struktur erlaubt, unabstreitbar sowohl Sendung als auch Erhalt von Daten auf dem System nachzuweisen. Sie erlaubt die Integrität der Daten zu prüfen, sie erlaubt es, diese verschlüsselt, also vertraulich, zu übertragen und zu spei8

Administrator und Eigentümer müssen natürlich nicht unbedingt zusammenfallen. Der klassische ›Admin‹, z.B. in einer Firma, ist eine Person, die vom Eigentümer autorisiert ist, dessen Interessen und Zwecke am System zu vertreten und zu vollziehen. In der Sache, dem Eigentümer vollständige Transparenz am System einzuräumen, ist der Anspruch Microsofts ernst zu nehmen. Andernfalls steht Palladium/NGSCB vor einem Legitimationsproblem, dahingehend, dass der Eigentümer nicht sicher weiß, ob ausschließlich seine Interessen und Zwecke mit dem System vollzogen werden.

90

SIGNATURBASIERTE AUTHENTIFIZIERUNGSSYSTEME DER WIRTSCHAFT

chern. Palladium/NGSCB erfüllt damit drei der vier Forderungen an ein starkes Authentifikationssystem. Bei der vierten und zentralen Forderung, die des Nachweises der Herkunft der Daten, bzw. nach dem Verursacher der Datenmanipulation oder -transaktion, dient jedoch lediglich die Kenntnis des öffentlichen Schlüssels als ein vergleichsweise schwacher Nachweis, dass eine Person am System auch diejenige ist, als die sie sich ausweist. Palladium/NGSCB ist ohne weitere Komponenten zunächst also kein Authentifikationssystem für Personen. Es authentifiziert letztgültig zunächst nur Plattformen, einzelne Geräte wie PCs. Die private Schlüsselkomponente der von Palladium/NGSCB verwandten Digitalen Signaturen liegt ja nur in der Hardware selbst vor und ist nicht durch eine Smartcard oder ähnliches dem User zugeordnet. Essentieller Bestandteil von Palladium/NGSCB ist aber der sogenannte ›Trusted Path‹ – gesicherter Pfad – zum Anwender. Eingabegeräte, wie Tastatur und Maus, und Ausgabegeräte, wie Bildschirm und Drucker, sollen ebenfalls vor Manipulation durch Dritte geschützt werden. Ohne solche besonders gesicherte Ein- und Ausgabe-Hardware kann der Trusted Mode von Palladium/NGSCB nicht aktiviert werden.9 Der Trusted Path ist damit als Schnittstelle für die Nutzerauthentifizierung prädestiniert. Das Ausweisen gegenüber dem System kann dabei durch Eingabe eines privaten oder firmenspezifischen Passworts über die an den Trusted Path angeschlossene, ebenfalls besonders gesicherte Tastatur erfolgen. Aber auch stärkere Authentifizierungslösungen können über den Trusted Path manipulations- und abhörsicher genutzt werden. Über hier angebrachte Endgeräte zum Auslesen von Smartcards, die den privaten Schlüssel einer Digitalen Signatur enthalten, wäre eine eineindeutige Authentifikation von Personen gegenüber dem System möglich. Gleiches gilt für biometrische Systeme, die auf Grundlage von Körpermerkmalen authentifizieren und ihre Daten ebenfalls über den Trusted Path an das System kommunizieren. Der in der PC-Hardware abgelegte Schlüssel, den Palladium/ NGSCB benötigt, ist in einem solchen System dann Bestandteil einer sich wechselseitig überprüfenden Schlüsselhierarchie. Er si9

Vgl. Gerald Himmelein: »Blick ins Schloss. Details zu Palladium/ NGSCB«, S. 194.

91

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

chert, dass die Hard- und Software des Gerätes, mit dem sich eine Person im Rahmen eines größeren Authentifikationssystems, z.B. .Net-Passport, Liberty Alliance oder eines staatlichen Systems, ausweist, integer ist. Angriffe oder Manipulationen des Systems während des Authentifikationsprozesses können wirkungsvoll unterbunden werden, da jede Änderung an der Hardware oder am Datenstrom, die nicht durch Rückbindung an den Schlüssel im System autorisiert ist, sofort auffällt. Damit ist ein Problem gelöst, das bei der Anbindung bisheriger Authentifikationssysteme an Standardcomputer bestand: die Ein- und Ausgabepfade waren kritische Stellen, an denen Dritte oder auch der User selbst das System kompromittieren konnten. Zukünftige Hardware, die an den Trusted Path angeschlossen wird, wird sich bei jeder Transaktion gleichsam ›ausweisen‹ müssen. Kann sie das nicht mit einem gegenüber der Hardware gültigen öffentlichen Schlüssel, wird sie nicht akzeptiert und das System wird nicht im Trusted Mode arbeiten.10 Das gilt auch und gerade für alle Schnittstellen, die zur Nutzerauthentifizierung dienen. Neben den von Microsoft betonten Aspekten der Systemsicherheit und Systemwiederherstellbarkeit ist Trustworthy Computing damit vor allem eine umfassende Kontrolle aller Aktivitäten eines Computers auf der Grundlage von Authentifizierungsprozessen. Prinzipiell ist mit Palladium/NGSCB eine Personalisierung der gesamten von einem Computer verarbeiteten Daten möglich. Sämtliche Dateien und Programme, die im Trusted Mode des zukünftigen Windows-Betriebssystems verarbeitet werden, unterliegen einem ›Digital Rights Management‹ (DRM) und können mit Angaben zu Herkunft der Daten und damit verknüpften Rechten in digital signierter Form versehen werden. Insbesondere zu Rechten bzgl. Kopien, Veränderungen, Verarbeitung und Weiterverbreitung von Daten können genaue Parameter gesetzt werden, die definieren, welche Befugnisse welcher Nutzer zu welchem Zeitpunkt an welchem Ort an welchem Gerät hat.11 Dieses DRM, von Microsoft 10 Technisch wird das gelöst, indem die Peripheriegeräte einen öffentlichen Schlüssel enthalten, der aus dem in der Hardware liegenden privaten Schlüssel und den Eigenschaften des jeweiligen Gerätes abgeleitet ist. Wird die Hardware geändert, ändert sich auch der öffentliche Schlüssel und wird mithin ungültig. 11 Das universelle Dokumentenformat XML wird dazu um eine Rechteverwaltung erweitert (Extensible Rights Markup Language – XrML).

92

SIGNATURBASIERTE AUTHENTIFIZIERUNGSSYSTEME DER WIRTSCHAFT

›Rights Management Service‹ (RMS) genannt, etabliert ›Eigentümer‹ von Daten und löst damit als essentieller Bestandteil von Palladium/NGSCB die ›Quasi-Vereinzelung‹ digitaler Produkte ein. Die Rückkopplung von Datenbearbeitung mit RMS an eine OnlineAuthentifizierung durch .NET-Passport, die Liberty Alliance, unternehmensspezifische Lösungen oder staatliche Authentifikationssysteme ist dabei möglich bzw. bei bestimmten Anwendungen sogar obligatorisch. Während also die Einschränkung der Verfügung über Daten im Sinne ihrer Personalisierung ein klares Ziel von Palladium/NGSCB ist, ist die Analyse von Palladium/NGSCB als bloßes Kundenbindungsinstrument zu kurz gegriffen. Microsoft versucht sich vielmehr an die Spitze der Anbieter von Authentifizierungslösungen zu stellen, indem es mit einem soliden, authentifikationsfähigen Betriebssystem eine unerlässliche Kernkomponente für die DeAnonymisierung des Internet bereitstellt. Dazu kommt, dass das System eine sehr weite Verbreitung erlangen kann, da die allermeisten Nutzer ihren Zugang zum Internet über einen PC, der unter Microsofts ›Windows‹ läuft, erlangen. Das gilt auch und gerade für wirtschaftlich genutzte Internetzugänge. Neben der Marktmacht der Firma Microsoft könnten zwei weitere Aspekte die Verbreitung der Technologie fördern. Zunächst der Aspekt der ›Usability‹, der Brauchbarkeit des Nutzer-Interfaces der in Palladium/NGSCB enthaltenen Signaturlösung. Dem digitalen Signieren fehlt derzeit noch eine ähnliche Anschaulichkeit wie sie die graphische Benutzeroberfläche im Umgang mit dem Computer geschaffen hat. Microsoft betreibt eines der weltweit größten Labors zu Beforschung der Usability von Nutzer-Interfaces. Eine gelungene Integration des Signaturvorgangs in das User-Interface von auf Palladium/NGSCB basierendem Windows könnte die breite Akzeptanz der Digitalen Signatur entscheidend fördern. Zu vermuten steht weiterhin, dass das vor drei Jahren von Microsoft propagierte ›.NET‹-Projekt (sprich Dot-Net), von dem der .NET-Passport seinen Namen hat, in Palladium/NGSCB aufgehen wird. ›.Net‹ stand für den Versuch Microsofts, eine Entwicklungsumgebung zu schaffen, die Interoperabilität und Datenaustausch in der ganzen Breite digitaler Anwendungen erlaubte: vom EndVgl. Gerald Himmelein: »Blick ins Schloss. Details zu Palladium/ NGSCB«, S. 194.

93

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

verbraucher – also dem Betriebssystem, dem Internet-Browser, den Abspielgeräten für digitale Produkte–, über die so genannte ›Middleware‹ – den Protokollstandards, den Programmiersprachen (dazu wurde von Microsoft aufbauend auf die weit verbreiteten Programmiersprachen C und C++ ein neuer Standard namens C# [sprich C Sharp] definiert) – bis hin zum entsprechenden ›Backend‹, d.h. der Serversoftware, den Datenbanken und den Dataminingtools. Die .NET-Umgebung würde damit nahtlos alle drei ökonomischen Sphären, Produktion, Zirkulation und Konsumtion, umspannen. Die Integration von Palladium/NGSCB und eventuell darauf aufsetzendem .NET-Passport in die .NET-Strategie würde ein gemeinsames Identitätsdienstleistungsangebot über alle Prozessebenen hinweg erlauben. Sollte es dabei bei der für .NET-Passport beschriebenen zentralen Datenspeicherung bleiben, böten sich hier noch viel größere Möglichkeiten, kumulativ Daten zu sammeln. Abgesehen von dieser spekulativen Aussicht auf die Rolle des UserInterfaces der Signaturkomponente und mögliche Geschäftsvorteile für Microsoft durch eine Integration von Palladium/NGSCB und .NET-Passport, stellt das Projekt die bisher umfassendste Initiative eines einzelnen Herstellers dar, das Authentifizierungsproblem grundsätzlich anzugehen. Microsoft ist dazu, wie schon erwähnt, aufgrund seiner Monopolstellung in einer einmaligen Position. Es ist aber gerade die Strategie der Offenheit, die Microsoft seit Ende 2002 in Bezug auf die Authentifikationskomponenten eingeschlagen hat, die diesem Projekt hohe Chancen auf Erfolg verheißt. Andere Hersteller, aber auch freie Entwickler und staatliche Institutionen können auf der Basis des in Palladium/NGSCB verwandten Modells eigene Lösungen entwickeln, die mit Microsoft-Produkten problemlos interagieren können. Wechselseitige Authentifizierung, notwendige Voraussetzung eines netzweit arbeitenden Systems, ist damit organisierbar. Teil der offenen Strategie Microsofts ist auch die Hardwarekomponente, in der die kryptographischen Schlüssel, die Digitale Signatur von Palladium/NGSCB, abgelegt sind. Die Hardware wird nicht von Microsoft selbst hergestellt oder in dessen Auftrag gefertigt. Dies wird vielmehr der dritte große wirtschaftliche Akteur auf dem Feld der Authentifizierung, die Trusted Computing Platform Alliance (TCPA), jetzt ›Trusted Computing Group‹ (TCG) übernehmen.

94

SIGNATURBASIERTE AUTHENTIFIZIERUNGSSYSTEME DER WIRTSCHAFT

Die Trusted Computing Platform Alliance/Trusted Computing Group Bei der TCPA12 handelte es sich zunächst um ein im Oktober 1999 gegründetes Konsortium wichtiger Hardware-Hersteller, zu dessen Mitgliedern unter anderem AMD, Hewlett-Packard, IBM, Infineon, Intel, Nokia, Phillips und Sony zählen.13 Mittlerweile hat sich die TCPA in ›Trusted Computing Group‹ (TCG) unbenannt. Die im ursprünglichen Namen mit dem Wort ›Alliance‹ angezeigte begriffliche Nähe zur Liberty Alliance ist wahrscheinlich kein Zufall, haben hier doch führende Hardware-Hersteller eine Allianz gebildet, um einen offenen Standard für Signaturbausteine von Computern herzustellen.14 Während sich in der Liberty Alliance also in erster Linie Akteure zusammengeschlossen haben, deren Geschäft in Transaktionen15 – mithin im immateriellen Aspekt der digitalen Ökonomie – liegt, ist die TCG vor allem eine Allianz derjenigen Akteure, die die physikalischen Grundlagen der digitalen Ökonomie herstellen. Wie im Abschnitt über die Digitalen Signaturen zu sehen war und wie sich auch an Palladium/NGSCB gezeigt hat, kommen Authentifikationssysteme auch im dematerialisierten Medium des Digitalen nicht ohne physische Korrelate aus.16 Deren zukünftige Gestalt zu prägen schickt sich die TCPA derzeit an. Dabei verfügt sie über eine starke Ausgangsposition, liegt hier doch ein breites, mittlerweile mehr als 200 Mitglieder umfassendes Bündnis der einflussreichsten und größten Computerhersteller vor. Die TCG entwickelt gemeinsam eine offen liegende Spezifikation für das ›Trusted Platform Module‹ (TPM) und definiert gleichzeitig die entsprechenden SoftwareSchnittstellen. Bei dem Trusted Platform Module handelt es sich um die Hardware-Komponente, die zwingende Voraussetzung von Palladium/NGSCB, aber auch anderen Authentifizierungssystemen ist. 12 Siehe http:www.trustedcomputinggroup.org. 13 Eine vollständige Liste der Mitglieder findet sich ebenfalls unter: http:www.trustedcomputinggroup.org. 14 Was wie bei der Liberty Alliance den Einbezug des Diskussionsmodus der RFCs einschließt. 15 Man beachte den Anteil an Banken, Telekommunikations- und Internetprovidern bei den Mitgliedern der Liberty Alliance: z.B: American Express, Bank of America, Visa International, AOL, EarthLink Inc., Vodafone Group etc. Vgl. http://www.projectliberty.org. 16 Personen sind ja auch immer noch Körper.

95

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Das TPM ist ein Kryptographieprozessor, in dem die Schlüssel einer Public-Key-Infrastruktur verwaltet und sicher gespeichert werden.17 Das TPM soll nach dem Willen der TCG standardmäßiger Bestandteil zukünftiger digitaler Geräte werden. Zunächst werden PCs18, später auch andere Geräte wie Telefone, DVD-Player, Spielekonsolen u.ä., ein TP-Modul enthalten. Die Umbenennung der ›Trusted Computing Platform Alliance‹ in ›Trusted Computing Group‹ fällt zeitlich zusammen mit dem im Frühjahr 2003 erfolgten Eintritt Microsofts in das Bündnis. Der Schwerpunkt der TCG liegt zwar weiterhin auf der Entwicklung von Hardware, gleichwohl sind Palladium/NGSCB und das TPM letztlich aufeinander angewiesen, um ein funktionierendes Authentifikationssystem bieten zu können. Ohne ›Smartcard‹ für die Hardware kein Palladium/NGSCB. Ohne Betriebssystem, das das TPM nutzen kann, ist der Chip sinnlos. Der Eintritt Microsofts in die TCPA/TCG stellte also einen konsequenten und notwendigen Schritt dar, Palladium/NGSCB voranzubringen. Dass die Firma Mitglied einer Allianz wird, die vergleichbar der Liberty Alliance offene Standards entwickelt, kann als weiterer Hinweis darauf gewertet werden, dass Microsoft bei dieser für die ›Informationsgesellschaft‹ kritischen Technologie keinen Alleingang wagen kann und will. Die Mitglieder der TCG profitieren wiederum insofern von Microsofts Mitgliedschaft, als dass damit die Kompatibilität der von ihnen hergestellten Authentifikationskomponenten zu den Produkten des mit Abstand wichtigsten Softwareherstellers gesichert wird. Die wesentlichen Eigenschaften einer auf dem TPM basierenden Authentifikationslösung sind bereits im Abschnitt über Palladium/NGSCB beschrieben. Das TPM selbst leistet keine Nutzer-, sondern lediglich Plattformauthentifizierung. Es handelt sich im wesentlichen um einen konsequenten Versuch, die gesamte Architektur von PCs, später auch anderer Geräte, auf asymmetrische Verschlüsselung umzustellen. Kern der Systems ist das TPM, das gleichsam

17 Vgl. Trusted Computing Group (2003): Main Specification 1.1b, S. 4. http://www.trustedcomputinggroup.org. Unter ›sicher gespeichert‹ ist zu verstehen, dass der geheime Schlüssel vor Manipulationen sicher in der Hardware abgelegt ist. 18 Erste Geräte mit TPM sind auf dem Markt bereits erhältlich, so zum Beispiel Notebooks der Firma IBM.

96

SIGNATURBASIERTE AUTHENTIFIZIERUNGSSYSTEME DER WIRTSCHAFT

die interne Certification Authority19 des jeweiligen PCs ist. Gegenüber dem dort gespeicherten privaten Schlüssel muss sich jedes Gerät und jede Kommunikation innerhalb des PCs mit einem gültigen öffentlichen Schlüssel ausweisen, um als ›trusted‹ zu gelten. Aufbauend hierauf ist, wie bei Palladium/NGSCB beschrieben, die Anbindung des Systems und der darauf laufenden Software an eine PKI zur Nutzerauthentifizierung möglich. Erste Anknüpfungspunkte dazu finden sich bereits in den gegenwärtig vorliegenden Spezifikationen der TCG für das TPM.20 Dort heißt es unter 9.3.3. »Contacting a Privacy CA« (unter ›Privacy CA‹ wird hier eine PKI verstanden, die Personen authentifiziert) zunächst: »The operations and procedures of a Privacy CA are outside the scope of this specification.«21 Es folgt dann aber nach dem nächsten Satz: »The anticipation, however, is that a Privacy CA will use at least the following checks before agreeing to attest to a TPM identity for a platform […]« 22 eine detaillierte, wenn auch vorläufige Aufzählung des Procedere, wie ein Datenaustausch zwischen TPM und Personenauthentifikationssystemen zu etablieren wäre. Wie die Liberty Alliance legt die TCG in ihrer Außendarstellung großen Wert darauf, dass die Nutzer die Kontrolle über ihre PCs behalten und die Aktivitäten des TPM weit gehend kontrollieren können.23 Ähnlich wie bei Microsofts Palladium/NGSCB kann das System auch in einem Standardmodus betrieben werden, wird damit aber wahrscheinlich vom Zugang zu bestimmten Programmen oder Online-Angeboten ausgeschlossen werden. Der Nutzen des TPM liegt letztlich gerade darin, einen kritischen Abschnitt in einer zu etablierenden Authentifizierungshierarchie digitaler Medien zu 19 Die im TPM fungierende CA wird von der TCG ›Root of Trust‹ – Wurzel des Vertrauens – bezeichnet. Vgl. Trusted Computing Group (2003): Main Specification 1.1b, S. 2. http://www.trustedcomputinggroup.org. 20 Derzeit (Juli 2003) ist die Main Specification 1.1b aktuell. Für dieses Jahr wird aber noch die Version 1.2 erwartet, die die Grundlage für marktreife Produkte abgeben soll. Vgl. ebd. 21 Vgl. ebd., S.275. 22 Vgl. ebd. 23 Vgl. z.B. das Interview mit den Intel-Mitarbeitern David Grawrock und Jeff Austin in: Stefan Krempl: »Hardware lügt nicht. Intels Philosophie des ›vertrauenswürdigen‹ Rechner« in: c´t Magazin für Computertechnik 11/2003, S. 20-21. Siehe auch David Safford: »Clarifying Misinformation on TCPA«, gesehen unter: http://www.home /safford /tcpa/tcpa_rebuttal.html.

97

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

sichern. In einem ersten Schritt können in einem TPM-basierten System Daten und Hardware eineindeutig verkoppelt werden. In einem zweiten Schritt ist diese Kopplung um die Anbindung an Personen-Authentifizierungslösungen erweiterbar. Damit bietet der Beitrag der TCG zum Authentifizierungsproblem gerade in Bezug auf die Personalisierung digitaler Produkte direkte Anknüpfungspunkte. Produzenten und Distributoren, die ihre digitalen Produkte auf der Grundlage von Authentifizierung zugänglich machen wollen, um sie als Waren realisieren zu können, finden hier eine von einem breiten Bündnis getragene Architektur vor, an die sie ihre Systeme anpassen können. Konsumenten wiederum, die diese Waren kaufen wollen, werden ohne TPM-basierte Hardware kaum Zugang zu ihnen erlangen. Auf der Ebene der Betriebsysteme, die dabei zum Einsatz kommen, ist keineswegs davon auszugehen, dass ausschließlich Palladium/NGSCB die notwendigen Eigenschaften mitbringen wird. So existieren für die Anbindung von Linux an TPM bereits Treiberprogramme. Auch hat sich der Begründer und ›Chef-Entwickler‹ des freien Betriebssystems, Linus Torvalds, bereits öffentlich Gedanken über eine weiter gehende Implementierung der TPM-Spezifikationen in Linux gemacht.24 Bis andere Betriebssystemhersteller, wie die in dieser Sache bisher auffällig stille Firma Apple, nachziehen, ist es angesichts der ökonomischen Bedeutung des Authentifikationsproblems nur eine Frage der Zeit. Die TCG ist seit dem Frühjahr 2003 zu einem der bedeutendsten Akteure auf dem Feld der Online-Authentifizierung geworden. Hier liegt die derzeit stärkste Kapazität und der bisher konzentrierteste Versuch vor, industrieweit gültige Standards für starke Authentifikationssysteme zu setzen. Es ist mit hoher Wahrscheinlichkeit davon auszugehen, dass die von der TCG ersonnenen Systeme wichtige Bausteine zukünftiger Online-Authentifizierung abgeben werden. Alle anderen in diesem Feld tätigen Akteure, wie die Liberty Alli24 Vgl. Konrad Lischka: »Schräge Töne von Linus Torvalds. Der Linux Initiator forciert für das Betriebssystem eine Rechteverwaltung, die Musikvermarktern entgegenkäme«, in: Frankfurter Rundschau vom 02.05.2003, S. 14. Leider sind es nicht allein die Musikvermarkter, die eine solche ›Rechteverwaltung‹ fordern, sondern der Kapitalismus an sich. Inwieweit das dem von kapitalismuskritischen Computernutzern so geliebten Linus Torvalds bewusst ist, wäre eine spannende Frage.

98

SIGNATURBASIERTE AUTHENTIFIZIERUNGSSYSTEME DER WIRTSCHAFT

ance oder die staatlichen Administrationen, werden sich dieser Herausforderung stellen müssen. Ähnlich des Beitritts des USamerikanischen Verteidigungsministeriums zur Liberty Alliance ist es denkbar, dass öffentliche Organisationen bis hin zu Staaten Mitglied in der TCG werden und dort Anteil an der Entwicklung zukünftiger Spezifikationen von Authentifizierungskomponenten nehmen. Sowohl die TCG als auch die Liberty Alliance, und in eingeschränkter Weise auch Microsoft mit Palladium/NGSCB, knüpfen mit ihren offenen Konzepten erkennbar an die formelle Allgemeinheitsorientierung des Internet an. Hier wird der konsequente Versuch unternommen, das Authentifizierungsproblem im Rahmen der bewährten Diskussions- und Optimierungsprozesse der Netzarchitektur unter Einbeziehung aller Interessengruppen zu lösen. Damit zeigt sich, dass die Verbindung von Konsensbildung und Vernetzungsleistung im Internet auf der Ebene der Subjekteinbindung angekommen ist. Ein zentraler Aspekt, der in der Analyse als Grundlage des Authentifizierungsproblems ausgemacht wurde, steht allerdings trotz Allgemeinheitsorientierung außerhalb der Verfügung von Akteuren wie der Liberty Alliance und der TCG: die rechtliche Gleichstellung ihrer Authentifizierungslösungen mit der eigenhändigen Unterschrift.25

25 Es gibt noch einen weiteren Aspekt am Phänomen der Liberty Alliance und der TCG, der zur Spekulation einlädt: Hier schließen sich Kapitalien zusammen, um unter Absehung ihres Konkurrenzverhältnisses gemeinsam die Bedingungen ihrer Akkumulation zu organisieren: die notwendige De-Anonymisierung des Internet, um Rechtssicherheit beim Handel und prospektiv die Warenform digitaler Produkte durchzusetzen. Dies sind eigentlich die Funktionen des Staates, der außerhalb der kapitalistischen Konkurrenz die Bedingungen derselben (Annerkennung von Person und Eigentum) qua Gewaltmonopol aufrechterhält. Weder Liberty Alliance noch die TCG verfügen über ein Gewaltmonopol, die Frage ist aber, ob ein Szenario vorstellbar ist, in dem staatliche Gewaltmonopole nicht mehr ohne die Liberty Alliance oder TCG (oder eine vergleichbare transnationale Internetorganisation) aufrechterhalten werden können.

99

DER STAAT

ALS

AKTEUR

BEIM

AUTHENTIFIZIERUNGSPROBLEM DES INTERNET: ELECTRONIC GOVERNMENT

Electronic Government bedarf, da es sich hier fast ausschließlich um Prozesse handelt, die Rechtsgeschäfte darstellen, notwendig der Methoden, die das Problem der Online-Authentifikation lösen. Anders als es bisher vielleicht den Anschein hatte, haben sich staatliche Stellen schon relativ früh und ausführlich mit dem Authentifikationsproblem in elektronischen Netzen befasst. Etwa ab 1996 war die Frage nach der Abwicklung von Rechtsgeschäften über das Internet international ein zentrales Politikfeld. Diese Prozesse verliefen weitgehend parallel zu den beschriebenen Cyberterrorismus/Cyberkriminalitätskampagnen, ohne dass ein direkter Zusammenhang zu erkennen ist. Eher unbemerkt von der öffentlichen Aufmerksamkeit und auch unter intensiver Beteiligung von Teilen der Computerindustrie stand und steht die Entwicklung und Verbreitung technischer und juristischer Lösungen zur Online-Authentifikation im Mittelpunkt des Electronic Government. Da sich, soweit der von mir gewonnene Überblick diese Aussage zulässt, in Bezug auf das Authentifikationsproblem international die wesentlichen Aspekte des Electronic Government ähneln, werde ich das Phänomen anhand der Vorgänge in Deutschland vorstellen. Der deutsche Verband der Elektrotechnik (VDE) versteht unter Electronic Government: »…die Durchführung von Prozessen der öffentlichen Willensbildung, der Entscheidung und der Leistungserstellung in Politik, Staat und Verwaltung unter sehr intensiver Nutzung der Informationstechnik. Eingeschlossen sind in diese Definition selbstverständlich zahlreiche Hilfs-

101

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER und Managementprozesse, sowie Prozesse der politischen und finanziellen Rechenschaftslegung.«

1

Diese Definition, die auf technische Aspekte abhebt, kann für die allgemeine Debatte des Electronic Government als paradigmatisch aufgefasst werden. Sie fokussiert wesentlich den Wandel der Binnenstrukturen der Verwaltungen durch den Einsatz der Informationstechnologien. Es ist ebenso paradigmatisch, dass die Definition des VDE die notwendige Voraussetzung der ›intensiven Nutzung der Informationstechnik‹ für die hier angesprochenen Prozesse vernachlässigt. Nicht allein um staatliche Leistungserstellung geht es beim Electronic Government, sondern um die gleichzeitige Etablierung von staatlich legitimierten Lösungen zur De-Anonymisierung des Internet. Ein entsprechend informierter Blick zeigt, dass sämtlichen nationalen wie internationalen Electronic GovernmentProjekten zuvorderst an der Lösung eines Problems angelegen ist: das der sicheren Online-Authentifizierung. Mittel der Wahl ist national ebenso wie international die Digitale Signatur – wenn auch in unterschiedlich starker Ausprägung was die Sicherheitsmerkmale angeht.

Die staatliche Digitale Signatur – Beispiel Deutschland Den staatlich betriebenen Authentifikationsprojekten für das Internet stellen sich prinzipienbedingt dieselben Probleme wie denen privatwirtschaftlicher Akteure. Allerdings sind an den Staat als diejenige Instanz, die Freiheit und Gleichheit garantiert, besondere Anforderungen an die Sicherheit und Überprüfbarkeit der OnlineAuthentifizierung gestellt. Während sich die Systeme der Wirtschaft bei einer Vielzahl von Anwendungen2 möglicherweise mit Platt1 2

Memorandum Electronic Government des Verbandes Elektrotechnik, Elektronik, Informationstechnik e.V. (VDE) siehe: http://www.vde. de/vde/html/d/fach/itg/publikationen/herunterladen.htm. Das Digital Rights Management von Konsumprodukten, wie Filmen oder Musik, ist ein solches Beispiel. Hier kann eine Plattformauthentifizierung zur Bindung der entsprechenden Dateien an ein bestimmtes Gerät zunächst ausreichen, um das Produkt als Ware zu realisieren. Dem Käufer entsteht daraus jedoch der Nachteil, dass er über das Produkt nur auf bestimmten Geräten verfügen kann. Sobald er z.B. einen neuen Computer kauft, kann er möglicherweise seine rechtmäßig erworbenen CDs oder DVDs nicht mehr abspielen. Daraus

102

DER STAAT UND DAS AUTHENTIFIZIERUNGSPROBLEM

formauthentifizierung zufrieden geben können, muss dem Staat daran gelegen sein, eine wirklich eineindeutige Zuordnung von digitaler Transaktion und Rechtsperson zu erreichen. Eine legitime Online-Authentifizierungslösung benötigt zunächst eine entsprechende Rechtsgrundlage, die Digitale Signaturen mit der eigenhändigen Unterschrift gleichstellt. In Deutschland wurden, wie bereits angemerkt, die Grundlagen dafür mit dem im Rahmen des ›Informations- und Kommunikationsdienste-Gesetz‹ (IuKDG) vom 22. Juli 1997 beschlossenen ›Signaturgesetz‹ (SigG)3 geschaffen. Damit war Deutschland international das erste Land, das eine solche Regelung für sein gesamtes Hoheitsgebiet erlassen hatte. Gleichwohl fehlten im SigG genaue Vorgaben zur konkreten Gleichstellung von Digitaler Signatur und eigenhändiger Unterschrift, auch standen die entsprechenden Änderungen im Bürgerlichen Gesetzbuch, der Zivilprozessordnung und in anderen Gesetzen aus. Akzeptanz und Verbreitung der Signatur wurden dadurch zunächst erheblich eingeschränkt. Im Zuge des europäischen Integrationsprozesses wurde das SigG mehrfach geändert und erst mit dem Formanpassungsgesetz (GAFPR01)4 vom Juli 2001 und der im März 2002 erfolgten Aufnahme des § 126a ›Elektronische Form‹ in das Bürgerliche Gesetzbuch (BGB) ist eine endgültige rechtliche Gleichsetzung von eigenhändiger Unterschrift und Digitaler Signatur in Deutschland erreicht worden. In Europa ist Deutschland, die konkrete Regulation von OnlineAuthentifizierung betreffend, immer noch führend. Gleichwohl haben einige Länder, wie z.B. Irland und Dänemark mittlerweile weit gehend gleichgezogen. Die meisten anderen Mitgliedsstaaten holen rapide auf. Insbesondere die (prospektiven) EU-Oststaaten nutzen die mit dem EU-Beitritt einhergehende Anpassung ihrer Verwaltungsstrukturen, um diese soweit wie möglich E-Governmentkompatibel zu machen. International sind vor allem Länder im asia-

3 4

entsteht wiederum für die Wirtschaft ein Legitimationsproblem gegenüber den Käufern. Dieses Dilemma kann letztlich nur durch Personenauthentifizierung überwunden werden. Langfristig muss daher die Wirtschaft ebenfalls ein Interesse daran haben, Personenauthentifikation vollziehen zu können. Das ›Gesetz zur Digitalen Signatur‹ (Signaturgesetz – SigG) trat am 01.08.1997 in Kraft. Der vollständige Titel des Gesetzes lautet: »Gesetz zur Anpassung der Formvorschriften des Privatrechts an den modernen Rechtsgeschäftsverkehr«.

103

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

tischen Raum, besonders Japan und Malaysia, gut positioniert. Malaysia hat sogar schon mit der Ausgabe einer signaturfähigen Bürgerkarte begonnen, die neben Krankenversicherungsausweis und Führerschein weitere Funktionen integriert. Nach Angaben eines Vertreters von Malaysia auf der CeBit 2003 steht die Regierung Malaysias in Verhandlungen mit Vietnam und Dubai, die dieses System übernehmen wollen.5 Solche fortgeschrittenen Projekte sind aber international noch die Ausnahme. Die Rechtsentwicklung zu Digitalen Signaturen verläuft international weitgehend unkoordiniert, womit sich zunehmend das Problem der zwischenstaatlichen Anerkennung nationaler Signaturlösungen stellt. In Europa existieren hier schon vorläufige Standards,6 international sind dagegen außer vereinzelten bilateralen Abkommen noch kaum Regelungen getroffen.7 Eng mit diesem Problemfeld verbunden ist die internationale technische Interoperabilität der staatlichen Signaturen. Diese Interoperabilität können die Lösungen der TCG, später vielleicht auch der Liberty Alliance prinzipiell bieten. Dazu wäre es aber nötig, dass einzelne Staaten oder auch Staatenverbünde deren Lösungen als rechtsgültig anerkennen. Ob dies geschehen wird, ist unmöglich vorauszusagen. Schon auf nationaler Ebene stellt die Etablierung allgemein zugänglicher Public-Key-Infrastrukturen als technische Voraussetzung Digitaler Signaturen ein erhebliches und in den Anfängen des Electronic Government unterschätztes Problem dar. Die staatlich legitimierte Digitale Signatur entspricht in ihren technischen Grundlagen dem im Exkurs zur asymmetrischen Verschlüsselung dargestellten System. Von den Gesetzgebern werden jedoch einige Besonderheiten gefordert, die dazu dienen, insgesamt die Sicherheit des Systems zu erhöhen. Die folgende Darstellung orientiert sich an den im internationalen Vergleich strengen Anforderungen, die mit dem deutschen Signaturgesetz erlassen wurden. 5 6 7

Mündliche Mitteilung am 13.03.2003 durch einen Mitarbeiter am Stand Malaysias auf der CeBit 2003 in Hannover. Grundlage ist die Richtlinie 1999/93/EG des Europäischen Parlaments und des Rates vom 13. Dezember 1999 über gemeinschaftliche Rahmenbedingungen für elektronische Signaturen. Von Seiten der Welthandelskonferenz wurde allerdings schon 1997 ein Modellentwurf für die internationale Annerkennung Digitaler Signaturen vorgelegt: »Model Law on Electronic Commerce with Guide to Enactment«, United Nations, V.97-22269 May 1997-5, gesehen auf http://www.un.org.

104

DER STAAT UND DAS AUTHENTIFIZIERUNGSPROBLEM

Die wichtigste Besonderheit staatlicher Digitaler Signaturen besteht darin, dass die Nutzer, um ihr Schlüsselpaar zu erhalten, eine Initialauthentifizierung in der Certification Authority (in Deutschland ›Trust Center‹ genannt) durchführen müssen, bei der das persönliche Erscheinen obligatorisch ist. Sie erhalten dann ihre Smartcard, Signaturkarte genannt, auf der ihr privater Schlüssel gespeichert ist und die zugehörige, in Deutschland immerhin sechsstellige, geheime PIN. Der Karteninhaber ist verpflichtet, beide Komponenten absolut sicher zu verwahren bzw. die PIN geheim zu halten. Besitz der Karte und Kenntnis der PIN erlauben es rechtlich, die Identität der jeweiligen Personen im Netz anzunehmen. Den Trust Centern wiederum sind ebenfalls umfangreiche Obliegenheiten vorgeschrieben. Da das Trust Center sozusagen ein ausgelagerter Teil der persönlichen Unterschrift einer Person ist, auf die diese aber praktisch immer Zugriff haben können muss – andernfalls ist die Person nur eingeschränkt rechtsfähig – fallen umfangreiche Auflagen, den Schutz und die Verfügbarkeit der entsprechenden Anlagen betreffend, an. Der Grad dieser Auflagen ist international unterschiedlich, in Deutschland existiert aber ein sehr hohes Anforderungsniveau an staatlich akkreditierte Trust Center. Diese müssen gegen Gefahren von außen und innen, gegen natürliche und menschlich herbeigeführte Katastrophen bis hin zum Flugzeugabsturz gesichert sein. Neben dem Gebäudeschutz müssen Internetanbindung, Hard- und Software entsprechend hochverfügbar und mehrfach redundant angelegt sein. Trust Center sind weiterhin in eine Schlüsselhierarchie eingebunden, bei der das Bundesamt für Sicherheit in der Informationstechnik und die Regulierungsbehörde für Telekommunikation und Post an der Spitze stehen. Dort werden die ›Root-Keys‹, die Wurzelschlüssel, verwahrt, auf die alle anderen (rechts-)gültigen Schlüssel mathematisch rückführbar sind. Diese Hierarchie etabliert einen Circle of Trust, der den Zweck hat, alle Schlüssel untereinander kompatibel zu halten und gegenseitig überprüfen zu können. Der Staat versichert sich damit außerdem der Möglichkeit, einzelne Schlüssel zurückzuziehen, ohne dass alle Schlüssel ungültig werden. Das ist insbesondere dann wichtig, wenn Trust Center, wie in Deutschland der Fall, in staatlicher Lizenz von privatwirtschaftlichen Anbietern betrieben werden. Erfüllt ein Anbieter die strengen Auflagen nicht mehr oder geht bankrott, werden so nicht gleich alle

105

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

von ihm ausgegebenen Schlüssel für Digitale Signaturen ungültig. Die Trust Center sind letztlich eine Art staatlich legitimierte elektronische Notare, über die alle Transaktionen, die Rechtsgültigkeit beanspruchen wollen, also eine staatlich anerkannte (sogenannte qualifizierte) Digitale Signatur beinhalten, abgewickelt werden müssen. Entsprechend können von ihnen auch Gebühren für signaturrelevante Prozesse erhoben werden.8 Bestandteil dieses Beglaubigungsprozesses ist auch ein Zeitstempel, der durch den Trust Center den signierten Daten angefügt wird. Damit wird sichergestellt, dass bei zeitkritischen Transaktionen, wie z. B. Finanztransaktionen, ein rechtsgültiger Nachweis der Zeitpunkte der Aktivitäten der Beteiligten möglich ist. Die Integration eines ›Ortsstempels‹, der den geographischen Aufenthaltsort der Transaktionsbeteiligten protokolliert, ist bisher nicht vorgesehen, technisch aber machbar. Smartcard, PIN, internetfähiger PC und garantiert zugängliches Trust Center reichen aber in Deutschland noch nicht aus, um sich im Internet rechtsgültig authentifizieren zu können. Zwingende Voraussetzung ist außerdem der Erwerb eines staatlich zugelassenen Lesegeräts für die Smartcard zum Anschluss an den PC. Hintergrund dieser Einschränkung ist die im Kapitel über Palladium/NGSCB angesprochene Notwendigkeit, die Datentransaktionen vom und zum privaten Schlüssel abhörsicher und manipulationsgeschützt zu vollziehen. Die bisherige PC-Architektur ist dazu zu unsicher. Das wird sich mit der Einführung von Palladium/NGSCB und dem TPM aber möglicherweise ändern. Von besonderer Wichtigkeit ist der Schutz der PIN, die in einem rein PC-basierten System an vielfältigen Stellen abgefangen oder verändert werden könnte. Ist die PIN einmal bekannt, und kann außerdem die Karte beschafft werden, so ist die Digitale Signatur kompromittiert. Vorläufig bieten die staatlich zugelassenen Lesegeräte gegen diese Gefahren aufwendigen Schutz, über eine hier angebrachte Tastatur wird auch die PIN eingegeben, die das Gerät während des Signiervorgangs nicht verlässt. Die derzeit in Deutschland geplante Signaturkarte ist monofunktional, d.h. ihre Funktionen sind fest programmiert und nicht nachträglich erweiterbar. Insbesondere speichert sie (vorläufig) keine per8

Die Tatsache, dass damit die eigenhändige Unterschrift nicht nur ausgelagert ist, sondern im Prinzip auch noch Geld kostet, sei hier nur der Vollständigkeit halber verzeichnet.

106

DER STAAT UND DAS AUTHENTIFIZIERUNGSPROBLEM

sönlichen Daten wie Krankenkassenzugehörigkeit, Führerschein, Steuerklasse etc. Sie speichert ausschließlich den privaten Schlüssel der jeweiligen Person und dient damit ausschließlich zum Signieren elektronischer Dokumente.

Legitimationsvorteile der staatlichen Digitalen Signatur Der Unterschied der staatlichen Digitalen Signatur zu den Authentifizierungslösungen privatwirtschaftlicher Akteure liegt zunächst darin, dass hier notwendig eine Initialauthentifizierung verlangt wird, die sich auf persönlicher Präsenz und staatlich anerkannten Dokumenten gründet. Alle anschließenden Transaktionen, die Authentifizierungen erfordern, basieren dann auf diesen Daten, was eine zusätzliche Sicherheit bedeutet. Weiterhin bringt die Struktur des Verfahrens, die eine Rückbindung aller Transaktionsschritte an staatlich autorisierte Trust Center beinhaltet, eine lückenlose Kette der Datenströme mit sich – so dass das Bundesamt für Sicherheit in der Informationstechnik im ›Handbuch Electronic Government‹ feststellen kann: »Enthält eine digital signierte Datei eine Willenserklärung des Signierers, kann dann anhand der Signatur diese Willenserklärung unabstreitbar dem Signierer, ggf. auch vor Gericht, zugerechnet werden.«9

Dem Staat steht es aber vor allen Dingen frei, seine eigene Authentifizierungslösung als einzige rechtsgültige anzuerkennen. Daraus erwächst für die Betreiber der staatlich autorisierten Trust Center ein Wettbewerbsvorteil, da im Streitfalle die Haftungsregelungen eindeutig sind. Die privatwirtschaftlichen Akteure Liberty Alliance, Microsoft und die TCG stehen hier vor einem zentralen Problem. Zwar können sie international interoperable Lösungen anbieten, lokal sind sie aber mit dem Problem konfrontiert, dass ihre Authentifizierungsleistung zum einen möglicherweise nicht anerkannt wird und sie zum anderen im Haftungsfall notwendig auf die Hilfe des Staates angewiesen sind. Nur der Staat verfügt über das Recht und 9

Bundesamt für Sicherheit in der Informationstechnik »Kryptographie im E-Government« S. 14, in: Ders.: Handbuch E-Government. www.bsi.bund.de.

107

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

vermittels Gewaltmonopol die Möglichkeit, Identitätsmissbrauch zu sanktionieren. Es ist ausschließlich der Staat, der die legitime Möglichkeit hat, auf seinem Territorium Menschen mit Identitäten zu versehen und sie im selben Schritt zu Rechtspersonen zu machen. Er garantiert, als aus der kapitalistischen Konkurrenz enthobene10 politische Gewalt, Freiheit und Gleichheit, Anerkennung von Person und Eigentum. Der Legitimationsvorteil staatlicher Signaturen erwächst aus dieser Enthobenheit. Im aufeinander verweisenden Dreieck Staat/Ökonomie/Individuen kapitalistischer Gesellschaften hat der Staat die Funktion, dort regulierend einzugreifen, wo das allgemeine Interesse aller gesellschaftlichen Akteure betroffen ist. Legitim sind staatliche Regulationsleistungen dann, wenn sie keinen partikularen Interessen dienen. Würde sich ein einzelnes Kapital, wie z.B. Microsoft, die Möglichkeit verschaffen, An- und Aberkennung von Identitäten zu verwalten, könnte und müsste sie diese in der Konkurrenz zu ihrem Vorteil, für ihre Partikularinteressen, verwenden. Das werden weder andere Kapitalien zulassen noch der Staat selbst, der zur Verhinderung solcher Konkurrenzvorteile Kartell- und Wettbewerbskommissionen unterhält.11 Die Akteure der digitalen Ökonomie, die selbst versuchen, Authentifizierungslösungen zu etablieren, stehen letztlich vor einem unauflösbaren Legitimationsdefizit und sind darin auf den Staat verwiesen. Microsoft scheint sich inzwischen dieses Problems bewusst zu sein und hat im Zusammenhang mit Palladium/NGSCB schon verlauten lassen, selbst keine Certification Authorities betreiben zu wollen. Das ist ein Hinweis darauf, dass die Firma davon ausgeht, dass bei der Einführung von Palladium/NGSCB im Jahre 2005 allgemein zugängliche Public-Key-Infrastrukturen existieren. Daran zeigt sich außerdem, dass Befürchtungen, Microsoft oder ein anderer großer wirtschaftlicher Akteur könnte das Problem der Online-Authentifikation rein auf dem Marktweg erledigen und dort eine Monopolstellung erringen, zu kurz greifen. Vielmehr zeigen die bis hierher dargestellten Prozesse, dass die De-Anonymisierung des Internet zwar mit wirtschaftlichen Akteuren, aber nicht durch sie al10 Natürlich stehen die Staaten wiederum untereinander als Standorte in Konkurrenz um Kapitalinvestitionen. 11 Vgl. Gerald Himmelein: »Blick ins Schloss. Details zu Palladium/ NGSCB«, S. 193.

108

DER STAAT UND DAS AUTHENTIFIZIERUNGSPROBLEM

lein, stattfinden kann. Die vierte Phase der Entwicklung des Internet bedeutet auch eine Wiederkehr des Staates. Mit der De-Anonymisierung des Internet betreibt der Staat nicht allein die notwendige rechtliche Regulation eines neuen gesellschaftlichen Interaktionsraums. Über die Etablierung von Vertragssicherheit und Rechtsfähigkeit hinaus hat er an der Herstellung der Warenförmigkeit digitaler Produkte ein eigenes, existentielles Interesse. Hier nimmt die wechselseitige Verwiesenheit von Staat und Wirtschaft beim Authentifizierungsproblem noch einmal eine besondere Gestalt an.

Zur Bedeutung der Warenförmigkeit digitaler Produkte für den Staat Wenn, wie gesagt, das Internet zu einem primären Vehikel der Wirtschaft geworden und sogar eine ganze Klasse nicht-stofflicher Produkte entstanden ist, stellt sich für den Staat die Frage, wie dieser Anteil des gesellschaftlichen Mehrproduktes zu besteuern ist. Steuern bilden die Haupteinnahmequelle des Staates und sind notwendige Voraussetzungen seiner Existenz. Die digitalisierte Produktionsweise im Allgemeinen und digitale Produkte im Besonderen stellen an die hoheitliche Allokation von Einkommen und Gewinnen für die Steuererhebung (und die Bezollung) besondere Anforderungen. Die Feststellung von Herkunft (Produktionsstandort = Steuerstandort), vor allem aber die Erhebung der genauen Verkaufszahlen eines Produktes sind ohne eine Personalisierung der Datenströme so gut wie unmöglich. Dazu stellte die Bundesregierung im Jahre 2000 fest: »In Hinblick auf die so genannte Ertragsbesteuerung von digitalen Gütern existiert das Problem der Ermittlung des Produktionsstandortes, der Einkünfte und der Verrechnungspreise. Digitale Signaturen ermöglichen potentiell den Nachvollzug des Weges der für diese Fragen relevanten Transaktionen in digitalen Netzen.«

12

12 Siehe: Aktionsprogramm der Bundesregierung »Innovation und Arbeitsplätze in der Informationsgesellschaft des 21. Jahrhundert«, http://www.iid.de/aktionen/aktionsprogramm/deckblatt.html.

109

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Die Frage nach der Verbrauchsbesteuerung von über das Internet gehandelten (körperlichen) Waren ist dagegen schon länger eindeutig geklärt: die Umsatzsteueraufkommen aus dem Handel mit diesen Produkten fließen dem Land zu, in dem diese Güter genutzt oder verbraucht werden (sog. Bestimmungslandprinzip). Digitale Signaturen sind also Instrumente, die neben der genannten Herstellung von Rechtssicherheit bei Verwaltung, Produktion und Handel auch der Durchsetzung der Steuerhoheit des Staates im Netz dienen. Der Staat hat somit ein eigenes existentielles Interesse an der Personalisierung der Datenströme. Er muss genau wissen, wer wann wo wie viele digitale Produkte produziert und wer wann wo wem welche dieser Produkte verkauft bzw. sie konsumiert. Er muss in einer digitalisierten Ökonomie die Warenförmigkeit digitaler Produkte nicht nur als ›Dienstleistung‹ für die Wirtschaft mit hervorbringen, er muss es auch, um unter diesen Bedingungen existieren zu können.

Electronic Government und das Internet als allgemeine Infrastruktur – Notwendigkeiten und Perspektiven der De-Anonymisierung des Internet Bis hierher habe ich aus den Bedingungen kapitalistischen Wirtschaftens entwickelt, warum die Nutzer-Authentifizierung derzeit das zentrale Problem ist, das sich zu einem Dreieck aufstellt, in dem Individuen, Staat und Wirtschaft aufeinander verwiesen sind. Fundamentale Voraussetzungen der Existenz dieser Akteure im Internet sind ohne Nutzer-Authentifizierung in Frage gestellt: Zunächst sind Bürger, Handel und Produktion auf Rechtssicherheit angewiesen, die ohne Nutzer-Authentifizierung unmöglich zu gewährleisten ist. Der Staat wiederum sichert in seiner Hoheitssphäre das Recht und muss eine entsprechende Lösung anbieten. Andernfalls entstehen für Wirtschaft und Gesellschaft auf seinem Territorium Rechts- und damit Investitionsunsicherheiten, die die Wirtschaft beinträchtigen und für den betroffenen Staat in der Staatenkonkurrenz zum Standortnachteil geraten können – was neben den unmittelbaren Nachteilen für die Wirtschafts- und Gesellschaftsakteure letztlich den Bestand des jeweiligen Staates selber gefährden kann. Die Nationalstaaten sind weiterhin aus Kostenersparnis- und Effizienzgründen daran interessiert, automatisierbare Verwaltungsvorgänge mit Hilfe

110

DER STAAT UND DAS AUTHENTIFIZIERUNGSPROBLEM

von Computersystemen als Electronic Government zu rationalisieren. Da diese Vorgänge Rechtsgeschäfte beinhalten, ist hier ebenfalls eine Authentifizierungslösung notwendig. Nicht zuletzt die ausführlich wiedergegeben Bedrohungen staatlicher Sicherheit, die aus der Netzanonymität rühren, veranlassen den Staat dazu, hier seine Souveränität zu sichern, indem er sich in die Lage versetzt, auf die Subjekte zuzugreifen. Daran hat auch die Wirtschaft ein Interesse, für die Kriminalität und Terrorismus ein Investitionsrisiko darstellen. Auch die Quasivereinzelung digitaler Produkte erweist sich zuletzt als ein gemeinsames Interesse von Staat und Wirtschaft. Notwendig für die Wirtschaft, um digitale Produkte als Waren realisieren zu können, und doppelt notwendig für die Nationalstaaten: einerseits um als Standort für die Produktion digitaler Waren attraktiv zu sein, andererseits um Steuern auf diese erheben zu können. Auch wenn wirtschaftliche Akteure aus der Lösung des Authentifikationsproblems im Internet gerne ein Geschäft machen würden; es zeigt sich, dass dieses Problem zu allgemein ist, um von unter Konkurrenzdruck stehenden wirtschaftlichen Akteuren allein gelöst zu werden. Was vor diesem Hintergrund von den Nationalstaaten mit dem Electronic Government beabsichtigt ist und angesichts der sich in der Beziehung Staat/Ökonomie/Individuen setzenden Zwänge auch angestrebt sein muss, ist im Internet Authentifikationsmechanismen zu etablieren, durch die der Mouseclick zum Willensakt und damit der User zum Bürger wird. Solche vom Staat gestiftete Authentifikation der Nutzer als Bürger bringt gleichzeitig Rechts- und Warenförmigkeit im Digitalen hervor. Das Internet wandelt sich damit zu einer allgemeinen Infrastruktur. Allgemein, da hier eine Struktur vorliegt, die gleichgültig gegenüber ihrer jeweiligen Nutzung an alle gesellschaftlichen Bereiche anschlussfähig ist. Infrastruktur, da die durch staatlich legitimierte Authentifikation hergestellte Rechtsgeltung im Internet selbiges zu einem zentralen, weil sicheren, schnellen und einmalig präzisen Vehikel staatlichen und gesellschaftlichen Handelns macht. Um dieses Ziel der vierten Phase der Entwicklung des Internet zu erreichen, ist letztlich dessen möglichst vollständige DeAnonymisierung notwendig. Ob das realisierbar sein wird, muss die Zukunft zeigen. Wie im vorhergehenden Überblick gezeigt, haben in den letzten drei Jahren die Ereignisse um das Problem der Nutzerauthentifizierung im Internet stetig an Dynamik gewonnen.

111

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Selbst einst schärfste Konkurrenten haben Allianzen gebildet, die ausschließlich diesem Problem gewidmet sind; während sich gleichzeitig die Nationalstaaten einen Wettbewerb darum liefern, wer als erstes die Digitale Signatur in breitem Rahmen unter seine Bürger bringt. Mittlerweile ist zu konstatieren, dass alle relevanten mit dem Internet befassten Akteure hier tatsächlich mehr oder weniger an einem Strang ziehen. Die Chancen auf eine Realisierung einer allgemein durchgesetzten Nutzerauthentifizierung steigen damit eher, zumal nicht ein einziger Akteur in Sicht ist, der sich gegen diese Entwicklung stellt. Die möglichen Folgen eines De-Anonymisierungsprozesses gehen noch weit über die Etablierung von Rechtsgültigkeit im Internet und die Quasivereinzelung digitaler Produkte hinaus. An dieser Stelle möchte ich einige mir für die weitere Diskussion zentral erscheinende Komplexe aufzeigen, bevor ich im abschließenden Teil dieses Buches versuche, einen ersten Zugang zur Bedeutung eines de-anonymisierten Internets für staatliche Verwaltung zu gewinnen. Es ist der Computer in seiner grundsätzlichen Gestalt selbst, der von den Folgen des De-Anonymisierungsdrucks betroffen ist. Es steht zu fragen, ob ein Computer, der Prozesse nur noch auf der Grundlage von Authentifikation vollzieht, noch eine TuringMaschine ist. Oder ob da fortan ein anderer Geist in der einst universellen Maschine haust, dessen Imperative nicht von kognitiven Agenten eingegeben werden, sondern aus den Zwängen des Kapitalismus eingeblasen sind.13 Die Lösung des Authentifikationsproblems im Electronic Government mithilfe der Digitalen Signatur bedeutet die faktische Schaffung einer Schnittstelle zum Internet für jeden Bürger. Und 13 Diese fundamentale Frage über den Charakter des Computers unter Bedingungen des Authentifikationszwangs spricht auch Stefan Krempl im bereits zitierten Interview mit den Intel-Mitarbeitern David Grawrock und Jeff Austin an, ohne allerdings Antwort zu erhalten: »Neben den Datenschutzaspekten bleiben die Befürchtungen der Anwender, dass TCPA und darauf aufsetzende SoftwareLösungen eine wesentliche Komponente der universalen Maschine und der digitalen Datenverarbeitung einschränken werden – nämlich das Kopieren. Inwieweit waren die Musik- und Medienindustrie Geburtshelfer der TCPA?« Dazu Grawrock: »Die Mitglieder der Allianz sind öffentlich bekannt. Darunter sind keine Medienkonzerne; es war auch niemand aus diesem Bereich an unseren Überlegungen beteiligt.«. Vgl Stefan Krempl: »Hardware lügt nicht, Intels Philosophie des ›vertrauenswürdigen‹ Rechner«, S. 20-21.

112

DER STAAT UND DAS AUTHENTIFIZIERUNGSPROBLEM

damit die endgültige Einlösung des Versprechens individueller Adressierung mit und durch das Internet. Denn ein Individuum, das staatlicherseits mit einer Signatur versehen wurde, ist eine bestimmte Person und keine andere. Darüber hinaus werden Individuen und ihre Aktivitäten im und mit dem Netz adressier- und aufschreibbar. Aktivitäten im Netz sind als Handlungen von Personen bestimmbar. User werden zu Autoren ihres Tuns, zu Subjekten. Der ›Raum‹ ihrer Aktivitäten, das ortlose Internet, wird im selben Zuge faktisch ein Territorium; bedeutet Aufschreiben doch auch Festhalten von Zeit und Ort des Geschehens, was wiederum die Zuordnung des Urhebers der Aktivitäten zu einem Staatsbürger ermöglicht. Auf diesem Wissen, wer wann wo was getan hat, kann staatliche Souveränität im und mit dem Internet sich sicher gründen. Doch auch unterhalb dieser fundamental die Existenz von Staatlichkeit betreffenden Ebene bringt ein deanonymisiertes Internet Potenziale mit sich, die vor allem die bürokratische Form der Beziehung des Staates zu seinen Bürgern betreffen. Deren mögliche Gestalt soll im Folgenden vorläufig umrissen werden.

113

INTERVENTIONSEBENEN DES ELECTRONIC GOVERNMENT »E-Government ist ein tiefgreifender Strukturwandel, der die historisch gewachsenen Distanzen zwischen Verwaltung und Bürgern aufhebt. Leitbild ist der Staat als Partner.« Alfred Tacke1

Das fast vollständige Fehlen einer kritischen Aufarbeitung des Electronic Government und seiner Konsequenzen auf die Beziehung von Staat und Gesellschaft ist bemerkenswert. Gleichzeitig existiert auf allen Ebenen, von der kommunalen bis zur internationalen, eine riesige und schnell wachsende Menge an größtenteils ›grauen‹ Fachpublikationen, die zumeist direkt aus den zuständigen Verwaltungsressorts bzw. von den einschlägigen EDV-Dienstleistern und Unternehmensberatungen stammen. Der soziale und ökonomische Hintergrund des Electronic Government wird in diesen Schriften weitgehend sporadisch abgehandelt, der Schwerpunkt des Interesses liegt eindeutig auf konkreten Anwendungs- und Umsetzungsproblemen von Electronic Government. Ausgehend von den in diesen Materialien angegebenen Rationalisierungsperspektiven und dem im Vorhergehenden Entwickelten, lässt sich konstatieren, dass Electronic Government auf sämtlichen Ebenen staatlichen Verwaltens tief greifende Veränderungen mit sich bringt. Der folgende Überblick ist als erste Näherung konzipiert und erhebt keineswegs Anspruch auf Vollständigkeit. Beginnend mit einem Umriss der Geschichte des Electronic Government in Deutschland schreitet der Überblick über die Implikationen von Electronic Government für die Binnenstruktur staatlicher Verwaltungen zu den 1

Aus der Eröffnungsrede des Staatssekretärs Alfred Tacke auf dem Kongress »E-Government meets E-Business«. Abgedruckt in: Bundesministerium für Wirtschaft und Arbeit: »E-Government meets EBusiness«, Bonn 2003, S. 18.

115

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

im Eingangszitat angesprochenen ›Distanzveränderungen‹ zwischen Staat und Gesellschaft durch elektronisches Regieren fort.

Zur Geschichte des Electronic Government Ein erster Blick auf das in fast allen Industrienationen zu beobachtende Phänomen des Electronic Government ergibt zunächst, dass weniger das Authentifikationsproblem im Vordergrund steht, sondern vor allen Dingen die damit zu erzielenden Vorteile und Kostenersparnisse für Staat und Gesellschaft hervorgehoben werden. Dieser auf Effizienz und Kostenersparnis fokussierte Diskurs um das Electronic Government geht zurück auf den mit Beginn der achtziger Jahre einsetzenden, gewöhnlich mit dem Begriff Neoliberalismus belegten, Umbau der Strukturen der Industrienationen. Wesentlicher Bestandteil dieser Entwicklung war spätestens seit Ende der 1980er Jahre neben der Privatisierung der Versorgungs-, Verkehrs- und Telekommunikationssektoren der Umbau der staatlichen Verwaltungsapparate.2 Angepeiltes Ziel der Reformbemühungen war der Wandel staatlicher Institutionen zu Dienstleistungseinrichtungen, die ihre interne Struktur nach dem Leitbild der ›Kundenorientierung‹, also nach den ›Bedürfnissen‹ ihrer Kunden, der Bürger, ausrichten sollten. Die Einführung horizontaler Hierarchien (sprich Wegfall mehrerer gutdotierter Leitungsebenen) sowie Budgetierung, vor allem aber die Etablierung des Konkurrenzprinzips zwischen verschiedenen Verwaltungsstandorten sollten insgesamt zu mehr Ausgabendisziplin, Prozessoptimierung und Leistungsverbesserung bei gleichzeitiger Senkung der Kosten führen.3 2 3

Siehe den Überblick bei Michael Felder: »Verwaltungsmodernisierung, die Transformation von Staatlichkeit und die neue Sozialdemokratie«, in Utopie Kreativ 121/122 (2000), S. 1090-1102. Zu den ideologischen Hintergründen des Phänomens Verwaltungsmodernisierung mit Schwerpunkt auf der Entwicklung in der Schweiz gibt die klassenkämpferisch gefärbte, aber fundiert recherchierte Arbeit von Allesandro Pelizzari Auskunft. Allesandro Pelizzari: Die Ökonomisierung des Politischen. New Public Management und der neoliberale Angriff auf das Soziale, Konstanz: UVK 2001. Neben der schon angeführten Arbeit von Michael Felder und dem sehr guten diskursanalytischen Überblick von Hendrik Vollmer (Hendrik Vollmer: »Ansprüche und Wirklichkeiten des Verwaltens im Reformdiskurs der neunziger Jahre«, Zeitschrift für Soziologie 1/2002, S. 4465) ist dies die einzige kritische Veröffentlichung zum Themenkomplex. In Deutschland ist im Übrigen die Verwaltungsmodernisierung

116

INTERVENTIONSEBENEN DES ELECTRONIC GOVERNMENT

Etwa ab Mitte der 1990er Jahre ist der ursprünglich von konservativer Seite geführte und dominierte staatskritische Diskurs von der ›Neuen Mitte‹ aufgenommen und in spezifischer Weise gewendet worden. Während der konservative Neo-Liberalismus einen ›schlanken Staat‹ forderte, positionierte sich die Neue Mitte in zweifacher Weise dazu: sie teilte die Ansicht, dass ein Umbau des Staates aus Kostengründen notwendig sei, insistierte aber darauf, dass es bei einem bloßen Abschaffen staatlicher Institutionen und Leistungen nicht bleiben könne. Ein minimalisierter Staat könne nur im Hinblick auf die Kosten ein Ziel sein, nicht im Hinblick auf seine Leistungen und Institutionen. Vielmehr müsse überlegt werden, wie sichergestellt werden kann, dass nicht mehr öffentlich finanzierbare, aber wichtige Leistungen und Institutionen anders erhalten werden können. Gegen den ›schlanken Staat‹ ist in Deutschland in diesem Zusammenhang der Begriff des ›aktivierenden Staates‹ geprägt worden. Der ›aktivierende Staat‹ hebt auf eine ›gemeinsame‹ Leistungserstellung durch Staat und Gesellschaft ab. Vor diesem Hintergrund und den sich gleichzeitig abzeichnenden Potenzialen des Internet entwickelten sich die vorgestellten Ideen des Electronic Government. Dabei gehen aufgrund der neuen technologischen Möglichkeiten die Absichten der Verwaltungsmodernisierung im Sinne von Electronic Government weit über die ursprünglichen Konzepte hinaus. Spätestens seit 1998 ist Electronic Government zum Motor der Verwaltungsmodernisierung geworden, nachdem dieser Prozess zunächst durch die erheblichen Widerstände der Beschäftigten, durch juristische Probleme und überzogene Zielvorstellungen weit hinter den eigentlichen Zielsetzungen zurückgeblieben war.4

4

wesentlich von zwei außerstaatlichen Institutionen forciert worden: der Kommunalen Gemeinschaftsstelle (KGST) und der Bertelsmann Stiftung. Beide Einrichtungen haben umfangreiche Schulungsprogramme, Wettbewerbe und Kongresse, aufgelegt, die sich direkt an ›Entscheider‹ in den Verwaltungen richteten und die im Fall der Bertelsmann Stiftung häufig sogar international ausgerichtet waren. Vgl. www.kgst.de und www.bertelsmannstiftung.de. Für die Situation in Deutschland vgl. die Rede Otto Schilys auf dem Kongress ›Effizienter Staat‹ am 5.4.2001 in Berlin: www.effizienterstaat.de sowie H. Vollmer: »Ansprüche und Wirklichkeiten des Verwaltens im Reformdiskurs der neunziger Jahre«, S. 44-65.

117

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

In Deutschland fällt die Etablierung einer konsistenten Strategie zur Verwaltungsmodernisierung in Richtung eines Electronic Government mit dem Regierungswechsel 1998 zusammen. Von der Öffentlichkeit wenig wahrgenommen, ist Electronic Government ein zentrales Politikfeld der rot-grünen Koalition.5 Mit erheblichem politischen Engagement und ebenso erheblichem finanziellen Aufwand betreibt diese unter dem Schlagwort Electronic Government nach eigenen Angaben eine ›Verwaltungsrevolution‹. Die Grundsätze dieser Politik finden sich im Kabinettsbeschluss der Bundesregierung »Moderner Staat – Moderne Verwaltung – Deutschland erneuern« vom 01.12.1999. Dort heißt es: »Leitbild aktivierender Staat: Methoden der Staats- und Verwaltungsmodernisierung sind seit längerem bekannt; was auf der Bundesebene bisher fehlt, ist der entscheidende Schritt zu einer konzentrierten Gesamtreform. […] Der Bund wird […] moderne Informations- und Kommunikationstechnik in breiter Form einsetzen, um den Übergang zur ›Elektronischen Verwaltung‹ (›Electronic Government‹) zu vollziehen.«6

In diesem Zusammenhang hat die Bundesregierung Projekte mit illustrativen Namen wie www.staat-modern.de, www.effizienterstaat.de und www.bundonline2005.de aufgelegt. Allein auf Bundesebene existierten im Jahre 2003 15 hochsubventionierte Leitprojekte wie Media@komm (www.mediakomm.net – Volumen 30 Mio. EUR) neben 23 zusätzlichen Projekten, die jeweils spezifische Aspekte des Electronic Government anwendungsreif machen sollen.7

5

6 7

Was auch darin seinen deutlichen Ausdruck findet, dass die in der ersten rot-grünen Legislaturperiode für das Electronic Government zuständige Staatssekretärin Brigitte Cypries nach dem neuerlichen Wahlsieg von Rot-Grün 2002 Justizministerin geworden ist. Siehe http://www.staat-modern.de/programm/index.html. International liegen die Summen ähnlich hoch. Vgl für Europa: http://europa.eu.int/information_society/eeurope/index_en.htm, einen kurzen Überblick der Entwicklungen in Asien bietet: http://www.heise.denewsticker/data/wst-21.05.01-002/, ein besonders ehrgeiziges Programm mit 10 Mrd. US-Dollar Volumen hat Japan vorzuweisen: http://www.kantei.go.jp/foreign/it/network/ priority-all/index.html.

118

INTERVENTIONSEBENEN DES ELECTRONIC GOVERNMENT

Interne Ebene: E-Government als Rationalisierungsinstrument Bürokratie, so Max Weber in ›Wirtschaft und Gesellschaft‹, zeichnet sich aus durch Regel, Zweck, Mittel, sachliche Unpersönlichkeit.8 »[D]ie bürokratische Organisation bedeutet […] Perfektionierung von Herrschaft, indem sie dem Herrn die Chance gewährt, das Handeln des Verwaltungsstabes lückenlos, auf der ganzen Linie, primär mittels formaler Regeln programmieren, mithin festlegen und binden zu können«9. Die Analogien zwischen einem idealtypischen bürokratischen Apparat und einer programmgesteuerten Maschine wie dem Computer sind augenscheinlich: beide sind im Grunde regelgeleitete informationsverarbeitende Systeme. Darüber hinaus liegt, wie im Abschnitt über die wirtschaftliche Bedeutung des Internet erläutert, die Leistung von Bürokratie und Computersystemen in ihrer Fähigkeit, mittels strukturierender und verdichtender symbolischer Repräsentation die Verfügbarkeit materieller und immaterieller Prozesse zu erhöhen. Vernetzte Computersysteme ermöglichen die Automation und Ausdehnung solcher Strukturen über große Bereiche und Entfernungen und bringen gleichzeitig das Potenzial zur Einholung der individuellen Ebene mit sich. Netzdichte und die Verfügbarkeit von Schnittstellen bestimmen dabei, welche (gesellschaftlichen) Bereiche über eine solche Struktur eingeholt werden können. Auf der internen Ebene staatlicher Verwaltungen bedeutet E-Government somit zunächst die Möglichkeit der weit gehenden Automation bürokratischer Vorgänge mittels vernetzter Computertechnik. Weiterhin bringen Computersysteme keine Loyalitätsprobleme mit sich. Das mit zunehmender Komplexität der Verwaltungen in diesen akkumulierte Herrschaftswissen, das von den Beamten und Angestellten tendenziell für partikulare Interessen verwandt werden kann, setzte die Bürokratie immer schon in ein Spannungsverhältnis zur Politik. Die daraus resultierende Notwendigkeit, die in der Verwaltung tätigen Subjekte mit Hilfe von Disziplinierungsmaßnahmen und Promotionsmöglichkeiten zu lenken und zu binden, fällt bei Computern weg. So gesehen ist Electronic Government auch als ein 8 9

Vgl. Max Weber: Wirtschaft und Gesellschaft, Tübingen: J.C.B. Mohr 1972, S. 650. Tyrell 1981, zitiert nach Stephan Breuer: Max Webers Herrschaftssoziologie, Frankfurt/Main, New York: Campus Verlag 1991, S. 210.

119

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

›Wiederbemächtigungsversuch‹ der Politik gegenüber der Verwaltung zu verstehen. Für die Binnenstruktur der Verwaltungen resultiert Electronic Government folglich in einem umfangreichen Rationalisierungsprozess. Die Aufgaben einer ganzen Reihe von Beamten und Angestellten können durch technische Systeme erledigt werden. Entsprechend kommt es innerhalb der Verwaltungen zu starken Veränderungen der Abläufe und Hierarchien, die nach dem Vorbild von moderner, softwaregestützter Unternehmensführung reorganisiert werden. Zentralen Stellenwert hat bei allen Electronic Government Projekten die Einführung der aus der Wirtschaft bekannten Enterprise Ressource Management Software (ERM) wie z.B. SAP/R3 und die damit verbundene automatisierte Abwicklung von Prozessen bei gleichzeitiger Kontrolle der Materialflüsse und Personalleistungen in Echtzeit. Es sollen also die Instrumente präziser Mittelallokation und individueller Ansprache, die sich in der Wirtschaft als kostensenkend bewährt haben, selbige Wirkungen auch für die Verwaltungen zeitigen. Verwaltungsintern ist der wesentliche Effekt, dass bei diesen Systemen die gesamte mittlere Führungsebene wegfallen kann. Entsprechend den Paradigmen der Verwaltungsmodernisierung10 wird mit Hilfe dieser Technologien der Umstieg von der kameralistischen Buchführung auf die in der Wirtschaft übliche doppelte Buchführung vorangetrieben. Dabei betreibt der Staat die automatisierten Verwaltungsvorgänge zunehmend nicht mehr selbst, sondern vergibt die Durchführung im Rahmen so genannter ›Public Private Partnerships‹ nach dem Modell des Outsourcing an privatwirtschaftliche Unternehmen wie IBM, Siemens etc. Neben der Datenverarbeitung werden auch andere bisher öffentlich getragene Leistungen per ›Kontrakt‹11 in Public Private Partnerships verlagert, z.B. das ›Facility Management‹, Teile des Renten- und Sozialversicherungswesens (siehe Rentenreform) und natürlich auch die Trust Center, die damit für das Internet faktisch die Funktion von Meldeämtern12 erhalten. 10 Vgl. z.B. die Papiere der Kommunalen Gemeinschaftsstelle: »Das neue Steuerungsmodell. Begründung, Konturen, Umsetzung« Bericht Nr. 5/1993, außerdem dieselbe: »Wege zum Dienstleistungsunternehmen Kommunalverwaltung. Fallstudie Tilburg«, Bericht Nr. 19/1992, gesehen auf http://www.kgst.de. 11 Vertrag zwischen öffentlicher Seite und Privatunternehmen. 12 Siehe z.B. das Trustcenter der Telekom: http://www.telesec.de.

120

INTERVENTIONSEBENEN DES ELECTRONIC GOVERNMENT

Bezüglich der rechtlichen Rahmenbedingungen, die den Privatunternehmen eine gewinnträchtige Verarbeitung der anfallenden Daten ermöglichen würde, zeigt sich ein widersprüchliches Bild. Im schon zitierten Kabinettsbeschluss ›Moderner Staat‹ heißt es unter dem Punkt »Rechtliche Regelung[en] für Public Private Partnership[s]«: »Die Bundesregierung wird rechtliche Rahmenbedingungen für kooperative Vertragsverhältnisse [zwischen privaten Verwaltungsdienstleistern und öffentlicher Verwaltung] schaffen.«13 Angestrebt ist außerdem »Identifizierung und Abbau rechtlicher Hemmnisse für neue Dienstleistungen: Anhand konkreter Fälle werden Probleme in neuen Dienstleistungsbereichen ermittelt, die auf rechtliche Bestimmungen zurückzuführen sind.«14 Auf der anderen Seite wurde im Jahre 2001 das Bundesdatenschutzgesetz novelliert, das die Möglichkeiten der personengebundenen Weiterverarbeitung ohne vorherige Einwilligung der Betroffenen stark einschränkt.15 Gleichwohl ist eine solche Datenverarbeitung gängige Praxis. Im Internet wird den Nutzern häufig bei der Registrierung zu bestimmten Diensten das Einverständnis zur Verarbeitung der anfallenden Daten aufgenötigt,16 weiterhin wird generell nach dem Motto »wo kein Kläger, da kein Richter« verfahren.17 In von Unternehmensberatungen erstellten Gutachten zu Electronic Government wird davon ausgegangen, dass es im Zuge dieses 13 Kabinettsbeschluss »Moderner Staat – Moderne Verwaltung« S. 6, siehe http://www.staat-modern.de/programm/index.html. 14 Kabinettsbeschluss »Moderner Staat – Moderne Verwaltung«, S. 7. Analoge Aussagen finden sich im »Aktionsplan eEurope2002« der Europäischen Union: http://europa.eu.int/ISPO/basics/eeurope/i_eur ope_follow.html, S. 9f. 15 Siehe den Gesetzestext des Bundesdatenschutzgesetzes: http:// www.bfd.bund.de/information/bdsg_hinweis.html, außerdem: Holger Bleich, Christiane Schulzki-Haddouti: »Neues Datenschutzgesetz in Kraft getreten«, in: c´t Magazin für Computertechnik 12/2001, S. 44. 16 So unter anderem beim Free-Mailer GMX, vgl. www.bigbrother awards.de. 17 Werner Schmid, Sprecher des Bundesdatenschutzbeauftragten, fordert denn auch, dass die Realität der Datenverarbeitung anerkannt werden müsse und nicht verteufelt gehöre: »Nicht Daten sind zu vermeiden, sondern deren Personenbezug« Anonymität und anonymitätsnahe Pseudonyme sollen per Gesetz als Vorzugslösung vorgeschrieben werden. Holger Dambeck: »Abschied vom Privaten«, in c´t Magazin für Computertechnik 14/2001, S. 48. Vgl. auch Florian Schmitz: »Datenschutz mit kleinen Fehlern«, in: c´t Magazin für Computertechnik 5/2001, S. 222.

121

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Verwaltungsoutsourcings zu einer Ausdünnung des Behördennetzes in der Fläche und zu einer Zentralisierung staatlicher Stellen auf die Regierungssitze als Kompetenzzentren kommen wird.18 Gleichzeitig wird eine Dezentralisierung der Verwaltungszugänge in Form von kommunalen Serviceläden und mobilen Serviceeinheiten sowie durch den individuellen Internetzugang angestrebt. Damit deutet sich analog zu den von Saskia Sassen und Manuel Castells für die Wirtschaft beschriebenen Prozessen eine Dynamik der räumlichen Verdichtung von politischen ›Entscheidungszentralen‹ an – eine neue Geographie der Macht. Letztlich eine paradoxe Entwicklung, in der die scheinbare Überwindung von Raum und Zeit durch das Internet in einer verstärkten Resituierung von Individuen und Stätten der Macht im Raum mündet.19

Externe Ebene: Electronic Government als Partizipationsinstrument Neben dem Rationalisierungs- und Effizienzdiskurs wird die Außendarstellung des Electronic Government von einem Bequemlichkeitsdiskurs dominiert. Hervorgehoben wird der erleichterte Informationszugang für Bürger und Wirtschaft und vor allem die Möglichkeit, mit der Digitalen Signatur den Dokumentenverkehr zwischen und mit Behörden ›medienbruchfrei‹, das heißt ohne Formulare oder ähnliches ausdrucken und unterschreiben zu müssen, abwickeln zu können. Medienbrüche, so die Argumentation, bedeuten einen erhöhten Kostenaufwand durch die Notwendigkeit, die Daten in verschiedenen Medien konsistent zu halten und gegeneinander abzugleichen. Sie sind damit eine potenzielle Fehlerquelle und stehen nicht nur aus diesem Grund den Rationalisierungsperspektiven des Electronic Government im Weg. Vor allem aber sind Medienbrüche für die Nutzer, also auch die Bürger, unbequem. Die Digitale Signatur kann, so die gängige Argumentation, solche dem Internetzeitalter nicht mehr angemessenen Medienbrüche zum Vorteil aller vermeiden helfen. Damit soll eine größere Bürgernähe und Vereinfachung 18 Vgl. Maria Benning, Frank Steimke (2001): »Rathaus von zu Haus. Erste Symptome von Internetfähigkeiten bei Behörden«, in c´t Magazin für Computertechnik 7/2001, S.218. 19 Vgl. Saskia Sassen: »Kontrollverlust? Der Staat und die neue Geographie der Macht«, S. 448f.

122

INTERVENTIONSEBENEN DES ELECTRONIC GOVERNMENT

von Verwaltungsvorgängen erreicht werden – Stichwort: »Die Daten sollen laufen, nicht die Bürger.«20 Durch die Abwicklung von Behördengängen über das Internet per ›single click government‹ im ›virtuellen Rathaus‹, in dem es im Übrigen keine Warteschlangen gibt, sollen die Bürger vom lästigen Gang zur Amtsstube befreit werden. Auch gegenüber der Wirtschaft wird ein neues bürokratiearmes Zeitalter beschworen, in dem durch die Automation der Behördeninteraktion per Internet, etwa bei Handelsstatistiken oder der elektronischen Vergabe,insgesamt weniger Mitarbeiter für die Bearbeitung von administrativen Anforderungen abgestellt werden müssen.21 Weniger sichtbar, aber von hoher Bedeutung für die Legitimation des Electronic Government ist schließlich der Diskurs um die zivilgesellschaftlichen Potenziale einer ›transparenteren‹ und ›kommunikativeren‹ elektronischen Demokratie (E-Democracy). Die Interaktionen ›Government to Citizen‹ (G2C) bzw. ›Citizen to Government‹ (C2G), aber auch ›Government to Business‹ (G2B) und andersherum ›Business to Government‹ (B2G) sollen sich hier im Sinne besserer Partizipationsmöglichkeiten und geringeren Informationsgefälles zwischen Verwaltung und Gesellschaft verbessern.22 Spätestens hier schließt Electronic Government an die in den 1990er Jahren entstandenen Bilder des Internet als (basis-)demokratischen Mediums an. Der Blick in die politischen Programme, vor allem aber auf die tatsächlich laufenden Verwaltungsprojekte zeigt,23 dass diesem zivilgesellschaftlichen Aspekt im Electronic Government jedoch keine wirkliche Priorität zukommt.24 Vielmehr steht die geschilderte 20 So der Titel der Informationsbroschüre zum neuen Meldegesetz: »Die Daten sollen laufen, nicht die Bürger«, gesehen auf: http://www.bundesregierung.de/top/dokumente/Artikel/ix_48106 .htm?template=single&id=48106_434&script=1&ixepf=_48106_434. 21 Vgl. den Bericht der Initiative »Abbau bürokratischer Hemmnisse« des Bundesministeriums für Wirtschaft und Technologie: http:// www.bmwi.de/textonly/Homepage/Presseforum/Pressemitteilunge n/2001/1320prm1.jsp. 22 Vgl. die Übersicht bei Beate Hoecker: »Mehr Demokratie via Internet. Die Potenziale der digitalen Technik auf dem empirischen Prüfstand«, in: Aus Politik und Zeitgeschichte, B39-40 (2002). 23 Ich beziehe mich hier auf die deutsche Situation. International bietet sich ein ähnliches Bild. 24 Das vom BMWI herausgegebene Arbeitsprogramm zur Selbstevaluation von Kommunen zur Umsetzung von Electronic Government misst

123

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

drastische Umgestaltung von Verwaltungsprozessen im Mittelpunkt, wobei mit Hilfe der Informationstechnik die Optimierung der Kosten- und Nutzeneffizienz für Verwaltung und Politik erreicht werden soll. Dies gilt auch und gerade für den Einsatz von Electronic Government bei den gegenwärtigen Modernisierungsprojekten des Sozialstaates im Bereich Arbeitsmarkt- und Gesundheitspolitik.25 Gerade im Zusammenhang mit dem Sozialstaat scheint mir ein zentrales Projekt des E-Government darin zu liegen, unterhalb der demokratischen Partizipation Modi der Beteiligung herzustellen, die aus der Übernahme von ›post-tayloristischer Bürokratie‹ aus der Betriebsführung in das staatliche Organisationsrepertoire rühren. Diese Beteiligungsformate ergeben sich aus dem veränderten Status der Subjektivität der Verwalteten bei Allokation und Monitoring von Ressourcen durch moderne bürokratische Apparate. Electronic Government und die Reform des Sozialstaates Die Universalisierung des Internet, sowie die über alltägliche Vorgänge vermittelte ständige Repräsentanz der Individuen darin, führt zwangsläufig zu einer riesigen Datenansammlung über deren Aufenthaltsorte, Bewegungen, Interaktionen, Handeln und dergleichen mehr. Mithilfe dieser Daten ist im Electronic Government eine Erhöhung der rationalen Tiefenschärfe von Entscheidungsprozessen in der Bürokratie möglich. An Stellen, an denen die Entscheidungsraster der klassischen Bürokratie maximal gruppenzentriert waren, können jetzt individualzentrierte Verfahren treten. Der Zugriff ist dabei unglaublich viel kleinräumiger als mit der traditionellen Bürokratie bisher realisierbar; winzige Lebensbereiche müssen jetzt der Umsetzung von partizipatorischen Elementen wie formeller und informeller Beteiligung, Foren, Umfragen, Abstimmungen und Transparenz (sic!) nur mittlere Priorität zu. Vgl. Busso Grabow (Hg.): Erfolgsfaktoren – Was bei der Gestaltung virtueller Rathäuser zu beachten ist, Berlin: Bundesministerium für Wirtschaft und Technologie 2002, S. 26. Dieses Bild deckt sich mit der Masse der konkreten politischen und verwaltungstechnischen Projekte (Vgl. auch hier den Überblick bei B. Hoecker 2002). 25 Bisher liegen hier konkret nur die Ergebnisse der ›Hartz-Kommission‹ vor. Vgl hier den ›Bericht der Kommission‹: »Moderne Dienstleistungen am Arbeitsmarkt« [Kurzfassung des so genannten HartzKonzepts] S. 22, S. 27 und S. 31, gesehen auf http://www.antihartz.de. Bzgl. der mit dem Umbau des Gesundheitswesens befassten ›Rürup-Kommission‹ ist bisher lediglich bekannt geworden, dass ein ›Elektronischer Gesundheitsausweis‹ eingeführt werden soll.

124

INTERVENTIONSEBENEN DES ELECTRONIC GOVERNMENT

nicht mehr pauschal berechnet, sondern können individuell erfasst werden. Verwaltung ist damit außerdem kein in der Regel zeitlich nachlaufendes Phänomen mehr, sondern bekommt potenziell simultanen Charakter. Die über das Internet vermittelte unmittelbare Einholung der Individuen in Verwaltungsprozesse ermöglicht die Anwendung von Evaluations- und Benchmarking-Prozessen, wie sie bisher innerhalb von Wirtschaftsbetrieben genutzt wurden, auf größere soziale Einheiten (s.u.). Technisch beschränkt ist ein solches Modell, wie oben gesagt, durch die Netzdichte und die Schnittstellen. Pervasive Computing ist zwar ein Fernziel der Entwicklung, aber schon mit der Einführung der nächsten Mobilfunkgeneration UMTS wird die Netzdichte in den Industrienationen total. Auch ist mit der weiteren Verbreitung von PCs, Mobiltelefonen und anderen ›Digital Devices‹ die zunehmende Durchdringung der Alltagswelt der Individuen mit Schnittstellen gegeben. Für das Electronic Government ist aber von besonderer Bedeutung, wie schnell sich Signaturkarten allgemein durchsetzen lassen. Perspektivisch ist zumindest in Deutschland die Zusammenfassung von Personalausweis und Signaturkarte – als so genannte ›Bürgercard‹ – geplant. Einen öffentlich zugänglichen genauen Zeitrahmen dazu gibt es aber meines Wissens nach nicht.26 Von den technischen Voraussetzungen her gesehen entwickelt sich eine Herrschaftsinfrastruktur, die der von Michel Foucault in ›Überwachen und Strafen‹ beschriebenen Architektur des Panopticons entspricht: »Der perfekte Disziplinarapparat wäre derjenige, der es einem einzigem Blick ermöglichte, dauernd alles zu sehen.«27 Ein de-anonymisiertes Internet wäre (beinahe) ein solcher Apparat, ein universelles dynamisches Panoptikum, in dem der Blick zu jedem Zeitpunkt an jeden beliebigen Punkt auf jedes beliebige Subjekt gerichtet werden könnte. Letztlich bedeutet das eine groteske 26 Der Bundesverband Informationswirtschaft, Telekommunikation und Neue Medien e.V. (BITKOM) fordert schon seit längerem eine solche Bürgercard, die außerdem die Gesundheitskarte der Krankenkassen integrieren soll. »Es fehlt bislang allein der klare politische Wille, ein umfassendes Konzept und ein Zeitplan für die Umsetzung. BITKOM ist in dieser Sache in engem Kontakt zum Bundesinnen- und Wirtschaftsministerium.« Aus dem Konzeptpapier »Bürgerkarte für Deutschland« http://www.bitkom.org/index.cfm?gbAction=gbconte ntfulldisplay&ObjectID=48110899-572E-42B6-92D11FFD237A2A68&M enuNodeID=4C872DB6-8470-4B01-A36FD8C1EBA2E22D. 27 Vgl. Michel Foucault: Überwachen und Strafen, S. 224.

125

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Verkehrung der Befreiungsphantasien, die die Linke mit dem Netz verband – die sozusagen auf ein inverses Panopticon hoffte, also die Möglichkeit, ›die Macht‹ ständig sehen und (demokratisch) kontrollieren zu können. Ein solches Modell lässt den Gedanken an ein totalitäres Regime à la ›1984‹ aufkommen. Ich vermute aber, dass die beschriebenen Strukturen entscheidende Unterschiede gegenüber der klassisch orwellianischen Vorstellung vom Überwachungsstaat aufweisen. Während in jenem das zu Kontrollierende die Subjektivität der Staatsbürger war, die es als potenzieller Störfaktor ständig zu überprüfen und einzuschüchtern galt, zielen die den Electronic Government-Diskurs flankierenden Konzepte im Gegenteil gerade auf das Hervorbringen von Subjektivität ab. Sie folgen damit einer Entwicklung, wie sie in der Arbeitswelt schon seit etwa dreißig Jahren zu beobachten ist. Die tayloristischen Konzepte der Betriebsorganisation, die im Fordismus hegemonial waren, zielten auf eine höchstmögliche Unterdrückung und Kontrolle von Subjektivität. In den 1970er Jahren trat hier ein bedeutender Formwandel ein, die Subjektivität und Individualität der Mitarbeiter wurde durch die post-tayloristischen Organisationsmethoden zunehmend als entscheidendes und förderungswürdiges Intensifikationspotenzial entdeckt.28 Diese Bewegung hält bis heute ungebrochen an und hat ihren vorerst letzten Ausdruck im Schlagwort vom ›Unternehmer der eigenen Arbeitskraft‹ gefunden.

28 Vgl. hierzu das schon 1975 vorgelegte Buch von Peter Groskurth/ Walter Volpert: Lohnarbeitspsychologie. Berufliche Sozialisation: Emanzipation zur Anpassung, Frankfurt/Main: Fischer 1975 sowie den in dieser Debatte schon klassischen Text von Voß/Pongratz: G. Günter Voß/ Hans J. Pongratz: »Der Arbeitskraftunternehmer. Eine neue Grundform der Ware Arbeitskraft?«, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie 1 (1998), S. 131-158.

126

E X K U R S : P O S T -T A Y L O R I S T I S C H E B Ü R O K R A T I E Die moderne unternehmerische Bürokratie erbringt ihre Herrschaftsleistung, individuelle Differenzen mehrwertwirksam zu verschalten, anders als die so genannte regelgesteuerte Konditionalbürokratie, die Max Weber (s.u.) idealtypisch beschrieb und die die Grundlage der klassisch gewordenen Arbeitsorganisation, des Taylorismus bildet. Mehrwertwirksame Verschaltung individueller Differenzen bedeutete im Taylorismus die Herstellung möglichst homogener Bedingungen, um »mit Hilfe lokalisierter Körper, codierter Tätigkeiten und formierter Fähigkeiten Apparate zu bauen, die das Produkt verschiedener Kräfte durch kalkulierte Kombinationen vermehren«.1 Max Weber beschrieb in »Wirtschaft und Gesellschaft«, das 1922, zehn Jahre nach Taylors ersten Veröffentlichungen zur Verwissenschaftlichung von Arbeit erschien, Struktur und Leistung idealtypischer Bürokratie wie folgt: »Präzision, Schnelligkeit, straffe Unterordnung, Ersparnisse an Reibungen, sachlichen und persönlichen Kosten sind bei streng bürokratischer Verwaltung […] auf das Optimum gesteigert. […] Vor allem aber bietet die Bürokratisierung das Optimum der Möglichkeit für die Durchführung des Prinzips der Arbeitszerlegung unter Verteilung der einzelnen Arbeiten auf spezialistisch abgerichtete und in fortwährender Übung immer weiter sich einschulende Funktionäre.« Eine solche Bürokra1

So Michel Foucaults Definition der historisch älteren ›Disziplinen‹, die die produktive Seite verwaltender Herrschaft in den Blick nimmt. Die Disziplinen, die grob gesagt während der ursprünglichen Akkumulation entstanden sind, gehen in ihrer Anwendbarkeit über die ›mehrwertwirksame Verschaltung individueller Differenzen‹ hinaus, was im folgenden Kapitel noch eingeholt wird. Vgl. M. Foucault: Überwachen und Strafen, S. 216. Vgl. außerdem zum Zusammenhang von ursprünglicher Akkumulation und Disziplinen: Christoph Engemann: »Big Brother – ein Arbeitshaus im 21. Jahrhundert. Zur Aktualität des panoptischen Modells«, in Prokla 129 (2002), S. 599-617.

127

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

tie wird ›regelgesteuerte Konditionalbürokratie‹ genannt, da sie die Vorgänge in ihrem Verwaltungsbereich in möglichst umfassender und genauer Form als Regeln und Bedingungen zu kodifizieren sucht; sie zeichnete sich durch kleinteilige Vorgaben von Ressourcen und ins Detail gehende Überwachung und Sanktionierung der Arbeitshandlung aus. Die Organisationsstruktur zielte darauf ab, über die Arbeitszerlegung die Subjektivität der Beteiligten möglichst auszuschalten,2 da diese im Prozess als Stör- und Missbrauchsfaktor galt. Gerade aus der sachlichen Unpersönlichkeit, aus der Elimination der Subjektivität der Beteiligten bezog diese Form der Bürokratie ihre Legitimation, garantierte sie doch im Verbund mit der strengen Aktenmäßigkeit sowie der Trennung von den Verwaltungsmitteln,3 dass die verordnete Leistung ohne eigene Vorteilnahme erbracht wurde.4 Der für meine Argumentation entscheidende Punkt, der in der von mir überblickten Diskussion des Phänomens Bürokratie noch nicht bearbeitet wurde, liegt in der Form der Allokation von Ressourcen. Sowohl Webers idealtypische Bürokratie als auch Taylors Arbeitsorganisationskonzepte sind Konditionalsteuerungen, die die Ressourcenverantwortung im Apparat, auf der Ebene der Prozesse ansiedeln. Die Subjekte erhalten für ihre jeweilige Tätigkeit genau zugeteilte Anteile der Ressourcen, deren Verwendung einer zeitlich und räumlich genau vorgeschriebenen (programmierten) Allokation und Überwachung unterliegt.

2

3 4

Weber spricht von »formalistischer Unpersönlichkeit […] ohne Haß und Leidenschaft, daher ohne ›Liebe‹ und ›Enthusiasmus‹ […]« Max Weber: Gesammelte Politische Schriften, Tübingen: J.C.B. Mohr 1980, S. 129. M. Weber: Politische Schriften, S. 126. Für den Produktionsprozess ist diese Charakterisierung natürlich zu schwach formuliert. Arbeitnehmer, die nur über den Verkauf ihrer Arbeitskraft Mittel zur Bedürfnisbefriedigung erlangen können, haben notwendig das Interesse, ihre Arbeitsfähigkeit zu schonen. Dem steht das Interesse des Kapitalisten entgegen, in möglichst kurzer Zeit möglichst viel Arbeitskraft abzurufen Vgl. K. Marx: Das Kapital, insbesondere das Kapitel ›Der Arbeitstag‹, S. 245ff. Eigene Vorteilnahme und damit Einbringen von Subjektivität wäre im tayloristischen Arbeitsprozess die Nutzung der eingesetzten Ressourcen (Rohstoffe, Maschinen, Zeit, Geld etc.) für den Erhalt der eigenen Arbeitskraft bzw. für ›prozessfremde‹ Zwecke.

128

EXKURS: POST-TAYLORISTISCHE BÜROKRATIE

Die post-tayloristische5 Bürokratie verzichtet dagegen auf die aufwändige Zergliederung der Ressourcenvorgaben im Arbeitsvorgang, sondern gibt diese direkt in die Verantwortung der Angestellten und Arbeiter. Bürokratisch definiert wird hier nur noch der Zweck, das Ziel oder neudeutsch das ›Outcome‹ des Prozesses, in den die Ressourcen eingehen. Gleichzeitig werden Transparenzinstrumente implementiert – Vertrag/Kontrakt, Evaluation6 und Benchmarking – die sicherstellen, dass der individuelle Umgang mit den zur Verfügung gestellten Ressourcen im Sinne des Unternehmens abläuft. Mehrwertwirksame Verschaltung individueller Differenzen wird hier nicht durch die Ausschaltung derselben, sondern durch ihre Kultivierung und Optimierung geleistet.7 Unternehmerische Bürokratie fungiert hier immer noch als Kontrollinstrument, bedient sich aber partizipatorischer Modi, um ›gemeinschaftlich‹ zwischen dem Kollektivsubjekt Unternehmen und den Arbeitnehmern das mehrwertwirksame Vorgehen zu organisieren. ›Selbstbestimmte‹ Partizipation der Arbeitnehmer ist hier das Einbringen individueller Eigenschaften für den unternehmerischen Erfolg. Zur Stimulation und Messung mehrwertwirksamer Individualität hat sich ein umfangreiches bürokratisches Instrumentarium entwickelt, das unter den Schlagworten ›participative management by objectives‹, Benchmarking, Evaluation, Human Ressources Management firmiert und in der DIN ISO 900190048 als international gültige Norm niedergelegt wurde.

5

6

7 8

Von ›post-weberianischer‹ Bürokratie möchte ich dagegen nicht sprechen, weil die von Weber beschriebenen Formen weiterhin wirksam bleiben – sie werden lediglich unsichtbarer, v.a. durch ihre Umsetzung als ›Code‹ in Computern. Vgl. Ulrich Bröckling: »Totale Mobilmachung. Menschenführung im Qualitäts- und Selbstmanagement«, in: Ulrich Bröckling/Susanne Krasmann/Thomas Lemke (Hg.), Gouvernementalität der Gegenwart, Frankfurt/Main: Suhrkamp 2000, S. 131-167. Außerdem: Ulrich Bröckling: »Jeder könnte, aber nicht alle können. Konturen des unternehmerischen Selbst«, gesehen auf www.eurozine.com/article/ 2002-10-02-broeckling-de.html . Vgl. auch Thomas Lemke: Eine Kritik der politischen Vernunft. Foucaults Analyse der modernen Gouvernementalität, Hamburg: Argument 1997, S. 251. Siehe www.iso.org, sowie C. Engemann: »Big Brother – ein Arbeitshaus im 21. Jahrhundert. Zur Aktualität des panoptischen Modells«.

129

R E K U R S : P O S T -T A Y L O R I S T I S C H E B Ü R O K R A T I E AUF STAATLICHER EBENE: PARTIZIPATION ALS GETEILTE RESSOURCENVERANTWORTUNG Für das weitere Vorgehen ist es zunächst notwendig, die Differenzen zwischen der Struktur Staat und der Struktur Unternehmen zu entwickeln. Unternehmen und Staat unterscheiden sich grundsätzlich in Zielsetzung, Heterogenität und Interesse an den Handlungen der ihnen unterstellten Subjekte. Auch kann ein Unternehmen ganz andere Förderungs- und Exklusionsmittel anwenden als es staatlicherseits legitim ist. Die zentrale Differenz liegt jedoch in der Form des Ressourcengebrauchs durch Staat und Unternehmen. Letztere setzen ihre Ressourcen zur Mehrwertproduktion ein, ersterer schöpft über Steuern und Abgaben Teile dieses gesellschaftlichen Mehrprodukts ab, bestreitet daraus seine Existenz und redistribuiert den Rest mit dem übergeordnetem Ziel wieder in die Gesellschaft, die allgemeinen Produktionsbedingungen aufrecht zu erhalten und zu optimieren. Der Staat selbst produziert also keine Ressourcen im Sinne von Wert, er ist rein konsumtiv. Seine Ressourcen stammen aus der Gesellschaft. Menge, Qualität und Zugang zu diesen Ressourcen stehen unter ständigem Rechtfertigungsdruck,1 der unmittelbar auf den Institutionen lastet, die diese erhalten und verteilen: Schulen, Hochschulen, Gesundheitskassen, Arbeitsamt, Militär etc. Die bürokratische Form all dieser Institutionen erlaubt über die von Max Weber gezeigten Eigenschaften von Bürokratie – sachliche Unpersönlichkeit, Aktenmäßigkeit, Trennung von Verwaltungsmitteln etc.2 – Transparenz im Sinne von Nachweis und Garantie, dass die kollektiven Ressourcen allgemeinwohlwirksam eingesetzt werden. Büro1 2

Unter Rechtfertigungsdruck deshalb, weil es sich um Mittel handelt, die der Staat der Verfügung der Gesellschaft vorher entzogen hat. Vgl. M. Weber: Wirtschaft und Gesellschaft, S. 124.

131

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

kratische Organisation auf staatlicher Ebene unterscheidet sich in diesem Punkt von unternehmerischer Bürokratie: sie kann und darf individuelle Unterschiede nicht mehrwertwirksam verschalten, ihre Herrschaftsleistung besteht in der allgemeinwohlwirksamen Verschaltung individueller Differenzen.3 Wenn man die im Rahmen des Electronic Government so prominente Rhetorik des ›aktivierenden Staates‹ und der ›neuen Verantwortungsteilung zwischen Staat und Bürger‹ ernst nimmt, kann das nur heißen, dass es zu einer Rekonfiguration des Modus allgemeinwohlwirksamer Verschaltung individueller Differenzen kommen muss, die nach dem Muster der post-tayloristischen Organisation die Bürger und ihre Subjektivität selbst in die Leistungserstellung mit einbezieht. Es muss ein Modus gefunden werden, der es unter anderem erlaubt, Ressourcen direkt in die Hände der Bürger zu geben, damit sie selbst diese allgemeinwohlwirksam einsetzen.4 Das bedeutet unter anderem auch eine Rücknahme der unmittelbaren Leistungserstellung durch den Staat,5 fordert ihm aber gleichzeitig die Implementierung neuartiger Transparenzinstrumente auf gesamtgesellschaftlicher Ebene ab. Denn das Controlling solch komplexer Prozesse in großen sozialen Systemen ist mit einer Bürokratie, die auf dem klassischen Papierapparat basiert, unmöglich 3

4

5

Und hier haben Foucaults Disziplinen wieder ihren Ort, denn auch in staatlichen Institutionen sind sie Mittel »mit Hilfe lokalisierter Körper, codierter Tätigkeiten und formierter Fähigkeiten Apparate zu bauen, die das Produkt verschiedener Kräfte durch kalkulierte Kombinationen vermehren«. Die Unterscheidung allgemeinwohl- vs. mehrwertwirksam ist meines Erachtens notwendig, um die spezifischen Anforderungen und Leistungen von staatlichen bzw. wirtschaftlichen Institutionen an Bürokratie zu verstehen. Foucault hat mit den Disziplinen eine (historisch) wichtige Formation aufgezeigt, mit denen diese Anforderungen von Institutionen an Individuen gestellt werden können. Foucault selbst entgeht aber die aus den unterschiedlichen Funktionsbestimmungen politischer und wirtschaftlicher Institutionen gewonnene Unterscheidung zwischen Allgemeinwohl- vs. Mehrwertwirksamkeit. Die ›Ich-AG‹ des Hartz-Konzeptes funktioniert nach diesem Prinzip. Den Betroffenen werden für einen definierten Zeitraum kollektive Ressourcen – Geld oder Ausbildungsgutscheine – zugebilligt mit der Auflage, sich selbst wieder in den Arbeitsmarkt zu bringen und somit ihren Verbrauch von Ressourcen gering zu halten bzw. letztlich wieder kollektive Ressourcen zu produzieren. In Deutschland im Rahmen der Rentenreform z.T. schon geschehen, im Rahmen der Arbeitsvermittlungsreformen nach Hartz anhand der Einrichtung der Personal-Service Agenturen derzeit zu beobachten.

132

PARTIZIPATION ALS GETEILTE RESSOURCENVERANTWORTUNG

leistbar. Es benötigt eine Infrastruktur, die erstens universell ist und zweitens die Individuen direkt adressieren kann. Ein deanonymisiertes Internet bringt die nötige Reichweite und die entsprechenden Schnittstellen mit sich: Electronic Government stiftet darüber hinaus rechtliche Legitimität und verschafft dem Staat gleichzeitig eine privilegierte Schnittstelle zu seinen Subjekten. Electronic Government ist somit das mediale Apriori des aktivierenden Staates. Entsprechend taucht E-Government als Transparenzinstrument auch im Hartz-Konzept6 auf, um nur ein Beispiel zu nennen. Die Aufgabe der Transparenzinstrumente besteht erstens darin, sicherzustellen, dass die in gesellschaftliche Verantwortung gegebenen kollektiven Ressourcen tatsächlich dem Allgemeinwohl zugute kommen (Legitimitätsdimension), und zweitens darin, die verschiedenen gesellschaftlichen Akteure bei der Erstellung von Leistungen mit kollektiven Ressourcen zu evaluieren und somit einen Optimierungsdruck7 hin zu geringem Ressourcenverbrauch bei hoher Leistungsqualität zu erreichen (Kapazitätsdimension). In diesem Bild des post-tayloristisch organisierten Sozialstaats begegnet uns ein spezifisches Arrangement von Kollektiv und Ressourcenschonung wieder, das aus der Darstellung des Optimierungsprozesses der Entwicklung des Internet bekannt ist. Dessen zugrunde liegender Konsens lag im Willen zur Vernetzung und im Willen zur Ressourcenschonung, den ich ›geteilte Ressourcenverantwortung‹ genannt habe. Der Optimierungsprozess der geteilten Ressourcenverantwortung, so meine dort formulierte These, wirkte in zwei Richtungen: er brachte erstens eine allgemeine Struktur hervor, in diesem Fall das Internet, die es Akteuren erlaubt, selbst partikularste Interessen zu verfolgen. Und er organisierte zweitens die Orientierung der anschlusswilligen Akteure an Knappheitskalkülen. Das Ideal dieses Arrangements, in das sich über die Kommentierungs- und Feedbackprozesse (RFCs) alle einbringen können, ist es, eine allgemeine 6

7

Siehe hier den Bericht der Kommission: »Moderne Dienstleistungen am Arbeitsmarkt« [Kurzfassung des so genanten ›Hartz-Konzepts‹], S. 22, S. 27 und S. 31. Auch ist auf dem Titelbild dieses Dokuments der Begriff ›Digitale Signatur‹ hinterlegt, so dass schon auf den ersten Blick die Beziehung zum E-Government gestiftet wird. Dass dieser Optimierungsdruck wesentlich aus der Standortkonkurrenz erwächst, kann hier nicht weiter entwickelt werden.

133

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Struktur zu schaffen, in der maximale Freiheit bei minimalem Ressourcenaufwand für alle möglich ist. Der post-tayloristisch organisierte Sozialstaat funktioniert in seinem Idealbild analog zu diesem Arrangement. Er stellt eine Struktur zur Verfügung – sich als Staat selbst – die größtmögliche Freiheit für partikulare Interessen bei geringstmöglichem Ressourcenaufwand für alle Beteiligten erlauben soll. Die Implementierung von Kommentierungs- und Feedbackinstrumenten ermöglicht es dann, dass die Subjekte ihre je spezifischen Anforderungen und Situationen einbringen. Damit errichtet der Staat einen Modus der geteilten Ressourcenverantwortung in der Beziehung zu seinen Bürgern. Die Frage, die sich stellt, ist allerdings, inwieweit das Arrangement auf die Subjekte zurückwirkt, inwieweit diese an Knappheitskalkülen orientiert werden. Denn aus der Standortkonkurrenz resultiert eine unabschließbare Bewegung, die den Staat zwingt, den aus der Gesellschaft bezogenen Anteil an Ressourcen zu verkleinern. Weiterhin entspricht dieses Organisationsmodell den schon angesprochenen Vorgaben der Verwaltungsmodernisierung hin zu einem ›schlankeren Staat‹. Idealtypisch gesprochen fungiert der Staat diesem Modell nach nicht mehr als ausführender (per Bürokratie und Beamtentum), sondern er setzt lediglich (demokratisch legitimiert) die Verfahrensregeln, die in Verträgen zwischen öffentlicher und privater Seite niedergeschlagen werden – er schmilzt im Idealbild ab auf eine Moderations- und Legitimationsinstitution.8 Damit verschlankt sich der Staat tatsächlich und etabliert gleichzeitig im Electronic Government die Instrumente, die es überhaupt erst erlauben, Teile seiner Aufgaben an die Gesellschaft zu delegieren.9 Die frei werdenden staatlichen Tätigkeitsfelder, die bislang dem Markt entzogen waren, werden, wo sie nicht völlig wegfallen, 8

9

Man spricht von einem Wandel der staatlichen Pflichten weg von der Produktions- hin zur Gewährleistungsverantwortung. Gemeint ist, dass bestimmte Aufgaben wie die Absicherung gegen soziale Risiken nicht mehr vom Staat selbst erbracht werden (Produktionsverantwortung), er aber dafür sorgt, dass private oder teilprivate Institutionen diese Leistungen ausreichend erbringen (Gewährleistungsverantwortung). Wie weit der Staat abschmilzt, welche Aufgaben an die Gesellschaft delegierbar sind und welche nicht, könnte sich in Zukunft als ein Experimentierfeld in der Standortkonkurrenz erweisen. Bestimmte kritische Aspekte und Infrastrukturen werden aber in Staatshand bleiben: mindestens Militär und Polizei und die Legislative.

134

PARTIZIPATION ALS GETEILTE RESSOURCENVERANTWORTUNG

neue Geschäftsfelder.10 Das Internet und die Informationstechniken (vor allem das Datamining) dienen dabei als zusätzliche Transmissionsriemen, die Verwaltungsbereiche, die bisher nicht profitabel organisierbar waren, potenziell gewinnträchtig machen können. Ein spezifisches Paradox dieser Entwicklung ist, dass individuelle Handlungsfreiheit zunimmt, indem die Individuen von der ›Gleichmacherei‹ des ›überkommenen‹ konditional gesteuerten Sozialstaates freigesetzt werden, gleichzeitig aber um so mehr (gesellschaftliche) Risiken zu tragen haben – die nun nur noch als Konsequenzen ihres eigenen Handelns erscheinen. Im Falle der Ich-AG heißt das zum Beispiel, dass mit Bildungsgutscheinen und gestaffelten Geldzuwendungen der Weg in den Arbeitsmarkt oder die Selbständigkeit individuell gefunden werden muss. Solche Arrangements werden von vielen Betroffenen zunächst als subjektiver Freiheitsgewinn erlebt, sind aber letztlich ein repressive Aufhebung staatlichen Paternalismus. In Anlehnung an Herbert Marcuses Begriff der »repressiven Entsublimierung«11 möchte ich diesen Vorgang ›repressive Entpaternalisierung‹ nennen.12 Sie besteht aus einer Rücknahme unmittelbarer und personalisierter Repression zugunsten moderierender und gestaltungsoffener Modelle. Das Spezifikum dieser Entwicklung scheint mir darin zu liegen, dass es den Subjekten möglich ist, die neu gewonnene ›Freiheit‹ in der Ausgestaltung ihrer Lebensweise zunächst positiv zu besetzen, ihnen aber gleichzeitig permanent zu verstehen gegeben wird, dass ihnen Sanktionen drohen, wenn ihre ›Individualität‹ nicht sozial genug im Sinne der 10 Das gilt besonders für die Sozialversicherungen, die in private oder teilprivate Verwaltung übergehen. Dort tritt dann an die Stelle des Solidarprinzips der staatlichen Daseinsfürsorge das versicherungsmathematische, auf Gewinn abstellende, Prinzip der Äquivalenzgerechtigkeit. Äquivalenzgerechtigkeit fußt notwendig auf der umfassenden Kenntnis individueller Begebenheiten. Vgl. hierzu: Henning Schmidt-Semisch: »Selber Schuld – Skizzen versicherungsmathematischer Gerechtigkeit«, in: U. Bröckling/S. Krasmann/T. Lemke (Hg.), Gouvernementalität der Gegenwart, S. 168-193. 11 Herbert Marcuse: Der eindimensionale Mensch, Neuwied: Luchterhand Verlag 1967, S. 76ff. 12 Der amerikanische Autor Lawrence Mead hat offenbar schon 1993 die in den Wohlfahrtsprogrammen vorherrschende Tendenz, »Verantwortung zu erzwingen«, als neuen Paternalismus bezeichnet (»The new paternalism. Supervisory Approaches to poverty«) zitiert nach Jane Lewis: »Das vereinigte Königreich: Auf dem Weg zu einem neuen Wohlfahrtsmodell unter Tony Blair?«, in: Zeitschrift für Sozialreform 6 (2001), S. 585-604, hier S. 601.

135

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

geteilten Ressourcenverantwortung ist. Die Subjekte werden in einem aktivierenden Staat bei gestiegener Freiheit sozusagen universell sozialpflichtig. Es ist dabei keineswegs ausgemacht, dass Electronic Government und aktivierender Staat den Bestand der sozialen Bürgerrechte durch Kostensenkungen, größere Verteilungsgerechtigkeit und bessere individuelle ›Passung‹ sichert. Während soziale Bürgerrechte als Anspruchsberechtigungen auf sozialstaatliche Unterstützung in kritischen Lebenslagen die Handlungsfreiheit der Bürger erhalten oder wiederherstellen sollen, besteht hier die Gefahr, dass Imperative der Schonung kollektiver Ressourcen gegenüber der Wiederherstellung der Handlungsfreiheit der Einzelnen überwiegen. Die sich daran anschließende brisante sozialphilosophische Frage lautet, ob nicht die Freiheit des Bourgeois durch die Delegation allgemeinwohlpflichtiger Aufgaben von Staatsinstitutionen hin zu den Einzelnen durch Electronic Government in Frage gestellt wird.

136

AUSBLICK »Verwaltung […] repräsentiert notwendig, ohne subjektive Schuld und ohne individuellen Willen, das Allgemeine gegen [das] Besondere« Theodor W. Adorno1

Was ich in diesem Buch zu zeigen versucht habe ist, dass die (staatliche) Bürokratie und das Internet derzeit in einem gemeinsamen Entwicklungsprozess stehen, der beide zutiefst verändern wird. Dabei sollte zunächst geklärt werden, dass dieses Aufeinanderverwiesensein notwendig zustande kommt und nicht Produkt einer intentional betriebenen Politik (sei es von staatlicher, sei es von wirtschaftlicher Seite) ist, die das Internet de-anonymisieren oder die Staatsbürgersubjekte total überwachen will. Vielmehr ist die Ursache dieser Vorgänge gerade im, aus den Formzwängen des Kapitalismus rührenden, Konsens der verschiedenen Gruppen zu suchen, die für ihre jeweiligen Partikularinteressen die rechtsgültige Vereindeutigung der Subjekte im Internet benötigen. Dabei hoffe ich weiterhin deutlich gemacht zu haben, dass sich staatliche Bürokratien und das Internet in ihren Vergesellschaftungspotenzialen gegenseitig verstärken und nicht mehr ohne einander existieren können. Vor allem aber ging es mir darum herauszustellen, dass, auch wenn beide Instanzen abstrakt und wenig fasslich scheinen, die konkreten Subjekte der Drehpunkt im gemeinsamen Wandlungsprozess sind. Für die weitere Forschungsarbeit ist mit dem Nachweis der Notwendigkeit zur Nutzerauthentifizierung und der sich abzeichnenden DeAnonymisierungs-Dynamik einerseits, der Entwicklung der Potenzen der individuellen Adressierung und Einholung disparater Prozesse über die formelle Allgemeinheit und stetig steigende Netzdichte des Internet andererseits der Boden bereitet, um die daraus 1

Theodor W. Adorno: »Kultur und Verwaltung«, in: Gesammelte Schriften Bd. 8, Frankfurt: Suhrkamp 1997, S. 122-146, hier S. 128.

137

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

resultierenden neuen Anforderungen für die Konstitution der (Staatsbürger-) Subjektivität genauer untersuchen zu können. Vorläufig scheinen mir die aus dem Potenzial des Internet rührenden Möglichkeiten der individuellen Adressierung entscheidend, die in Verbindung mit Methoden der Budgetierung, der Evaluation und des Kontraktmanagements eine einzigartige Mischung aus der Ansprache subjektiver Freiheit und panoptischer Kontrolle erlauben. Während die individuelle Adressierung dabei die Rolle hat, feinfühlig auf die Wünsche und Bedürfnisse, auf die spezifische Situation der Subjekte Rücksicht nehmen zu können, zielt der Kontrakt (Vertrag) darauf ab, unter interessengeleiteter Kodifizierung dieser Rücksicht (vermeintlich) gemeinsame Ziele zu definieren. Damit versucht die moderne Bürokratie, die Subjekte aus ihnen selbst heraus zu motivieren – etwas, das Max Weber ihr nicht zutraute. Ein Internet, dass die Vertragsform erlaubt, ist dabei so etwas wie eine grenzenlose Institution, die die darin flottierenden Individuen zu Personen macht und damit zu Bürgern mit Rechten und Pflichten, auf die jederzeit an jedem Ort eingegangen werden kann und die ebenso universell sanktioniert werden können. Mir scheint, dass das Gehäuse der Hörigkeit, das Max Weber angesichts der Bürokratie fürchtete2, kein stählernes mehr ist, es ist vielmehr ein flexibles – ein Gehäuse zweiter Ordnung, das die Subjekte nicht an den Armierungen seiner Normen abprallen, sondern auf der Basis intimer Kenntnisse über die Subjekte sich mit dem Instrument des Vertrages ihre Willigkeit zur Teilhabe am Gehäuse bestätigen lässt. Die Normen sind nicht mehr die strukturelle Gewalt, hinter denen der Horizont der Freiheit liegen mag, sie sind als Gegenstand der Willenserklärungen nunmehr einfach der selbstgesetzte Horizont der Freiheit.

2

Vgl. dazu: M. Weber: Politische Schriften, S. 332.

138

LITERATUR

Adorno, Theodor W.: »Kultur und Verwaltung«, in: Gesammelte Schriften Bd. 8, Frankfurt/Main: Suhrkamp 1997, S. 122-146. Adorno, Theodor W.: »Résumé über Kulturindustrie«, in: Gesammelte Schriften Bd. 10.1, Frankfurt/Main: Suhrkamp 1997, S. 337-345. Barbrook, Richard/Cameron, Andy: »Die kalifornische Ideologie«, in: Nettime (Hg.), Netzkritik. Materialien zur Internet-Debatte (1997), S. 15-36. Baukrowitz, Andrea/Boes, Andreas: »Arbeit in der ›Informationsgesellschaft‹«, in: Schmiede (Hg.), Virtuelle Arbeitswelten (1996), S. 129-157. Benning, Maria/Steimke, Frank: »Rathaus von zu Haus – Erste Symptome von Internetfähigkeiten bei Behörden«, in: c´t.– Magazin für Computertechnik 7/2001, S. 218. Bittlingmayer, Uwe H.: »Spätkapitalismus oder Wissensgesellschaft?«, in: Aus Politik und Zeitgeschichte, Berlin 36/2001, S. 15-22. Bleich, Holger/Schulzki-Haddouti, Christiane: »Neues Datenschutzgesetz in Kraft getreten«, in: c´t – Magazin für Computertechnik 12/2001, S. 44. Breuer, Stephan: Max Webers Herrschaftssoziologie, Frankfurt/ Main, New York: Campus 1991. Bröckling, Ulrich/Krasmann, Susanne/Lemke, Thomas (Hg.): Gouvernementalität der Gegenwart. Studien zur Ökonomisierung des Sozialen, Frankfurt/Main: Suhrkamp 2000. Bröckling, Ulrich: »Totale Mobilmachung. Menschenführung im Qualitäts- und Selbstmanagement«, in: Bröckling/Krasmann/ Lemke (Hg.), Gouvernementalität der Gegenwart (2000), S. 131-167. Bundesministerium für Wirtschaft und Technologie: »E-Government meets E-Business«, Bonn 2003. 139

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Bürgerliches Gesetzbuch, 51. Auflage, München: Deutscher Taschenbuch Verlag 2002. Castels, Manuel: The Informational City: Information Technology, Economic Restructuring and the Urban-Regional Process, Oxford: Blackwell 1989. Dambeck, Holger: »Abschied vom Privaten«, in: c´t.– Magazin für Computertechnik 14/2001, S. 48-49. Diefenbach, Katja: »Kontrolle, Kulturalisierung, Neoliberalismus. Das Internet als Verstärker«, in: Nettime (Hg.), Netzkritik – Materialien zur Internet-Debatte (1997), S. 71-88. Döring, Nicola: Sozialpsychologie des Internet: Die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen, Göttingen: Hogrefe 1999. Egloff, Nicolai: »Postindustrielle Dienstleistungsgesellschaft oder industrielle Arbeitsgesellschaft? Zum gesellschaftstheoretischen Kontext der These von der Informationsgesellschaft«, in: Schmiede (Hg.), Virtuelle Arbeitswelten (1996), S. 79-106. Engemann, Christoph/Tuschling, Anna: »Zeig mir dein Profil – Kontrolle und Anonymität im Internet«, in: Jungle World 44/2000, S. 15-18. Engemann, Christoph: »Big Brother – ein Arbeitshaus im 21. Jahrhundert. Zur Aktualität des panoptischen Modells«, in: Prokla 129 (2002), S. 599-617 Felder, Michael: »Verwaltungsmodernisierung, die Transformation von Staatlichkeit und die neue Sozialdemokratie«, in: Utopie Kreativ 121/122 (2000), S. 1090-1102. Foucault, Michel: Überwachen und Strafen, Frankfurt/Main: Suhrkamp 1976. Freyeremuth, Gundolf S.: »Der Große Kommunikator«, in: c`t – Magazin für Computertechnik 15/2002, S. 214-219. Gibson, William: Neuromancer, München: Heyne Verlag 1986. Grassmuck, Volker: Freie Software. Zwischen Privat- und Gemeineigentum, Bonn: Bundeszentrale für politische Bildung 2002. Grunow, Dieter; Wollmann, Hellmut (Hg.): Lokale Verwaltungsreform in Aktion: Fortschritte und Fallstricke, Basel: Birkhäuser Verlag 1998. Harms, Andreas: Warenform und Rechtsform. Zur Rechtstheorie Eugen Paschukanis, Baden-Baden: Nomos 2000.

140

LITERATUR

Haug, Wolfgang Fritz: »Prolegomena zu einer Kritik der Neuen Ökonomie«, in: Das Argument 238 (2000), S. 619-645. Himmelein, Gerald/Krempl, Stefan: »Der digitale Knebel – Intel und Microsoft wollen Daten vor dem Anwender schützen«, in: c´t – Magazin für Computertechnik 15/2002, S. 18-20. Horkheimer, Max/Adorno, Theodor W.: »Dialektik der Aufklärung«, in: Theodor W. Adorno, Gesammelte Schriften Bd. 3, Frankfurt/Main: Suhrkamp 1997. Kant, Immanuel: »Die Metaphysik der Sitten«, in: Werke in sechs Bänden, Bd. IV, Wiesbaden: Insel Verlag 1956, S. 307-634. Kofler, Leo: Stalinismus und Bürokratie, Neuwied/Rhein: Sammlung Luchterhand 1970. Köhler, Helmut: »Einführung«, in: Bürgerliches Gesetzbuch 51. Auflage, München: Deutscher Taschenbuch Verlag 2002, S. IXXXXIII. Kommunale Gemeinschaftsstelle: Das neue Steuerungsmodell. Begründung, Konturen, Umsetzung, Bericht Nr. 5/1993. Kommunale Gemeinschaftsstelle: Wege zum Dienstleistungsunternehmen Kommunalverwaltung. Fallstudie Tilburg, Bericht Nr. 19/1992. Krempl, Stefan: »Hardware lügt nicht. Intels Philosophie des ›vertrauenswürdigen‹ Rechner«, in: c´t Magazin – für Computertechnik 11/2003, S. 20-21. Lemke, Thomas: Eine Kritik der politischen Vernunft. Foucaults Analyse der modernen Gouvernementalität, Hamburg: Argument 1997. Lewis, Jane: »Das vereinigte Königreich: Auf dem Weg zu einem neuen Wohlfahrtsmodell unter Tony Blair?«, in: Zeitschrift für Sozialreform 6 (2001), S. 585-604. Lischka, Konrad: »Schräge Töne von Linus Torvalds. Der Linux Initiator forciert für das Betriebssystem eine Rechteverwaltung, die Musikvermarktern entgegenkäme«, in: Frankfurter Rundschau vom 02.05.2003, S. 14. Marcuse, Herbert: Der eindimensionale Mensch, Neuwied/Rhein: Sammlung Luchterhand 1967. Marx, Karl: Das Kapital. Erster Band, Berlin (DDR): Dietz Verlag 1989. Nettime (Hg.): Netzkritik. Materialien zur Internet-Debatte, Berlin: Edition ID-Archiv 1997.

141

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Neymanns, Harald: Verschlüsselung im Internet. Probleme der politischen Regulierung in den USA und der Bundesrepublik Deutschland, Frankfurt/Main, New York: Campus 2001. Niesing, Matthias/Schmeh, Klaus: »Schlüssel des Vertrauens. Digitale Ausweise im Internet«, in: c´t.– Magazin für Computertechnik 4/2001, S. 224-231. Pias, Claus: »Welt im Raster – Historische Szenen strategischer Interaktivität«, in: Ästhetik & Kommunikation 115 (2001), S. 39-50. Rifkin, Jeremy: Access – Das Verschwinden des Eigentums, Frankfurt/Main, New York: Campus 2000. Sassen, Saskia: »Kontrollverlust? Der Staat und die neue Geographie der Macht«, in: Gewerkschaftliche Monatshefte 7-8 (1999), S. 447-458. Sassen, Saskia: The global city, New York, London, Tokyo, Princton: Princton University Press 1991. Schmidt-Semisch, Henning: »Selber Schuld – Skizzen versicherungsmathematischer Gerechtigkeit«, in: Bröckling/Krasmann/ Lemke (Hg.): Gouvernementalität der Gegenwart (2000), S. 168-193. Schmiede, Rudi (Hg.), Virtuelle Arbeitswelten, Berlin: edition sigma 1996. Schmiede, Rudi: »Informatisierung, Formalisierung und kapitalistische Produktionsweise«, in: Schmiede (Hg.), Virtuelle Arbeitswelten (1996), S. 15-47. Schmitz, Florian: »Datenschutz mit kleinen Fehlern«, in: c´t – Magazin für Computertechnik 5/2001, S. 222. Schüler; Peter: »Software-Esperanto, XML ersetzt proprietäre Datenformate«, in: c`t – Magazin für Computertechnik 2/2002, S. 176. Siegert, Bernhard: »Totales Wissen versus totaler Ruin – Entropie und die Phantasmen der Bürokratie«, Manuskriptfassung. Erscheint in: Wolf Kittler/Sven Spieker (Hg.): Packratten und Bürokraten: Studien im Archiv, Berlin: Kadmos Verlag 2003. Siegert, Bernhard: Passage des Digitalen. Zeichenpraktiken der neuzeitlichen Wissenschaften 1500-1900, Berlin: Brinkmann & Bose 2003.

142

LITERATUR

Singh, Simon: Geheime Botschaften. Die Kunst der Verschlüsselung von der Antike bis in die Zeiten des Internet, München: Deutscher Taschenbuch Verlag 2001. Der Spiegel 20/2000: »Die @-Bombe«. Stoll, Clifford: Kuckucksei, Frankfurt/Main: Fischer Taschenbuch Verlag 1998. Turkle, Sherry: Life on the Screen – Identity in the Age of the Internet, New York: Simon & Schuster 1995. Vismann, Cornelia: Akten – Medientechnik und Recht, Frankfurt/ Main: Fischer Taschenbuch Verlag 2000. Vollmer, Hendrik: »Ansprüche und Wirklichkeiten des Verwaltens im Reformdiskurs der neunziger Jahre«, in: Zeitschrift für Soziologie 1 (2002), S. 44-65. Volpert, Walter/Groskurth, Peter: Lohnarbeitspsychologie. Berufliche Sozialisation: Emanzipation zur Anpassung, Frankfurt/ Main: Fischer 1975. Voß, G. Günter/Pongratz, Hans J.: »Der Arbeitskraftunternehmer. Eine neue Grundform der Ware Arbeitskraft?«, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie 50/1 (1998), S. 131-158. Weber, Max: Gesammelte Politische Schriften, Tübingen: J.C.B. Mohr 1980. Weber, Max: Wirtschaft und Gesellschaft, Tübingen: J.C.B. Mohr 1972. Webster, Frank: Theories of the Information Age, London, New York: Routledge 1995.

143

INTERNET LINKS

Alle hier aufgeführten Internet-Links wurden, soweit nicht anders im Text angegeben, am 20/21.07.2003 überprüft. Angaben von Seitenzahlen beziehen sich auf die ausgedruckte Version. 3Sat Nano: »Big Business mit den Cyber-Games«, gesehen auf: http://www.3sat.de/3satframe.php3?url=http://www.3sat.de/nan o/bstuecke/26566/ Aktuelle Statistiken der Nutzerzahlen von Onlinespielen: http:// gamespy.com/stats/ »A Little History of the World Wide Web«, gesehen auf: http:// www.w3c.org/History.html Anderson, Ross: »Trusted Computing FAQ«, gesehen auf: http:// cl.cam.ac.uk/~rja14/tcpa-faq.html Baran, Paul (1964): »On Distributed Communication Networks«, gesehen auf: http://www.rand.com Bendrath, Ralf (2000): »Militärpolitik, Informationstechnologie und die Virtualisierung des Krieges«, in: Forschungsgruppe für Sicherheit in der Informationsgesellschaft. »Texte zur Sicherheitspolitik in der Informationsgesellschaft 1997-1999«, gesehen auf: http://www.fogis.de Bericht der Kommission (2002): »Moderne Dienstleistungen am Arbeitsmarkt« [Kurzfassung des so genannten ›Hartz-Konzepts‹], gesehen auf http://www.anti-hartz.de Big Brother Awards: http://www.bigbrotherawards.de Bitkom (2002): »Bürgerkarte für Deutschland«, gesehen auf: http://www.bitkom.org/index.cfm?gbAction=gbcontentfulldispla y&ObjectID=48110899-572E-42B6-92D11FFD237A2A68& MenuNodeID=4C872DB6-8470-4B01-A36FD8C1EBA2E22D Bröckling, Ulrich (2002): »Jeder könnte, aber nicht alle können. Konturen des unternehmerischen Selbst«, gesehen auf: http:// www.eurozine.com/article/2002-10-02-broeckling-de.html 145

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Bundesministerium für Gesundheit (2000): »Gesetz zur GKVGesundheitsreform«, gesehen auf: http://www.BMGesundheit.de /gesetze/2000/aus.htm Bundesamt für Sicherheit in der Informationstechnik (2001): »Kryptographie im E-Government«, Handbuch E-Government, gesehen auf: http://www.bsi.bund.de Bundesministerium für Verkehr, Bau- und Wohnungswesen (2003): »Fakten zur LKW-Maut. Streckenbezogene LKW-Maut sorgt für verursachergerechte Anlastung der Wegekosten«, gesehen auf: http://www.bmvbw.de/lkw-maut-.720html. Bundesministerium für Verkehr, Bau- und Wohnungswesen (2003): »Pressemitteilung 169/03«, gesehen auf: http://www.bmvbw.de /cms-aussen-spezial/ Bundesministerium für Wirtschaft und Technologie (1999): »Innovation und Arbeitsplätze in der Informationsgesellschaft des 21. Jahrhundert«, gesehen auf: http://www.iid.de/aktionen /aktionsprogramm/deckblatt.html Bundesministerium für Wirtschaft und Technologie (2001): »Abbau bürokratischer Hemmnisse«, gesehen auf: http://www.bmwi.de/ textonly/Homepage/Presseforum/Pressemitteilungen/2001/1320 prm1.jsp Bundesregierung Deutschland (1999): »Moderner Staat – Moderne Verwaltung«, gesehen auf: http://www.staat-modern.de/pro gramm/index.html Bundesregierung Deutschland (2001): »Die Daten sollen laufen, nicht die Bürger«, Informationsbroschüre der Bundesregierung zum neuen Meldegesetz, gesehen auf: http://www.bundes regierung.de/top/dokumente/Artikel/ix_48106.htm?template=sin gle&id=48106_434&script=1&ixepf=_48106_434 Bundesregierung Deutschland (2001): »Informationen zum Bundesdatenschutzgesetz«, gesehen auf: http://www.bfd.bund.de/infor mation/bdsg_hinweis.html Claßen, Elvi (2000): »Information Warfare – Information als Waffe oder: Wer bestimmt, was ›wirklich‹ ist?«. In: Forschungsgruppe für Sicherheit in der Informationsgesellschaft. »Texte zur Sicherheitspolitik in der Informationsgesellschaft 1997-1999«, gesehen auf: www.fogis.de

146

INTERNET LINKS

»Computerspiele – Medienangebot mit Zukunft«, gesehen auf: http://www.rrz.uni-hamburg.de/hans-bredow-institut/service/ presse.html Homepage des Computerspiels ›Counter-Strike‹: www.counterstrike.net Cybergeographie.org: »Historical Maps of Computer Networks«, gesehen auf: www.cybergeography.org/atlas/ historical.html Defence Advanced Research Projects Agency (DARPA): http:// www.darpa.mil DARPA (1997): »Technology Transition«, gesehen auf: http://www. darpa.mil/body/mission.html Dello, Michael: »Cyberwar? More Like Hot Air«, gesehen auf: http://www.wired.com/news/print/0,1294,43520,00.html Digital Equipment Corporation (1990): »In Memoriam J.C.R. Licklider«, gesehen auf: http://memex.org/licklider.html Digital Opportunity Task Force: http://www.dotforce.org/reports/it1 .html »e-Japan Priority Policy Program« (2000), gesehen auf: http://www. kantei.go.jp/foreign/it/network/priority-all/index.htm Electronic Frontier Foundation: http://www.eff.org Electronic Frontier Foundation: Linkliste National ID-Card System USA, gesehen auf: http://www.eff.org/Privacy/Surveillance/ nationalidsystem Enfopol Dokumentation des Online Magazins Telepolis: http:// www.heise.de/tp/deutsch/special/enfo/default.html Europäische Union (2002): »Aktionsplan eEurope2002«, gesehen auf: http://europa.eu.int/ISPO/basics/eeurope/i_europe_follow. html Europäische Union E-Government Observatory (2003): http:// europa.eu.int/ISPO/ida/jsps/index.jsp?fuseAction=showDocume nt&documentID=1228&parent=chapter&preChapterID=0140-194 »France Defends Net Regulation«, gesehen auf: http://www.wired .com/news/politics/0,1283,36363,00.html Fraunhofer Institut für Integrierte Publikations- und Informationssysteme, Projekt »Offene adaptive InformationsmanagementSysteme«, gesehen auf: http://ipsi.fhg.de/ipsi/nav/ipsi_f_contact. html Free Software Foundation: http://www.fsf.org

147

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

Friess, Steve (2002): »China's E-Mail Going Postal«, gesehen auf: http://www.wired.com/news/politics/0,1283,53860,00.html Gafner, Martin (1997): »TCP/IP und Internet – Skript zum Unterricht.« http://www.gafner.hypermart.net/IPv4/ipv4.html Garland, Stephen: »MIT/DARPA, Interview zum Projekt Oxygen«, gesehen auf: http://www.infoworld.com/articles/hn/xml/02/06/ 20/020620hnmitproject.xml Gates, Bill (2002): »Trustworthy Computing«, gesehen auf: http://www.microsoft.com/mscorp/execmail/2002/07-18twc.asp »Global panel issues Internet security recommendations«, gesehen auf: http://www.cnn.com/2000/TECH/computing/05/18/global .security.idg/ GNU Projekt: http://www.gnu.org Gourley, Scott (2002): »Contract imminent for Objective Force Warrior«, gesehen auf: http://www.janes.com/defence/land_ forces/news/jdw/jdw020610_1_n.shtml Greene, Thomas C. (2002): »MS to eradicate GPL, hence Linux«, gesehen auf: http://theregister.co.uk/content/4/25891.html Gröndahl, Boris (1998): »Die Entdeckung der Public Key Kryptographie – Ehre wem Ehre gebührt«, gesehen auf: http:// www.heise.de/tp/ The Guardian, Meldung zur britischen ID-Card (2003): http:// politics.guardian.co.uk/homeaffairs/story/0,11026,961934,00.ht ml Harraway, Donna (1991): »A Cyborg Manifesto«, gesehen auf: http://www.stanford.edu/dept/HPS/Haraway/CyborgManifesto.h tml Hauben, Michael: »History of ARPANET. Behind the Net – The untold history of the ARPANET«, gesehen auf: http:// www.dei.isep.ipp.pt/docs/arpa.html Heidenreich, Martin (1998): »Die Debatte um die Wissensgesellschaft«, gesehen auf: http://www.uni-bamberg.de/sowi/europa studien/erlangen.htm Homeoffice United Kingdom (2003): http:www.homeoffice.gov.uk/ comrace/entitlements/fraud »How E-Mail was invented«, gesehen auf: http://www.livinginternet .com/?e/ei.htm »Intel, SAP und Metro entwickeln »gesprächige Joghurtbecher«, gesehen auf: http://www.heise.de/newsticker/

148

INTERNET LINKS

Internet Corporation for Assigned Names and Numbers (ICANN): http://www.icann.org Internet Engineering Task Force (IETF): http://www.ietf.org Internet Protokoll Version 6 Working Group: http://www.ipv6.org/ IPv6-Net: http://www.ipv6-net.org. IPv6 Task Force der EU: http://www.ipv6-taskforce.org/ Internet Society: »Histories of the Internet«, gesehen auf: http://www.isoc.org/internet/history/ Kahn, Bob (1997): »The Evolution of the Internet as a Global Information System«, gesehen auf: http://www.unesco.org /webworld/infoethics/speech/kahn.htm Kleinrock, Leonard (1961): »Information Flow in Large Communication Nets«, gesehen auf: http://www.rand.org Krempl, Stefan: »Europa bläst zum Angriff auf Cyberkriminelle«, gesehen auf: http://www.heise.de/tp/deutsch/inhalt/te/8092/1 .html Krempl, Stefan: »Entspannung an der Cyberwar-Front?«, gesehen auf: http://www.heise.de/tp/deutsch/special/info/3610/1.html Lassak, Frank (2000): »Kreditkartenbetrug hemmt E-Commerce«, gesehen auf: http://www.ftd.de/tm/eb/FTDKYIQMNGC.html? nv=cptn Lau, Oliver (2003): »VeriSign will Kreditkartenbetrügern auf den Leib rücken«, gesehen auf: http://www.heise.de/newsticker /data/ola-19.06.03-000/ Liberty Alliance Project (2002): »Liberty Architecture Overview Version 1.0«, gesehen auf: www.projectliberty.org McCullagh, Declan (2001): »Oracle Keeps Pushing ID Card«, gesehen auf: www.wired.com Microsoft Passport Homepage: http://www.microsoft.com/net services/.NET-Passport/default.asp Microsoft Corporation: »Microsoft White Paper Trustworthy Computing«, gesehen auf: http://www.microsoft.com/presspass/exec /craig/05-01trustworthy.asp Mühlbauer, Peter (1999): »Libertäre Ideologie«, gesehen auf: http://heise.de/tp/deutsch/special/libi/4221/1.html Plant, Sadie (1996): »BINARY SEXES, BINARY CODES«, gesehen auf: http://www.t0.or.at/sadie/sadie.htm Projektgruppe Neue Musik (pgnm): http://www.pgnm.de Project Oxygen Website: http://oxygen.lcs.mit.edu/Overview.html

149

ELECTRONIC GOVERNMENT – VOM USER ZUM BÜRGER

RAND Corporation Memorandum RM-3420-PR »On Distributed Communications«, gesehen auf: http://www.rand.org/publica tions/RM/RM3420/RM3420.summary.html Regierungsbehörde für Telekommunikation und Post (RegTP): www.regtp.de ›Request for Comment‹-Dokumente (RFCs): www.faqs.org/rfc/ RFC2555: »30 Years of RFCs«, gesehen auf: http://rfc.sunsite.dk/ rfc/rfc2555.html Rilling, Rainer (1998): »Linkliste zur Geschichte des Internet«, gesehen auf: http://staff-www.uni-marburg.de/~rillingr/net/netg es.html# Texte:%20Netzgeschichte Rilling, Rainer (2002): »Textprojekt Internet«, gesehen auf: http://www.rainer-rilling.de/texte/inkrit-internet.html Rötzer, Florian: »E-Commerce, Steuern für das Internet, Patente und Schutz des geistigen Eigentums«, gesehen auf: http://www.heise.de /tp/deutsch/inhalt/co/5544/1.html Safford, David (2002): »Clarifying Misinformation on TCPA«, gesehen auf: http://www.home /safford/tcpa/tcpa_rebuttal.html Schetsche, Michael (2001): »Internetkriminalität: Daten und Diskurse, Strukturen und Konsequenzen«, gesehen auf: http:// www1.uni-bremen.de/~mschet/interkrim.html Schulzki-Haddouti, Christiane: »Interpol-Chef ruft zum Kampf gegen Verbrechen im Internet«, gesehen auf: http://www.heise .de/tp/deutsch/inhalt/te/5469/1.html Shachtman, Noah (2002): »Pay for Content? Ha, Say Users«, gesehen auf: http://www.wired.com/news/ebiz/0,1272,51146,FF .html Shreve, Jenn (2001): »Smut Glut Has Porn Sites Hurting«, gesehen auf: http://www.wired.com/news/business /0,1367,42061,00.html »Soldier Status Monitoring«, gesehen auf: http://www.aro.army.mil/ phys/Nanoscience/sec4soldier.htm Sperano, R.P. (1999): »Of Mice and Men«, gesehen auf: http://www .scis.nova.edu/~speranor/DCTE790Assignment2-HTML.htm Sterling, Bruce (1991): »The Hacker Crackdown«, gesehen auf: http://dub.home.texas.net/sterling/hackcrck.html Sieling, Lars (2002): »Auf leisen Sohlen vom Betriebs- zum DRMSystem«, gesehen auf: http://www.heise.de/tp The Internet Engineering Task Force: http://www.ietf.org

150

INTERNET LINKS

Toll Collect GmbH (2003): »Wissenswertes über Toll Collect«, gesehen auf: http://www.toll-collect.de/fragenundantworten/ United States Army: »Joint-Vision 2010«, gesehen auf: http://www. army.mil/2010/ The U.S. Marine Corp Warfighting Lab: http://www.mcwl.quantico .usmc.mil/frames.html Trustcenter der Telekom: http://www.telesec.de Trusted Computing Group (TCG): http://www.trustedcomputing group.org Trusted Computing Group (2003): Main Specification 1.1a, gesehen auf: http://www.trustedcomputinggroup.org Verband Elektrotechnik, Elektronik, Informationstechnik e.V., VDE (2000): »Memorandum Electronic Government«, gesehen auf http://www.vde.de/vde/html/d/fach/itg/publikationen /herunterladen.htm Wagleitner, Reinhold (2000): »Konversatorium Geschichte@Internet«, gesehen auf: http://www.sbg.ac.at/ges/people/wagnleitner/ gui01.htm Ward, Mark (2003): »Will porn kick-start the video phone revolution?«, gesehen auf: http://news.bbc.co.uk/go/pr/fr/-/1/hi/ technology/2992914.stm Wilkens, Andreas (2002): »Bundesregierung zeigt sich skeptisch gegenüber Microsofts Palladium«, gesehen auf: http://www. heise.de Wilkens, Andreas (2003): »US-Verteidigungsministerium schließt sich der Liberty Alliance an«, gesehen auf: http://www.heise.de/ newsticker/data/anw-06.03.03-002 World Wide Web Consortium (W3C): http://www.w3c.org United Nations (1997): »Model Law on Electronic Commerce with Guide to Enactment«, United Nations, V.97-22269 May 1997-5, gesehen auf: http://www.un.org Zakon, Robert H.: »Hobbes’ Internet Timeline«, gesehen auf: http:// www.zakon.org/robert/internet/timeline/

151

Weitere Titel zum Thema:

Stefan Weber

Saskia Reither

Medien – Systeme – Netze

Computerpoesie

Elemente einer Theorie der

Studien zur Modifikation

Cyber-Netzwerke

poetischer Texte durch den

2001, 128 Seiten,

Computer

kart., 13,80 €,

September 2003, 302 Seiten,

ISBN: 3-933127-77-7

kart., zahlr. Abb., 26,80 €, ISBN: 3-89942-160-4

Tanja Nusser, Elisabeth Strowick (Hg.)

Friedrich Balke,

Rasterfahndungen

Gregor Schwering,

Darstellungstechniken –

Urs Stäheli (Hg.)

Normierungsverfahren –

Big Brother

Wahrnehmungskonstitution

Beobachtungen

September 2003, 322 Seiten,

2000, 264 Seiten,

kart., zahlr. Abb., 26,80 €,

kart., 20,50 €,

ISBN: 3-89942-154-X

ISBN: 3-933127-63-7

Hannelore Bublitz Diskurs Juni 2003, 122 Seiten, kart., 11,50 €, ISBN: 3-89942-128-0

Torsten Meyer Interfaces, Medien, Bildung Paradigmen einer pädagogischen Medientheorie 2002, 266 Seiten, kart., zahlr. SW-Abb., inkl. Begleit-CD-ROM, 26,80 €, ISBN: 3-89942-110-8

Leseproben und weitere Informationen finden Sie unter: www.transcript-verlag.de