Technik als Trost: Verheißungen Künstlicher Intelligenz 9783837669282, 9783839469286, 9783732869282

Verheißungen über Künstliche Intelligenz (KI) sind spekulative Bedeutungszuschreibungen und Heilsversprechen, die aus KI

143 86 15MB

German Pages 360 [397] Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Technik als Trost: Verheißungen Künstlicher Intelligenz
 9783837669282, 9783839469286, 9783732869282

Citation preview

Stefan Selke Technik als Trost

Edition transcript Band 11

Editorial Die Edition transcript versammelt anspruchsvolle Monographien aus den Kultur-, Geistes- und Sozialwissenschaften. Nach wie vor gilt die Monographie in diesen Disziplinen als via regia der Publikation, ist aber vor allem infolge wissenschaftspolitischer Veränderungen im Rückgang begriffen. Dieser problematischen Entwicklung begegnet die Edition transcript durch eine Neubelebung des zugleich anspruchsvollen und erschwinglichen monographischen Buches. Der disziplinenübergreifende Ansatz der Reihe befördert nicht nur den Austausch zwischen den Disziplinen, sondern erzeugt eine editorische Verdichtung des Mediums Monographie, die ihre besonderen Qualitäten akzentuiert. Ein wissenschaftlicher Beirat der Reihe und eine hohe Qualitätskontrolle verbürgen die Ausgewähltheit der Beiträge der Edition.

Stefan Selke (Prof. Dr.), geb. 1967, lehrt Soziologie und gesellschaftlichen Wandel an der Hochschule Furtwangen. Im Rahmen seiner Forschungsprofessur Transformative und Öffentliche Wissenschaft leitet er das Public Science Lab. 2021 wurde ihm der Wolfgang-Heilmann-Preis der Integrata-Stiftung zum Thema »Humane Utopie als Gestaltungsrahmen für die Nach-Corona-Gesellschaft« verliehen.

Stefan Selke

Technik als Trost Verheißungen Künstlicher Intelligenz

Dieses Buch ist die erweiterte und stark überarbeitete Fassung eines Gutachtens, das im Rahmen des BMBF-Projekts KI.Me.Ge »KI-Mensch-Gesellschaft« entstand. (Vgl. https://www.kimege.de) Der Titel des Originalgutachtens lautete »Gesellschaftliche Verheißungen von KI«.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: //dnb.d-nb.de abrufbar.

© 2023 transcript Verlag, Bielefeld Alle Rechte vorbehalten. Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Umschlagabbildung: View of the Earth seen by the Apollo 17 crew traveling toward the moon, 1972, NASA Korrektorat: Joris Helling, Bielefeld Druck: Majuskel Medienproduktion GmbH, Wetzlar https://doi.org/10.14361/9783839469286 Print-ISBN: 978-3-8376-6928-2 PDF-ISBN: 978-3-8394-6928-6 EPUB-ISBN: 978-3-7328-6928-2 Buchreihen-ISSN: 2626-580X Buchreihen-eISSN: 2702-9077 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff.

»Haben Sie heute schon mit Siri gesprochen? Nein. Ich werde auch nicht mit Siri sprechen. Ich spreche nicht mit jedem.« (H.P. Baxxter, Musiker) »Ich werde meine künstliche Intelligenz dafür nutzen, dass Menschen besser leben können: bessere Häuser entwerfen, bessere Städte bauen und so weiter. Ich werde mein Bestes tun, um die Welt zu einem besseren Ort zu machen.« (Sophia, erster Roboter, der 2017 Staatsbürgerrechte erhielt)

Inhalt

Prolog: KI als Meta-Netz der Menschheit 1. 1.1 1.2 1.3

Künstliche Intelligenz als epochentypische Verheißung .....................13 KI als ›Star‹ im Drama der Digitalisierung....................................... 14 Fortschrittsgeschichten als Zukunftsversprechen ............................... 19 Zwischen technischem Artefakt und sozialer Bedeutung ....................... 22

Prototypische Zukunftsnarrative über KI 2. 2.1 2.2 2.3 2.4 2.5 2.6 3.

Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen....................................... 27 Technikpotenziale............................................................. 32 Effizienzsehnsucht ........................................................... 39 Akzeptanztests ............................................................... 47 Inszenierungsstrategien....................................................... 72 Futurisierungszwang .......................................................... 79 Wettkampfarenen ............................................................. 85

Quest-Narrative: Kognitiv-epistemologische Verheißungen ................................... 87 3.1 Wiederverzauberung ......................................................... 92 3.2 Subjektsimulationen .......................................................... 98 3.3 Techno-Animismus........................................................... 103

3.4 Superintelligenz............................................................... 116 3.5 Singularität ...................................................................123 3.6 Erlösungsfantasien ...........................................................128 4. 4.1 4.2 4.3 4.4 4.5 4.6 5. 5.1 5.2 5.3 5.4 5.5 5.6

Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen ........................... 135 Innovationsanspruch ......................................................... 138 Machbarkeitsfantasien .......................................................142 Kybernetisches Regieren ......................................................150 Zivilisationsexperimente ......................................................156 Planetenhüter.................................................................165 Lebenssynthese...............................................................175 Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen ............................... 185 Kontrollverlust ................................................................192 Entfremdung ................................................................. 197 Zerstörungsantizipationen ................................................... 207 Entmündigungsurteile ....................................................... 209 Totalüberwachung ............................................................ 214 Ethische Freihandelszonen ....................................................216

Von Zukunftsnarrativen zu Zukunftseuphorie 6. 6.1 6.2 6.3 6.4 6.5

Hoffnung statt Erschöpfung ................................................ 229 Knappheit und Katastrophe .................................................. 229 Flucht statt Heilung ...........................................................231 Affekte als Schwellenphänomen .............................................. 237 Jahrmärkte der Hoffnung .................................................... 238 Orte des Zukunftsdenkens..................................................... 241

7. 7.1 7.2 7.3

Zukunftsverheißung als Heilssehnsucht .................................... 245 Verheißungen im Wandel ..................................................... 245 Jenseitige Heilsversprechen ................................................. 249 Diesseitige Potenzialversprechen ............................................ 252

8. 8.1 8.2 8.3 8.4 8.5

Sehnsucht nach welthaltigem Trost ........................................ 259 Trost als soziale Form ........................................................ 259 Welthaltige Tröstungen ...................................................... 262 Narrative Spekulationen ..................................................... 264 Antizipationserzählungen ..................................................... 271 Narrativer Wissensraum ..................................................... 280

9. 9.1 9.2 9.3 9.4 9.5

KI als kollektives Tröstungsprojekt......................................... 295 Neue Rollenzuschreibungen .................................................. 297 Heiligkeitsäquivalente........................................................ 307 Neoreligiöse Lichtgestalten ...................................................310 Gesellschaftsutopie statt Innovation ...........................................316 Verheißungsfreie Zukunftsethik .............................................. 322

Quellen ........................................................................... 331 Gespräche über KI ............................................................... 357

Prolog: KI als Meta-Netz der Menschheit In Peter Høegs düsterem Roman Der Plan von der Abschaffung des Dunkels beschreibt der Autor (s)eine Kindheit in dänischen Erziehungsheimen. Nebenbei erinnert er an den inzwischen fast in Vergessenheit geratenen Biologen, Zoologen und Philosophen Jakob Johann von Uexküll. Dieser ging davon aus, dass jedes Lebewesen über eine eigene »Umwelt« und damit auch über ein subjektives Zeit- und Raumempfinden verfügt. Genau diese doppelte Einbettung erläutert Høeg am Beispiel von Spinnen: »Eine Spinne sieht und hört schlecht, und ihr Geruchssinn ist auch nicht so gut, ihre Umwelt ist also begrenzt durch ihren Wahrnehmungsapparat. Doch sie hat ihr Netz, damit sie ihre Wahrnehmung weit über sich hinaus ausdehnt.« (Høeg 1999: 287) Sind Spinnen also besonders ›intelligent‹, wenn sie darauf verzichten, ihr eigenes Netz über einen gewissen Umfang hinaus auszudehnen? Denn täten sie es, empfingen sie letztendlich verwirrende Signale. Durch ein zu weit gespanntes Netz würde die Spinne »weit mehr Signale empfangen, als sie verarbeiten könnte«, so Høeg. »Dann käme das abnorm große Netz in Konflikt mit dem Wesen der Spinne [...], mit ihrer Natur.« (Ebd.: 289) Das Bild des Netzes dient als gedanklicher Ausgangspunkt, um in diesem Buch über gesellschaftliche Funktionen von Verheißungserzählungen im Umfeld Künstlicher Intelligenz nachzudenken. So viel Analogie darf sein: Welches »Netz« haben sich Menschen im Laufe der Zeit gesponnen? Welche Signale lassen sich mit informationstechnischer Hilfe empfangen? Fest steht: Technikgeschichte ist eine stetige Abfolge von Netzen, die immer weiter reichen und zugleich immer empfindlicher wurden. Warum das nicht folgenlos bleiben kann, erläutert Høeg (ebd.) ebenfalls, denn die »Erforschung der Welt durch den Menschen, sein Netz, verändert auch die Welt«. Zumindest lässt sich erahnen, dass KI bereits jetzt einen Anteil an der Veränderung unserer Welt hat. KI spinnt ein weitreichendes Netz aus neuen Wahrnehmungen und neuen Wissensformen. Besonders eindrücklich ist die Umwälzung bisheriger Gewissheiten und die Erweiterung menschlicher Fertigkeiten gegenwärtig am Beispiel des textbasierten Dialogsystems ChatGTP

12

Stefan Selke: Technik als Trost

zu erkennen. Was hat es also mit KI auf sich? Zukunftseuphorische Verheißungen mit KI-Bezug versprechen eine nahezu unendliche Ausdehnung unserer Merk- und Wirkwelt (ebenfalls zwei zentrale Begriffe aus der Theorie von Uexkülls). KI, so die zentrale Verheißung, könnte eines Tages zum Meta-Netz der Menschheit werden, zur totalen Entgrenzung unserer Augen, Ohren, Sinnesorgane und Denkwerkzeuge. Was genau ließe sich damit gewinnen? Was wäre, wenn es sich mit dem »Meta-Netz« einer KI so verhielte, wie mit dem zu weit ausgedehnten Netz der Spinne im Gedankenexperiment Peter Høegs? Könnte es sein, dass uns dieses neue, unendliche Netz überfordert, weil es in Konflikt mit unserem Wesen steht, mit unserer menschlichen Natur? Dieses Buch behandelt die gesellschaftlichen Funktionen von Verheißungen über KI im Kontext zeitgenössischer Zukunftserzählungen. Aber was erzählen verheißungsvolle Geschichten wirklich? Was lässt sich daraus über KI lernen und was über uns selbst? Beim Versuch, diese Fragen zu klären, sollten wir stets folgendes Bild im Hinterkopf haben: Das Netz der Spinne ist das Abbild ihrer erhofften Beute.

1. Künstliche Intelligenz als epochentypische Verheißung

Möglicherweise ist KI das beste Beispiel dafür, dass wir inzwischen intensiv mit Technologien zusammenleben, für die es keine äußere Entsprechung mehr gibt. Dennoch werden ganze Zeitalter nach diesen intransparenten Technologien benannt. Es verwundert kaum, dass wir gerade »im digitalen Zeitalter der Bits und Algorithmen, der künstlichen Intelligenz und des Internets leben [...] und dass dieses Zeitalter voller Verheißungen steckt« (Grunwald 2019: 19). Weil aber Verheißungen über KI das Spiegelbild unserer Epoche sind, werden unterschiedliche Verheißungen und deren gesellschaftliche Funktionen im vorliegenden Buch systematisch untersucht (Teil 1). Technik als Trost? Der Titel des Buches ist die kürzte Zusammenfassung der hier vertretenen These. Denn es wird sich zeigen, dass verheißungsvolle Zukunftsnarrative jenseits des Technischen eine besondere Qualität besitzen und in modernen und zugleich erschöpften Gesellschaften als Trostersatz wirken, weil sie euphorisch stimmen (Teil 2). In diesem Spannungsfeld zwischen Zukunftserzählungen und Zukunftseuphorie wird es ohne Emotionen nicht gehen, denn für viele Zeitgenossen ist KI eine unfassbare »Provokation« (Truttmann 2021: 13ff.). Genau diese Einbettung macht KI jedoch zu einem idealen Gegenstandsbereich der Gesellschaftswissenschaften. Gerade weil bereits ausgiebig über KI geforscht, publiziert, medial berichtet und literarisch erzählt wird, muss das Feld zwischen Erklärungen und Beurteilungen ausgelotet werden. Damit steht der umfangreiche und heterogene narrative Wissensraum über KI zur Disposition. Zunächst wird im ersten Teil des Buches mit dem systematischen Vergleich von vier prototypischen Zukunftsnarrativen mit KI-Bezug eine neue Blickachse eingeführt. Verheißungsvolle Zukunftserzählungen zeichnen sich gerade dadurch aus, dass sie keine funktionalen Bedienungsanleitungen sind, sondern spekulative Bedeutungszuschreibungen mit überhöhten Zukunftser-

14

Stefan Selke: Technik als Trost

wartungen. Verheißungserzählungen sollten nicht als technologische Leistungsschau missverstanden werden. Vielmehr sind sie Spiegel unserer Kultur und Epoche. Kurz: Verheißungsvolle Narrative über KI sind eine Signatur der Gegenwartgesellschaft. Verheißungen weisen über bekannte Polarisierungen zwischen ›kulturpessimistischen‹ und ›technikeuphorischen‹ Argumenten hinaus. Deshalb wird im zweiten Teil des Buches eine soziologische Umdeutung einer bekannten anthropologischen Beschreibung von Trost und Tröstungsritualen vorgenommen. Die epistemologische Position von Verheißungsnarrativen ist somit nicht trivial. Das Beispiel KI verdeutlich, dass Funktion oftmals Reflektion ersetzt, weil überzeugende technische Lösungen kaum noch Gegenstand von Beobachtung sind. (Nassehi 2019: 225) Genau hier setzt die vorliegende Studie an, wenn sie die Frage stellt, was zeitgenössischen Verheißungen über KI bedeuten, wo sie herkommen, in welche Traditionslinie(n) sich diese Narrative einordnen lassen und welche – auch unerwartete – Funktionen mit Verheißungsnarrativen verbunden sind. Die These des Trostersatzes verdeutlicht, dass es bei einer gesellschaftswissenschaftlichen Beobachtung von KI darum geht, die Notwendigkeit zukunftseuphorischer Verheißungen für zeitgenössische Gesellschaften erklärbar oder zumindest plausibel zu machen. In der Summe führt das zu einer erstaunlichen Perspektivenvielfalt. Inzwischen treffen narrative Imaginationen über KI auf rezeptionsbereite Publika, die sich offen für teils hochspekulative Verheißungen zeigen. Zukunftsnarrative liegen breit gestreut in Form von Fortschrittsgeschichten, Meta-Analysen, Hype-Zyklen, politisch-normativen Leitbildern, Visionen von KI-Schaffenden, Medienberichten aber vor allem auch als fiktionale Darstellungen (Science-Fiction) vor. Alle zusammen läuten sie das eingangs angedeutete neue »Zeitalter voller Verheißungen« (Grunwald 2019: 19) ein. Es wird also darum gehen, Geschichten über KI als epochentypische Verheißung neu einzuordnen. Im Wesentlichen geht es dabei um die Frage, worüber Menschen eigentlich reden, wenn sie über KI sprechen. Welche positiven und negativen Zuschreibungen sind explizit oder implizit in Zukunftserzählungen enthalten?

1.1

KI als ›Star‹ im Drama der Digitalisierung

Immer häufiger nutzen Akteure in Wirtschaft, Wissenschaft und Politik Digitalisierungssemantiken, um Selbstbeschreibungen ihres Leistungsvermögens anzufertigen. Vor diesem Hintergrund weist Florian Süssenguth in Die Ge-

14

Stefan Selke: Technik als Trost

wartungen. Verheißungserzählungen sollten nicht als technologische Leistungsschau missverstanden werden. Vielmehr sind sie Spiegel unserer Kultur und Epoche. Kurz: Verheißungsvolle Narrative über KI sind eine Signatur der Gegenwartgesellschaft. Verheißungen weisen über bekannte Polarisierungen zwischen ›kulturpessimistischen‹ und ›technikeuphorischen‹ Argumenten hinaus. Deshalb wird im zweiten Teil des Buches eine soziologische Umdeutung einer bekannten anthropologischen Beschreibung von Trost und Tröstungsritualen vorgenommen. Die epistemologische Position von Verheißungsnarrativen ist somit nicht trivial. Das Beispiel KI verdeutlich, dass Funktion oftmals Reflektion ersetzt, weil überzeugende technische Lösungen kaum noch Gegenstand von Beobachtung sind. (Nassehi 2019: 225) Genau hier setzt die vorliegende Studie an, wenn sie die Frage stellt, was zeitgenössischen Verheißungen über KI bedeuten, wo sie herkommen, in welche Traditionslinie(n) sich diese Narrative einordnen lassen und welche – auch unerwartete – Funktionen mit Verheißungsnarrativen verbunden sind. Die These des Trostersatzes verdeutlicht, dass es bei einer gesellschaftswissenschaftlichen Beobachtung von KI darum geht, die Notwendigkeit zukunftseuphorischer Verheißungen für zeitgenössische Gesellschaften erklärbar oder zumindest plausibel zu machen. In der Summe führt das zu einer erstaunlichen Perspektivenvielfalt. Inzwischen treffen narrative Imaginationen über KI auf rezeptionsbereite Publika, die sich offen für teils hochspekulative Verheißungen zeigen. Zukunftsnarrative liegen breit gestreut in Form von Fortschrittsgeschichten, Meta-Analysen, Hype-Zyklen, politisch-normativen Leitbildern, Visionen von KI-Schaffenden, Medienberichten aber vor allem auch als fiktionale Darstellungen (Science-Fiction) vor. Alle zusammen läuten sie das eingangs angedeutete neue »Zeitalter voller Verheißungen« (Grunwald 2019: 19) ein. Es wird also darum gehen, Geschichten über KI als epochentypische Verheißung neu einzuordnen. Im Wesentlichen geht es dabei um die Frage, worüber Menschen eigentlich reden, wenn sie über KI sprechen. Welche positiven und negativen Zuschreibungen sind explizit oder implizit in Zukunftserzählungen enthalten?

1.1

KI als ›Star‹ im Drama der Digitalisierung

Immer häufiger nutzen Akteure in Wirtschaft, Wissenschaft und Politik Digitalisierungssemantiken, um Selbstbeschreibungen ihres Leistungsvermögens anzufertigen. Vor diesem Hintergrund weist Florian Süssenguth in Die Ge-

1. Künstliche Intelligenz als epochentypische Verheißung

sellschaft der Daten erstens darauf hin, dass es eine »auffällige Pluralität von Beschreibungsformeln« (Süssenguth 2015b: 8) gibt, dass es aber zweites eher auf die Funktionen von Digitalisierungssemantiken, als auf die Folgen der Digitalisierung selbst ankommt, dass also »Semantiken der Digitalisierung eine Erzählung der Auflösung bestehender Strukturen« sowie des »disruptiven Wandels und des Kontrollverlusts« darstellen. Digitalisierungssemantiken verflüssigen bestehende Erwartungsstrukturen, regen aber auch dazu an, neue Bewertungskriterien für gesellschaftliche Funktionssysteme zu ersinnen, denn am Ende des Tages geht es um die »paradoxe Notwendigkeit, das Unausweichliche organisieren zu müssen« (Süssenguth 2015c: 93). Wenn es aber um die Transformation von Gesellschaft geht, ist KI der ›Star‹ auf der Bühne der Digitalisierung. Zukunftsgeschichten mit KI-Bezug übertreffen bereits bestehende Digitalisierungsnarrative bei weitem. Was hat uns »die Digitalisierung« nicht schon alles versprochen? Oder das Internet? Und nun endlich: KI! Verheißungserzählungen mit KI-Bezug erzählen die Dramen der Digitalisierung auf einer neuen Stufe fort. Daher verwundert es kaum, dass KI zahlreiche Lösungspotenziale zugeschrieben werden und diese – meist ohne jede Übertreibung – gleich mit der ›Zukunft der Menschheit‹ assoziiert werden. Um das gesamte Spektrum möglicher Veränderungen angemessen einzufangen und ein tiefergehendes Verständnis von KI-Verheißungen zu entwickeln, braucht es allerdings Perspektivenvielfalt und Polyvokalität. Vielstimmigkeit ist allein deshalb wichtig, weil manche Autoren im Kontext von KI tendenziell »zu Einseitigkeit, Stereotypisierung und Herabsetzung der Wichtigkeit der anderen Beiträge« neigen. (Becker 2019: 22) Die Schriftgelehrten der digitalen Transformation sind vorwiegend Technokraten, weil Prioritäten eher von den Mitteln und nicht vom Menschen gedacht werden. Technische und wirtschaftliche Interessen stehen im Vordergrund. Die ›Schlossermentalität‹, wie das technische Narrativ (ein wenig polemisch) genannt wird, bestimmt die Pragmatik der Diskussionsforen. (Ebd.: 27) Weil die Sichtweise auf KI zu einseitig ist, braucht es komplementäre gesellschaftswissenschaftliche Perspektiven, die Wechselwirkungen zwischen Technik und Gesellschaft stärker in den Blick nehmen. Denn es reicht nicht aus, »in Technik immer nur das Verheißungsszenario zu sehen«, so die Philosophin Susann Kabisch, eine der für diese Studie interviewten Expertinnen.1 »Stattdessen sollten möglichst 1

In diesem Buch knüpfe ich zur Illustration und besseren Lesbarkeit wörtliche Zitate aus Gesprächen über KI ein, die mit Experten und Expertinnen aus unterschiedlichen

15

16

Stefan Selke: Technik als Trost

diverse Positionen einbezogen werden, um die Entwicklung, Einführung und Anwendung von KI zu begleiten.« Eine polyvokale Zukunftserzählungen über KI muss auf vielfältige Quellen zurückgreifen, um das Gesamtbild des Verheißungsvollen zu rekonstruieren. Berührungsängste sind bei diesem Vorgehen eher hinderlich. Deshalb finden im Folgenden gleichermaßen Science-Fiction-Romane und Fachartikel sowie viele weitere Quellen über KI Berücksichtigung bei der Untersuchung. Damit sind auch einige Einschränkungen verbunden: An keiner Stelle der Studie wird es um die Plausibilität von Zukunftsvisionen rund um KI gehen. Erkenntnisleitend ist ausschließlich die Frage, welche Bedeutung verheißungsvolle Zukunftsprojektionen in der Gegenwartsgesellschaft haben können. Eine vorbildliche Strategie der Vielstimmigkeit wird im Sammelband Possible Minds. 25 Ways of Looking at AI verfolgt. Darin lässt der Herausgeber John Brockman zahlreiche prominente Forscher als Übung in »Perspektivismus« (ebd.: xxv) zu Wort kommen. KI ist für ihn nicht nur die Geschichte unserer Zeit, sondern vielmehr die Geschichte hinter allen anderen Geschichten. »It is the Second Coming and the Apocalypse at the same time: good AI versus evil AI.« (Brockman 2020: xv) Diese grundlegende Dichotomie bestimmt auf den ersten Blick die Wahrnehmung von KI. Allerdings muss es darum gehen, aus diesen polaren Beurteilungsschemata auszubrechen. Gegenüberstellungen wie ›gut/böse‹ oder ›Utopie/Dystopie‹ sind wenig zielführend. Die mosaikartige Anthologie Possible Minds versucht zumindest, ein Leitmotiv in der dynamischen Debatte über KI zu erkennen. Als roter Faden dient hierbei Norbert Wieners Buch The Human Use of Human Beings (dt.: Mensch und Menschmaschine) – ein Meilenstein selbstkritischer Wissenschaft über intelligente Maschinen. Brockmann stellt Wiener anhand eines einprägsamen Satzes vor: »He knew the danger was not machines becoming more like humans but humans being treated like machines.« (Ebd.: xxvi) In der Tat warnte Wiener in seinem Buch God & Golem vehement davor, dass die Welt der Zukunft sich in einem Konflikt mit den Begrenzungen unserer menschlichen Intelligenz befinden werde. (Wiener 1963) Alle Beiträge des zeitgenössischen Sammelbandes greifen die Argumente Wieners erneut auf, entwickeln diese weiter und kommentieren dabei (eher beiläufig) vorherrschende KI-Verheißungen.

Bereichen geführt habe. Die Zitate sind sprachlich angepasst, ohne den Sinn zu verstellen. Eine Liste der 30 Gesprächspartner*innen findet sich im Anhang. Im gesamten Text wird aus Gründen der Lesbarkeit meist auf genderspezifische Sprachformeln verzichtet (Ausnahmen sind direkte Zitate).

1. Künstliche Intelligenz als epochentypische Verheißung

Eine weitere Möglichkeit, um Vielstimmigkeit als Erkenntnisinstrument nutzbar zu machen, sind stilbildende Konferenzen wie z.B. die fünftägige Asilomar-Konferenz zu Beneficial AI, die 2017 vom Future of Life Institute organisiert wurde, um Aspekte »nützlicher« und »wohltätiger« KI auszuloten. Eine Gruppe von KI-Forschern aus Wissenschaft und Industrie sowie Vordenkern aus den Bereichen Wirtschaft, Recht, Ethik und Philosophie entwickelte Leitsätze, die schließlich von mehreren tausend Experten und Unterstützern unterzeichnet wurden.2 Im narrativen Wissensraum zu KI finden sich zahlreiche vergleichbare Initiativen und Manifeste. Zusammengenommen ergibt sich ein Kaleidoskop an Stimmungen, Ängsten, Werte- und Moralvorstellungen. Die Vielfalt der Narrative macht zudem deutlich, dass die diskursive Dimension von Technik nicht übersehen werden darf. KI ist mehr als Technik, die funktioniert. Vielmehr handelt es sich um ein vielschichtiges soziales Drama, das zahlreiche Schnittstellen zwischen Weltgeschehen und Lebensführung betrifft. Eine soziologische Perspektive rückt daher Bedeutungszuschreibungen in den Mittelpunkt. In Verheißungsnarrativen, so die These dieses Buches, verbinden sich öffentlich zirkulierende Zukunftshoffnungen und private Erwartungshorizonte. Mit der Analyse von KI-Verheißungen geht auch ein emanzipatorischer Anspruch einher. Es geht darum, nicht lediglich ein stillschweigender oder sogar gleichgültiger Zuschauer eines Geschehens zu bleiben. Um den Sinn der eigenen Epoche besser zu verstehen, braucht es vielmehr Einsicht darin, wie die Veränderungen des Weltgeschehens und die eigene Biografie in Wechselwirkung stehen. Der Soziologe C. Wright Mills prägte dafür die bekannte Formel von den »public issues« (öffentliche Angelegenheiten) und den »private troubles« (private Sorgen) (vgl. Mills 1959 und auf Deutsch Mills 1963). Gerade KI greift immer direkter in das Weltgeschehen ein und schreibt sich damit ebenfalls in private Lebensläufe ein. Ein fundiertes Verständnis neuer Verheißungserzählungen führt im besten Fall dazu, Gleichgültigkeit in Beteiligung zu verwandeln. Dazu braucht es nicht notwendigerweise eine eindeutige Position für oder gegen KI. Vielmehr geht es darum, den Korridor der Gesellschaftsgestaltung zwischen persönlichem Unbehagen und inszenierter Zukunftseuphorie auszuloten. Für dieses Verständnis braucht es weder eine Gesamtschau aller vorliegenden Verheißungserzählungen, noch die Nacherzäh-

2

https://futureoflife.org/ai-principles-german/ (28.06.2021).

17

18

Stefan Selke: Technik als Trost

lung der Technikgeschichte von KI. Genau das leisten bereits andere Akteure.3 Auch begriffliche Abgrenzungen, wie z.B. die Definition von Intelligenz müssen an anderer Stelle geleistet werden.4 Gleiches gilt für eine kultursensible Kontextualisierungen von Verheißungen. Trotz dieser Einschränkungen werden zahlreiche Erwartungshorizonte rekonstruiert, die mit Verheißungsnarrativen über KI verbunden sind. Vorbilder dieser Studie sind z.B. der Sammelband AI Narratives, in dem antike, moderne und zeitgenössische Erzählungen über intelligente Maschinen vorgestellt werden. Sie alle haben einen Bezug zu zeitgenössischen KI-Verheißungen. Die Publikation versteht sich als eine Anthologie von Imaginationen, die den historischen und zugleich kulturellen Kern zeitgenössischer KI-Diskurse offenlegt. (Cave et al. 2020a: 5) Dieser Rückblick auf historische Quellen legt wichtige Traditionslinien offen, z.B. Erzählungen über die dämonische Macht von Maschinen, die Menschen kontrollieren. »Artificial Intelligence was used to maintain social boundaries and uphold social norms, acquire or consolidate power over others, and attain knowledge otherwise unavailable to human understanding.« (Truitt 2020: 66) Deutlich wird auch, dass Verheißungserzählungen immer auch mit Unheil-Botschaften einhergehen: Einerseits intelligente Maschinen, andererseits Dehumanisierung oder Entfremdung. Die Herausgeber betonen »the consequences of automation and mechanization for society; the cultural assumptions embedded in the anthropomorphization of machines; the importance of understanding AI as a distributed phenomenon; the human drivers behind the desire for technologically enabled immortality; the interaction of AI with the sovereign-governance game that defines modern rules« (Cave et al. 2020b: 5). Auch diese Perspektive ist erkenntnisreich, denn für zahlreiche Kritiker von KI ist der Prozess der Dehumanisierung bereits in vollem Gang. »Der Mensch wird zum Roboter«, so etwa Peter Seele, »und die Maschine hat es dann um ein Vielfaches leichter, dem Menschen ähnlicher zu werden – oder 3

4

Eine interaktiver Zeitstrahl zur Entwicklung von KI findet sich bei der Bundeszentrale für politische Bildung, online verfügbar unter: https://www.bpb.de/fsd/h5p/zeitstrahl -ki/ (15.01.2022). Eine ästhetisch sehr viel ansprechendere Darstellung einer Zeitschiene bzw. Timeline findet sich im Katalog zur Ausstellung AI: More than Human (Barbican International 2019: 72ff.). Gleichwohl gibt es Möglichkeiten, sich der Frage nach dem Unterschied zwischen menschlicher und empirischer Intelligenz empirisch anzunähern, etwa durch diesen Selbsttest, der einige Überraschungen bereit hält https://www.tidio.com/blog/ai-test /#quiz

1. Künstliche Intelligenz als epochentypische Verheißung

diesen zu beaufsichtigen oder zu kontrollieren. Das ist keine Zukunftsmusik. Algorithmen als Boss sind bereits vielfältige Realität geworden.« (Seele 2020: 164) Auf den ersten Blick klingt das einseitig (oder sogar dystopisch), doch bei näherem Hinsehen wird ersichtlich, dass gerade Zukunftsnarrative über intelligente Maschinen den Weg zu komplexeren Debatten über soziale, ethische, politische und philosophische Folgen von KI ebnen. In ihrer Funktion als sozio-technische Imaginationen besitzen KI-Narrative das Potenzial, die vielfältigen Beziehungen zwischen Technologie und Gesellschaft deutlich werden zu lassen. Die Forscherin Shiela Jasanoff versteht unter sociotechnical imaginaries »collectively held, institutionally stabilized, and publicly performed visions of desirable futures, animated by shared understandings of forms of social life and social order attainable through, and supportive of, advances in science and technology« (Jasanoff 2015: 4). Hier ist ebenfalls eine Vielzahl von Perspektiven zu berücksichtigen, denn sociotechnical imaginaries bestehen aus einer »assemblages of materiality, meaning, and morality that constitute robust forms of social life«, so Jasanoff weiter. »Imaginaries are securely established in interpretative social theory as a term of art referring to collective beliefs about how society functions.« (Ebd.: 5) Bereits hier zeigt sich die Bedeutung von Science-Fiction, weil im narrativen Format Technologien nicht nur imaginiert, sondern stets in bestimmte gesellschaftliche Settings situiert werden. Die Herausgeber des Sammelbandes AI Narratives kommen deshalb zu folgendem Ergebnis: »Narratives of intelligent machines matter [...], these developments are interpreted and assessed. [...] AI narratives have played, and will continue to play, a crucial role in determining the future of AI implementation.« (Cave et al. 2020a: 7, 10)

1.2 Fortschrittsgeschichten als Zukunftsversprechen Zweifelsohne sind mit KI zahlreiche Technikversprechen verbunden. Unter ›technology promises‹ sind spezifische Narrative zu verstehen, die Leitvisionen in Innovations- und Forschungsprozessen bündeln und damit Zukunftserwartungen begründen. (Van Lente/Rip 1998) Grundlage dieser Zukunftsversprechen ist kulturell eingeübte Technikgläubigkeit. Da es schwer ist, Technikgläubigkeit empirisch zu messen, werden Versprechen meist in der Form euphorischer Fortschrittsgeschichten weitergegeben – daher erfolgt im zweiten Teil dieses Buches eine vertiefte Analyse der Funktion von Zukunftseuphorie. Beispielhaft ist die Übersichtsdarstellung des Historikers Marcel

19

1. Künstliche Intelligenz als epochentypische Verheißung

diesen zu beaufsichtigen oder zu kontrollieren. Das ist keine Zukunftsmusik. Algorithmen als Boss sind bereits vielfältige Realität geworden.« (Seele 2020: 164) Auf den ersten Blick klingt das einseitig (oder sogar dystopisch), doch bei näherem Hinsehen wird ersichtlich, dass gerade Zukunftsnarrative über intelligente Maschinen den Weg zu komplexeren Debatten über soziale, ethische, politische und philosophische Folgen von KI ebnen. In ihrer Funktion als sozio-technische Imaginationen besitzen KI-Narrative das Potenzial, die vielfältigen Beziehungen zwischen Technologie und Gesellschaft deutlich werden zu lassen. Die Forscherin Shiela Jasanoff versteht unter sociotechnical imaginaries »collectively held, institutionally stabilized, and publicly performed visions of desirable futures, animated by shared understandings of forms of social life and social order attainable through, and supportive of, advances in science and technology« (Jasanoff 2015: 4). Hier ist ebenfalls eine Vielzahl von Perspektiven zu berücksichtigen, denn sociotechnical imaginaries bestehen aus einer »assemblages of materiality, meaning, and morality that constitute robust forms of social life«, so Jasanoff weiter. »Imaginaries are securely established in interpretative social theory as a term of art referring to collective beliefs about how society functions.« (Ebd.: 5) Bereits hier zeigt sich die Bedeutung von Science-Fiction, weil im narrativen Format Technologien nicht nur imaginiert, sondern stets in bestimmte gesellschaftliche Settings situiert werden. Die Herausgeber des Sammelbandes AI Narratives kommen deshalb zu folgendem Ergebnis: »Narratives of intelligent machines matter [...], these developments are interpreted and assessed. [...] AI narratives have played, and will continue to play, a crucial role in determining the future of AI implementation.« (Cave et al. 2020a: 7, 10)

1.2 Fortschrittsgeschichten als Zukunftsversprechen Zweifelsohne sind mit KI zahlreiche Technikversprechen verbunden. Unter ›technology promises‹ sind spezifische Narrative zu verstehen, die Leitvisionen in Innovations- und Forschungsprozessen bündeln und damit Zukunftserwartungen begründen. (Van Lente/Rip 1998) Grundlage dieser Zukunftsversprechen ist kulturell eingeübte Technikgläubigkeit. Da es schwer ist, Technikgläubigkeit empirisch zu messen, werden Versprechen meist in der Form euphorischer Fortschrittsgeschichten weitergegeben – daher erfolgt im zweiten Teil dieses Buches eine vertiefte Analyse der Funktion von Zukunftseuphorie. Beispielhaft ist die Übersichtsdarstellung des Historikers Marcel

19

20

Stefan Selke: Technik als Trost

Hänggi, der für eine »realistische und kritische Wahrnehmung von Technik jenseits von Technikeuphorie und Technikfeindschaft wirbt« (Hänggi 2015: 23). Zentral für Fortschrittsgeschichten ist das Zusammenspiel latenter Andeutungen und hoffnungsvoller Erwartungen. Geschickt vermischt, entsteht auf diese Weise eine ganz eigene soziale Realität. Für Technikversprechen gibt es keine Grenze. KI ist hierfür wohl das beste Beispiel. »The prevalence of narratives focused on utopian extremes can create expectations that the technology is not (yet) able to fulfill. This in turn can contribute to a hype bubble, with developers and communicators potentially feeding into the bubble though over-promising.« (Royal Society 2018: 14) Überzogene Versprechungen tauchen tatsächlich in vielen Varianten auf. Die Journalistin Kathrin Passig versuchte sogar, »Standardsituationen des Technologieoptimismus« als Untervariante technologischer Heilsversprechen nachzuzeichnen. Allerdings erkannte sie später selbstkritisch, dass Technologieversprechen auch ins Leere laufen können. »Ich habe einige Zeit gebraucht, um überhaupt zu merken, dass es auch falsche optimistische Vorhersagen geben kann«, so Passig. »Natürlich ist Wunschdenken [...] im Spiel, und die fehlende Bereitschaft, sich mit Veränderungen auseinanderzusetzen.«5 Am Beispiel von KI lässt sich diese Form informierter Ignoranz sehr schön beobachten. KI? Schon mal gehört! Aber so richtig wissen, wollen es nur die Wenigsten. Technikversprechen werden meist durch Hype Cycle illustriert. Diese versinnbildlichen, wie sich die Sicht auf neue Technologien nach und nach verändert: Nach der Erfindung einer Technologie mündet deren Wahrnehmung rasch in einem »Gipfel überzogener Erwartungen«, fällt dann in ein »Tal der Enttäuschungen« ab und pendelt sich schlussendlich auf einem »Plateau ausgewogener Produktivität« ein. (Fenn/Mark 2008) Anders als Verheißungen besitzen Hypes nur eine kurze Halbwertszeit. Sie sind zudem an konkrete Produkte, Orte und Namen gebunden. »Utopien operieren hingegen stets mit langen Zeiträumen«, so der Medienwissenschaftler Rudolf Maresch. »Weder durch Enttäuschungen noch durch das Leerlaufen von Zukunftsversprechen lassen sich Utopien falsifizieren.« (Maresch 2001: 235) Gerade in dieser Immunisierungsfunktion konkretisiert sich der verheißungsvolle Charakter

5

Das ist eine Reaktion auf ihre »Standardsituationen der Technikkritik« (Passig 2013), die die Autorin selbst als einseitig und teils falsch kritisiert. Vgl.: https://www.me dienkorrespondenz.de/leitartikel/artikel/neue-technologien-altenbspreflexe.html (20.03.2022).

1. Künstliche Intelligenz als epochentypische Verheißung

utopischer Fortschrittsgeschichten. Euphorische Heilsversprechen schießen zwar stets über das Ziel hinaus, sind dabei aber nicht komplett unrealistisch. Tatsächlich werden bereits erstaunliche Fortschritte gemacht, die noch vor kurzem wie Science-Fiction klangen. (Budian 2020: 35) KI ist dafür wohl das aufregendste Beispiel – keine Woche ohne neue, aufsehenerregende Ankündigungen über ChatGTP oder vergleichbare KI-Anwendungen. Verheißungen suggerieren positive Veränderungen. Mehr noch: Alles wird gut! Jede »Verheißung hat einen prophetischen Touch, weil damit die Erwartung von etwas Großartigem verbunden ist«, so der Psychologe Florian Hutmacher. »Auf jeden Fall eine positive Konnotation – eine positive Zukunftserzählung über neue Chancen.« KI wird von Vielen – wissend oder unwissend – als »very forward-looking thing« betrachtet, so der optimistische Daten-Analyst Boris Paskalev. Mit Versprechungen über bislang ungeahnte Potenziale werden latente Wünsche von Menschen bedient, die einer Vision entsprechen«, entgegnet die eher skeptische Forscherin Verena van Zyl-Bulitta. »Es ist ein Versprechen, die Hoffnung auf zukünftige technische Umsetzungen.« Gerade das Beispiel KI verdeutlicht eine weit über das Empirische hinausschießende Gläubigkeit an die Potenziale von Technologien. Allerdings stellt sich hierbei die Frage, wie weit diese Unterstellungen reichen. Wo liegt der Fluchtpunkt technikeuphorischer Erwartungen? »Irgendwann geht Technikgläubigkeit in das rein Spekulative oder die Verheißung über«, so der Informatiker Karsten Wendland. »Wobei dann eigentlich niemand mehr die Grundlage des Versprechens beurteilen kann.« Verheißungsvolle Geschichten über KI sind nicht deshalb interessant, weil sie zeigen, was KI tatsächlich leistet. Sie sind interessant, weil zukünftige Lösungen versprochen werden und weil diese Zukunftserzählungen etwas über gegenwärtige Erwartungen aussagen. Technologieerwartungen (expectations statements) werden zudem gerne medial inszeniert. Ein Beispiel ist die TV-Serie Years and Years (Russell Davies, 2019), die das Leben einer britischen Familie zwischen den Jahren 2019 und 2034 zeigt. Nebenbei wird verdeutlicht, wie sich digitale Technologien verändern und zum radikalen Wandel der Lebensverhältnisse beitragen. »Diese Serie ist eine Warnung an die Menschheit«, so der Kritiker Thomas Lückerath, »verpackt in einer dramatischer Serien-Dystopie.«6 Einmal mehr zeigt sich, dass Technikgläubigkeit keine Grenzen kennt: »Zum Schluss quatschen die Leute mit den Wänden«, ironisiert die Designerin Johanna Tiffe 6

https://www.dwdl.de/madeineurope/72835/years_and_years_russell_t_davies_warn ung_an_die_menschheit/.html (20.02.2022).

21

22

Stefan Selke: Technik als Trost

die Sogwirkung von Technikerwartungen mit Bezug auf Years and Years. Die Visionen von KI-Programmierenden und Medieninszenierungen überlappen sich genau dort, wo Zukunftsversprechen vor allem in Form von Entlastungserwartungen auftreten. Im Diskurs um Technikerwartungen unterscheidet Andreas Kaminski hierbei vier Basiserwartungen: Potenzialerwartungen, Vertrautheitserwartungen, Vertrauenserwartungen sowie Funktionierbarkeitserwartungen. (Kaminski 2010) Derartige Versprechen kann KI aber erst dann einlösen, wenn ihr (als Technologie) schier Unglaubliches und zugleich Undurchschaubares unterstellt wird. Dies zielt auf den Kern dieses Buches: Die spekulative Aufladung von Zukunftsnarrativen als Verheißung beginnt bereits dort, wo KI als komplex angenommen wird. Der Komplexitätsmythos ist der verbindende Kern aller KI-Verheißungsnarrative. Da hilft es auch nicht, diese Vorannahme vorauseilend zu entkräften. »Entgegen einer weitverbreiteten Fehlannahme, muss eine KI nicht immer schwer berechenbar und komplex sein«, so etwa die Studie Künstliche Intelligenz von Lufthansa Industry Solutions. »Für jede klar abgegrenzte Aufgabe lässt sich auch eine kleine und einfach zu handhabende KI entwerfen, die wertige Ergebnisse liefert.« (Lufthansa 2020: 6)

1.3 Zwischen technischem Artefakt und sozialer Bedeutung Es reicht daher nicht aus, in KI bloß eine weitere Hoch-Technologie zu sehen. Das technische Artefakt (=von lat. arte ›mit Kunst‹ und factum ›das Gemachte‹) hat an sich nur eine geringe Bedeutung. Gerade zum Verständnis von Verheißungen ist ein erweiterter Technikbegriff notwendig, um zu den gesellschaftlichen Bedeutungen von KI vorzudringen. Auf diese Weise lassen sich dann auch Zukunftsnarrative und Zukunftseuphorie als die beiden Eckpunkte einer gesellschaftswissenschaftlichen Perspektive auf KI ausbuchstabieren. Ausgangspunkt ist hierbei eine Besonderheit von Verheißungserzählungen, denn sie stellen eine Verbindung zwischen verschiedenen Dimensionen von Technik her. Bereits der Technikphilosoph Günter Ropohl unterschied die inneren Strukturen einer Technologie von äußeren Reaktionen auf diese Technologie. Techniker, Informatiker und Ingenieure sind hingegen meist von einem eindimensionalen Technikverständnis geprägt, das nur die »gemachten Sachen« betrachtet, nicht aber deren »menschliche Verwendung«. So führen etwa ein Computer oder eine intelligente Maschine kein isoliertes Eigenleben, sondern funktionieren nur durch und für den Menschen. Auf diese Weise ent-

22

Stefan Selke: Technik als Trost

die Sogwirkung von Technikerwartungen mit Bezug auf Years and Years. Die Visionen von KI-Programmierenden und Medieninszenierungen überlappen sich genau dort, wo Zukunftsversprechen vor allem in Form von Entlastungserwartungen auftreten. Im Diskurs um Technikerwartungen unterscheidet Andreas Kaminski hierbei vier Basiserwartungen: Potenzialerwartungen, Vertrautheitserwartungen, Vertrauenserwartungen sowie Funktionierbarkeitserwartungen. (Kaminski 2010) Derartige Versprechen kann KI aber erst dann einlösen, wenn ihr (als Technologie) schier Unglaubliches und zugleich Undurchschaubares unterstellt wird. Dies zielt auf den Kern dieses Buches: Die spekulative Aufladung von Zukunftsnarrativen als Verheißung beginnt bereits dort, wo KI als komplex angenommen wird. Der Komplexitätsmythos ist der verbindende Kern aller KI-Verheißungsnarrative. Da hilft es auch nicht, diese Vorannahme vorauseilend zu entkräften. »Entgegen einer weitverbreiteten Fehlannahme, muss eine KI nicht immer schwer berechenbar und komplex sein«, so etwa die Studie Künstliche Intelligenz von Lufthansa Industry Solutions. »Für jede klar abgegrenzte Aufgabe lässt sich auch eine kleine und einfach zu handhabende KI entwerfen, die wertige Ergebnisse liefert.« (Lufthansa 2020: 6)

1.3 Zwischen technischem Artefakt und sozialer Bedeutung Es reicht daher nicht aus, in KI bloß eine weitere Hoch-Technologie zu sehen. Das technische Artefakt (=von lat. arte ›mit Kunst‹ und factum ›das Gemachte‹) hat an sich nur eine geringe Bedeutung. Gerade zum Verständnis von Verheißungen ist ein erweiterter Technikbegriff notwendig, um zu den gesellschaftlichen Bedeutungen von KI vorzudringen. Auf diese Weise lassen sich dann auch Zukunftsnarrative und Zukunftseuphorie als die beiden Eckpunkte einer gesellschaftswissenschaftlichen Perspektive auf KI ausbuchstabieren. Ausgangspunkt ist hierbei eine Besonderheit von Verheißungserzählungen, denn sie stellen eine Verbindung zwischen verschiedenen Dimensionen von Technik her. Bereits der Technikphilosoph Günter Ropohl unterschied die inneren Strukturen einer Technologie von äußeren Reaktionen auf diese Technologie. Techniker, Informatiker und Ingenieure sind hingegen meist von einem eindimensionalen Technikverständnis geprägt, das nur die »gemachten Sachen« betrachtet, nicht aber deren »menschliche Verwendung«. So führen etwa ein Computer oder eine intelligente Maschine kein isoliertes Eigenleben, sondern funktionieren nur durch und für den Menschen. Auf diese Weise ent-

1. Künstliche Intelligenz als epochentypische Verheißung

steht eine Mensch-Maschine-Einheit, für die Ropohl den (inzwischen klassischen) Begriff des »sozio-technischen System« prägte. (Ropohl 2009: 71f.) Der Verheißungscharakter von KI nimmt daher vor allem nicht-funktionale Aspekte (Beurteilungen, Bedürfnisse, Hoffnungen, Ängste) in den Blick, die in Zukunftserzählungen als Bindeglied zwischen internen Strukturen und externen Reaktionen auftauchen. Technik sollte in Anlehnung an die (ebenfalls klassische) Einlassung des Philosophen Martin Heidegger nicht primär im Hinblick auf Funktionen und Leistungen betrachtet werden, sondern »als ein existentieller und epistemologischer Ort, wo sich die Entbergung des Seins ereignen kann« (zit. n. Gumbrecht 2018: 23). Doch welches »Sein« kann sich in KI »entbergen«? Welche Botschaft über uns, unser Leben und unsere Gesellschaft sind in KI-Verheißungen enthalten? Fest steht lediglich, dass es je nach Erkenntnisinteresse ganz unterschiedliche Perspektiven und Bezugsprobleme gibt. »Unterschiedliche Gruppen schauen unterschiedlich auf KI«, so Karsten Wendland, der auch gleich auf die Folgen inkompatibler Betrachtungsweisen hinweist. »Das hat sehr viel mit Inszenierungen zu tun. Lösungsversprechen führen weg vom Menschen, hin zur Technik.« Das zentrale Bezugsproblem dieser Studie ist also nicht die Plausibilität von Aussagen über die technologischen Potenziale von KI, sondern die gesellschaftlichen Funktionen öffentlich zirkulierender Verheißungserzählungen. Es ist jene Perspektive, die Armin Nassehi in seiner »Theorie der digitalen Gesellschaft« einnimmt, wenn er Digitalisierung nicht einfach voraussetzt, sondern vielmehr nach deren gesellschaftlichen Beiträgen fragt: »Für welches Problem ist die Digitalisierung eine gesellschaftliche Lösung?« (Nassehi 2019: 12). Für den Soziologen ist das Bezugsproblem der Digitalisierung die Komplexität der Gesellschaft selbst. (Ebd.: 36) Gesellschaften und deren soziale Systeme bauen auf »internen Stoppregeln, Interdependenzunterbrechungen und Grenzen der Verknüpfungsfähigkeit« auf, die Ordnung limitieren. Die Logik des Digitalen schafft hingegen Ordnung und erzeugt damit neue Strukturen, wenn davon ausgegangen wird, dass Strukturen »letztendlich nichts anderes sind, als die Einschränkungen von Erwartungen in bestimmten Situationen« (ebd.) und Algorithmen heutzutage genau diese Einschränkungen erzeugen. Digitaltechnik fängt »dort an, wo sich die Welt in Daten repräsentieren lässt, um Muster und Strukturen zu erkennen« (ebd.: 229). Deshalb spiegelt sich in der Digitalisierung die Gesellschaft selbst wider, sie »entdeckt [...] sich selbst – und zwar als Einschränkung von Kontingenz, als selektive Form, als sich wiederholende Rekombinatorik, als Entbergung von Mustern, zugleich als Erzeugung von Mustern« (ebd.: 148). Kurz: Mit der Digitalisierung ist eine erhebliche

23

24

Stefan Selke: Technik als Trost

Ordnungsleistung verbunden. Exakt dieses Potenzial zur Ordnungsbildung bildet den Kern vieler KI-Verheißungen, die wie eine Art Fortsetzungsgeschichte bereits vorgängiger Digitalisierungssemantiken oder -narrative gelesen werden sollten. In Teil 1 des Buches wird daher zunächst ein systematischer Vergleich interessensgeleiteter narrativer Perspektiven auf KI geleistet, um zu demonstrieren, wie sich Geschichten über KI mit normativen Haltungen verbinden. In Teil 2 wird dann die Frage nach dem Bezugsproblem von Verheißungen weiter differenziert. Die spezifische Ordnungsleistung von Zukunftseuphorie besteht darin, dass verheißungsvolle Technikerzählungen in zeitgenössischen Gesellschaften als Trostmittel funktionieren.

Prototypische Zukunftsnarrative über KI Zur Zukunft gibt es keinen empirischen Zugang, also muss Zukunft erzählt werden. Diese Zukunftsgeschichten sind weit mehr als Fantasie. Gerade Zukunftserzählungen schaffen Sinnhaftigkeit, sie helfen, das eigene Dasein besser zu verstehen. Geschichten über die Gegenwart dienen dabei als Spiegel, schlüssige Zukunftserzählungen stimmen im besten Fall euphorisch. Euphorie ist nichts anderes als die Einstimmung auf ein neues Ziel. Und die Qualität von Zielen bestimmt die Qualität der Zukunft. Im Kontext gesellschaftlicher Transformation spielen Zukunftsnarrative sogar eine zentrale Rolle: Sie sind keine Illustration, sondern die Quintessenz von Veränderungsprozessen. Am Ende wird darum gehen, verheißungsvolle Zukunftsgeschichten als Mittel des Weltentwerfens nutzbar zu machen, ohne an den darin enthaltenden überhöhten Heilsbotschaften zu erblinden. In diesem Buch werden daher Zukunftsnarrative über KI vorgestellt. Dazu werden Erzählmodelle nutzbar gemacht, die sich in der transformativen Organisationsforschung bewährt haben (Chlopczyk/Erlach 2019). Geschichten über die Zukunft erzählen eigentlich immer von Ereignissen und Erfahrungen aus einer Vergangenheit, die von unserer Gegenwart aus gesehen in der Zukunft liegt. (Müller 2019) Kurz: Es sind vergangene Ereignisse aus einer fiktiven Zukunft. Das prognostische Narrativ – so die in diesem Buch genutzte Bezeichnung über Zukunftsnarrative – ist somit eine Geschichte über ein angestrebtes Ziel in der Zukunft sowie dazugehörige Herausforderungen. Die Funktion von Zukunftserzählungen liegt darin, dass sie plurale Zukünfte entwerfen sowie plausible Mittel zur Zielerreichung definieren. Damit enthalten Zukunftsgeschichten ein hohes Identifikationspotenzial – und zwar unabhängig von der Plausibilität der Zukunftsentwürfe. Sie verbinden Vorannahmen, Wahrnehmungen und Informationen und erzeugen Sinn, der als authentische Beschreibung der sozialen Wirklichkeit wahrgenommen werden kann.

26

Stefan Selke: Technik als Trost

Grundlegend lassen sich vier prototypische prognostische Narrative unterscheiden.1 Zwei der Basisnarrative sind regressiv: das Dagegen-Narrativ und das Anpassungs-Narrativ. Die beiden anderen wirken zumindest progressiv. Innerhalb dieser Rahmung kann praktisch jede Geschichte über KI erzählt werden: 1. Bei Dagegen-Narrativen geht es um den Kampf gegen einen konkreten oder imaginären ›Feind‹. Für Modernisierungsverweigerer ist KI ein solcher ›Feind‹. Das Leitmotiv ist Ablehnung. 2. In Quest-Narrativen steht die Suche nach einem wundervollen ›Schatz‹ im Mittelpunkt. Für digitale Gurus erscheint KI als eine Lösung für beinahe alles. Das Leitmotiv ist Spekulation. 3. Durch Anpassungs-Narrative erfolgt die Gewöhnung an das vermeintlich Alternativlose. Zahlreiche Policy-Paper und ethische Richtlinien versuchen KI als alternatives Phänomen regulativ einzuhegen. 4. In Aufbruchs-Narrativen steht schließlich die Sehnsucht nach einer besseren Welt im Mittelpunkt. KI wird daher in einigen Erzählformen als Garant einer besseren Welt oder sogar als Mittel zur Rettung der Welt verstanden.

Diese vier unterschiedlichen Erzählweisen über Zukunft werden nun anhand zahlreicher Beispiele vorgestellt und verglichen.

1

Für Petra Grimm gibt es hingegen drei Ausprägungen des digitalen Narrativs, die der hier vorgestellten Typologie aber recht nahekommen. Im prometheischen Narrativ wird die Digitalisierung als Heilsbringer in der Form von Heilsbotschaften gefeiert. Im Pandora-Narrativ wird die Digitalisierung als Black-Box charakterisiert, deren wirkliches Bedrohungspotential nicht erkannt wird. Und im Hermes-Narrativ wird die Digitalisierung unter wirtschaftlichen Zwecksetzungen verstanden, wobei Nutzenerwartungen stehen im Vordergrund stehen (Grimm et al. 2019).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Anpassungs-Narrative sind eine weit verbreitete Erzählform über KI. Im Wesentlichen werden dabei Optimierungsaufgaben thematisiert. Das bleibt nicht folgenlos: Wer Anpassungsgeschichten erzählt, signalisiert die Bereitschaft, sich mit dem scheinbar Alternativlosen zu arrangieren oder es sogar zu begrüßen. »Statt digitale Welt noch zu gestalten«, befürchtet daher auch Armin Grunwald, »bliebe uns nur die Anpassung« (Grunwald 2019: 30). Das Anpassungs-Narrativ kreist daher um die Idee des Sich-Arrangierens mit dem Unabwendbaren. Erzählt werden Geschichten über kleine Schritte, über Fahren auf Sicht. »Deshalb sind Anpassungsgeschichten gerade in der Politik beliebt«, so der Narrationsforscher Michael Müller, »genau das hat aber auch den Nachteil, dass wenig gestaltet werden kann«. Ein Optimum ist allerdings noch kein Ziel. Das liegt vor allem daran, dass in Anpassungs-Narrativen vor allem politische oder ökonomische Zwänge sichtbar werden. Anpassung bedeutet im Kern, dass unter Unsicherheit lediglich inkrementelle Verbesserungen eingeführt werden. Wandel erfolgt daher nur Schritt für Schritt. Anpassungs-Narrative kennen zwar Erfolgskriterien für ein definiertes Optimum, was ihnen aber fehlt ist der Kompass für sinnhafte Ziele. Das ist wichtig, weil nicht Rechenleistung die Mangelware des 21. Jahrhunderts sein wird, sondern Sinnhaftigkeit. Gleichwohl werden Anpassungs-Narrative gegenwärtig sogar als »großartige« Zukunftserzählung und »eigenständiges gesellschaftliches Projekt« gefeiert. »Eine Gesellschaft« so der Soziologe Philipp Staab, »die Anpassung ernsthaft und in einem positiven Sinne zu ihrem Leitmotiv machte, hätte [...] in bisher ungekanntem Ausmaß Ressourcen für die Stabilisierung aufzuwenden«. (Staab 2002: 47) Diese Einschätzung verdeutlicht prototypisch, wie in Anpassungs-Narrativen die Vorstellung eines idealen und zugleich stabilen Gleichgewichts wahrnehmungs- und handlungsleitend wird. Anpassungs-

28

Stefan Selke: Technik als Trost

Narrative sollten deshalb weder demokratisiert noch im Kontext einer Rhetorik der Resilienz (oder gar als vermeintliche Notwendigkeit der Evolution) institutionalisiert werden. Denn im Kern sind und bleiben alle AnpassungsNarrative einem elitären Gerechtigkeitsverständnis verhaftet: Während sich die Mehrheit mühsam durch Verzicht an die neuen Lebensverhältnisse anpassen und sich als resilient erweisen soll, verweigern die Eliten dauerhaft die dringend notwendige Aufgabe ihrer gut behüteten Privilegien. Wenn Angst vor Destabilisierung und Sehnsucht nach dem vermeintlich Normalen die Haupttreiber von Veränderungen sind, wenn also Anpassungsdruck als wichtiger erachtet wird als gesellschaftliche Reformen, dann kann eine bessere Welt wieder einmal nicht entstehen. Wer Anpassungs-Narrative verbreitet, signalisiert lediglich die Bereitschaft, sich mit dem scheinbar Alternativlosen zu arrangieren. Weil Anpassung immer eine Reaktion auf (echte oder angenommene) Krisen darstellt, bremst diese reaktive Haltung sowohl die Entwicklung freier Persönlichkeiten, als auch die zukunftsfähige Transformation von Gesellschaften aus. Kurz: Anpassung steht im Widerspruch zu Freiheit und Entwicklung. Anpassungserzählungen sind Symbole des Stillstands. Was fehlt, ist die Fantasie für Alternativen. Im Kontext mutloser AnpassungsNarrative werden bloß immer weiter Standardwelten reproduziert. Kurz: Anpassung ist das falsche Leitmotiv.

Anpassungs-Narrative im Kontext von KI: »KI ist einfach da!« Auf der metaphorischen Ebene wird KI gerne als Traum beschrieben, weil Realität und Fiktion, Wunsch und Wirklichkeit nicht immer eindeutig zu unterscheiden sind. »Die Verheißung bleibt daher ein Traumzustand«, so die KI-Unternehmerin Walburga Fröhlich. »Wir müssen davon ausgehen, den idealen Zustand auf Erden niemals zu erreichen. Aber wir können dem Ideal ein Stück näherkommen. Ein paar Grenzen überwinden – Denkbarrieren, Handlungsbarrieren – das geht immer.« Im Bild der iterativen Annäherung drückt sich die Anpassungsleistung aus. Anpassungs-Narrative beginnen meist mit der Annahme, dass KI bereits unwiderruflich einen Platz mitten in der Gesellschaft gefunden hat und dass Menschen nach und nach lernen sollten, die Vorteile algorithmischer Systeme zielgerichtet zu nutzen. Die typische Anpassungserzählung betont in einem weiteren Schritt, dass KI im Alltag nur allzu gerne akzeptiert wird, weil damit Komfort und Annehmlichkeiten verknüpft sind. »Tatsächlich steckt KI ja schon in vielen Dingen drin«, bestätigt auch Verena van Zyl-Bulitta. »Es gibt Berührungspunkte, ohne dass

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

wir es überhaupt merken. KI ist einfach da!« Wichtig ist, dass Anpassung einen latenten Grundoptimismus voraussetzt, um kognitive Dissonanzen zu vermeiden. »Menschen sind sehr adaptiv«, so der Psychologie Fabian Hutmacher, »so sehr, dass sie irgendwann nicht mehr darüber nachdenken, ob das, was sie tun, eigentlich gut ist. Sie passen sich an bestimmten Gegebenheiten an.« Gerade im Umfeld von KI wird vieles ausprobiert, Möglichkeiten und Märkte gibt es genug. »Das ist ein menschlicher Grundzug: Man sieht, dass etwas funktioniert und denkt sich: warum eigentlich nicht? Dann probieren wir es mal aus und schauen, was passiert.«

Kritik an der Scheinneutralität von KI Problematisch an Anpassungs-Narrativen ist allerdings, dass diese irrtümlicherweise davon ausgehen, dass Technik neutral ist. Auch wenn das inzwischen als widerlegt gilt, setzen die üblichen Fortschrittsgeschichten dennoch voraus, dass es einen ›guten‹ Umgang mit Technik geben kann (Hänggi 2015) und es schlussendlich nur darauf ankomme, wie der Mensch die Technologie nutzt, also »was wir daraus machen« (Kaufmann/Navarini 2020: 658). Oliver Gerstheimer, Direktor einer Digitalagentur, vergleicht diesen Ansatz ironisierend mit der Werbung für Betonmischer, die sich seit der Kampagne 2007 als geflügeltes Wort verbreitete: »Beton: Es kommt darauf an, was man daraus macht.«1 In diesem Sinne geht auch der KI-Experte Kai-Fu Lee in seinem Buch KI 2041 davon aus, dass KI an sich weder gut noch schlecht ist. »Und wie bei den meisten Technologien werden auch bei KI langfristig die positiven gesellschaftlichen Auswirkungen stärker zu Buche schlagen als die negativen.« (Lee/Chen 2021: 13) Erst die Idee, dann die Anwendung und schließlich doch der Nutzen? Es wäre hilfreich, einen zweiten Blick auf Anpassungs-Narrative zu wagen. Denn weder entsteht Technik ›natürlich‹, noch funktioniert sie ›automatisch‹. Schon gar nicht ist Technik ›neutral‹. (Müller/Nievergelt 1996) KI ist keine Ausnahme von der Regel, dass Technik Denken und Handeln bestimmt sowie Gesellschaft und Kultur verändert. Um zu einem besseren Verständnis von Verheißungserzählungen über KI zu gelangen, sollte also zunächst die Scheinneutralität von KI demaskiert werden. »Es fängt damit an, dass KI letztlich, auch wenn das 1

https://www.beton.org/uploads/tx_news/BAU2007_Objektdatenbank.pdf (05.02. 2022). Ähnlich auch: »Es kommt darauf an, was wir aus den digitalen Möglichkeiten machen, nicht darauf, was wir befürchten und ablehnen.« (Becker 2019: 36)

29

30

Stefan Selke: Technik als Trost

oft ausgeblendet wird, menschengemacht ist«, so die Philosophin Susann Kabisch. »Das führt dazu, dass das Bestehende unter dem Anschein der Neuartigkeit und Neutralität zementiert wird und Ungleichgewichte sowie Diskriminierungen reproduziert oder verstärkt werden.« Es macht also keinen Sinn, KI als neutrale Technik zu betrachten, denn weder »ist KI in ihrer Entstehung noch in ihrer Anwendung, noch in ihren Auswirkungen neutral«. Ähnlich problematisch (wenn nicht gar naiv) ist die Rede von ›nützlicher Technik‹. Ist KI schon dann nützlich, wenn sie bereits bestehende Probleme löst? Oder erst dann, wenn sie neue Probleme sichtbar macht, die gesellschaftlich relevant sind? Die erste Sichtweise steht für eine rein reaktive technizistische Perspektiven auf Technik, die zweite für rein kulturalistische Perspektive auf Innovationen. Festzuhalten bleibt zunächst, dass sich Verheißungserzählungen über KI im Spannungsfeld zwischen diesen beiden Perspektiven bewegen. Bereits heute hat KI erhebliche Auswirkungen auf soziale, politische und ökonomische Teilsysteme der Gesellschaft – angefangen von der Wortschöpfung ›künstliche Intelligenz‹ selbst, über Grenzen der Meinungsbildung bis hin zu Fragen nach (politischer) Verantwortung, sozialem Miteinander, individueller Persönlichkeitsentfaltung und Prozessen der Wahrheitsfindung. »Vor diesem Hintergrund ist die Auseinandersetzung mit der ethischen Dimension von KI von einer rein akademisch-philosophischen zu einer gesellschaftlichen und innovationspolitischen Debatte gewachsen. Das zunehmende Interesse an der Ethik von KI kommt nicht von ungefähr, schließlich greifen Algorithmen tief in gesellschaftliche Zusammenhänge ein und sind nicht auf spezifische Anwendungsfelder beschränkt. KI verändert Wertschöpfungsprozesse genauso wie die private Kommunikation und die Interaktion der Menschen.« (Apt et al. 2019: 239) Kurz: KI verleiht bereits bekannten ethischen Fragen gegenwärtig ein noch höheres Gewicht. Häufig besitzen Anpassungs-Narrative die äußere Form von Fachberichten, deren Urheber (Ethik-)Kommissionen oder angrenzende Institutionen sind. Texte zum ›richtigen‹ oder ›guten‹ Umgang mit KI bilden ein erkennbares Gravitationszentrum des narrativen Wissensraums. Darin werden Fragen zu Grenzen der Nutzung gestellt und Regulierungsbedarfe diskutiert. Das bedeutet aber auch, »dass KI einfach akzeptiert und nicht mehr nach den Bedingungen für die Verheißung von KI gefragt wird«, so Verena van ZylBulitta. »Keine Ethik-Kommission wagt es, KI grundsätzlich in Frage zu stellen. Niemand hinterfragt wirklich, warum wir uns so sehr nach dieser ultimativen Innovation sehnen. Meistens endet das bei Benimm-Regeln.« Somit

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

greifen Anpassungs-Narrative eigentlich zu kurz, weil sie bereits alternativlos voraussetzen, was sie bewerten. Auch der Deutsche Bundestag griff mit der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale den herrschenden Zeitgeist auf. Ziel war es, den zukünftigen Einfluss von KI auf das (Zusammen-)Leben, die deutsche Wirtschaft sowie die zukünftige Arbeitswelt zu untersuchen, Chancen und Herausforderungen zu identifizieren sowie eine Vielzahl technischer, rechtlicher und ethischer Fragen zu untersuchen. Dazu beschäftigten sich sechs Projektgruppen mit unterschiedlichen Politikfeldern (Wirtschaft, Staat, Gesundheit, Arbeit, Bildung, Forschung, Mobilität und Medien) sowie konkreten Anwendungsfällen von KI. Nach knapp zwei Jahren Arbeit wurde im Oktober 2020 der Abschlussbericht dem damaligen Bundestagspräsidenten Wolfgang Schäuble überreicht. Darin wird der Anspruch betont, den Wandel im Zusammenhang mit KI »wertegeleitet und zum Wohl von Mensch und Umwelt« zu gestalten. (Deutscher Bundestag 2020) Neben einem Veränderungspotenzial für die Gesellschaft wird die Notwendigkeit betont, KI-Anwendungen vorrangig auf das Wohl und die Würde des Menschen sowie das Gemeinwohl auszurichten. Allerdings wird auch in diesem Kontext KI hauptsächlich als potentes Werkzeug betrachtet, mit dem auf latente Bedarfe reagiert wird. Im Kern wird damit ein passives und funktional-technizistisches Zukunftsnarrativ reproduziert. Auch die Handlungsempfehlungen beziehen sich stark auf funktionale Dimensionen von KI zwischen Datennutzung und Datenschutzregelungen. Insgesamt ist der umfassende Bericht ein Zeugnis hypnotischer Redundanz, weil zentrale Themen, die bereits andere Kommissionen, Think-Tanks oder Fachpublikationen bearbeiteten (z.B. Vertrauen in KI, Diskriminierungsfreiheit, Nachhaltigkeit) erneut und ohne überzeugenden Erkenntnisgewinn abgehandelt werden. Vor allem aber geht das zugrundeliegende Anpassungs-Narrativ davon aus, dass es nicht möglich ist, sich KI zu verweigern und somit als einzig verbleibende Option die Notwendigkeit besteht, gestalterisch einzugreifen, innovative Ideen zu produzieren und die Entwicklung in eine gute Richtung zu lenken.2 Im Folgenden werden nun einige der zentralen inhaltlichen Dimensionen von Anpassungs-Narrativen im Kontext von KI näher vorgestellt und beispielhaft erläutert.

2

https://www.heise.de/news/Enquete-Kommission-KI-stellt-eigene-Arbeit-vor-49144 59.html (10.05.2021).

31

32

Stefan Selke: Technik als Trost

2.1 Technikpotenziale Verheißungen sind konsequent auf die Zukunft gerichtete Aussagen. Auf einer operativ-funktionalen Ebene stehen dabei technologische Potentiale im Mittelpunkt. Der Begriff »Potenzial« wird in diesem Buch als neutraler Arbeitsbegriff verstanden. Potenziale von KI werden in zahlreichen Strategiepapieren, Policy-Papieren und Leitbildern aufgefächert und betont. Kritik ist hierbei meist unerwünscht. »In dem Moment, wo die Fragen beginnen, wird es sehr schnell ungemütlich«, so Karsten Wendland. »Wenn jemand nachweist, dass KI-Systeme nicht funktionieren oder systematisch Fehler machen, verdirbt das die Laune von denen, die KI bereits auf der nächsten Stufe sehen.« Andererseits sind viele der Potenziale von KI noch unentdeckt. »Eine systematische Erfassung von KI-Fortschritten fehlt bislang«, mahnt daher Marie-Luise Wolff.

Kategorienprobleme im Umgang mit KI An verheißungsvollen Andeutungen über Potenziale mangelt es nicht. »The potential benefits are huge«, schreiben etwa die prominenten Forscher Stephen Hawking, Start Russell, Max Tegmark und Frank Wilczek in der britischen Zeitung The Independent und heizen zugleich die damit verbundenen Zukunftshoffnungen an. »Success in creating AI would be the biggest event in human history.«3 Zwar wirkt der Begriff »Potenzial« sachlicher als »Verheißung«, gleichzeitig ist er jedoch unterkomplex, denn Potentiale sind letztlich menschliche Kategorien. »KI ist aber eine potenzielle Entität, die unabhängig von unserer Intelligenz existiert. Ihr Potenzial in menschliche Kategorien zu packen, wird kaum weiterführen«, kritisiert deshalb der Physiker Gerd Ganteför. »So ist etwa Effizienz eine menschliche Kategorie, die aus der unglaublich langen Evolution entstanden ist, weil die Entstehung von Leben effizienzbasiert ist. Die eigentlichen Verheißungen der KI sind somit Aspekte, die wir uns heute noch nicht vorstellen können, Dimensionen, die bislang außerhalb unseres Denkens standen.« Bei der Suche nach KI-Verheißungen zeigen sich immer wieder derartige Kategorienprobleme, denn das Neue muss in alten Begriffen gedacht werden. »KI ist mehr als ein Potenzial. Sie ist ein Versprechen, allerdings eines, von dem wir nicht genau wissen, wann es 3

https://www.independent.ie/business/technology/stephen-hawking-success-in-crea ting-artificial-intelligence-would-be-the-biggest-event-in-human-history-30238573. html (04.07.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

eingelöst wird«, so Tobias Gantner. »Aber bei diesem Versprechen geht es immerhin darum, ein Welträtsel zu lösen.« Gleichwohl lässt sich unter Rückgriff auf technologische Potenziale von KI die Geschichte eines besseren Lebens besonders eindrucksvoll erzählen. »Verheißung bedeutet immer auch ein Verbesserungsversprechen«, so der Physiker Michael Möricke. »Ob das Ganze stimmt, ist zweitrangig.« Potenziale sind positiv aufgeladene Erwartungen an technologische Funktionen, Zugewinne an Optionen oder Formen des Problemlösens. »Das wirkt wie eine Stufenleiter«, so Fabian Hutmacher. »Es gibt Potentiale, die sehr nah an unserer Gegenwart liegen. Aber auch solche, die bis hin zu transhumanistischen Vorstellungen reichen.« Auf den zweiten Blick lassen sich Potenziale auf einer a) instrumentellen, b) einer reflexiven und c) einer transformativen Ebene unterscheiden: Instrumentelle Potenziale werden vor allem in Anpassungs-Narrativen thematisiert. Sie basieren meist auf Funktionen der Mustererkennung, z.B. im Bereich der bildgebenden Medizin (Gehirnschnitte). Im Science-Fiction-Roman Die Tyrannei des Schmetterlings wird dieses Potential literarisch sehr schön illustriert: »Jedes ist mit jedem verbunden, alles beeinflusst einander, ein Kausalitätenfils, unentwirrbar. Es gilt, die Dinge in Beziehung zu setzen. Im Chaos Muster zu erkennen. Weil, darum. Wenn, dann. Sich dem Sinn zu nähern. Es gilt zu assoziieren.« (Schätzing 2018: 485) KI wird eine enorme Problemlösungskompetenz zugeschrieben, z.B. bei der Steuerung komplexer industrieller Anlagen. »KI kann hier einen großen Beitrag zur Weiterentwicklung und Optimierung von Prozessen leisten«, so die Vorstandsvorsitzende der ENTEGA AG, Marie-Luise Wolff. »Und damit geht es auch um das Thema CO2 -Reduzierung.« Ein weiteres konkretes Potenzial von KI ist der Nachbau bzw. die Modellierung der Welt. KI kann helfen, menschliches Leben besser zu verstehen, wie im Kontext der Modellierung von Körperzellen (Stichwort: Präzisionsmedizin). »Mit KI lässt sich die Komplexität einzelner Zellen, von denen wir bislang höchsten zehn Prozent verstehen, nachbauen«, erläutert der Arzt Manfred Dietel. »In jeder Zelle interagieren 40.000 Proteine. Diese komplexen Wechselwirkungen werden mittels künstlicher Intelligenz transparenter. Auf dieser Basis können schließlich neue Medikamente entwickelt werden.« Instrumentelle Potenziale sind an die Rollenzuschreibung von KI als Werkzeug gebunden. Reflexive Potenziale gehen hingegen von höheren Autonomiegraden der KI aus, wobei KI eine relative Entscheidungskompetenz zugeschrieben wird, die an die Rolle von KI als Assistenz gebunden ist. Effizienzsteigerung kann bedeuten, Entscheidungsprozesse zu optimieren, wie etwa beim Recruiting von Bewerbern. »Eine KI kann aus 500 Bewerbungen 50 herausfiltern, die

33

34

Stefan Selke: Technik als Trost

näher betrachtet werden sollten«, so Wolff. »Dabei geht es immer um Mengenbewältigung, also im Kern um Effizienz. Ethisch problematisch wird es erst dann, wenn Avatare oder KI-Assistenten Bewerbungsgespräche führen, wenn es also überhaupt keinen menschlichen Gesprächspartner mehr gibt.« Transformative Potenziale von KI werden hingegen vor allem in Quest- und Aufbruchs-Narrativen thematisiert. Sie sind die Grundlage für progressive Vorstellungen über die sozio-technische Ko-Evolution von Menschen und Maschine, das Enhancement des Menschen sowie die Utopie eines Redesigns von Gesellschaft. »Am Ende geht es darum, durch eine neue Art von Gegenstand die Gesellschaft zu modifizieren und eine andere Gesellschaft zu haben als vorher«, so der Anthropologe Guido Sprenger. »Aber wahrscheinlich kommen die Entwickler nicht auf die Idee, dass das am Ende immer Politik ist, was sie da tun, also Gesellschaftsgestaltung. In anderen Worten: KI ist immer politisch, weil sie die Polis verändert, die Zusammensetzung der Gesellschaft.« Pflegeroboter sind vor diesem Hintergrund ein passendes Beispiel dafür, wie sich technologische Funktionalitäten, ökonomische Gewinnerwartungen und gesellschaftlicher Wandel gegenseitig bedingen: Pflegeroboter könnten in der Rolle des Assistenten »für unseren Lebensunterhalt sorgen und auf dieser Basis ein allgemeines, bedingungsloses Grundeinkommen erwirtschaften. Menschen hätten damit mehr Freiräume«, so der Journalist Hans-Arthur Marsiske. Sie könnten aber auch nur dazu dienen, die weitere Durchsetzung einer Technologie in angrenzenden Märkten zu fördern und zu legitimieren. Letztlich erweist sich die Anwendung von KI auf allen Ebenen als ambivalent. »Wir nutzen das Potential von KI«, so Walburga Fröhlich. »Aber man kann es eben für Dummes oder für Kluges nutzen.« Das erinnert an die Einteilung des Psychologen Wolfgang Schmidbauer in schlaue und dumme Dinge. (Schmidbauer 2015) Trotz der schlichten Wortwahl wird hier ein zentrales Differenzkriterien benannt: ›Dumme Dinge‹ zeichnen sich dadurch aus, dass sie bei der Produktion aufgewertet wurden, bei der Nutzung aber zu Abwertungen führen. Sie haben bei der Herstellung so viel Intelligenz verzehrt oder verbraucht, dass »schließlich dem Benutzer gar keine Gelegenheit mehr bleibt, seine Intelligenz einzusetzen« (ebd.: 11). ›Dumme Dinge‹ sind zwar gut gemeint, letztlich aber bloß Pseudoverbesserungen. Sie sind in der Anwendung komfortabel und bequem, ihre Funktion ist darauf ausgerichtet, ihren Nutzern Lästiges zu ersparen. Dabei sind sie jedoch in der Nutzung undurchschaubar und schaffen Abhängigkeiten. Ihre wesentliche Eigenschaft besteht darin, dass sie Denken und Lernen entsinnlichen, trivialisieren und somit zu regressivem Verhalten füh-

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

ren. ›Dumme Dinge‹ schaffen lediglich symbolische Nähe, gefühlte Sicherheit oder gefühltes Wissen. ›Schlaue Dinge‹ sind hingegen lernorientiert, sie fördern aktives Einüben und regen zu informellen Lösungen an. ›Schlaue Dinge‹ motivieren zu progressiven Lebensformen und schaffen echte soziale Interaktionen. ›Dumme Dinge‹ assistieren, führen aber zu Unselbständigkeit. Der Unterschied zwischen dummen Dingen und schlauen Dingen ist einer zwischen komfortablen Technologien und übenden Technologien (ebd.). Auch die Unterscheidung des Philosophen Ivan Illich in konviviale und manipulative Technologien (Illich 1975; Illich 2009) führt zu ähnlichen Erkenntnissen: Lebensdienlichkeit (Konvivialität) ist ein ethisch-praktischer Leitgedanke, der auf drei Einsichten basiert: Lebensdienliche Technologien erweitern 1. den persönlichen Aktionsradius, schaffen 2. Leistungen, ohne die persönliche Autonomie zu zerstören, und verhindern 3. soziale Abhängigkeiten oder Hierarchien. Zwar steigert KI sehr deutlich Aktionsradien, Leistung und Effizienz, gleichzeitig schafft sie jedoch neue Abhängigkeiten (von Märkten und deren Marktteilnehmern, von Programmierern, von Updates etc.) sowie neue soziale Hierarchien (z.B. zwischen digital verantwortungsvollen und vulnerablen Konsumenten). Die Forderung Illichs nach einer konvivialen Erneuerung von Gesellschaft ist noch heute aktuell. »Es stellt sich [...] heraus, dass Maschinen nicht machen, was wir wollen und dass man Menschen nicht auf ein Leben im Dienste von Maschinen abrichten kann.« (Illich 1975: 27) Menschen brauchen keine Werkzeuge, die ihnen die Arbeit abnehmen, sondern solche, mit denen sie arbeiten und gut leben können. Nur Werkzeuge, die diesen Anspruch erfüllen, nennt Illich konvivial. Sie bieten die Freiheit, Dinge selbst kreativ zu erschaffen und sie nach ihrem eigenen Geschmack zu gestalten. Konviviale Technologien sind das Gegenteil von industriell gesteigerter Produktivität. Manipulative Technologien hingegen übersetzen qualitative Vorgänge des Lebens in abstrakte Quantitäten. Sie konditionieren Menschen durch programmierte Werkzeuge, die selbst auf Programmen beruhen: Algorithmische Programme, in die soziale Programme eingehen, programmieren Menschen. Für Illich ist das letztlich destruktiv. Können Programmierer diese Zusammenhänge erkennen? Wissen sie, dass sie Werten folgen, auch wenn diese nicht immer explizit sichtbar sind? »Diese Werte können nur kultureller oder gesellschaftlicher Art sein«, so der Anthropologe Guido Sprenger. »Wer zielgerichtet handelt, folgt irgendeinem gesellschaftlichen Ziel. Also verspricht sich die Gesellschaft etwas von technologischen Entwicklungen. Sie erwartet die Realisierung eines Wertes durch KI – darin liegt der Aspekt der Verheißung. Die Verheißung, das ist der gesellschaftliche Effekt, den man sich verspricht.«

35

36

Stefan Selke: Technik als Trost

Ein Effekt, der mehr als voraussetzungsreich ist. Einerseits muss sich KI verbreiten, andererseits soll damit das Gefühl eines Epochenwechsels einhergehen. Wie Evgeny Morozov in seiner Streitschrift Smarte neue Welt beschreibt, hatte bislang jede Generation das Gefühl, an der Schwelle zu einer bahnbrechenden technologischen Revolution zu stehen (Mozorov 2013: 357). Auch der KI-Forscher Venki Ramakrishnan weist auf die zunehmende Omnipräsenz von KI hin: »Individuals won’t be able to resist its convenience and power, and corporations and government won’t be able to resist its competitive advantages. We might have already reached the stage where most governments are powerless to resist the combined cloud of a few powerful multinational companies that control our and our digital future.« (Ramakrishnan zit. n. Brockman 2020: 186f.) KI ist Faszinosum und Faktotum zugleich, bereits weit verbreitet, bald vielleicht allgegenwärtig. Genau das prognostiziert Kevin Kelly, ehemaliger Chefredakteur des Technologiemagazins Wired. »AI is already pervasive on this planet and will continue to spread, deepen, diversify, and amplify. No invention before will match its power to change our world, and by century’s end AI will touch and remake everything in our lives.«(Kelly 2017)4

KI als faszinierende und revolutionäre neue Entität Bei allem Dissens über dieses wundersame Phänomen steht eines fest: In den nächsten Jahrzehnten wird KI unser Leben und unsere Gesellschaft fundamental verändern. Regelmäßig wird dies mit der Einführung der Elektrizität im 19. Jahrhundert verglichen. »KI ist eine Revolution«, so Marie-Luise Wolff, »die der Einführung und Nutzung der Elektrizität gleichkommt.« In Deutschland begann die Elektrifizierung in den 1880er-Jahren, die ersten Straßenlampen wurden 1882 in Berlin in Betrieb genommen. Nach und nach hatte Elektrizität fundamentale Auswirkungen auf Alltag, Gesellschaft und Kultur. Der Vergleich scheint daher nahezuliegen: »Die heutige Elektrizität ist die KI. Vor 150 Jahren hat jeder, der etwas auf sich hielt, mit Strom experimentiert: Bosch, Siemens, Tesla. Lauter Lichtgestalten, von denen keiner genau wusste, wie es geht«, so Tobias Gantner, »aber sie haben es ausprobiert.« So wie Elektrizität als Faktotum für alles galt, werden zwischenzeitlich umfassende Hoffnungen und Lösungsversprechen in KI projiziert. »In einem eher unspektakulären Sinne sind wir also längst von dieser Technologie abhängig«, 4

https://www.wired.com/2017/04/the-myth-of-a-superhuman-ai/ (22.03.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

so auch Manuela Lenzen, »etwa so, wie wir von der Elektrizität abhängig sind. Dazu muss keine Maschine sich selbständig machen und uns beherrschen wollen.« (Lenzen 2020: 122) KI darf somit als unverrückbare und irreversible Tatsache angesehen werden, auf die es individuell und gesellschaftlich zu reagieren gilt. »KI ist weder Utopie noch Dystopie, sondern absolute Realität, die unser Leben schon heute unterschiedlich stark beeinflusst«, so auch Manfred Dietel. Dabei ist es zweitrangig, ob KI positiv oder negativ eingeschätzt wird. »KI kommt sowieso. Es gibt nur eine Möglichkeit: Man muss sich diesen Anforderungen stellen.« Die damit einhergehende Zukunftserzählung geht stillschweigend davon aus, dass sich die skizzierte Entwicklung nicht aufhalten lässt. »KI ist überall«, so Marie-Luise Wolff. »Das geht bei Kleinigkeiten los – Staubsauger oder Rasenmäher. Und es endet in viel komplexeren Formen. Menschen machen sich über dieses und jenes Sorgen, dennoch ist KI die absolute Realität.« Damit bleibt als einzige Option die Anpassung an das Unvermeidliche und bestenfalls dessen nachgelagerte Gestaltung. Aber genau hier liegt das eigentliche Problem.

Entlastungserwartungen als neue Heilsbotschaft Kennzeichen dieser KI getriebenen, alternativlosen Realität sind umfassende Entlastungserwartungen. Mit der Nutzung von KI ist ein spannungsreiches Beziehungs- und Abhängigkeitsverhältnis verbunden, das sich zunehmend auf Freiheitansprüche auswirkt. Zunächst geht es scheinbar um eine Form der Erlösung. Für alle sozialen Probleme gibt es vermeintlich eine technische Lösung. Entwicklung und Anwendung von KI sind eng verbunden mit dem Wunsch nach Optimierung (im Kleinen) und Weltverbesserung (im Großen). Dieses Bündel von Entlastungserwartungen kann in erster Näherung als säkularisierte Form religiöser Verheißungen verstanden werden, wenngleich damit grundlegende Ambivalenzen einhergehen. Im zweiten Teil dieses Buches wird dann gezeigt werden, wie aus Entlastungserwartungen Trostformen resultieren. Widersprüchlichkeiten werden z.B. im Manifest Freiheit digital – 10 Gebote in Zeiten des digitalen Wandels der Evangelischen Kirche Deutschlands aus christlicher Perspektive analysiert. »Die Phänomene digitalen Wandels wecken starke Hoffnungen wie Ängste. Die in der gesellschaftlichen Öffentlichkeit diskutierte Alternative von Utopie oder Dystopie, von Segen oder Fluch kann als Ausdruck dieser machtvollen Effekte vermutet werden.« (Amsinck et al. 2021: 50) Das Kernnarrativ dieser neuen und absoluten Realität besteht einerseits in der

37

38

Stefan Selke: Technik als Trost

als unvermeidlich angenommenen Durchdringung (prinzipiell) aller Lebensbereiche durch KI, was andererseits in das Versprechen eines besseren Lebens mündet – somit in eine Verheißung, die weder kontrolliert noch bewiesen werden kann. »Der kleinste gemeinsame Nenner besteht darin, dass etwas Positives auf uns zukommt«, fasst Manfred Dietel zusammen. Was könnte positiv sein? Vielleicht die Minimierung von Arbeit und Mühsal. In der Tat erzählen Anpassungs-Narrative variantenreich von der zunehmenden Automatisierung des Lebens oder gar der »Automatisierung der Automatisierung« (Seele 2020: 134ff.). Die Idee der Automatisierung gilt schon lange als attraktiv und lässt sich bis zur Zeit der Aufklärung zurückverfolgen, als sich Menschen erstmals mit Maschinen verglichen. »Damals spielte eine göttliche Belebung der Seele eine eher untergeordnete Rolle«, so der Medienwissenschaftler Martin Hennig. »Vielmehr wurden Körperlichkeit und Geist als Folge von komplexen biologischen Vorgängen gedacht. Dieses Denken pflanzt sich bis heute fort.« (Hennig 2022: 47) Das erklärt auch, warum sich die Vorstellung von Automatisierung weiter ausgedehnte. »Das größte Potential von KI besteht darin, Abläufe zu automatisieren, die bisher nicht automatisierbar waren«, so der Physiker Michael Möricke. Diesen Vorteil arbeitete bereits der Roboterpionier Hans Moravec heraus, als er behauptete, dass »Automation effizienter ist als Handarbeit« (Moravec 1990: 141). Dennoch stellt sich die Frage, wie sich Menschen eines Tages an automatisierte Prozesse anpassen und welche Vorteile für sie damit tatsächlich verbunden sind. Denn Automatisierung »ist eigentlich das Versprechen der Industrialisierung seit der Einführung von Maschinen«, so der Anthropologe Guido Sprenger. »Wie wir heute wissen, ist das nie so eingetreten. Tendenziell haben wir sogar noch mehr Arbeit, z.B. in Form von Bürokratie.« Die erträumten KI-Verheißungen sollten daher kritisch hinterfragt werden. Vielleicht liegt der Schlüssel zu einem besseren Leben an anderer Stelle? »Aufgrund der bislang nicht eingelösten Versprechungen, bleibt uns eigentlich nur die Möglichkeit, unsere Haltung zur Arbeit ändern«, so Sprenger. »Aber dafür brauchen wir eigentlich keine KI.« Gleichwohl versprechen KI-Verheißungen zahlreiche Entlastungen. Nicht nur für Arbeitsbereiche in der Industrie, sondern z.B. auch in der Kreativwirtschaft. »In kreativen Berufen kann KI helfen, mehr Zeit für Kreativität einsetzen zu können«, so Oliver Gerstheimer, Direktor einer Digitalagentur. »Überall auf diesem Planeten werden permanent gleiche Dinge entworfen. Wie wäre es, einen KI-Avatar loszuschicken, der ohne Zutun von Menschenzeit nach bereits vorhandenen Lösungen sucht? Diese KI könnte eine Stoffsammlung zur Inspiration zusammenstellen und eine Anreizgeschichte entwerfen.« Unter dem

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Strich wird KI immer wieder als allmächtiger Problemlöser gesehen. Ein Beispiel ist die Verbrechensbekämpfung. »Wenn KI tatsächlich Kinderpornografie bekämpfen könnte und diesem kriminellen Schwarzmarkt etwas entgegensetzen könnte, das wäre dann eine Option mit einem großen Mehrwert für die Gesellschaft«, so Christian Tombeil, der aber zugleich die Notwendigkeit weiterer Aushandlungen anspricht. »Es wird Datenschützer geben, die genau das kritisieren, weil es uns noch gläserner macht. Aber ich glaube nicht, dass das Rad zurückzudrehen ist.« Die gesellschaftlichen Anpassungs-Narrative setzen also KI als absolute und für viele vorteilhafte Entität voraus. Es sind Erzählungen über neue Errungenschaften, die zugleich versuchen, den Preis für die anvisierten Verbesserungen zu berücksichtigen. Es sind ausbalancierte Zukunftserzählungen, wenngleich eher langweilige.

2.2 Effizienzsehnsucht Besonders markant sind Anpassungs-Narrative auf einer operativ-funktionalen Ebene. Zahlreiche KI-Anwendungen sind eigentlich nichts anders als Technik gewordenes Effizienzversprechen. Effizienz, so sieht es der Analyst Boris Paskalev, resultiert aus den Errungenschaften der Entwickler und Programmierer, die »Leistungsparameter identifizieren, die sich optimieren lassen.« Im Umkehrschluss bedeutet es wohl auch, dass der Blick des typischen Programmierers auf die Welt defizitorientiert ist. In Effizienzsehnsucht manifestiert sich eine epochen- und kulturtypische Sichtweise auf Technik, denn gerade hochindustrialisierte Gesellschaften sind vom Streben nach Perfektionismus gekennzeichnet. Gleichzeitig wird deutlich, dass KI-Verheißungen niemals universell sein können. »Das Bedürfnis nach Effizienz muss kulturell erst einmal geschaffen werden«, erläutert der Ethnologe Guido Sprenger. Hierbei hat sich der »Meta-Wert Effizienz in unserer Gesellschaft geradezu verselbstständigt und ist inzwischen zu einer eigenen Wertsetzung geworden«. Viele der technischen Funktionen von KI (Mustererkennung, Rechengeschwindigkeit, Komplexitätsreduktion, Prozessoptimierung) lassen sich somit unter dem Gesichtspunkt der Effizienzsehnsucht zusammenfassen. Wird die Optimierung so gut wie aller Lebensverhältnisse versprochen, wird aus der Effizienzillusion eine Verheißung, wie der Forscher Stephen Wolfram erläutert: »People worry about the scenario in which AIs take over. I think something much more amusing [...] will happen first. The AI will know what you intend, and will be good in figuring out how to get there.« (Wolfram

39

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Strich wird KI immer wieder als allmächtiger Problemlöser gesehen. Ein Beispiel ist die Verbrechensbekämpfung. »Wenn KI tatsächlich Kinderpornografie bekämpfen könnte und diesem kriminellen Schwarzmarkt etwas entgegensetzen könnte, das wäre dann eine Option mit einem großen Mehrwert für die Gesellschaft«, so Christian Tombeil, der aber zugleich die Notwendigkeit weiterer Aushandlungen anspricht. »Es wird Datenschützer geben, die genau das kritisieren, weil es uns noch gläserner macht. Aber ich glaube nicht, dass das Rad zurückzudrehen ist.« Die gesellschaftlichen Anpassungs-Narrative setzen also KI als absolute und für viele vorteilhafte Entität voraus. Es sind Erzählungen über neue Errungenschaften, die zugleich versuchen, den Preis für die anvisierten Verbesserungen zu berücksichtigen. Es sind ausbalancierte Zukunftserzählungen, wenngleich eher langweilige.

2.2 Effizienzsehnsucht Besonders markant sind Anpassungs-Narrative auf einer operativ-funktionalen Ebene. Zahlreiche KI-Anwendungen sind eigentlich nichts anders als Technik gewordenes Effizienzversprechen. Effizienz, so sieht es der Analyst Boris Paskalev, resultiert aus den Errungenschaften der Entwickler und Programmierer, die »Leistungsparameter identifizieren, die sich optimieren lassen.« Im Umkehrschluss bedeutet es wohl auch, dass der Blick des typischen Programmierers auf die Welt defizitorientiert ist. In Effizienzsehnsucht manifestiert sich eine epochen- und kulturtypische Sichtweise auf Technik, denn gerade hochindustrialisierte Gesellschaften sind vom Streben nach Perfektionismus gekennzeichnet. Gleichzeitig wird deutlich, dass KI-Verheißungen niemals universell sein können. »Das Bedürfnis nach Effizienz muss kulturell erst einmal geschaffen werden«, erläutert der Ethnologe Guido Sprenger. Hierbei hat sich der »Meta-Wert Effizienz in unserer Gesellschaft geradezu verselbstständigt und ist inzwischen zu einer eigenen Wertsetzung geworden«. Viele der technischen Funktionen von KI (Mustererkennung, Rechengeschwindigkeit, Komplexitätsreduktion, Prozessoptimierung) lassen sich somit unter dem Gesichtspunkt der Effizienzsehnsucht zusammenfassen. Wird die Optimierung so gut wie aller Lebensverhältnisse versprochen, wird aus der Effizienzillusion eine Verheißung, wie der Forscher Stephen Wolfram erläutert: »People worry about the scenario in which AIs take over. I think something much more amusing [...] will happen first. The AI will know what you intend, and will be good in figuring out how to get there.« (Wolfram

39

40

Stefan Selke: Technik als Trost

zit. n. Brockman 2020: 277) Vorsicht ist geboten: »Für die Bestimmung der Realfaktoren ist es sehr gut, künstliche Intelligenz einzusetzen. Denn sie sind messbar und berechenbar«, so der Ethiker Leopold Neuhold. »Problematisch wird es, wenn KI auch die Idealfaktoren festlegen soll.« In anderen Worten: Es geht also einmal mehr um die Frage, ob KI nicht nur ein Mittel zur Zielerreichung ist, oder ob damit auch Ziele definiert werden – Ziele, an deren Ausformulierung Menschen keinen oder nur noch einen geringen Anteil haben.

Fallbeispiel: KI als Autor von Fachbüchern Für Optimierungsgewinne im Kontext von Anpassungs-Narrativen gibt es zahlreiche Beispiele. Meist basieren sie auf der Idee effizienter Informationsverarbeitung. Im Rahmen eines Proof-of-Concept-Projekts erstellte 2019 eine KI ohne menschliche Hilfe ein Fachbuch, das im Springer-Verlag publiziert wurde.5 Dabei handelt sich um eine strukturierte Zusammenfassung aktueller Forschungsliteratur zu Lithium-Ionen-Batterien. Der Managing-Director bei Springer Nature, Niels Peter Thomas, betont in diesem Zusammenhang die Verantwortung des Verlages »mögliche Auswirkungen und Grenzen von maschinengenerierten Inhalten [...] im Blick zu behalten«.6 Für das Projekt wurde der Algorithmus Beta Writer genutzt, der auf dem Cover des Buches auch als ›Autor‹ ausgewiesen wurde. Der Algorithmus verarbeitete relevante (allesamt auf SpringerLink veröffentlichte) Publikationen und clusterte ähnliche Dokumente in zusammenhängenden Kapiteln. Das Ergebnis ist eine Meta-Analyse publizierter Literatur. Neu ist dabei nicht, dass ein Algorithmus selbständig ein Buch schreibt, sondern dass ein Wissenschaftsverlag erstmals dazu bereit war, das Buch auch zu veröffentlichen. Die Verheißung besteht in diesem Fall in der effizienten Eindämmung der Informationsflut im Feld wissenschaftlicher Publikationen. Der Verlag selbst erwartet in Zukunft ein noch breiteres Spektrum an Textformen. Einerseits werden Texte weiterhin von Menschen geschrieben werden. Gleichwohl, so die Prognose, könnte die Zahl maschinengeschriebener Texte rasant zunehmen. Das wäre dann die Schwelle zu einer neuen Kultur der Wissensarbeit, die auf Blended-Man-Machine-Textgenerierung basiert. Erste Anzeichen dafür gibt es bereits. 2021 erschien 5 6

https://link.springer.com/book/10.1007/978-3-030-16800-1 (26.02.2022). https://www.springer.com/gp/about-springer/media/press-releases/corporateg/spri nger-nature-maschinen-generiertes-buch/16590072 (18.02.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

ein zweites Fachbuch von Springer, ebenfalls maschinengeneriert, aber als Hybrid-Format zusammen mit einem menschlichen Autor.7 Im Kontext des Experiments Beta Writer war die begleitende Euphorie nicht zu überhören. »And while no one seriously believes that the next Great American Novel will be written by a few hundred grams of silicon, something is coming.«8 Das Fallbeispiel der automatisch erzeugten Meta-Analyse belegt den enormen Vertrauensvorschuss, der mit dem Optimierungspotenzial von KI einhergeht. Kein Mensch wäre jemals dazu in der Lage, eine vergleichbar große Anzahl von Texten zu lesen, zu vergleichen und das Ergebnis angemessen zu verschriftlichen; jedenfalls nicht in einem begrenzten Zeitraum. Selbst wenn der von einer KI erstellte Text sprachlich hölzern wirkt, faszinierte das Ergebnis. Trotz oder gerade wegen der enormen Effizienz des Vorhabens ließ Kritik nicht lange auf sich warten. So diskutierten zahlreiche Medienbeiträge, ob die Scientific Community kurz davorsteht, von Robotern ersetzt zu werden. Zudem wurde grundlegende Kritik an der Struktur und Qualität des Buches laut. Selbst ein wissenschaftlicher Text ist mehr als eine Aneinanderreihung von Fakten, die durch grammatikalisch korrekte Sätze zusammengereiht werden. Digitale Werkzeuge der Informationsverarbeitung lassen sich außerdem leicht missbrauchen und könnten schnell zu Fehlinformationswerkzeugen werden.

Übereffizienz als Fetisch – das Delirium der Rationalität Viele zeitgenössische KI-Projekte bezeugen eine Haltung, die hier Delirium der Rationalität genannt werden soll. Sie demonstrieren anschaulich Kritikpunkte, die bereits in den 1970er-Jahren diskutiert wurden. So schilderte etwa der Computerpionier Joseph Weizenbaum 1977 in seinem bahnbrechenden Buch Die Macht der Computer und die Ohnmacht der Vernunft, wie die neu aufkommenden Rechenmaschinen mit Hoffnungen und Verheißungen geradezu überfrachtet wurden. Während die Welt zunehmend in einen Zahlenraum verwandelt wurde, verschwand gleichzeitig der Wille zu gesellschaftlichen Transformationen. (Weizenbaum 1977) Mehr oder weniger unhinterfragt setzte sich ein mechanistisches Bild des Menschen, ein

7 8

https://link.springer.com/book/10.1007/978-3-030-74713-8 (26.02.2022). https://www.advancedsciencenews.com/betas-draft-a-human-review-of-a-machinegenerated-book/ (18.02.2022).

41

42

Stefan Selke: Technik als Trost

funktionales Bild von Gesellschaft sowie ein größenwahnsinniges Bild von Naturbeherrschung durch. Das neue Ideal war datengetriebene Effizienz in Form eines informationellen Taylorismus. In dieser Phase der technikgetriebenen Gesellschaftsentwicklung ging die Fähigkeit zum Denken in (utopischen) Alternativen verloren. Auch die Philosophin Hannah Arendt beobachtete genau, wie Rationalität selbst zum Fetisch wurde: Weil alles berechnet werden konnte, musste nichts mehr beurteilt werden. Die Philosophin Hannah Arendt schrieb über die Entscheidungsträger des Pentagons in einer Art und Weise, wie es auch gut auf die zeitgenössischen Technokraten im Kontext von KI passen würde: »Sie waren nicht unbedingt intelligent, brüsteten sich jedoch damit ›rational‹ zu sein […]. Sie waren ständig auf der Suche nach Formeln, am besten nach solchen, die sich einer pseudo-mathematischen Sprache bedienten, mit denen sich die disparatesten Erscheinungen auf einen Nenner bringen ließen, der für sie die Wirklichkeit darstellte; das heißt, sie wollten ständig Gesetze auffinden, mit denen man politische und historische Tatsachen erklären und prognostizieren konnte, als ob diese mit derselben Notwendigkeit und Verlässlichkeit erfolgten, wie dies früher die Physiker von den Naturereignissen glaubten […]. [Sie] beurteilten nicht, sondern sie berechneten. […] Ein äußerst irrationales Vertrauen in die Berechenbarkeit der Realität [wurde] zum Leitbild der Entscheidungsfindung« (Arendt 1972: 11f.). Sehr deutlich schimmert hier eine quasi-religiöse Tönung moderner Effizienzversprechen durch. »Effizienzreligionen sind jedoch immer schlecht«, kritisiert der Mönch und Ritualwissenschaftler Thomas Quartier. »Das hat in der Geschichte noch nie zu irgendetwas Gutem geführt. Die Transzendenz von KI ist keine, bei der der Mensch über Erfahrungen an die Grenzen seines eigenen Subjektseins stößt. Was bei Effizienzreligionen verloren geht, ist die Fähigkeit des Menschen zu vollkommener Entfunktionalisierung. In diesem Sinne bewahrt die Fähigkeit des Menschen zu Kontemplation den heiligen Kern. Durch die Effizienzillusion wird das Heilige zerstört.« Was Quartier aus einer theologischen Perspektive beschreibt, sind Phänomene wie soziale Beschleunigung und Entfremdung (Rosa 2014) in Folge eines zunehmend datengetriebenen Daseins. Deshalb besteht für den Mönch der heilige Kern des menschlichen Daseins gerade in Rückzugsmöglichkeiten von den Daueranforderungen eines effizienzgetriebenen Lebens. Das Kloster im Leben (so auch der Titel eines seiner Bücher; Quartier 2016), ist vor allem metaphorisch zu verstehen. Gemeint sind soziale Reservate, die sich durch Rationalisierungsresistenz aus-

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

zeichnen, also Kontexte, in denen Menschen nicht ausschließlich nach funktionalen Effizienzgesichtspunkte beurteilt werden. Effizienz ist auf Dauer keine Lebensform für Menschen. KI-Verheißungen weisen konsequent in die Gegenrichtung. Sie versprechen schlichtweg alles zu optimieren. Hierzu eine kleine persönliche Anekdote: Ich erinnere mich an ein Streitgespräch mit Wolfgang Wahlster, der bis 2019 Direktor und CEO des 1988 gegründeten Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) war.9 Zunächst zählte Wahlster zahlreiche Lebensbereiche auf, die sich mittels KI optimieren lassen. Als Höhepunkt seiner Aufzählung versprach er, dass KI nun bald auch das Warten überflüssig machen würde. Mittels KI, so sein Argument, müsse bald niemand mehr vor Ampeln oder in Arztpraxen warten. Während Wahlster an die Verheißung einer vollkommen durchgetakteten Welt glaubt, erinnern andere bewusst an die »Kunst des Wartens« (Reuter 2019), die langsam verloren geht oder loben das »Ritual der Pause« (Geißler 2012). Nebenbei bemerkt, lässt sich an diesem Beispiel auch zeigen, wie Technikverheißungen unsere Sprache verändern: Das deutsche Wort »Warten« geht etymologisch auf »Wartung« zurück. Der Umfang der Bedeutung von »Wartung« hat sich allerdings dramatisch verkleinert. Während damit heute meist die Überprüfung des Funktionszustandes einer Maschine verstanden wird, bedeutete »Warten« ursprünglich, die kontemplative Überprüfung persönlicher Seinsannahmen – also exakt das, was der Mönch Thomas Quartier unter »entfunktionalisierter Kontemplation« versteht. Wer an die Verheißung glaubt, durch KI auch letzte Wartezeiten eliminieren zu können, reduziert Menschen auf mechanistische Funktionskreise. »Optimierung ist nicht an sich optimal für Menschen«, so auch die Science-Fiction-Autorin Theresa Hannig. »Menschen sind nur deshalb interessant und liebenswert, weil sie gerade nicht optimal sind. Optimierung ist ein abstrakter Prozess. Ein Programm ist optimal. Rechenzeit und Energie können optimiert werden. Menschen sind komplett anders.« Dennoch basieren operativ-funktionale KI-Verheißungen auf der Annahme einer Übereffizienz. Das ist folgenreich, denn KI-Algorithmen verwandeln das Soziale mehr und mehr in einem homogenen Raum, in dem sich Menschen auf vorgezeichneten Bahnen bewegen und Populationen durch Profile und Rankings nach wünschenswerten Maßstäben in Risiko- und Verwertungsgruppen eingeteilt werden. Es geht hierbei längst 9

Das Streitgespräch fand anlässlich der Tagung »Zusammenwirken von natürlicher und künstlicher Intelligenz« an der Technischen Universität Braunschweig statt (14.15.02.2019).

43

44

Stefan Selke: Technik als Trost

nicht mehr um die allgemeine Ordnungsleistung, die mit der Digitalisierung in Verbindung gebracht wird (Nassehi 2019: 148), sondern um die Anbetung von Effizienz als Fetisch (Wolff 2020). Diese Form der Überbelichtung von KI-Potenzialen basiert allerdings auf einer gravierenden Fehlannahme. »An irgendeinem Punkt der Menschheitsgeschichte sind wir diesem Missverständnis aufgesessen, dass es sinnvoll sei, uns auch zu optimieren, so wie wir unsere technischen Prozesse optimieren«, kritisiert Hannig. Die Verheißung der Übereffizienz hat inzwischen das Format einer weitreichenden Standarderklärung. »Arbeitsprozesse, insbesondere im reinen Informationsraum, werden Menschen abgenommen. Mechanisierte Prozesse, die immer nach dem gleichen Muster ablaufen, werden uns von einer KI nicht weg-, sondern abgenommen«, erläutert der Physiker Gerd Ganteför. »Produktivität bedeutet, Arbeiten zu erledigen, ohne dass ein Mensch involviert ist. Die Verheißung ist also der Wegfall dummer Jobs.« Diese Verheißungserzählung verspricht, so gut wie alle Dinge des Lebens zu verbessern. Von körperlichen Verrichtungen und Arbeit über Bildung bis hin zu Beziehungen.10

Verheißungen als gesellschaftsprognostische Erzählungen über Wandel Die Schattenseiten dieser Verkündungen wurden durch prominente fiktionale Near-Future-Romane zunehmend als digitaler Taylorismus kritisiert. In seinem Roman The Circle beschreibt Dave Eggers (Eggers 2013) eine Welt, in der Menschen zu immer mehr Selbstoptimierung und Transparenz ihrer Lebensweise gezwungen werden. Die ›freiwillige‹ Einwilligung in dem Fetisch der Effizienzsteigerung wird auf diese Weise schnell zur Voraussetzung für soziale Teilhabe. Was in wissenschaftlichen Fachtexten als Formen rationaler bzw. metrischer Diskriminierung (Selke 2016a) oder Quantifizierung des Sozialen (Mau 2017) aufgearbeitet wird, findet in diesem Thriller eine popkulturelle Wendung. »KI wirft die Frage auf, wie weit wir uns von uns selbst entfernen können und trotzdem immer noch Menschen sind«, ergänzt die Autorin Hannig, die selbst Science-Fiction-Romane verfasst. »Was macht uns eigentlich zu Menschen und was passiert mit uns, wenn wir immer weiter unserem Optimierungswahn folgen?«

10

Wenn aus Effizienz mit Hilfe von KI Übereffizienz resultiert, dann wäre die nächste Stufe der Verheißung eigentlich die weitgehende Dematerialisierung unseres Alltags. Und tatsächlich: Auch dieses Technikversprechen wurde bereits von den neuen Lichtgestalten der Digitalisierung verkündet. (Kreutzer/Land 2015)

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Klar ist: Effizienz lässt sich immer nur für eine bestimmte Zeit steigern. Kurzfristige Erträge aus dieser Steigerung können Vorteile und sogar Lustgewinn einbringen. Allerdings mutiert Effizienz auf diese Weise zu einer »Superideologie« (Wolff 2020), die normative Macht entfaltet – vor allem in Form nachweisbarer Effizienz. Effizienzgewinner sind schlussendlich Menschen, deren Muster von KI in einem gegebenen Kontext als ›passend‹ erachtet werden. Hier zeigt sich deutlich, dass KI eben nicht nur ein neutrales Werkzeug ist, sondern Teil der kulturellen Matrix: Verheißungserzählungen sind Katalysatoren für Norm- und Wertewandel. Ganz nebenbei verschieben sich auf diese Weise auch Kategorien des Menschlichen. »Während im 19. Jahrhundert Originalität der höchste Wert war, ist dies inzwischen Effizienz«, erinnert Marie-Luise Wolff. »Durch KI wird diese Entwicklung noch angetrieben.« Doch ausgerechnet hocheffiziente Systeme richten sich früher oder später gegen Menschen. »Genau das spricht gegen Effizienz als Norm. Ein Höchstmaß an Effizienz ist unmenschlich, dann werden Menschen zu Maschinen. Eigentlich müssten wir umkehren«, fordert Wolff. Dennoch sehnen sich viele Menschen genau nach dieser Effizienzsteigerung, z.B. bei der Kommunikation. »Eine der Verheißungen von KI besteht darin, dass wir schneller und besser miteinander kommunizieren. KI hilft uns, mehr Dinge in kürzerer Zeit ausdrücken zu können. Sie erinnert uns an Dinge, die wir ansonsten vergessen würden«, so der Analyst Boris Paskalev. Hier taucht KI in der Rolle des vielversprechenden Partners auf, der aufmerksam zuhört, Wünsche erkennt oder auch die Rolle eines Souffleurs übernimmt, der im Hintergrund überraschende Querverbindungen zwischen Gesprächsanteilen herstellt und selbst nach langer Zeit noch Zusammenhänge zwischen Gesprächen erkennt. »Alle diese Funktionen werden uns im Alltag helfen. Eingebettete Intelligenz verhilft uns zu einem besseren, schnelleren und effizienteren Leben.« Doch in welchen Lebensbereichen macht Effizienz Sinn und wo ist sie eher hinderlich? Es gilt, Unterscheidungen zu treffen. Effizienzsteigerung im Kontext von Technik kann bedeuten, beim unterirdischen Kaliabbau durch KI-gesteuerter Bohrköpfe den Wirkungsgrad zu erhöhen oder mittels KI-basierter Akustik-Analyse die Lebensdauer von Bohrköpfen deutlich zu steigern. Das sind nur zwei Beispiele für effizienzgetriebene Ausbeutungsgeschichten, bei denen es »um den maximalen Exploit« geht, so der Evangelist for Human Centered Design, Oliver Gerstheimer. Im Kontext sozialer Anwendungen macht es hingegen Sinn, darüber nachzudenken, wo eine Rücknahme von Effizienz sinnvoll sein könnte. Ein Beispiel ist das österreichische Unternehmen atempo, das Texte auf das Sprachniveau von

45

46

Stefan Selke: Technik als Trost

Menschen mit kognitiven Einschränkungen anpasst. Bei dieser Anwendung leistet KI einen Beitrag für soziale Teilhabe. Die Vision des Unternehmens lässt sich wie folgt zusammenfassen: »Niemand kann lernen, ohne etwas verstanden zu haben«, so Walburga Fröhlich. »Unsere Vision besteht darin, allen Menschen die Möglichkeit zu geben, sich einen Text zu erschließen. Kein Text sollte zu komplex, zu kompliziert, zu hoch sein. Jeder Text lässt sich runterbrechen. Das ist wie ein Stellrad: Wird daran gedreht, reduziert sich die Komplexität Stufe für Stufe. Und umgekehrt. Wissen ist dann nicht mehr verschlossen. KI kann also in der Bildung helfen.« Dieses Ziel wird nur dann erreicht, wenn die mittels KI ›rückübersetzten‹ Texte nochmals von Menschen gegengelesen werden, die selbst vergleichbare kognitive Einschränkungen haben, wie das Zielpublikum. Das ist auf den ersten Blick nicht gerade effizient und dennoch liegt genau in dieser Rückkopplung zwischen maschineller Übersetzung und menschlicher Validierung der eigentliche Erfolg des Unternehmens. In Zukunft wird sich zeigen, an welchen Stellen, derartige »Ergänzungsleistungen des Menschen« (Lenzen 2020: 67) angebracht sind. Denn mit den Möglichkeiten von KI wird das digitale Narrativ fortgeschrieben. Mit KI-Systemen »tritt möglicherweise eine weitere Instanz hinzu, die in der Lage ist, logisch zu denken, autonom Zwecke zu setzen, Variationen auf dem Wege der Zielerreichung vorzunehmen und sich lernend weiterzuentwickeln. Die Fähigkeit, Zwecke zu setzen, würde sich vom Menschen und der Natur auf die artifizielle Welt erweitern« (Becker 2019: 17).

Erosion der Entscheidungssouveränität Ein passendes Beispiel ist das Forschungsprojekt IBM Debater. Es macht deutlich, welchen enormen Potentiale mit KI verbunden sind, aber auch, wie sich das auf die Souveränität menschlicher Entscheidungen auswirken wird.11 Bei Debater handelt es sich um das erste KI-System, das mit Menschen über komplexe Themen diskutieren kann. Die KI ist in der Lage, umfangreiche Textsammlungen zu einem bestimmten Thema zu sichten und auf dieser Basis nicht nur eine gut strukturierte Rede aufzubauen, sondern diese auch mit Klarheit und Zielstrebigkeit vorzutragen. Debater wurde entwickelt, um menschliche Debattengegner zu widerlegen. Das seit 2012 erprobte System ist emotionslos, unvoreingenommen und unparteiisch. Ziel von Debater ist es, Menschen zu

11

https://research.ibm.com/interactive/project-debater/about/ (16.12.2021).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

helfen, überzeugende Argumente zu entwickeln und fundierte Entscheidungen zu treffen. (Slonim et al. 2021) Um dieses Versprechen zu untermauern, wird Debater als KI beworben, »die Sie versteht (auch wenn sie nicht Ihrer Meinung ist)«12. Ende 2019 fand in San Francisco eine Debatte zwischen der amtierenden Debatten-Weltmeisterin Harish Natarajan und Debater statt. Für Beobachter war es nahezu unmöglich, Unterschiede zwischen Mensch und Maschine festzustellen. Viele Zuschauer waren fasziniert, wie genau Debater auf die Argumente von Harishs eingehen konnte. »Die KI hat mit ganzen Sätzen gut argumentiert«, erinnert sich auch der Journalist Hans-Arthur Marsiske, der die Debatte mitverfolgte. »Ihre Stärke bestand darin, dass sie sich mit Leichtigkeit auf Studien beziehen konnte. Es war beeindruckend und beunruhigend zugleich.« Debater steht also einerseits für die Verheißung einer maschinellen Empathie, für die es in Zukunft laut IBM »nahezu unendlich« (ebd.) viele Anwendungen geben wird. So wird z.B. argumentiert, dass ein aufmerksames und empathisches KI-System die mittlerweile erratischen und unkontrollierbaren Sozialen Medien retten könnte.13 Diesem Heilsversprechen steht die Kritik an ›berechneten Meinungen‹ gegenüber. Genau das wäre der Fall, wenn menschliches Verständnis durch Programmierer in mathematische Formeln übersetzt und berechenbar gemacht würden. Die Reden der KI-Software waren »keine diskursiven Wunderwerke«, so der Journalist Michael Moorstedt kritisch, »sondern eher auf solidem Mittelstufenniveau.«14 Dennoch bleibt die Frage, ob eine debattenstarke KI nicht auch gut lügen könnte. Nur eines lässt sich bereits jetzt sagen: KI-Anwendungen wie Debater bereiten die Gesellschaft auf das Kommende vor, sie gewöhnen uns an das vollkommen Neue.

2.3 Akzeptanztests Bei KI-Verheißungen handelt es sich stets um das Versprechen radikaler Neuerungen, in zeitgenössischer Sprache: um Disruptionen. Die folgenden Beispiele zeigen, wie uns experimentelle Versuchsanordnungen oder rein

12 13 14

https:// www. ibm. com/ blogs/ digitale- perspektive/ 2020/12/ project- debater/ (16.12.2021). https://www.datamation.com/artificial-intelligence/the-super-moderator-or-how-ib m-project-debater-could-save-social-media/ (16.12.2021). https://www.sueddeutsche.de/digital/project-debater-von-ibm-berechne-mir-einemeinung-1.4027349 (16.12.2021).

47

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

helfen, überzeugende Argumente zu entwickeln und fundierte Entscheidungen zu treffen. (Slonim et al. 2021) Um dieses Versprechen zu untermauern, wird Debater als KI beworben, »die Sie versteht (auch wenn sie nicht Ihrer Meinung ist)«12. Ende 2019 fand in San Francisco eine Debatte zwischen der amtierenden Debatten-Weltmeisterin Harish Natarajan und Debater statt. Für Beobachter war es nahezu unmöglich, Unterschiede zwischen Mensch und Maschine festzustellen. Viele Zuschauer waren fasziniert, wie genau Debater auf die Argumente von Harishs eingehen konnte. »Die KI hat mit ganzen Sätzen gut argumentiert«, erinnert sich auch der Journalist Hans-Arthur Marsiske, der die Debatte mitverfolgte. »Ihre Stärke bestand darin, dass sie sich mit Leichtigkeit auf Studien beziehen konnte. Es war beeindruckend und beunruhigend zugleich.« Debater steht also einerseits für die Verheißung einer maschinellen Empathie, für die es in Zukunft laut IBM »nahezu unendlich« (ebd.) viele Anwendungen geben wird. So wird z.B. argumentiert, dass ein aufmerksames und empathisches KI-System die mittlerweile erratischen und unkontrollierbaren Sozialen Medien retten könnte.13 Diesem Heilsversprechen steht die Kritik an ›berechneten Meinungen‹ gegenüber. Genau das wäre der Fall, wenn menschliches Verständnis durch Programmierer in mathematische Formeln übersetzt und berechenbar gemacht würden. Die Reden der KI-Software waren »keine diskursiven Wunderwerke«, so der Journalist Michael Moorstedt kritisch, »sondern eher auf solidem Mittelstufenniveau.«14 Dennoch bleibt die Frage, ob eine debattenstarke KI nicht auch gut lügen könnte. Nur eines lässt sich bereits jetzt sagen: KI-Anwendungen wie Debater bereiten die Gesellschaft auf das Kommende vor, sie gewöhnen uns an das vollkommen Neue.

2.3 Akzeptanztests Bei KI-Verheißungen handelt es sich stets um das Versprechen radikaler Neuerungen, in zeitgenössischer Sprache: um Disruptionen. Die folgenden Beispiele zeigen, wie uns experimentelle Versuchsanordnungen oder rein

12 13 14

https:// www. ibm. com/ blogs/ digitale- perspektive/ 2020/12/ project- debater/ (16.12.2021). https://www.datamation.com/artificial-intelligence/the-super-moderator-or-how-ib m-project-debater-could-save-social-media/ (16.12.2021). https://www.sueddeutsche.de/digital/project-debater-von-ibm-berechne-mir-einemeinung-1.4027349 (16.12.2021).

47

48

Stefan Selke: Technik als Trost

spekulative Narrative auf radikalen Wandel vorbereiten. Selbst für die digitale Infrastruktur werden mittlerweile verheißungsvolle Etiketten gewählt. So soll etwa Gaia-X die nächste Generation der Dateninfrastruktur darstellen: offen, transparent, sicher und höchsten Anforderungen an digitale Souveränität genügend.15 Anfangs war mit dem Projekt eine erkennbare Aufbruchsstimmung verbunden. »Unter Mondlandung geht nichts« – so beschreibt ein Artikel im Netz die euphorische Stimmung zum Zeitpunkt des Projektstarts. Peter Altmaier betitelte das Projekt sogar als das »vielleicht wichtigste digitale Bestreben einer Generation«.16 Später zog Gaia-X allerdings zunehmend Kritik auf sich, vor allem wegen der Beteiligung außer-europäischer Cloudanbietern wie Google, Microsoft und Amazon.17 Es gibt weitere Beispiele, die zeigen, die sich Euphorie in die Verheißungsnarrative mischt.

Fallbeispiel: KI in der Rolle des Künstlers Schleichender Wandel lässt sich gut am Beispiel der Wechselwirkung zwischen KI und Kunst illustrieren. Kunst ermöglichte Menschen schon immer einen eigensinnigen Zugang zur Welt. Verändert sich die Welt durch KI, so wurde und wird das in Kunst reflektiert: Was in den Anfängen der Computergraphik der 1960er-Jahre als Experiment von Mathematikern und Ingenieuren begann, die einmal »nichts Technisches darstellen wollten mit dieser Maschine, sondern ›Nutzloses‹, geometrische Muster« (Georg Nees), wurde bald darauf als Computer Art in Galerien ausgestellt. (Vgl. Mersch 2021)18 Künstler beteiligten sich am Fortschritt der Computertechnik, programmierten, reflektierten, kritisierten und durchkreuzten immer wieder die hochgestimmten Zukunftsvisionen von Politik und Wirtschaft. Gleichzeitig setzten sie neue Verheißungsnarrative in die Welt: Nam June Paik schuf beispielsweise mit seinem (an eine Vogelscheuche angelehnten) Robot K-456 den ersten nicht-menschlichen Aktionskünstler der Geschichte. Der Zweck des Roboters war sein Einsatz für Straßenaktionen, wo er sich (mehr oder weniger) unauffällig unter Passanten mischen sollte, wie 15

16 17 18

https://www.forschungsraum.eu/forschungsraum/de/forschungsthemen/themenfea tures/daten-infrastrukturen-und-technologien-im-efr/daten-infrastrukturen-und-te chnologien.html?utm_campaign=sea&utm_term=data (02.02.2022). https://netzpolitik.org/2020/unter-mondlandung-gehts-nicht/ (02.02.2022). https://www.heise.de/meinung/Kommentar-Gaia-X-mit-Amazon-Co-Ein-reiner-Etik ettenschwindel-6270633.html (02.02.2022). https://ground-zero.khm.de/wp-content/uploads/sites/25/2021/08/KOMMENTAR_M ersch_Uncreative_Artificial_Intelligence.pdf (08.07.2020).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Paik berichtete: »Ich stellte mir vor, er sollte auf der Straße mit Leuten zusammentreffen und ihnen eine sekundenschnelle Überraschung bereiten. Wie eine plötzliche Dusche.« (Ebd.) Experimentelle Aktionen bereiten die Gesellschaft auf den immer selbstverständlicheren Einsatz von Medien, Technik und heute eben KI vor. Der Theaterindendant Christian Tombeil vergleicht den Einsatz von KI in der Kunst mit dem Einbruch von Video-Installationskunst in die bildende Kunst der 1980er-Jahre. »Im Theater wird experimentiert«, fasst Tombeil zusammen. »Als nächste Stufe wird dann wie selbstverständlich KI hinzukommen. Eine durch Algorithmen gesteuerte Theateraufführung wird anders aussehen und sich anders anfühlen. Und wir stehen erst am Anfang dieser Experimente.« Die eigentliche Disruption besteht jedoch nicht im Einsatz von KI als Theaterbeleuchter, sondern in der Rolle als Quasi-Künstler. Schafft KI selbst Kunstwerke, verändert sich auch das Menschenbild – ähnlich wie beim Einsatz von KI als Buchautor. Was zunächst noch wie eine Sensation oder Verheißung wirkte, normalisiert sich dann mit der Zeit. 2018 wurde das Gedicht Sonnenblicke auf der Flucht in die Frankfurter Bibliothek aufgenommen. Einige Monate später wurde das Gemälde Portrait of Edmond Belamy für über 400.000 US-Dollar im Auktionshaus Christie’s versteigert. Beide Werke wurden von einer KI erschaffen. Zur Verwunderung vieler Fans kreierte eine KI sogar neue Serien der Science-Fiction Kultserie Stargate, die durchaus Bewunderung auslösten.19 Wie aber lassen sich diese neuartigen Werke einordnen? Was passiert, wenn KI die Rolle des Künstlers übernimmt, die schließlich mit hohen Erwartungen verknüpft ist? »Ich persönlich glaube, dass KI nur ein Werkzeug ist, um Kunstwerke herzustellen. KI produziert keine Werke, wenn man sie nicht darum bittet«, erklärt der französische Dramaturg Julien Mellano im Gespräch das sonderbare Verhältnis zwischen Kunst, Künstler und KI. »Es gibt immer eine menschliche künstlerische Absicht, die den Prozess initiiert. Also wird das Werk schlussendlich vom Künstler über den Umweg einer KI produziert. Das kann sich ändern, wenn KI beginnt, ohne vorherigen Auftrag etwas zu erschaffen. Vielleicht ist das bereits geschehen.« Die ersten Anwendungsfelder von KI in der Kunst sind mehr als nur ergebnisoffene Experimente oder naive Spielereien. Vielleicht hilft der Einsatz von KI in der Kunst sogar, den schwer verständlichen Charakter von KI besser zu verstehen? So jedenfalls sieht es Mellano, der davon ausgeht, »dass Kunst uns helfen 19

https://www.spiegel.de/netzwelt/web/kultserie-aus-den-90er-jahren-ki-generiert-n eue-stargate-szenen-a-aa342ebe-1c3c-482d-a3c2-3e35faf84061 (04.07.2022).

49

50

Stefan Selke: Technik als Trost

kann, die Grenzen und Möglichkeiten der KI zu verstehen, indem sie dieses Phänomen mit dem konfrontiert, was Menschen eigen ist: Gefühle. Kunst ist grundlegend mit Gefühlen verbunden und zum jetzigen Zeitpunkt ist KI nicht in der Lage ist, Gefühle zu empfinden.« KI-Euphoriker würden dieser Aussage wohl widersprechen, denn KI komponiert auch Musik und Musik bezieht sich bekanntlich stark auf Gefühle. Aus wenigen, handschriftlich erhaltenen Skizzen des 1770 in Bonn geborenen Komponisten Ludwig van Beethoven vollendete im Oktober 2021 eine KI, die bislang ›unvollendete‹ 10. Symphonie des Musikgenies.20 Zum Anlass des 250. Geburtstages von Beethoven stellte das ebenfalls in Bonn ansässige Unternehmen Telekom ein interdisziplinäres Expertenteam aus Musikwissenschaftlern, Komponisten und Informatikern zusammen, um Beethovens Wert fortzuführen.21 Dazu wurde eine KI mit zahlreichen Werken Beethovens trainiert. Das von dieser KI erschaffene Werk wurde schließlich am 09. Oktober 2021 im Telekom-Forum in Bonn uraufgeführt.22 Zwar betonten die Beteiligten, dass es sich um ein Experiment handele und Beethovens Einzigartigkeit damit nicht angezweifelt werden solle. Vielmehr gehe es um eine Demonstration der vielseitigen Möglichkeiten für die kreative Zusammenarbeit menschlicher und künstlicher Intelligenz. Bei der Vorstellung der Symphonie waren die meisten Zuhörer und Gäste dennoch begeistert und es gab langanhaltenden Applaus. Positiv wurde das Potential hervorgehoben, dass KI zukünftig Künstler unterstützen könne, was durchaus vergleichbar mit der Funktion von Assistenten klassischer Komponisten wäre, die in der Vergangenheit genau diese Aufgabe übernommen hatten. Arbeiten also Menschen und Maschinen bald planvoll zusammen? Erst in Zukunft wird sich zeigen, was »das Experiment für unser Kunstverständnis bedeutet«, so der Blog der Telekom. Negative Reaktionen ließen dennoch nicht lange auf sich warten. »Heraus kam: Musik. Sie hört sich wie das Werk eines mäßig begabten Beethoven-Schülers an, der wie sein Meister klingen will – und scheitert«, kritisiert Thomas Schmoll. »Nicht kläglich, aber klar. Der künstlerische Wert liegt bei: nahe null. Die Musik leistet keinen wirklichen Beitrag zum Verständnis des

20 21 22

https://www.br-klassik.de/aktuell/news-kritik/urauffuehrung-beethoven-10-sympho nie-kuenstliche-intelligenz-computer-100.html (18.02.2022). https://www.dw.com/de/beethoven-10-sinfonie-unvollendete-ki-künstliche-intelligenz/a-59378632 (18.02.2022). https://blog.magenta.at/2021/10/07/unvollendete-beethoven/ (18.02.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

späten Beethoven.«23 Für den Musikwissenschaftler Matthias Röder klang die von der KI vervollständigte Symphonie »sehr trocken und emotionslos«.24 Moniert wurde außerdem, dass im Rahmen eines PR-Gags versucht wurde, mittels Technik das Mysterium Beethoven zu zerstören. Kritiker bezweifeln, dass ein durch KI geschaffenes Werk mit einem musikalischen Meisterwerk gleichgesetzt werden kann. Der zentrale Kritikpunkt: die Musik sei berechenbar und somit langweilig. »Vielleicht lässt sich die Mechanik des Komponierens reproduzieren, aber eben gerade nicht göttliche Inspiration, die einem Komponisten zufällt«, so auch der Liturgie-Wissenschaftler Thomas Quartier. »Die Verheißung von Bachs Musik ist die radikale Offenheit – und genau das lässt sich nicht komplett konstruieren. Bachs Genialität lässt sich nicht allein als reine Funktionalität erfassen. In einer vollkommen technologisch ausgestalteten Form von Intelligenz gibt es keinen genialen Dilettantismus.« Diese ablehnenden Reaktionen deuten auf eine tiefere Bedeutungsebene hin. Anhand des Experiments zeigt sich, dass KI immer ahistorisch ist. Eine Maschine kann den Zeitgeist nicht verstehen. Beethoven lebte in (s)einer Epoche, die durch Kriege und Not einerseits, durch Liebe und Empathie andererseits geprägt war. Dieser äußerst ambivalente Zeitgeist spiegelt sich auch in seiner Musik, kann aber von einer Maschine nicht nachvollzogen werden.25 Einschätzungen dieser Art machen deutlich, dass kunstaffine Beobachter in KI keine Gefahr für Künstler sehen. In diesem Sinne glaubt der Galerist Hans Ulrich Obrist gerade nicht daran, dass Computer oder KI menschliche Künstler ersetzen, weil nur Menschen aufgrund ihrer eigenen Endlichkeit empathisch sein können. (Obrist zit. n. Brockman 2020: 213f.) Wie diese Beispiele zeigen, kann KI in der Form einzelner Experimente oder Demonstrationen jenseits von Wissenschaft, Wirtschaft, Politik und Alltag durchaus Beiträge liefern, die auf mehr oder weniger radikale gesellschaftliche Veränderungen vorbereiten. Kunst dient als Kontrastfolie öffentlicher Diskussionen. Fiktionale Zukunftsnarrative wie etwa Science-Fiction-Romane sensibilisieren für neue Verheißungen, stellen aber auch kritische Fragen

23

24 25

https://www.spiegel.de/kultur/musik/beethoven-rekonstruktion-durch-ki-der-mens ch-muss-nicht-alles-unvollendete-vollenden-a-2c54b428-6433-4a8c-9d9d-84c354bfb 534 (18.02.2022). https://www.br-klassik.de/aktuell/news-kritik/urauffuehrung-beethoven-10-sympho nie-kuenstliche-intelligenz-computer-100.html (18.02.2022). https://www.vdi-nachrichten.com/technik/informationstechnik/ki-vervollstaendigt-s infonie-von-beethoven/ (18.02.2022).

51

52

Stefan Selke: Technik als Trost

zur Verhältnismäßigkeit. So haben gerade auch Theaterstücke eine seismografische Funktion und wirken wie ein Frühwarnsystem, weil sie einen Beitrag zur gesellschaftlichen Selbstbeobachtung und damit zur Selbstverständigung über KI leisten. »Vor allem warnen wir an Theatern permanent vor Dystopien«, so der Intendant Tombeil. »Was Theater leisten kann, ist die Warnung vor der bedingungslosen Auslieferung an die Technik. Ein Beispiel dafür war das Theaterstück Ich habe nichts zu verbergen. Mein Leben mit Big Brother, das am Theater Essen aufgeführt wurde, sich als Spiegel gesellschaftlicher Zustände verstand und drängende Fragen an das Publikum richtete. Im Programmheft fragte der Intendant stellvertretend: »Mit immer differenzierteren Messungen durchleuchten wir unseren Nutzwert. Wir wollen doch so gerne besser werden. Und wenn ja: um welchen Preis? Schaffen wir uns nicht ein Stück weit selber ab? Was denken Sie?« Theater ermöglicht, kollektive Erfahrungen zu einer identitätsstiftenden Geschichte zu verdichten und drängende Fragen zu stellen. Dies zeigte sich zuletzt während der Corona-Pandemie, als es eine Vielzahl von Inszenierungen von Früchte des Zorns (John Steinbeck) gab. Da sie Steinbecks Empörung über die damaligen gesellschaftlichen Missstände wiedererwecken wollten, hatten diese Aufführungen das Potenzial, die gesellschaftlichen Latenzwirkungen einer Krise sichtbar zu machen, die auf ähnlichen Grunderfahrungen beruhten: »Wir verlassen ein Land, in dem wir nicht mehr so leben können«, erklärt Tombeil den Ausgangszustand, der gleichermaßen für die Krise der Pandemie, als auch für die Verheißungen zu KI gilt, »und suchen woanders unser Heil.« In Steinbecks Romanhandlung folgt auf das Heilsversprechen allerdings die Ernüchterung. Die Wirtschaftsmigranten, die vor den Folgen von Dürre und Wirtschaftskrise über die (heute vor allem touristisch beliebte) Route 66 nach Westen flohen, fanden am Zielort ihrer Sehnsüchte lediglich Hass und Ausbeutung. Diese Anspielung auf das Versagen der Verheißung sollte gerade im Kontext von KI als notwendige Warnung verstanden werden, selbst wenn Theater das Phänomen KI selbst bislang nur sehr selten direkt thematisiert. Dafür gibt es gute Gründe. »Theater entsteht immer aus dem Spannungsfeld von Komödie und Tragödie. Im Moment ist KI ein Begriff, mehr nicht«, erläutert Tombeil. »KI scheint einfach noch zu abstrakt, zu weit weg. Einen Shitstorm in Sozialen Medien erlebt man live. KI, die möglicherweise dahintersteckt, sieht keiner. Es gibt keine Spannung zwischen Komödie und Tragödie.« Es wird wohl allerdings nicht mehr lange dauern, bis KI-Anwendungen so durchdringend unseren Alltag prägen, dass es nicht mehr zu übersehen ist. Vielleicht, so bleibt zu hoffen, entdeckt Theater das Thema, bevor Menschen kollektive Katastro-

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

phen erleben müssen wie im Fall von John Steinbecks Früchte des Zorns. Vielleicht hilft Theater, den Möglichkeitsraum zwischen Verheißungen und Verhältnismäßigkeit realistischer als bisher auszuloten.

Fallbeispiel: KI im Bildungssystem – das Maß aller Dinge? Für KI-Verheißungserzählungen als Akzeptanztest finden sich zahlreiche Beispiele. So sind etwa digitale Angebote inzwischen fester Bestandteil des Bildungssystems. Hochschulen verwenden Learning-Management-Systeme zur Unterstützung von Lehre und Studium und bieten immer häufiger Onlinekurse an. Bei der Nutzung derartiger Systeme fallen kontinuierlich Daten an, auf deren Basis sich analysieren lässt, wie individuelles Lernverhalten abläuft. KI-basierte Systeme können vertiefende Hinweise darauf geben, wie Lernprozesse verbessert und Lernende unterstützt werden können. Schon jetzt taucht KI in der akademischen und beruflichen Aus-, Fort-, und Weiterbildung in Form maßgeschneiderter Bildungsangebote auf, wie etwa die BITKOM-Studie Kognitive Maschinen – Meilenstein in der Wissensarbeit (BITKOM 2015) oder der Bericht KI@Bildung 2021 zeigen.26 In Zukunft könnte Schülern bzw. Studierenden eine auf sie zugeschnittene KI-Lernassistenz zur Seite stehen. Geradezu poetisch beschreibt bereits der Philosoph Friedrich Dessauer in seinem Buch Streit um die Technik strukturelle Herausforderungen des Bildungssystems. So räsoniert er rückblickend über die Entwicklung einer Haltung bei seinen Studierenden. »Es wurde, wenn auch unter Mühen, heller, lichter für sie von Woche zu Woche. Die große weite Welt wurde verständlich, erwies sich als eine meisterliche Ordnung und Schönheit. Einige konnten schier nicht genug davon bekommen. Andere erwarben mit dieser Zeit dieses innere Ja zum äußeren Tun. Der Keim zu diesem Verhalten ist bei vielen vorhanden, der Lehrer kann ihn entwickeln.« (Dessauer 1956: 205) Der zeitgenössische Pädagoge Ken Bain behandelt komplementär dazu die Frage, was einen derart begabten Lehrer ausmacht. In seinem wunderbaren Buch What The Best College Teachers Do (Bain 2004) zeigt er, dass gute Lehrende ihre Studierenden ermutigen, kreativ zu werden. Sie berühren mit ihren Fragen das Leben und die Biografie der Studierenden, sie tragen dazu bei, intellektuelle Batterien aufzuladen und sie beeinflussen die Studierenden nachhaltig in der Art und Weise, wie diese denken, fühlen und handeln. Gute Lehrende haben 26

https://www.telekom-stiftung.de/sites/default/files/files/media/publications/KI%20 Bildung%20Schlussbericht.pdf (05.06.2022).

53

54

Stefan Selke: Technik als Trost

einen tiefen Einfluss auf Lernprozesse und fragen nicht nur oberflächliche Informationshäppchen ab. Dies erreichen sie vor allem dadurch, indem sie »die Grenzen der Disziplinen ignorieren«, so Bain und indem sie »ein breites und zugleich tiefes Spektrum an Wissen anbieten« (ebd.: 47). Gute Lehrende kennen sich nicht nur in ihrem Fach aus, sie »lesen intensiv über die eigenen Fachgrenzen hinaus.« Und sie wissen auch, mit diesem Wissen umzugehen. Sie können sich klar und verständlich ausdrücken sowie mit provokativen Einsichten berühren. Gute Lehrende haben die Fähigkeit, über Denken nachzudenken (›Meta-Kognition‹). Sie erschaffen ein Umfeld, in dem – im Sinne von Dessauer – der Wille zu lernen entstehen kann. Dieses Umfeld könnte bald maßgeblich durch den Einsatz von KI im Bildungssystem mitgestaltet werden. Ein KI-basiertes Lernunterstützungssystem kann als überdurchschnittlich begabter und engagierter Lehrer verstanden werden, der gleichermaßen über außerordentliche fachliche wie auch pädagogische Kompetenz verfügt. KI-Systeme in der Bildung basieren auf einem Diagnosemodell, das Wissen über die Fähigkeiten des Lernenden akkumuliert und interpretiert. Es erkennt sowohl Lernfortschritte als auch -defizite. Auf Basis eines Diagnosemodells könnten Lernverhalten und Motivation entscheidend beeinflusst werden. Ein Tutorenmodell simuliert das Entscheidungsverhalten eines Lehrenden entlang assoziativer Pfade. Basis hierfür ist der klassische sokratische Dialog, der Lernende durch gezielte Fragen darin unterstützt, selbst zu Lösungen zu gelangen. Die Coachingfunktion fördert hingegen das entdeckende Lernen und steigert Aufmerksamkeit und Achtsamkeit. Insgesamt führt dieses Konzept zu einem dynamischem Bildungsprozess mit offenem Ausgang. Die ersten marktgängigen KI-Bildungsavatare führen die Traditionslinie adaptiver und flexibler Lernsysteme fort, indem auf Erfahrungen aus den Forschungsfeldern zu Programmierter Unterricht, Adaptive Control of Thought, Multimediale und telemediale Lernumgebungen, Hypermediale Lernsysteme bzw. Intelligentes Tutorielles System (ITS) zurückgegriffen wird. Letztere operieren auf drei Ebenen: Sie repräsentieren domänenspezifisches Wissen, sie akkumulieren Wissen über den Lernenden und sie wenden unterschiedliche Strategien der Wissensvermittlung an.27 Damit dienen diese Systeme konzeptionell der Unterstützung Lernender. Mittels Feedbackfunktionen passt sich das System 27

Hierbei werden deklaratives Wissen (»Wissen-Was«), prozedurales Wissen (»WissenWie«) sowie kontextuelles bzw. heuristisches Wissen (Erfahrungs- und Problemlösungswissen) unterschieden.

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

idealerweise den kognitiven Prozessen des Lernenden an, Lernfortschritte werden analysiert, Muster erkannt und Lernangebote generativ modifiziert. Adaptivität, Flexibilität und Diagnosefähigkeit gelten als Hauptmerkmale eines intelligenten Lerntutors. Mit sprachbasierter KI können inzwischen hochrobuste, effiziente und leicht erlernbare Schnittstellen geschaffen werden. KI kann damit komplexe Bildungsprozesse unterstützten, die auch über limitierte Wissensformen hinausreichen, für das es eindeutige Musterlösungen gibt. In diesem Kontext lässt sich das Potenzial von KI-Anwendungen ausspielen. »Eine der Schwächen des Schulsystems besteht darin, dass ein Lehrer für 25, 30 Kinder zuständig ist«, kritisiert auch Wolfgang Eckstein. »Eine gute KI in einer Lernsoftware könnte sehr individuell auf jeden einzelnen Schüler eingehen, tiefergehende Fragen stellen und auf Verknüpfungen hinweisen. Das ist alles im Rahmen des Möglichen.« Diese Verheißung wurde bereits vom deutschen Science-Fiction Autor Kurd Laßwitz in seiner 1899 erschienenen Kurzgeschichte Die Fernschule vorweggenommen. Es ist erhellend, sich auf die Spur des Protagonisten zu begeben, eines Lehrers, der sich erschöpft von den Plagen seines Berufes in eine bessere Zukunft hineinträumt. »Welch schöne Aufgabe«, räsoniert der Lehrer leicht zynisch, »denselben Lernstoff [...] zum achtundzwanzigsten Mal mit immer frischen Kräften zu beleben«. Zu allem Überfluss stellt er sich vor, dass sich auch die Fehler der Schüler von Jahr zu Jahr wiederholen. »Höchst lehrreich für den Statistiker, wie sich bei all den einzelnen dasselbe Gesetz des menschlichen Irrtums in seiner Entwicklung durchsetzt.« Muster zu erkennen wäre für eine zeitgenössische KI ein leichtes Spiel. Der eigentliche Traum des Lehrers gilt jedoch der Erfindung der titelgebenden Fernschule, die von der »alten Praxis« befreit, »dass Lehrer und Schüler in einer Klasse zusammenlaufen«. In der Wand seines Arbeitszimmers befindet sich dazu eine »eigentümliche Gemäldegalerie«, bestehend aus dreißig rechteckigen Rahmen, die sich bei näherem Hinsehen als eine Art virtuelles Klassenzimmer entpuppt. Statt lange Schulwege auf sich nehmen zu müssen, bleiben die Schüler zu Hause und nehmen dank »modernster Technik« in Wort und Bild am Fernunterricht teil. Ihr Name erscheint in den Bildrahmen der Galerie und der Lehrer drückt auf einen Knopf, um die vorher aufgenommene Unterrichtseinheit abzuspielen. Hinzu kommt, dass sie dabei überwacht werden, um die »Überbürdungsfrage«, so Laßwitz in der Sprache seiner Zeit, endlich zu lösen. »Die Sessel, in denen die Schüler ruhen, sind in sinnvollster Weise mit selbsttätigenden Messapparaten versehen, die das Körpergewicht, den Pulsschlag, Druck und die Menge der Ausatmung, den Verbrauch von Ge-

55

56

Stefan Selke: Technik als Trost

hirnenergie anzeigen.« Dieser Aufwand wird nur deshalb betrieben, damit bei eintretender Ermüdung der Unterricht präventiv beendet werden kann. Hier zeigt sich ein interessantes Verständnis von Lernen und Lehre, bei dem es mehr auf einen angemessenen Wirkungsgrad als auf Pünktlichkeit und Absitzen des Stundenplans ankommt. Auch die Lehrer tragen eine »Gehirnschutzbinde«, die sie vor der Gefahr bewahrt, »in der Schule mehr Gehirnkraft zu verschwenden, als der Fähigkeit der Schüler und ihrer eigenen Gehaltsstufe entspricht.« Gleich mehrere Aspekte dieser Zukunftserzählung aus der Vergangenheit lassen sich umstandslos auf die Gegenwart übertragen. Statt der Fixierung auf einen konkreten Lernort und dessen materielle Requisiten ermöglicht KI vollkommen neue Bildungskonstellationen und Bildungsprozesse. Adaptive Lernavatare ermöglichen transformative Lernerfahrungen und fördern Lernprozesse auch außerhalb klassischer Bildungsinstitutionen. Bereits marktgängige KI-Anwendungen wie area928 versprechen personalisierte Lernerfahrungen und Feedback zu individuellen Lernwegen und Lernerfolgen. Das Zauberwort lautet: Adaptivität. Wie wichtig das ist, zeigt folgendes Beispiel. »Ich treffe nie das richtige Maß bei meinen Kindern«, klagt Oliver Gerstheimer. »Ein kleiner, KI-basierter Roboter in Form eines Dinosauriers mit ein wenig narrativer Intelligenz schafft das besser als ich. Während er sich mit Kindern unterhält, lernt er über sie und passt das Niveau seiner Unterhaltung – und seiner Aufgaben – permanent an. Im richtigen Sprachjargon. Mit den richtigen Beispielen. Er trifft immer das Maß aller Dinge.« Die Zukunft wird zeigen, ob sich durch KI tatsächlich Bildungsungleichheiten minimieren lassen oder ob gar neue digitale Verletzbarkeiten entstehen. Im Zusammenhang von Learning Analytics – der Fortentwicklung des Sensorsessels bei Laßwitz – stellt sich bereits jetzt die ethisch relevante Frage, wie tiefgründig individuelles Lernverhalten erfasst werden darf und welche Konsequenzen damit verbunden sind. Warum sollte das Lernverhalten nicht vollständig, umfassend und über einen längeren Zeitraum metrisch erfasst werden? »Klingt erstmal gut. Ist vermutlich auch richtig. Dann haben wir das alles aufgeschrieben und über die Jahre wissen wir dann wahnsinnig viel von diesem Kind«, überlegt Wolfgang Eckstein. »Es gibt nur ein Problem: Wo hören wir dann wieder auf, das zu vergessen oder es dann nicht zu verwenden?« Und was wird eigentlich erfasst, wenn das Lernverhalten anhand von Metriken quantifiziert wird? Kommen dabei ganzheitliche Lerntheorien zum Ein28

https://area9lyceum.de (05.06.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

satz, die Rücksicht auf den Charakter des Lernenden nehmen oder klassische Lernmodelle wie der berühmte ›Nürnberger Trichter‹? Vorsicht ist geboten: »Aus Sicht wissenschaftlicher Experten besteht das Risiko, dass durch KI gerade diejenigen (fach-)didaktischen Konzepte gefördert werden könnten, die aus pädagogischer Sicht eher kritisch zu bewerten sind«, so die Autoren der Studie [email protected] Und selbstverständlich verändert sich durch den Einsatz von KI auch die akademische Wissensarbeit. »Heute geht es letztlich mehr um mechanische Disziplinierung der Adepten«, kritisiert Tobias Gantner, »um das richtige Setzen von Fußnoten und weniger um die Entwicklung neuer Gedanken.« Tatsächlich hat sich die Effizienzillusion gerade im System der höheren Bildung etabliert. Das Problem dabei: Wenn das Erreichen guter Noten zum einzigen Zweck von Bildungseinrichtungen wird, könnte man genauso gut auch Affen dressieren.

Entgrenzung von Vermessungspraktiken durch KI Wird der Fortgang und Erfolg von Bildungsprozessen innerhalb metrischer Kulturen und mittels algorithmischer Werkzeuge überwacht und im Extremfall sogar zu einer einzigen Zahl – einem Score oder Index – zusammengefasst, entsteht eine neue Form der Kontrolle, die das Gegenteil humaner Nutzung von KI darstellt. Dabei ist die Verlockung groß, in den lernenden Systemen ein Mittel oder Werkzeug der radikalen Komplexitätsreduktion und Entlastung zu erkennen. Leider werden dabei qualitative Aspekte der Lebensführung oder die Besonderheit einer Bildungsbiografie zu stark reduziert. Der Philosoph Harry G. Frankfurt spricht sogar von Respektlosigkeit und kritisiert den damit verbundenen »Angriff auf die existentielle Realität« von Menschen (Frankfurt 2016: 66). In metrischen Kulturen werden aus deskriptiven Daten schleichend normative Daten, die Menschen zu unfreiwilligen Anpassungsleistungen und in das Korsett kopierter Existenzen zwingen. Zudem werden datenschutzrechtliche Bedenken dort virulent, wo Daten über persönliche Bildungsprozesse »für eine große Zahl undefinierter Zwecke missbraucht werden und Menschen somit verletzbar machen«, wie es die britische Forscherin Ajana Btihay ausdrückt. (Btihaj 2018: 218) Bereits der Philosoph Ivan Illich erkannte, dass sich auf diese Weise eine vollkommen neue und zugleich spezielle Form

29

https://www.telekom-stiftung.de/sites/default/files/files/media/publications/KI%20 Bildung%20Schlussbericht.pdf (05.06.2022).

57

58

Stefan Selke: Technik als Trost

sozialer Kontrolle etablieren würde. (Illich 1975: 84) Die Reduktion der persönlichen und ganzheitlichen Entwicklung von Studierenden auf eindimensionale Messwerte sowie die Anwendung von Nudging im Kontext von Learning Analytics sind unter dem Strich das Gegenteil lebensdienlicher Bildungsorte. KI sollte der fordistisch anmutenden Zerlegung qualitativer Lebensprozesse in zählbare Einzelaspekte keinen Vorschub leisten. Wenn Zahlen das zeitgenössische Leben dominieren, besteht die Gefahr einer metrischen Kolonialisierung, bei der die Systemlogik die Perspektive der Lebenswelt dominiert. »Wir erschaffen uns immer wieder durch Metriken. Wir leben in und mit ihnen. Metriken erleichtern Urteile«, so David Beer in seinem Grundlagenwerk zu metrischer Macht. »Wir spielen mit Metriken, aber oft genug spielen sie auch mit uns.« (Beer 2016: 135) KI-Anwendungen evozieren nicht nur neue Verheißungserzählungen für das Bildungssystem, vielmehr tragen sie auch zur Entgrenzung von Vermessungspraktiken bei. Metrische Systeme ordnen Arbeitswelt, Bildungsprozesse und letztlich unser gesamtes Leben. Diese Ordnung hat ihren Reiz. Wird sie aber zum Selbstzweck, kippt die Macht der Quantifizierung ins Dystopische. Wo Zahlen und Regeln allmächtig werden, entstehen Apparaturen der Kontrolle, Mechanismen der Ausbeutung und Werkzeuge der Entfremdung. Vor allem im akademischen Kontext wirkt sich metrische Macht zunehmend deformierend auf Personen und Institutionen aus. Damit werden Systemzwänge (Konkurrenz um knappe Ressourcen) auf die Ebene des Einzelnen verlagert. Weil damit die Suggestion objektiver Gestaltbarkeit einhergeht, findet eine Verschiebung weg von qualitativen Experten- oder Peer-Urteilen hin zur quantitativen Leistungsschau statt. Schleichend setzte sich die Wahrnehmung durch, dass dies nicht nur eine Möglichkeit der Qualitätsbeurteilung darstellt, sondern sogar die einzig mögliche. Das Wesen von Qualität wird dabei nicht einmal ansatzweise erfasst. (Chan et al. 2018: 180). Das erinnert stark an die Leitfrage im Kultbuch von Robert Pirsig (2017), Zen, oder die Kunst ein Motorrad zu warten, bei dem es (anders als der Titel suggeriert) um die Frage geht, wie sich eigentlich Qualität in Bildungsprozessen darstellen lässt. Solche Grundsatzfragen werden bald nicht mehr gestellt werden, wenn sich die Meinung durchsetzt, dass es keine Alternativen zu messbarem ›outcome‹ im akademischen Feld gibt. Schlussendlich werden Qualitätsstandards vereinheitlicht und akademische Positionierungsstrategien konformistischer. Die Erstellung eines akademischen Lebenslaufs mutiert immer mehr zu ›impression management‹ und ›over-selling‹. Soll KI in Bildungskontexten hingegen auf humane Weise eingesetzt werden, muss der implizite Wettbewerbsmechanismus metrischer Kulturen klar erkannt und benannt werden. Metrische Kolonialisie-

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

rung führt dazu, dass wir andere Menschen auf eine völlig neue Weise betrachten und schließlich auch uns selbst »aktiv in Projekte der Selbstregierung und Überwachung« verwandeln. (Btihaj 2018: 3) Kaum ein anderes Beispiel zeigt so deutlich, wo der ›archimedische Punkt‹ digitaler Datensammlungen und Auswertungen durch KI eigentlich liegt: Die Festlegung einer Leistungsdefinition basiert auf der sozialen Übereinkunft über Werte und Ziele. Metriken zwingen uns, diese Diskussion zu führen, bevor irgendwelche unreflektierten Festlegungen getroffen werden, die dann auf intransparenten Wegen Eingang in die Algorithmen lernender Maschinen finden.

Fallbeispiel: KI als Kurator menschlicher Erinnerung – die Verheißung der Totalerinnerung Auch Erinnerungskulturen sind ein markantes Fallbeispiel für Verheißungen als Akzeptanztest. Menschliche Erinnerung wird zunehmend durch kurative Erinnerungssysteme überformt, die KI als technologische Basis nutzen. (Selke 2013; Selke 2020b) Der Fokus liegt hierbei nicht auf Objekterkennung (wie z.B. im Bereich des autonomen Fahrens), sondern auf Prozessen der biografischen Imaginationsfähigkeit bzw. der assoziativen Interpretation von Daten. Diese KI-Systeme lassen sich deshalb als Beispiel für eine epistemologische Wissenspartnerschaft (vgl. Knorr-Cetina 1998) verstehen. Als geschichtenerzählende Wesen machen sich Menschen mittels kohärenter Lebensgeschichten wertvoll für sich und andere. Die zentrale Funktion von Lebensgeschichten besteht darin, dass wir an sie glauben und unterstellen, dass sie unser Leben objektiv repräsentieren. Die technikbasierte Umformung des subjektiv Erlebten ermöglichte schon immer vielfältige Formen der Selbstthematisierung (Schroer 2006) und der bilanzierenden Selbstvergewisserung (Guschker 2002). Immer geht es dabei um biografische Kohärenz. Um Stimmigkeit herzustellen, nutzen erinnernde Menschen zwei narrative Techniken: Erstens, die Verdichtung von Lebensereignissen anhand von Relevanzkriterien – nur Bedeutsames wird erinnert. Und zweitens, die Fähigkeit zum plastischen Umgang mit Erinnerungsspuren – jede Lebenserzählung basiert auf einer ›erzählerischen Wahrheit‹. Beide Techniken verändern sich gegenwärtig unter dem Einfluss von KI, wie ein Schnelldurchlauf durch die Kulturgeschichte der Erinnerungsmedien im Folgenden zeigt: Analoge Erinnerungsspeicher zur Vorratshalterung von Erinnerungsspuren reichen von der Höhlenmalerei bis hin zu analogen Fotoalben. Im Zeitalter von Big Data kamen dann neue Möglichkeiten der De- und Rekontextualisierung

59

60

Stefan Selke: Technik als Trost

von Erinnerungsdaten hinzu. Datensammlungen wurden einerseits immer umfassender und multimedialer, andererseits lassen sie sich immer leichter kopieren und umsortieren. Diese Entwicklung schließt an die Verheißung der Totalerinnerung durch ausgelagerte Gedächtnisse, z.B. den MEMEX (Memory Extender) an. Das Konzept des MEMEX, eine Art Lebensenzyklopädie, wurde erstmals 1945 vom Computerpionier Vannevar Bush beschrieben. (Bush 1945) MEMEX war explizit als Zusatz des menschlichen Gedächtnisses ausgelegt und die Grundfunktion umfasste die Speicherung heterogener Daten. Das ausgelagerte Gedächtnis hatte die äußere Form eines Schreibtisches mit allerlei Zusatzgerät zur Speicherung von Büchern, biologischen Daten oder Kommunikationsvorgängen. MEMEX sollte vollautomatisch arbeiten, mit hoher Geschwindigkeit und Flexibilität befragt werden und umfassend Auskünfte erteilen können. Jegliche Information sollte schnell erreichbar und effizient aufrufbar sein. Interessant dabei ist weniger das aus heutiger Sicht antiquierte Technikverständnis. Bemerkenswert ist vielmehr die Logik der Verknüpfung der Dokumente und Informationen. Bush wollte die Informationen nicht starr (z.B. chronologisch) verknüpfen. Vielmehr sollten Nutzer die Möglichkeit bekommen, assoziativen Pfaden zu folgen: »Once added, the information would give rise to wholly new forms of encylopedias [...] with a mesh of associative trails running through them.« (Ebd.: 105) Auch wenn MEMEX nie realisiert wurde, stellt sie doch eine Art Prototyp für innovative Erinnerungssysteme dar. Durch Big Data und KI stehen inzwischen die technischen Möglichkeiten zur praktischen Umsetzung der Prämissen von Bush zur Verfügung. Meilensteine dieser Entwicklung waren die Microsoft SenseCam, eine Mini-Kamera zur automatisierten Lebensaufzeichnung. Im Forschungsprojekt MyLifeBits wurde erstmals versucht, Erinnerungsspuren eines Menschenlebens komplett zu digitalisieren und zugleich nach bestimmten Momenten und Mustern durchsuchbar zu machen.30 Den bisherigen Höhepunkt dieser Entwicklung bildet das Projekt Total Recall. Der digitale Kurator des eigenen Lebens speichert Erinnerungsspuren in einem persönlichen Datenuniversum, in dem alles »chronicled, condensed, cross-related« ist. (Bell/Gemmell 2010: 6) Damit gibt es praktisch keine Lücke mehr zwischen Erlebten und Erzählten. Sortierbare Datenfragmente können – wie Bilder in einem Museum – je nach privater Fragestel30

https://www.microsoft.com/en-us/research/project/mylifebits/ (08.09.2020). Eine ähnliche Zielrichtung hatte das experimentelle Projekt LifeLog des Forschungsinstituts des US-amerikanischen Pentagons DARPA im Bereich des Militärs.

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

lung immer wieder neu ›kuratiert‹ werden: »You will be able to search your own electronic memory for any arbitrary item of knowledge you have ever encountered, any snippet of conversation [...] any document [...] any person [...]. You become the librarian, archivist, cartographer, and curator of your life.« (Ebd.: 5) Totalerinnerung ist also längst keine versponnene Techno-Utopie mehr, sondern zunehmend praktisch umsetzbar. Immer mehr Systeme stehen bereits an der Schwelle zur Marktreife. Der KI-Avatar Microsoft Digital Me31 soll als umfassende Erweiterung der eigenen Person dienen und zur Produktivitätssteigerung verhelfen. Die Enhancementfunktion bezieht sich dabei explizit auch auf die Erinnerungsleistung. Durch ›Knowledge Mining‹ sollen Nutzer mühelos eigene Gedächtnisinhalte wiederfinden. Digital Me knüpft mithin direkt an den MEMEX-Mythos und das Projekt Total Recall an und stellt eine Art ›Augmented Memory‹ in Aussicht. Weil das selbstlernende System sogar Kommunikationsaufgaben übernimmt, können weitreichende Entlastungen versprochen werden. »With a life-long learning from each person, the knowledge and personal opinion of each person will be digitalized and will never die in a digital world for various application scenarios.« Eter932 ist hingegen ein KI-Avatar, der explizit Erinnerungen verewigt. Das Motto des Unternehmens lautet: »When your #counterpart is built like you, you don’t just use it – you live it.« Hier wird eine neue Dimension der Mensch-Maschine-Schnittstelle versprochen. Das ›virtuelle‹ Selbst soll autonom mit der realen Welt interagieren– so, als wäre das ›reale‹ Selbst präsent. Weil sich dabei der Realitätsgehalt von Situation zu Situation steigert, wird das System ebenfalls als ›lernend‹ bezeichnet. Einen ähnlichen Ansatz verfolgt auch Replika,33 ein KI-Chatbot, der mit Nutzern über persönliche Erinnerungen und Erfahrungen spricht und auf dieser Basis Selbsterkenntnis und psychische Gesundheit fördern soll. »Always here to listen and talk. Always on your side« – lautet das Motto dieses digitalen Lebensbegleiters. Als Basisfunktion werden umfassende Speichermöglichkeiten angeboten: »It’s a space where you can safely share your thoughts, feelings, beliefs, experiences, memories, dreams – your private perceptual world.« Innerhalb dieser privaten Wahrnehmungswelt wächst der ›intelligente‹ Chatbot

31 32 33

https://www.microsoft.com/en-us/research/project/digital-me/ (29.06.2020). Die folgenden Zitate stammen von der Webseite. https://www.eter9.com (30.06.2020). Die folgenden Zitate stammen von der Webseite. https://replika.ai (30.06.2020). Die folgenden Zitate stammen von der Webseite.

61

62

Stefan Selke: Technik als Trost

schließlich zu einem Partner heran, der intensiv interagiert und sinnvolle Fragen stellt – ebenso wie ein guter Freund. Auch dieses System ›hört zu‹ und ›lernt‹. Je mehr es ›weiß‹, desto stärker spiegelt es sein menschliches Original. Statements bisheriger Nutzer zeigen, dass diese eine hohe Identifikation mit ›ihrer‹ Replika aufbauen und diese zum Beispiel ›vermissen‹, wenn sie gerade nicht online sind. So geht es munter weiter durch die Projektlandschaft: Das webbasierte Forschungsprojekt Lifenaut 34 stellt angeblich sogar digitale ›Back-Ups‹ des Bewusstseins sowie des Körpers zur Verfügung. Eines Tages soll es Menschen in Form eines digitalen Avatars oder biologischen Klons zu Unsterblichkeit verhelfen. Unter einem »MindFile« wird dabei eine umfangreiche Datenbank verstanden, die persönliche Reflexionen in Form von Videos, Fotos, Audios und Dokumenten enthält. Diese Datenbank ist so konstruiert, dass Daten durchsucht und geteilt werden können. Der eigene interaktive Avatar wird ebenfalls durch immer neue Eingaben ›trainiert‹. Wesentlich hierbei ist, mit welcher Motivation dies geschieht. Vor diesem Hintergrund wird Lifenaut als digitales Archiv beworben, in dem eigene Erlebnisse und Erinnerungen gespeichert werden können. Weil essenzielle Informationen über eine Person auch für zukünftige Generationen (zum Beispiel Familienmitglieder) vorrätig gehalten werden, dient das System auch dem Andenken an Verstorbene. Beim KI-Avatar Eternime35 steht Andenken sogar im Mittelpunkt. Das Projekt verfolgt das Ziel, einen Avatar zu erschaffen, der Gedanken und Erinnerungen sammelt und diese als digitalen Klon ewig weiterleben lässt. Eternime möchte eine Art digitales alter ego erschaffen. Das KI-Projekt dient dazu, das gesamte Leben einer Person zu kuratieren, indem Gedanken, Geschichten und Erinnerungen gesammelt werden. »Those would then be processed and curated by the avatar that would become more and more like you.« Eternime will auf diese Weise einen persönlichen Biografen schaffen, der mittels KI gelebtes Leben ›pragmatisch‹ kuratiert. Auf lange Sicht, so die Vision, wird dies auch die kollektive Erinnerungskultur verändern. »Our end goal is to preserve the thoughts, stories and memories of entire generations and create a library of human memories, one where you could ask people in the past about their individual or collective experiences and thoughts.« Dazu werden vom Avatar

34 35

https://www.lifenaut.com (30.06.2020) Die folgenden Zitate stammen von der Webseite. https://medium.com/@mariusursache/the-journey-to-digital-immortality-33fcbd79 949 (29.06.2020).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Informationen abgefragt, gespeichert, kuratiert und später in neuen Sinnzusammenhängen reproduziert. Der persönliche Biograf wird zudem mit Daten aus täglichen Chats sowie aus Social Media-Anwendungen gespeist. Hinzu kommen E-Mail-Kommunikation und Smartphone-Gespräche. Dies wird als ›Upload‹ des Bewusstseins in kleinen Schritten bezeichnet. »Ten minutes every day will add up to thousands of hours telling your story. Fact by fact.« Mit dieser Technik gehen ebenfalls zahlreiche Entlastungsversprechen einher. »The avatar will replace diaries and become your main path to personal development. It will help you reflect on the events on your life, to recall the memories you never wrote down, and to ask yourself the right questions. It will make you a better person along this process, and you won’t have to worry about what you leave behind.« Je nach Ausrichtung oder Schwerpunkt greifen kuratierende Erinnerungssysteme tief in das Beziehungsgeflecht zwischen Menschen ein. Sie verändern Prozesse der Lebensführung, der Biografisierung, des Andenkens sowie der Seelsorge. Je marktförmiger diese Angebote ausgestaltet werden (zum Beispiel als Abonnent, Flatrate etc.), desto mehr ist nach den langfristigen Folgen sowie den versteckten psycho-sozialen Kosten solcher Optimierungsstrategien zu fragen. Die Systeme gehen über das hinaus, was in der philosophischen Debatte als »Extended Cognition«, also als ständige Verfügbarkeit von Gedächtnisleistungen, verhandelt wird. Zusammenfassend lässt sich festhalten, dass ihre Attraktivität aus Speicherfähigkeit, Selbstlernfähigkeit sowie Interaktivität resultiert. Für Nutzer ist es äußerst komfortabel, in natürlicher Sprache mit ›intelligenten‹ Geräten zu kommunizieren. Darüber hinaus sind die Systeme adaptiv, d.h., sie passen sich an veränderte Zieldefinitionen und Anforderungen an. Sie sind iterativ, weil sie ›nachfragen‹ und Statusabfragen tätigen. Schließlich sind sie kontextuell, weil sie (in unterschiedlicher Ausprägung) mit Mehrdeutigkeit umgehen können und Kontext (Bedeutung, Syntax, Zeit, Ort etc.) ›verstehen‹. In der Summe ergibt sich daraus eine Spiegelungsfunktion zwischen Original und Kopie sowie ein neuer Typus der Mensch-Maschine-Schnittstelle, die gleichwohl auf ihre gesellschaftlichen Implikationen und ethischen Aspekte hin zu hinterfragen ist.

Fallbeispiele: Akzeptanztests zwischen Kryptowährung und Paralleluniversum Es gibt allerdings noch radikalere Akzeptanztests. Kern zahlreicher sozialer Utopien ist der Wunsch nach Abschaffung des Geldes. Daher wundert es

63

64

Stefan Selke: Technik als Trost

kaum, dass sich zahlreiche Verheißungsnarrative rund um Digitalwährungen herausgebildet haben. Kryptowährungen wie Bitcoin, Ethereum oder Tether sind mit Hoffnungen geradezu überfrachtet. Der untergetauchte BitcoinGründer Satoshi Nakamoto ist »längst zur mythischen Figur geworden, ein Bansky der Digitalwelt«.36 Um die sagenhafte Kryptowelt bildete sich eine Subkultur, die sich immer wieder trifft, z.B. auf der Bitcoin Conference in Miami 2022. »Investoren, Spekulanten und Gläubige werden sich wieder einmal versammeln, um das Kryptoevangelium zu predigen, und es wird sein, wie in alle den Jahren zuvor: eine zukunftsgewisse, sehr amerikanische Zusammenkunft von Menschen, die Optimismus für Stärke und Zweifel für Schwäche halten.« (Ebd.) Ein Teilnehmer dieser Konferenz beobachtet: »Es war ein Gottesdienst. Missionseifer, Aufbruchsstimmung, Heilserwartung, alles war da.« (Ebd.) In anderen Worten: Aus einer allgemeinen Verheißung entstand wahrnehmungs- und handlungsleitende Zukunftseuphorie. Mittlerweile gibt es Protagonisten, die versuchen, diese Euphorie praktisch nutzbar zu machen. Mit Worldcoin will etwa Sam Altmann ein wahrhaft entgrenztes Problem lösen und mit einer einzigen Währung für die gesamte Welt einen Beitrag zu mehr Gerechtigkeit leisten. Altmann, der zusammen mit Elon Musk das KI-Unternehmen Open AI gegründet hat, beschwört mit seinem neuen Unternehmen Tools for Humanity die Verheißung von KI: »Künstliche Intelligenz wird viel mehr Wohlstand und Jobs schaffen als zerstören«, prognostiziert er, »aber es wird ein schwieriger Übergang.« Altman sowie Alex Blania und Max Novendstern verfolgen das Ziel, eine globale Kryptowährung (der SPIEGEL nennt sie gar »Weltwährung«)37 auf den Markt zu bringen. Dieser Worldcoin38 ist eine Kryptowährung, die ihre Sicherheitsmechanismen auf den Etherium-Blockchain stützt und die langfristig ein neues, dezentrales Finanzsystem ermöglichen soll. Dabei sollen so viele Menschen wie möglich – genauer: »jede Person auf Erden« – einen Anteil an der neuen Kryptowährung erhalten. Neu hinzukommende Nutzer erhalten jeweils einen Teil der Währung kostenlos zugeteilt. Im Gegenzug soll zur Identifikation und Verifizierung der Person eine Augen-Iriserkennung mittels eines biometrischen Geräts stattfinden, das Unternehmen nennt es »Orb«.39 Erst nach dem Iris-Scan wer-

36 37 38 39

DER SPIEGEL, Nr. 13 (26.03.2022), S. 52ff. https://www.spiegel.de/netzwelt/netzpolitik/worldcoin-start-up-belohnt-augen-sca ns-mit-kryptogeld-a-65e8b4b2-08ac-47a2-a9de-1e7d6d11e7c0 (26.02.2022). https://worldcoin.org/ (29.03.2022). https://worldcoin.org/de/how-the-launch-works.html (26.02.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

den die Worldcoins in Form der Kryptowährung ausgezahlt. Die Farben der Iris werden dabei in einen Code umgewandelt, dem sog. »Hash«. Nach der HashErstellung wird das Bild der Iris sofort gelöscht. Mit verheißungsvollen Aussagen wird beim Unternehmen Worldcoin wahrlich nicht gespart: »Stellen Sie sich eine Welt vor, in der jeder rund um den Globus, unabhängig davon, wer er ist, am wachsenden Raum der digitalen Wirtschaft teilhaben und von dezentralem, kollektivem Eigentum profitieren könnte«, suggerieren die Initiatoren auf der Webseite, die den Übergang zu einer »integrativeren und wohlhabenderen Weltwirtschaft« beschleunigen möchten. »We are obsessed with the idea that revolutionary new technologies like blockchain and cryptography can let us do something collectively that even governments have not been able to: increase individual empowerment and equality of opportunity on a global scale«, so die Gründer, die ihr Projekt explizit als Utopie betrachten, den der Worldcoin soll für eine gerechte Verteilung des Wohlstands sorgen und als eine Art globales, bedingungsloses Grundeinkommen dienen.40 Aufgrund der intensiven Sammlung biometrischer Daten steht die anvisierte Weltwährung jedoch in der Kritik. Edward Snowden warnte im Oktober 2021 in mehreren Twitter-Posts vor einer globalen Datenbank gescannter Iriden. »Don’t catalogue eyeballs«, kritisierte der bekannte Aktivist, »[d]on’t use biometrics for anti-fraud. In fact, don’t use biometrics for anything. [...] The human body is not a ticket-punch.«41 Jason Choi, Krypto-Analyst sowie Co-Manager und Investor bei Spartan Capital, kritisiert ebenfalls die Zentralisierung biometrischen Daten an einem einzigen Ort sowie daraus resultierende Betrugs- und Missbrauchsmöglichkeiten. »All in all, for this to be amazing and not a dystopian disaster, development needs to happen under extreme public scrutiny«, so Choi. »If it aspires to be a global currency for all people, it needs to be held to a much higher standard than your typical shitcoin fork.«42 Von Kryptowährungen ist es nicht weit bis zur Weltrettung in Form virtueller Paralleluniversen, einer weiteren Verheißungserzählung, die seit der 40

41

42

https://www.spiegel.de/wirtschaft/unternehmen/worldcoin-und-bewegung-web-3 -der-irre-traum-von-der-weltwaehrung-a-61925d05-29fc-4aec-8286-dfc8b12492d3 (02.03.2022). https://twitter.com/Snowden/status/1451990496537088000?ref_src=twsrc%5Etfw%7 Ctwcamp%5Etweetembed%7Ctwterm%5E1451993036196618251%7Ctwgr%5E%7Ctw con%5Es2_&ref_url=https%3A%2F%2Fambcrypto.com%2Fdont-catalogue-eyeballs -is-snowdens-response-to-worldcoin%2F (02.03.2022). https://twitter.com/mrjasonchoi/status/1451300946835750926 (29.03.2022).

65

66

Stefan Selke: Technik als Trost

Umbenennung des Unternehmens Facebook in Meta an Aktualität gewinnt.43 »The future is going to be beyond anything we can imagine«, verspricht Firmengründer Mark Zuckerberg im Gründungsschreiben von Meta.44 Im Oktober 2021 stellte er seine Vision des Metaverse vor, eines virtuellen Raumes, in dem Nutzer grenzenlos kommunizieren und interagieren können. Mit Meta ist eine starke Zukunftsvision verbunden, wenngleich weder Idee noch Begriff neu sind. Erstmals nutzte der Autor Neal Stephenson den Begriff »Metaverse« 1992 in seinem Science-Fiction Roman Snow Crash, in dem er eine globale virtuelle Realität beschreibt, in die Menschen in der Form von Avataren eintauchen.45 Zuckerberg verspricht mit dem Metaversum nicht nur ein gigantisches kollaboratives Gemeinschaftsprojekt, sondern vielmehr »die nächste Evolution in der Geschichte sozialer Technologien«.46 Das Zusammenwachsen analoger und virtueller Lebenswelten wird dabei nicht ohne KI auskommen. Kritiker stellen diesem KI-Narrativ allerdings zahlreiche Befürchtungen gegenüber. So moniert etwa Louis Rosenberg (Gründer von Unanimous AI), dass die Differenzierung zwischen dem digitalen Raum und der eigenen Lebensrealität noch schwieriger werden wird, weil die Grenzen immer weiter verschwimmen. Er befürchtet, dass es eine zunehmende politische Polarisierung geben wird. Dennoch hält Rosenberg die Entwicklung in Richtung eines Metaversums für »unausweichlich«.47 Die demokratische US-Abgeordnete Alexandria Ocasio-Cortez brandmarkt Meta als Krebsgeschwür der Demokratie, »metastasizing into a global surveillance and propaganda machine for boosting authoritarian regimes and destroying civil society [...] for profit!« Und schlussendlich wird auch der Einsatz von KI selbst kritisiert, etwa anhand der Überlegung, was passiert, wenn KI-gesteuerte Freunde Normalität würden.48

43

44 45 46 47 48

Auch Anbieter wie Microsoft oder Epic Games verfügen über die Vision eines Metaversums. Allerdings ist die Vision von Meta am allumfassendsten, weil hierbei viele Bereiche des Lebens integriert werden sollen. Vgl.: https://www.heise.de/ratgeber/FAQ-W as-ist-das-Metaverse-6331112.html (09.02.2022). https://about.fb.com/news/2021/10/founders-letter/ (09.02.2022). https:// www. heise.de/ ratgeber/ FAQ- Was- ist- das- Metaverse- 6331112. html (09.02.2022). https://about.facebook.com/de/meta?_ga=2.53299873.860134560.1644409864-18915 63685.1644409864 (16.02.222). https://t3n.de/news/metaverse-mark-zuckerberg-warnung-ar-1429916/ (16.02.2022). https://www.derstandard.de/story/2000130831993/reaktionen-auf-metaverse-zucker bergs-zukunftsvision-sieht-aus-wie-muell (16.02.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Die skizzierten Fallbeispiele zeigen, wie weitreichend Verheißungserzählungen sein können. Der Einsatz von KI als Bildungsavatar, KI als Kurator des eigenen Lebens oder die Potenziale, die von Kryptowährungen oder virtuellen Paralleluniversen ausgehen sind mit großspurigen Technikversprechen verbunden, die sich allesamt auf Effizienzillusionen stützen. Doch überzogene Versprechungen vernebeln schnell die Sinne. Verheißung hier, Häresie und Ketzerei dort. Bereits der Computerpionier Klaus Haefner stellte um das Jahr 2000 herum die Frage, was passiert, wenn der Mensch als Krone der Schöpfung abgelöst werden würde. »Es geht hierbei nicht um die allgemeine, akademische Frage, ob der Rechner intelligenter ist als der Mensch [...], sondern um die Frage, des menschlichen Selbstverständnisses im Verhältnis zu konkreten Einzelleistungen der Informationstechnik.« (Haefner 2000: 87) Der ehemalige Chefredakteur des Technologie-Magazin Wired, Kevin Kelly, hat zwei Jahrzehnte später eine kluge Antwort auf diese Frage. Kelly argumentiert vehement gegen den Mythos an, eine starke KI könne eines Tages die Menschheit abschaffen. Für ihn ist das »a religious belief – a myth«. (Kelly 2017) Seine Argumente sind ungewöhnlich differenziert: So kritisiert Kelly etwa das irreführende Konzept einer als eindimensional angenommenen Intelligenz und das damit verbundene Stufendenken. An einem einprägsamen Beispiel macht Kelly deutlich, dass es ungefährlich ist, wenn eine andere Intelligenz sektoral menschliche Intelligenz überbietet: Eichhörnchen können sich tausende von Stellen merken, an denen sie Nüsse vergraben haben. »So in that one type of cognition, squirrels exceed humans.« (Ebd.) Das führt zu der Überlegung, dass es zukünftig auch vollkommen neue Formen der Intelligenz geben wird, die Menschen nicht bedrohen, sondern nützlich sein werden. »Because we are solving problems we could not solve before, we want to call this cognition ›smarter‹ than us, but really it is different than us. It’s the difference in thinking that are the main benefits of AI [...]. Its alieness will be its chief asset.« (Ebd.) Tatsächlich beharren KI-Narrative zum Teil darauf, den Intelligenzbegriff zu problematisieren. (Z.B. Haux et al. 2020, Strasser et al. 2021) Bislang ist keine abschließende Wahrheit oder Definition erkennbar. Insider und Praktiker verwenden daher eher den Begriff »Maschinelles Lernen« oder »supervised learning«. »Ich gebe eine bestimmte Eingabe und zeige der Maschine damit, was mögliche Lösungen sind. In anderen Worten: ich trainiere die Maschine«, so der Designer Andreas Muxel. »Das ist kein klassisches Programmieren mehr, sondern ein neuer Interaktionsmechanismus. Ich zeige der Maschine, was ich will, und die Maschine lernt von mir und irgendwann versucht die Maschine mich zu verstehen, und agiert entsprechend.« Letztlich wird meist

67

68

Stefan Selke: Technik als Trost

ein Intelligenzbegriff genutzt, bei dem der Fokus auf effektiver Mustererkennung liegt. »KI ist hat das Potenzial viele Faktoren zu verknüpfen. Diese Möglichkeit hat das menschliche Gehirn nicht. Wir können nicht 20, 30, 200, 500 oder gar 10.000 Faktoren in einer Systematik denken und daraus Schlüsse ziehen«, so der Mediziner Manfred Dietel. »Bei aller Gefahr, die damit verbunden sein mag, ist KI damit eine Revolution der Intelligenz.« Was hier als revolutionär bezeichnet wird, kann auch als Verengung des Intelligenzbegriff kritisiert werden. Das ›Killerpotenzial‹ von KI besteht in Modellierung. Riesige Datenmengen – z.B. im Bereich Meteorologie, Medizin oder Finanzwesen – können so auf komplexe Zusammenhänge und Muster hin durchforstet werden. »Möglicherweise hilft KI dann eine Ordnung zu erkennen, die einzelne Menschen nicht erkennen würden«, so Verena van Zyl-Bulitta. Aber was sind ›bessere‹ Entscheidungen? Vielleicht solche, die frei von subjektiven Verzerrungen oder eingefahrenen Machtstrukturen sind. Trotzdem verschwindet der Vergleich zwischen künstlicher und menschlicher Intelligenz nicht einfach, auch deshalb, weil das damit verbundene latente Drama des Überlebenskampfes perfekt zur medialen Logik der zeitgenössischen Aufmerksamkeitsökonomie passt. Zudem gibt das Leitmotiv des Dauerwettkampfes den Rahmen für viele kleinräumigere Erzählungen über Disruptionen ab, die im Kern alle von Grenzüberschreitungen berichten.

Die gesellschaftliche Relevanz von Akzeptanztests Wie gezeigt, können verheißungsvolle KI-Narrative als Akzeptanztest für Disruptionen verstanden werden und zwar unabhängig davon, welchen Innovationsgehalt die Neuerungen tatsächlich besitzen. Die von prominenten DigitalGurus verbreiteten Zukunftserzählungen belegen zunächst die Bedeutung funktional-operativer Verheißungen. Ein sehr schönes Beispiel sind die Erwartungen an ›Autopiloten‹ im Bereich der Kfz-Mobilität. Elon Musk ist bekannt dafür, Warnungen überhört zu haben, die seine Tesla-Fahrzeuge betreffen. Stattdessen pries er deren Selbststeuereigenschaften immer wieder als »technologische Wunderwerke.«49 Das Versprechen auf ein technologisches Wunder inszenierte Musk gerne als Verheißung, wohl auch deshalb, um schnelle Erfolge im Markt liefern zu können. Paradoxerweise nutzt Tesla für autonomes Fahren eher einen Low-Tech-Ansatz, da ausschließlich Kameras (und keine weiteren 49

https://www.spiegel.de/auto/tesla-wie-elon-musk-bedenken-zum-autopilot-wegwis chte-a-ba91a85d-0557-455d-9ca8-f2e13a96753a (15.12.2021).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Sensoren) zum Einsatz kommen. Im Ranking der Beratungsfirma Guidehouse landet Tesla damit regelmäßig auf dem letzten Platz. Gerade deshalb ist Teslas Vorgehen ein gutes Beispiel für die Relevanz und Wirkung von Verheißungen. Einerseits bewirbt Musk auf der Basis einer gehörigen Portion Selbstvertrauen sein Fahrassistenzsystem seit 2016 unter dem Titel Autopilot – seit 2021 in den USA sogar mit dem Zusatz Full Self Driving. Das ist irreführend, weil damit Fahrer dazu verleitet werden könnten, die Hände vom Steuer zu nehmen und dem Bordcomputer (und damit einer KI) die Kontrolle über das eigene Fahrzeug zu überlassen. Die Risiken der Verwendung von KI in autonomen Fahrzeugen werden schlicht verschwiegen. So werden etwa Verkehrszeichen von KI-Systemen nicht zu 100 Prozent korrekt erkannt. Vielmehr liegt die Trefferquote (je nach Hersteller) zwischen 32 und 95 Prozent. Schwierig ist u.a. das Erkennen kurzzeitig ungültig gemachter Temposchilder durch Klebestreifen oder andere Störfaktoren.50 Spätestens nach mehreren tödlichen Unfällen, die von der US-amerikanischen Verkehrssicherheitsaufsicht NHTSA untersucht wurden, geriet der Ansatz von Tesla in Verruf. Dennoch wurde die Technik nach außen »als nahezu perfekt dargestellt, immer kurz vor dem Durchbruch zum voll autonomen Fahren« (ebd.). Widersprüche sind allerdings keine Unvereinbarkeiten: Inszenierung von Verheißungen ist gerade nicht vom Wahrheitsgehalt der zugrundeliegenden Behauptungen abhängig. Unzureichend getestete KI-Anwendungen machen Beteiligte (aber auch Unbeteiligte) zum Freiland-Testlabor, wie bereits vom Soziologen Ulrich Beck in den 1990er-Jahren (damals allerdings am Beispiel der Kernkraft) befürchtet (Beck 1990). Im Fall des vermeintlich autonomen Fahrens gehört zu dieser experimentellen Anordnung auch die kollektive Aushandlung ethischer Standards, die sich immer weniger eindeutig aus Werten und Normen (z.B. dem Grundgesetz) ableiten lassen, sondern praxeologisch verhandelt werden.51 Zwar gehört es zum Wesen von Technik, Standardisierungen zu schaffen. Im Fall autonomer KI handelt es sich allerdings um ein offenes Experiment, in dem sich weniger der Stand der Ingenieurskunst ausdrückt als das moralische Selbstverständnis der Gesellschaft. Die damit verbundene ›Opferlogik‹ hält der Kulturwissenschaftler Robert Simanowski für unmoralisch. (Simanowski 2020: 36) In der Einführung automatisierter

50 51

https://www.faz.net/aktuell/wirtschaft/digitec/kuenstliche-intelligenz-deep-learnin g-alleine-reicht-nicht-16942864.html (25.02.2022). Vgl. dazu ausführlich das ABIDA-Gutachten »Ethische Standards von Big Data und deren Begründung« (Selke et al. 2018).

69

70

Stefan Selke: Technik als Trost

(Über-)Lebensentscheidungen erkennt er die »Vorbereitung der Gesellschaft auf [...] Opferbereitschaft« (ebd.: 38), weil sich mit der Nutzung von KI die Norm der Unantastbarkeit der Menschenwürde verschiebt. »Genau diese Relativierung der universellen Menschenwürde ist bei einem Todesalgorithmus mit universeller Geltung unvermeidlich.« (Ebd.: 47) In deontologischer Perspektive ist KI daher moralisch fragwürdig. In seiner Analyse prognostiziert Simanowski sogar, dass wir »das Modell der deontologischen Ethik, Eckpfeiler der deutschen Leitkultur, aufgeben müssen« (ebd.: 48). Dies käme einem zivilisatorischen Tabubruch gleich, weil die ›Sakralisierung‹ des Menschen zur Disposition stünde und die Interessen des Ganzen die Rechte des Einzelnen aushebeln würden. KI wird damit ethisch wie folgt einzuordnen sein: »Technik bringt ihre eigenen Postulate für das Denken und Handeln der Menschen mit sich.« (Ebd.) Kurz: KI schafft sich ihre eigenen ethischen Präferenzen und Menschen passen schließlich ihre eigenen Moralvorstellungen (unbewusst) daran an. Verheißungserzählungen bereiten auf diesen schleichenden Wandel und damit die Erosion von Normalitätsvorstellungen vor. Ihre Funktion besteht in der narrativen Verhandlung und dem Austesten von Akzeptanzgrenzen unter Praxisbedingungen. Sind wir also auf dem Weg zum Tabubruch? Ein markantes Beispiel für die akzeptanzschaffende Testfunktion von Verheißungen ist das Video The Selfish Ledger (dt. etwa: das egoistische Buch). Im Mai 2018 tauchte auf der Tech-Website The Verge ein vermeintlich geleaktes Google-Video auf. Es war Ende 2016 von Nick Foster, dem Leiter der Designabteilung X und Mitbegründer des Near Future Laboratory gedreht worden. In diesem Video wird die Zukunft der totalen Datenerfassung vorgestellt. Mit immer mehr Daten wird das Verhalten ganzer Bevölkerungsgruppen gesteuert, zudem wird die Verheißung verkündet, Datensammlungen würden helfen, globale Armut und Krankheiten abzuschaffen.52 »The digital utopian dream of our age looks something like the 2016 concept video created by a Google R&D lab for a never-released product called the Selfish Ledger.«53 Im Video stellt Google die App Resolutions from Google vor, eine Art allumfassende KI-Nanny. Der Mensch erscheint hierbei nicht als Eigentümer seiner Daten, sondern lediglich als »Zwischenwirt« (Simanowski 2020: 78). Die Verheißung dieser KI besteht darin, das Verhalten eines Menschen auf dessen Datenbasis umfassend

52 53

https://www.theverge.com/2018/5/17/17344250/google-x-selfish-ledger-video-data-p rivacy (09.02.2022). https://www.thenewatlantis.com/publications/how-tech-utopia-fostered-tyranny (09.02.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

zu optimieren. Die allwissende KI (der Ledger) sammelt Daten über Handlungen, Entscheidungen, Vorlieben, Bewegungen und Beziehungen. Google fordert seine Nutzer zudem auf, ein Lebensziel auszuwählen und verspricht, mit der Hilfe der KI bei jeder Interaktion in diese Zielrichtung zu lenken. »Sobald Muster in den Verhaltensabläufen auftauchen, können diese direkt adressiert werden. Der Fokus des Ledger kann so verändert werden, dass dieser nicht nur unser Verhalten beobachtet, sondern auch Anweisungen für ein gewünschtes Ergebnis offeriert.« (Ebd.: 78f.) Auf diese Weise wird die liebevolle Nanny zur strengen Gouvernante. Der Ledger versucht, aktiv Wissenslücken zu füllen und wählt Produkte zum Kauf aus, von denen er glaubt, sie könnten dem Nutzer gefallen. Die Idee des Ledgers geht dabei weit über ein einfaches Werkzeug hinaus, wenn Nutzerdaten mehrerer Generationen betrachtet werden, damit nachfolgende Generationen von Entscheidungen vorangegangener Generationen profitieren. Bedenken hinsichtlich des Datenschutzes werden im Video nicht erwähnt.54 Genauso wenig wird aus einer psychologischen Perspektive bedacht, dass Menschen selten stabile Präferenzstrukturen haben und Lebensziele sich somit nicht eindeutig festlegen lassen. In den Medien wurde das Video als ›beängstigend‹ oder als ›creepy‹ bezeichnet. Ein Kritiker behauptet sogar, dass es schlaflose Nächte verursache.55 Gemeinhin wird angenommen, dass das Video einen tiefen Einblick in die Denkweise von Google gibt, vor allem, wenn berücksichtigt wird, dass dieses Unternehmen schon jetzt der weltweit produktivste Sammler persönlicher Daten ist.56 Ein Sprecher von Google zeigte immerhin Verständnis für Befürchtungen, relativierte die Botschaft aber auch, indem er darauf hinwies, dass es sich lediglich um ein älteres Beispiel für »spekulatives Design« handele. Gerade diese Spekulationen machen jedoch die Funktion von Verheißungen erkennbar. In der Verpackung als Gedankenexperiment dienen Verheißungsnarrative dazu, unbequeme Ideen und Konzepte zu erforschen, um (probehalber) Diskussionen und Debatten testweise anzuregen. Einerseits zeigt das Video somit die mögliche Spannbreite von Social Engineering auf der Basis von Algorithmen. Andererseits repräsentiert es die überhitzte Fantasie

54 55 56

https://www.theverge.com/2018/5/17/17344250/google-x-selfish-ledger-video-data-p rivacy (09.02.2022). https://www.dailydot.com/debug/google-video-selfish-ledger/ (09.02.2022). https://www.theverge.com/2018/5/17/17344250/google-x-selfish-ledger-video-data-p rivacy (09.02.2022).

71

72

Stefan Selke: Technik als Trost

von Programmierern, die sich im kompetitiven Silicon Valley kaum noch anderen Formen der Lebensführung vorstellen können. Ihre verheißungsvollen Zukunftserzählungen dienen immer wieder dazu, Akzeptanzgrenzen für Zukunftsszenarien jenseits des aktuell Denkbaren auszutesten. Derartige KI-Narrative erzeugen reflexartig dystopische Gegenerzählungen. Weltweit beschäftigen sich Forscher mit den Wirkungsweisen und Folgen von »Dataveillance«, der Kombination von Vermessung und Überwachung von Menschen. Aus ethischer Perspektive wird dabei die Mathematisierung des Individuums sowie der Angriff auf dessen Freiheit im Namen von Kollektivinteressen kritisiert. »Versteht man den Menschen altmodisch-emanzipativ als ein sich selbst interpretierendes Wesen [...] erweist sich die metrische, überwachungskapitalistische Datenerhebung nicht als Zwecksetzung des Individuums, sondern als dessen Reduktion auf ein Mittel: auf das Mittel der Erhöhung seiner Kalkulierbarkeit und Konsumbereitschaft im Dienst der Wachstumsgesellschaft.« (Simanowski 2020: 80) Algorithmen weist Simanowski folgerichtig eine umfassende »Diskurskraft« (ebd.) zu, die sich nicht nur auf die Ordnung der Dinge, sondern auch auf zwischenmenschliche Ordnungen auswirken wird. Zu einer ähnlichen Diagnose kommen Nick Couldry und Ulises Mejias in ihrem Buch The Costs of Connections, in dem sie anhand zahlreicher Beispiele aufzeigen, wie menschliches Leben und persönliche Lebensführung durch Daten durchdrungen werden und wie sich damit durch implizite Akzeptanztests eine Vorbereitung auf kapitalistische Verwertungslogiken einschleicht (Couldry/Mejias 2019).

2.4 Inszenierungsstrategien Wie der Soziologe und Philosoph José Ortega Y Gasset in seinem Buch Der Aufstand der Massen eindringlich darstellt, werden wissenschaftliche Leistungen und technischer Fortschritt »konsumiert« (Ortega Y Gasset 1952: 92). Und weil Konsum immer auch mit Inszenierung verbunden ist (Bauman 2009; Ullrich 2012) lässt diese Aussage bereits erahnen, dass auch verheißungsvolle Zukunftserzählungen für strategische Inszenierungen im Kontext zukünftiger Konsummöglichkeiten eingesetzt werden können. Schon der Begriff »Künstliche Intelligenz« kann als »elegante Übertreibung zum Zweck der Verkaufsförderung« bzw. als »Marke am Horizont« betrachtet werden. (Seele 2020: 15f.) Lässt sich vielleicht mit einer ›intelligenten‹ Maschine die begrenzte Vernunftbegabung des Menschen ausgleichen? Mit dem Begriff »AI« (KI) war jedenfalls genau die-

72

Stefan Selke: Technik als Trost

von Programmierern, die sich im kompetitiven Silicon Valley kaum noch anderen Formen der Lebensführung vorstellen können. Ihre verheißungsvollen Zukunftserzählungen dienen immer wieder dazu, Akzeptanzgrenzen für Zukunftsszenarien jenseits des aktuell Denkbaren auszutesten. Derartige KI-Narrative erzeugen reflexartig dystopische Gegenerzählungen. Weltweit beschäftigen sich Forscher mit den Wirkungsweisen und Folgen von »Dataveillance«, der Kombination von Vermessung und Überwachung von Menschen. Aus ethischer Perspektive wird dabei die Mathematisierung des Individuums sowie der Angriff auf dessen Freiheit im Namen von Kollektivinteressen kritisiert. »Versteht man den Menschen altmodisch-emanzipativ als ein sich selbst interpretierendes Wesen [...] erweist sich die metrische, überwachungskapitalistische Datenerhebung nicht als Zwecksetzung des Individuums, sondern als dessen Reduktion auf ein Mittel: auf das Mittel der Erhöhung seiner Kalkulierbarkeit und Konsumbereitschaft im Dienst der Wachstumsgesellschaft.« (Simanowski 2020: 80) Algorithmen weist Simanowski folgerichtig eine umfassende »Diskurskraft« (ebd.) zu, die sich nicht nur auf die Ordnung der Dinge, sondern auch auf zwischenmenschliche Ordnungen auswirken wird. Zu einer ähnlichen Diagnose kommen Nick Couldry und Ulises Mejias in ihrem Buch The Costs of Connections, in dem sie anhand zahlreicher Beispiele aufzeigen, wie menschliches Leben und persönliche Lebensführung durch Daten durchdrungen werden und wie sich damit durch implizite Akzeptanztests eine Vorbereitung auf kapitalistische Verwertungslogiken einschleicht (Couldry/Mejias 2019).

2.4 Inszenierungsstrategien Wie der Soziologe und Philosoph José Ortega Y Gasset in seinem Buch Der Aufstand der Massen eindringlich darstellt, werden wissenschaftliche Leistungen und technischer Fortschritt »konsumiert« (Ortega Y Gasset 1952: 92). Und weil Konsum immer auch mit Inszenierung verbunden ist (Bauman 2009; Ullrich 2012) lässt diese Aussage bereits erahnen, dass auch verheißungsvolle Zukunftserzählungen für strategische Inszenierungen im Kontext zukünftiger Konsummöglichkeiten eingesetzt werden können. Schon der Begriff »Künstliche Intelligenz« kann als »elegante Übertreibung zum Zweck der Verkaufsförderung« bzw. als »Marke am Horizont« betrachtet werden. (Seele 2020: 15f.) Lässt sich vielleicht mit einer ›intelligenten‹ Maschine die begrenzte Vernunftbegabung des Menschen ausgleichen? Mit dem Begriff »AI« (KI) war jedenfalls genau die-

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

se Hoffnung verbunden. »Die jüngere Debatte um künstliche Intelligenz«, so Peter Seele, »dreht sich im Wesentlichen um die Versprechungen und Verheißungen dieses Begriffs.« (Ebd.: 17) In der Tat sind die Erwartungen hoch: Was soll KI nicht alles sein? Gamechanger, Silverbullet, Waterhole – die Sprache des Marketings kennt viele Begriffe für das Verheißungsvolle. Für Skeptiker ist KI selbst ein »Marketingwort«, wie es der Physiker Michael Möricke ausdrückt. Aus einer ökonomischen Marktlogik heraus bieten sich daher verheißungsvolle Narrative an, um die Bühne für KI auszuleuchten. Je nach Publikum und dessen Rezeptionsgewohnheiten funktionieren diese strategischen Inszenierungen besser oder schlechter. Am besten funktioniert Inszenierung augenscheinlich dort, wo niemand Probleme mit weitreichenden Technikversprechen hat. Im Valley paaren sich kalifornische Ideologie mit hippiehaftem Fortschrittglauben zu immer neuen Metamorphosen von Verheißungen. Doch was gegenwärtig als »move fast, break things«-Diktum der Silicon-Valley-Intelligenzija herumgereicht wird, ist tatsächlich schon viel älter: Noch im Space Age der 1960er-Jahre war die Zukunft selbst die Verheißung. Autos wirkten wie in Karamell gegossen. Kühlerfiguren in Form futuristischer Raketen symbolisierten Optimismus und Zukunftsgläubigkeit. Aerodynamische Heckflossen machten aus den Autos kleine Raumschiffe. »Nicht die Technik stand im Vordergrund, sondern die Verheißung einer besseren Zukunft.« (Selke 2022: 234) Leider ist mittlerweile die Zukunft selbst unsicher geworden. Das ist eine mögliche Erklärung dafür, dass Technik nun wieder in den Vordergrund rückt und mit Verheißungen verknüpft wird. »Die Versprechen zu KI sind vor allem Marketingversprechen, Versprechen der großen Tech-Firmen«, so Johanna Tiffe. »Während viele eher zögerlich sind, versprechen diese Akteure eine wahnsinnig schöne und bunte Welt.« Verheißungsvolle Zukunftserzählungen über KI können daher als strategische Inszenierungen datengieriger Unternehmen, sog. »greedy institutions« (Coser 2015), demaskiert werden, denn die Entwicklung von KI ist vor allem marktgetrieben. Genau hierin unterscheidet sich das Zeitalter der KI vom frühen Space Age: Für KI-Technologien gibt es gerade keinen gesellschaftlichen Auftrag, der im Konsens beschlossen wurde. Im Space Age hingegen griff eine Nation mit dem Apollo-Programm (Gott des Lichts) nicht allein technisch, sondern auch kulturell über sich hinaus. In der Tat war das Apollo-Programm Teil eines umfassenden gesellschaftlichen Masterplans, der den Namen New Frontier trug und mit dem der damalige amerikanische Präsident John F. Kennedy eine soziale Utopie verwirklichen wollte. In einer leidenschaftlichen Rede am Ende eines Parteitages 1960 hatte er seine Land-

73

74

Stefan Selke: Technik als Trost

leute dazu aufgefordert, neue Grenzen zu überschreiten. »Nicht alle Probleme werden gelöst und nicht alle Schlachten gewonnen werden, aber wir stehen heute vor einer neuen Grenze, der Grenze der Sechzigerjahre, einer Grenze zu unbekannten Gelegenheiten und Gefahren, einer Grenze zu unerfüllten Hoffnungen und Drohungen.« (zit. n. Mak 2014: 123) Im Kontext von KI ist die gesellschaftliche Ausgangslage hingegen vollkommen anders, wenngleich auch diesmal wieder ultimative Grenzüberschreitungen versprochen werden. Doch anders als im Space Age gibt es gerade keinen zivilisatorischen Masterplan, der den Orientierungsrahmen für die verheißungsvollen neuen Technologien abgibt. Vielmehr folgt die KI-Entwicklung schlicht einer ökonomischen Logik.57 » KI und Marktwirtschaft sind eng miteinander verknüpft. Der Druck auf Unternehmen ist enorm«, so der Unternehmer Wolfgang Eckstein. »In dieser Situation kann sich niemand einen soziologischen Diskurs leisten. Stattdessen wird KI ausprobiert. Wenn es klappt, sagt man: WOW, weitermachen, einbauen.« Die Gesetze des Marktes dominieren und erfordern vorauseilende strategische Inszenierungen. Am Ende gilt: Verheißungen übersetzen latente Technikerwartungen in konkrete Marketingmaßnahmen. »Das sind Taschenspielertricks«, heißt es in diesem Sinne auch im Roman Die Tyrannei des Schmetterlings, als es um den Wert von Innovationen im Bereich KI geht. »Mit sowas ziehen wir Investoren die Milliarden aus der Tasche. […] [D]er Scheiß wirkt immer« (Schätzing 2018: 141).

Versprechungen ohne Verbindlichkeit Narrationen sind ein nahezu perfektes dramaturgisches Werkzeug. Zusätzlich bewirken vor allem die Gesetze des Marktes die Überbelichtung von KI. Das funktioniert nicht nur in fiktionalen Romanhandlungen, sondern auch praktisch. »KI ist gerade ein Investorenwort«, so Oliver Gerstheimer. »Nach Digital kam Fintech, danach Bitcoin. Das neue Wasserloch, um das sich alle gruppieren, ist jetzt eben KI. So eine typische Berater-Buzzword-Kombo.« Um in diesem Markt konkurrenzfähig zu sein, braucht es eine gute Portion Eigensinn und Eitelkeit, vielleicht sogar Größenwahn. Jede Idee muss nach der Logik der Aufmerksamkeitsökonomie (Frank 1998) angepriesen und vehement promotet werden. Förderlinien für Forschungsprojekte – wie z.B. der KI-Strategie 57

Dies zeigt sich auch in der metaphorischen Rede von ›KI-Sommern‹ und ›KI-Wintern‹, womit nichts anderes gemeint ist, als Konjunkturzyklen der Forschungsförderung, die wiederum im Zusammenhang mit Marktlogiken steht.

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

der Deutschen Bundesregierung58 – zeugen ausgiebig davon, dass Inszenierungen auf allen Ebenen relevant sind. Heutzutage reicht es nicht mehr aus, zu forschen, vielmehr muss im Gewand von Ideen-, Technik- und Wissenstransfer ein Versprechen gegenüber der Öffentlichkeit gegeben und möglichst auch eingelöst werden. Dieser Druck zwingt selbst Forschende dazu, verheißungsvolle Narrative zu erfinden, die als strategische Inszenierungen geeignet sind. Ohne passende Versprechen ist heute niemand mehr konkurrenzfähig. Der Preis für den Wettbewerbsvorteil besteht darin, Ursache und Wirkung immer seltener trennscharf auseinanderzuhalten. »Immer wieder soll Technik Probleme lösen, die der Mensch vorher verursacht hat«, so Karsten Wendland. »Damit wird ein Narrativ genährt, dass sich dann irgendwann verselbstständigt.« Gleichwohl ist das verheißungsvolle Narrativ strategisch geschickt, weil es Immunisierung gegen mögliche Kritik beinhaltet. »Ein Versprechen ist immer konkret und verbindlich«, mahnt hingegen der Theologe Christopher Scholtz. »Eine Verheißung hat mehr von einer vorläufigen Andeutung.« Versprechen können nur unter Reputationsverlusten zurückgenommen werden, denn im Kern geht es dabei um Verbindlichkeiten. Diese Aussage lässt sich auch umkehren: Die zentrale Eigenschaft von Verheißungen besteht darin, dass ihr Verbindlichkeitsgrad gegen Null tendiert. Damit eignen sich KI-Verheißungen als inszenierte Lösungsversprechen. Das wirkt, obwohl gesellschaftswissenschaftliche Theorien seit langem behaupten, dass die Nebenfolgen einer fortschritts- und technologiegetriebenen Wirtschaftsund Lebensweise gerade nicht wieder mit Technologie bewerkstelligt werden können. Um die Begrenztheit planetarischer Ressourcen sowie das Übermaß technologiegetriebener Umweltveränderungen auf den Punkt zu bringen, schuf der Nobelpreisträger Paul Crutzen den Begriff des »Anthropozäns« für ein neues Zeitalter, das primär von menschgemachten Auswirkungen auf Umwelt und Gesellschaft geprägt wird. (Crutzen et al. 2011; auch: Latour 2017) Gerade vor diesem Hintergrund zirkulieren strategische Inszenierungen zu verheißungsvollen Effekten von KI, deren Funktion sich wohl nur massenpsychologisch erklären lässt: Einerseits mediale Inszenierungen von Wortführern des KI-getriebenen Fortschrittsversprechens. »Deren Verheißungen sind äußerst unterhaltsam für den Medienbetrieb«, so Karsten Wendland. Andererseits aber auch journalistische Inszenierungen, die von Experten

58

https://www.bmbf.de/bmbf/de/forschung/digitale-wirtschaft-und-gesellschaft/kuen stliche-intelligenz/kuenstliche-intelligenz_node.html (30.01.2022).

75

76

Stefan Selke: Technik als Trost

zwar meist als wenig fachlich abqualifiziert werden, gleichzeitig aber das Informationsbedürfnis der Massen befriedigen. Neben innerwissenschaftlicher Konkurrenz, die zwangsläufig strategische KI-Inszenierungen zur Positionierung in der sog. ›Forschungslandschaft‹ abverlangt, ist auch die mediale Logik der Aufmerksamkeitserzeugung auf Inszenierungen angewiesen. In beiden Fällen geht es um Sichtbarkeit. Das passt gut mit Verheißungen als intentionale Überhöhungen zusammen. Um sichtbar zu werden, »ist so etwas wie KI, ein Phänomen, das nicht unmittelbar erklärt werden kann und daher immer etwas Geheimnisvolles hat, wunderbar geeignet«, fasst Wendland diesen Aspekt zusammen.

KI als neuer Typ des Helden Eine spezifische Form der strategischen Inszenierung ist der klassische Heldenepos. »Ein Held ist zunächst derjenige, der auf der Grundlage von irgendwelchen Daten die Zukunft voraussagen kann oder sie zumindest gestalten will«, definiert der Mediziner Tobias Gantner. In Verheißungserzählungen wird KI oftmals selbst als Held inszeniert. Hier finden sich durchaus ikonische Vorbilder, etwa die amerikanische Pulp-Serie Captain Future von Edmond Hamilton, die von 1940 bis 1944 erschien und in Europa durch die Captain-Future-Anime-Serie bekannt wurde und Anfang der 1980er-Jahre im Fernsehen ausgestrahlt wurde.59 Diese Kultserie für Kinder prägte eine ganze Generation und somit auch spätere Programmierer.60 Captain Future ist das Kind rechtschaffender Wissenschaftler, die auf der Flucht vor dem Kriminellen Victor Corvo Zuflucht auf dem Mond suchen. In einer versteckten Basis schaffen sie künstliche Wesen, die als Helfer der Menschheit dienen sollen. Auf der Flucht werden sie vom todkranken und alternden Wissenschaftler Simon Wright begleitet, dessen Gehirn getrennt vom Körper in einem Behälter aufbewahrt wird. Das Narrativ der Pulp-Serie enthält stereotypenhaft bereits viele der Verheißungen, die gegenwärtig wieder im Kontext von KI auftauchen – einschließlich des zukunftseuphorischen Namens Captain Future für den heranwachsenden Sohn, der sein Leben ebenfalls in den Dienst des Guten stellt und dabei (wie jeder Held) Widerstände überwinden muss. Zu den Verheißungsaspekten der Serie gehören gleich mehrere Roboterfiguren: Grag – der über beträchtliche wissenschaftliche Kenntnisse verfügt und Otto 59 60

https://de.wikipedia.org/wiki/Captain_Future (05.01.2022). https://kinoblog.sz-medienhaus.de/2016/12/07/captain-future/ (05.01.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

– ein Androide, der sein Erscheinungsbild ändern kann. Den technischen Verheißungen im Captain-Future-Universum (z.B. ein Raumschiff mit Tarnvorrichtung und Überlichtgeschwindigkeit) stehen allerdings auch einige soziale Dystopien gegenüber, etwa wenn Vorbehalte gegen Mischlinge aus unterschiedlichen Völkern aufkommen. Dennoch war Captain Future bereits die Antizipation dessen, was gegenwärtig über Mensch-Maschine-Interaktion denkbar ist. Inzwischen nennen wir es KI. Verheißungen lassen sich als eine spezifische kommunikative Gattung (Knoblauch 2019; Knoblauch 2014) einordnen. Und diese Form der Kommunikation scheint immer mehr nachgefragt zu werden. »Alle Forscherthemen sind Helden-Geschichten«, so Tobias Gantner. »Jemand macht sich auf, weil er etwas herausfinden will.« Die Suche nach neuem Wissen basiert dabei immer auf Neugier. Die Fähigkeit zur Neugierde hilft, geistige Territorien abzustecken und eine mentale Kartografie zu schaffen, die sich aus der Frage nach dem Zustand der Welt ergeben. Diese Suche ist ein prinzipiell unabschließbarer Prozess, denn an jedem Ziel beginnt eine neue Sinnsuche, und »so leben wir in einem Zustand des ewigen Fragens und mitreißenden Unbehagens« (Manguel 2015: 68f.). Neugierde kann sich vor diesem Hintergrund als vanitas äußern, als Hybris oder Größenwahn. Aber auch als umiltà, als Bescheidenheit und Demut. KI-Projekte befinden sich meist in einem Schwebezustand zwischen beiden Polen. Im Mittelpunkt einiger KI-Verheißungen stehen Prominente, deren Vorbildfunktion darin besteht, die immerwährende Sehnsucht nach (wissenschaftlicher) Neugier – und damit den Schwebezustand zwischen umiltà und vanitas zu personifizieren. Der japanische Robotiker Hiroshi Ishiguro kann vor diesem Hintergrund geradezu als Meister der verheißungsvollen Selbstinszenierung bezeichnet werden. Ishiguro hat die Inszenierung von Verheißungen zwischen »ewigen Fragen« und »mitreißendem Unbehagen« perfektioniert, denn er baut Roboter, die aussehen, wie er selbst. Ishiguro, Leiter des Intelligent Robotic Laboratory an der Universität Osaka, ist überzeugt, dass Maschinen und Menschen auf natürliche Weise zusammenwachsen. »Humankind is always trying to replace human abilities with machines. That’s our history, I’m doing the same thing. Nothing special.«61 Gleichwohl wirkt sein Ansatz ambitioniert – und zwar sowohl als Beitrag zur Forschung, als auch als Beitrag zur öffentlichen Debatte. Roboter, so sein Versprechen, sollten lebenden Menschen so ähnlich wie möglich werden, weil sie dann ein 61

https://spectrum.ieee.org/hiroshi-ishiguro-the-man-who-made-a-copy-of-himself (21.01.2022).

77

78

Stefan Selke: Technik als Trost

starkes Gefühl der Präsenz vermitteln. Seine Verheißung ist folgerichtig ein Androide, der kaum noch von einem Menschen unterscheidbar ist. Das erinnert einerseits stark an den Kultfilm Blade Runner (1982, Regie: Ridley Scott) oder dessen Fortsetzung Blade Runner 2049 (2017, Regie: Denis Villeneuve), in dem sog. »Replikanten« für Verwirrung unter Menschen sorgen. Ishiguros Verheißung passt nahezu perfekt zur zeitgenössischen öffentlich-medialen Wahrnehmung von KI. Ishiguro kann bereits eine eigene Entwicklungslinie menschenähnlicher Roboter aufweisen: ERICA, eine Forschungsplattform für einen autonomen Konversationsroboter; Ibuki, ein kinderähnlicher Androide und schließlich Geminoide, also Androiden, die bestimmten Menschen ähnlich sehen.62 Durch den interdisziplinären Ansatz zwischen Ingenieurwesen, Kognitions- und Neurowissenschaft soll das Verständnis des Menschen selbst vertieft werden. Besonders spektakulär ist dabei ein Geminoid, der Ishiguro selbst nachempfunden ist. Der Forscher setzt ihn gerne bei Vorlesungen oder Vorträgen ein. Der Roboter, für den Ishiguro sogar seine eigenen Haare nutzte, erschreckt die Zuschauer, indem er menschenähnliche Bewegungen wie Blinzeln, Atmen und Zappeln ausführt.63 Das Ziel der Arbeit mit DoppelgängerRobotern besteht nach Aussage Ishiguros darin, Menschen beizubringen, kompetent mit Maschinen in Beziehung zu treten. Allerdings ist der Geminoid weit weniger ›lebendig‹, als es den Anschein erweckt. Er wird von einem Computer gesteuert, der Ishiguros Stimme aufnimmt und dessen Kopfbewegungen verfolgt. Umgekehrt berichtet allerdings Ishiguro, dass es sich so anfühle, als ›bewohne‹ er den Körper des Roboters und als könne er sein eigenes Gehirn dabei beobachten, wie es sich bei der Bedienung des Roboters verhält. Mit seinem Ansatz gewann der Forscher zahlreiche Preise, darunter auch eine deutsche Auszeichnung für den besten Humanoiden (Kindergröße) beim RoboCup 2006 in Bremen.64 Zudem wurde Ishiguro eine umfangreiche Medienwirksamkeit zuteil. 2011 wurde er von Asian Scientists Magazine als einer der 15 »Asian Scientists to Watch« erkoren. 2018 wurde er in einem Dokumentarfilm in Interaktion mit einem seiner Roboter interviewt. In drei weiteren Filmen kam er ebenfalls vor (z.B. Plug & Pray, 2010). Die zentrale Verheißung

62 63

64

Für diese und weitere Roboter: https://eng.irl.sys.es.osaka-u.ac.jp/robot (25.02.2022). https://en.wikipedia.org/wiki/Hiroshi_Ishiguro (12.01.2022) Einige menschliche Verhaltensweisen werden aber mit Absicht unterdrückt: Wenn das menschliche Original eine Zigarette anzündet, verzichtet der Androide darauf. https://en.wikipedia.org/wiki/Hiroshi_Ishiguro (12.01.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

des »Mannes, der eine Kopie von sich selbst erschaffen hat«65 wirkt für kritische Beobachter allerdings oftmals gruselig. »Like all Dr. Frankensteins of literature, he’s raising some deep, powerful questions about our humanity and our creations, and it’s scary, but it’s also important that we confront these questions, and he’s doing that not in the realm of fiction but in the laboratory«, so der Robotik-Professor Ken Goldberg der University of California, Berkeley. Andere sehen es sogar noch kritischer. Der Technik-Blog Gizmodo nahm den Androiden in die Liste der »10 Creepy Machines from Robot Hell« auf. Ein Forscher (der anonym bleiben möchte) kritisiert, dass ein Android bzw. Geminoid zwar Menschen ähnelt, aber auch Abscheu hervorrufen kann, weil Assoziationen zu Zombies oder animierten Leichen entstehen. Derartige Bedenken halten Ishiguro allerdings nicht davon ab, mit weiteren Kreationen zu experimentieren. Er glaubt fest daran, dass sie eines Tages als Ersatz für die physische Anwesenheit eines Menschen benötigt und dann auch umstandslos akzeptiert werden. Somit liefert seine Arbeit ein nahezu perfektes Beispiel für die Funktion von Verheißungen als gesellschaftlicher Akzeptanztest und zugleich strategische Inszenierung in umkämpften Märkten.

2.5 Futurisierungszwang Strategische Inszenierungen basieren fast zwangsläufig auf Prognosen und repräsentieren damit automatisch den Zwang zur Futurisierung, also zur Zukunftsschau. Futurieren bedeutet, etwas (ein Ding, eine Idee oder einen momentanen Zustand) in die Zukunft zu projizieren, also ein Zukunftsprojekt spekulativ zu beschreiben. Das schillernde Phänomen KI eignet sich hierzu hervorragend. Es ist einerseits komplex, andererseits »eingeklemmt zwischen spannenden Geschichten«, so Wolfgang Eckstein. »Am Ende will die Forschung Geld haben und deshalb wird Spannung rund um das Thema KI erzeugt. Medienberichte versprechen deshalb immer mehr, als die tatsächliche Entwicklung hergibt. Es gibt zu wenig Informationen und zu wenig Wahrheitsgehalt.«

65

https://spectrum.ieee.org/hiroshi-ishiguro-the-man-who-made-a-copy-of-himself (21.01.2022).

79

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

des »Mannes, der eine Kopie von sich selbst erschaffen hat«65 wirkt für kritische Beobachter allerdings oftmals gruselig. »Like all Dr. Frankensteins of literature, he’s raising some deep, powerful questions about our humanity and our creations, and it’s scary, but it’s also important that we confront these questions, and he’s doing that not in the realm of fiction but in the laboratory«, so der Robotik-Professor Ken Goldberg der University of California, Berkeley. Andere sehen es sogar noch kritischer. Der Technik-Blog Gizmodo nahm den Androiden in die Liste der »10 Creepy Machines from Robot Hell« auf. Ein Forscher (der anonym bleiben möchte) kritisiert, dass ein Android bzw. Geminoid zwar Menschen ähnelt, aber auch Abscheu hervorrufen kann, weil Assoziationen zu Zombies oder animierten Leichen entstehen. Derartige Bedenken halten Ishiguro allerdings nicht davon ab, mit weiteren Kreationen zu experimentieren. Er glaubt fest daran, dass sie eines Tages als Ersatz für die physische Anwesenheit eines Menschen benötigt und dann auch umstandslos akzeptiert werden. Somit liefert seine Arbeit ein nahezu perfektes Beispiel für die Funktion von Verheißungen als gesellschaftlicher Akzeptanztest und zugleich strategische Inszenierung in umkämpften Märkten.

2.5 Futurisierungszwang Strategische Inszenierungen basieren fast zwangsläufig auf Prognosen und repräsentieren damit automatisch den Zwang zur Futurisierung, also zur Zukunftsschau. Futurieren bedeutet, etwas (ein Ding, eine Idee oder einen momentanen Zustand) in die Zukunft zu projizieren, also ein Zukunftsprojekt spekulativ zu beschreiben. Das schillernde Phänomen KI eignet sich hierzu hervorragend. Es ist einerseits komplex, andererseits »eingeklemmt zwischen spannenden Geschichten«, so Wolfgang Eckstein. »Am Ende will die Forschung Geld haben und deshalb wird Spannung rund um das Thema KI erzeugt. Medienberichte versprechen deshalb immer mehr, als die tatsächliche Entwicklung hergibt. Es gibt zu wenig Informationen und zu wenig Wahrheitsgehalt.«

65

https://spectrum.ieee.org/hiroshi-ishiguro-the-man-who-made-a-copy-of-himself (21.01.2022).

79

80

Stefan Selke: Technik als Trost

KI als Datenorakel Verheißungserzählungen sind daher keine optionale Ausschmückung, sondern vielmehr Notwendigkeit. Weil Menschen für unkontrollierbare Aspekte des Lebens immer wieder neue Erklärungsmodelle benötigen, rücken KI-Verheißungen strukturell in die Nähe des Orakels. Erst boten Religionen Orientierung, dann wurde Wissenschaft das Erfolgsmodell für Erklärungen. Mit Wissenschaft »lässt sich die Welt vorhersagen«, so der Designer Andreas Muxel. »Oder zumindest beschreibbar machen. Und Beschreibbarkeit ist der erste Schritt auf dem Weg zur Kontrolle. Andererseits steckt da bis heute viel Wunschdenken drin.« KI-Verheißungen sind somit die zeitgenössische Konkretionen eines permanent zirkulierenden Wunschdenkens. Es gibt auffallend viele Ähnlichkeiten zwischen den Heilsankündigungen theologischreligiöser Verheißungen und modernen Techno-Utopien, obwohl diese von Menschen stammen und keinen Gott mehr vorrausetzen. Hier lohnt ein kurzer Blick zurück: Die griechisch-antike Kultur war die erste, die ernsthaft über die Idee der Vorhersage nachdachte und das Alltagsleben mit »Orakeln und Vorzeichen überschwemmte« (Minois 2002: 111). Zugleich waren die ›alten Griechen‹ die Ur-Väter des Skeptizismus. Sie wussten um die beängstigende Wirkung einer offenen Zukunft und die Notwendigkeit von Orientierungshilfen. Ohne verlässliche Vorhersage tappt der »Mensch im Dunkeln, den schwachen Kräften seines Verstandes ausgeliefert« (ebd.). Oder anders: Ohne Orakel herrschte Angst. Eine Welt ohne Weissagung war und ist eine bange Welt. Ein möglicher Ersatz der Weissagung war schon immer die Utopie. »Die Utopie ist das Hilfsmittel der Besorgten«, so der Kulturhistoriker Georges Minois, »sie beruhigt, indem sie eine stabile ideale Welt erfindet.« (Ebd.) Während sich die Wissenschaft einen Methodenkanon und Ethos zulegte und die allmähliche »Entzauberung der Welt« (Max Weber) dafür sorgte, dass sich eine Form der Rationalität verbreitete, die auf Intellektualismus, Argumenten und Fakten basiert, fanden sich Menschen in ihrem Alltag nur schlecht damit ab, weiterhin im Relativen zu leben. »Der Vorteil der alten Vorhersagemethoden war ihre Unfehlbarkeit«, stellt Minois fest. (Ebd.: 527) Gewissheit wurde nach und nach durch Wahrscheinlichkeit als Leitgedanken abgelöst. Verheißungserzählungen bieten eine zeitgenössische Orientierungsleistung im Angesicht ereignisoffener Zukünfte, die die rituelle Funktion des Orakels ersetzt – teils als Anklang utopischen Denkens, teils als Ausdruck probabilistischen Denkens. Wenn aber Verheißungsnarrative eine Art von Orakelersatz sind, dann braucht es eine Erinnerung an eine Paradoxie. Denn das

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

Motto des berühmtesten aller Orakel, des Orakels von Delphi, lautete: »Erkenne dich selbst!« (im Original: »Gnothi seauton«). Und das ist noch immer eine gewaltige Aufgabe. An der Funktionsweise des Orakels hat sich im Wesentlichen nicht viel geändert. »Letztendlich leistet KI genau das«, so der Mediziner Tobias Gantner. »Auf Basis dessen, was ist, gibt KI eine Prognose darüber ab, was sein könnte und wer wir sein könnten. In diesem Sinne hat KI immer einen Aufforderungscharakter, aber auch eine Voreingenommenheit.« Mustererkennung in (den eigenen) Daten ist daher die neue Form der Selbsterkenntnis. Das passt gut in das Streben nach Selbstoptimierung, wie es in Selbstvermessungssubkulturen66 (und weit darüber hinaus) propagiert wird. (Lupton 2016) Die Metapher des Orakels67 findet sich auch im prominenten KI-Manifest Homo Deus, dessen Autor Yuval Noah Harari von einem datenzentristischen Standpunkt aus argumentiert, dass KI nicht nur ein allwissendes Orakel, sondern sogar ein souveräner Akteur sein wird. Sein Homo Deus wird sich einem »kosmischen Datenverarbeitungssystem« anpassen müssen, das alles sieht und alles weiß. Dieses kommende Datenorakel »wird überall sein und alles kontrollieren, und die Menschen sind dazu verdammt, darin aufzugehen« (Harari 2017: 515). Während das Zukunftsnarrativ Hararis um einen religiösen Kern kreist, sieht Roberto Simanowski sogar einen »digitalen Pantheismus« aufziehen, bei dem es am Ende nur um Informationen gehen wird (Simanowski 2020: 103). Von der Verheißung des Orakels ist es also nicht weit, bis zu einer neuen Kosmologie. Unter diesem neuen Götterhimmel (der dann vielleicht gar nicht mehr mit dem Bild des Himmels beschrieben werden wird, obwohl wir ja auch von Cloud, also Wolke, sprechen), werden Menschen sich nur noch demütig gegenüber den datenverarbeitenden Göttern in Form gutgesinnter Maschinen verhalten können. Für Simanoswki geht es damit »um die Zukunft der Menschheit. Die Diktatur der KI und der digitale Pantheismus sind die Endprodukte, von denen her die Entwicklung der künstlichen Intelligenz zu denken ist.« (Ebd.: 107) Deutlich tönt hier die Verheißung der Rückkehr ins verlorene Paradies durch. Indem der Mensch KI schafft, wird er selbst zum Gott, entkräftet diese

66

67

Dieser Imperativ taucht prominent im Kontext digitaler Selbstvermessung wieder auf, etwa im Motto der Quantified-Self-Bewegung: »Self-knowledge through numbers.« (Wolf 2010) Zu den epistemischen Problemen der Analogie KI/Orakel vgl. auch Hauswald (2021), Gransche (2016).

81

82

Stefan Selke: Technik als Trost

Position aber sogleich wieder, weil er die Macht den Maschinen überlässt. Der Mensch schafft sich ein Paradies, in dem nur Daten heilig sind. Diese Paradiesvorstellung wirkt daher nicht ohne Grund positivitisch. Tatsächlich scheint das zu funktionieren, weil der neue Technologieglaube, »ja gerade von Menschen vorangetrieben wird, die wenig Interesse daran haben, sich selbst zu erkennen«, so Tobias Gantner, denn »eine KI kann uns zwar eine optimale Fahrstrecke vorschlagen, weiß aber noch lange nicht, wo wir im Leben hinwollen.« Trotzdem wird KI im Kontext von Verheißungsnarrativen immer wieder die Rolle eines allmächtigen ›Sehers‹ zugewiesen. Das liegt auch daran, dass die Nachfrage nach Prognosen bislang nicht abgenommen hat. KI-Verheißungsnarrative funktionieren daher wie eine Mischung aus Prognose und Orakelersatz – als handlungsleitende transzendente Weisheit (Seiffert-Brockmann 2015: 178). Traditionelle Handlungsanleitungen werden zunehmend durch gottähnliche und zugleich undurchschaubare Maschinen ersetzt. »Es handelt sich dabei um keinen simplen Ersatz von institutionalisiertem Gottesglauben und rational reflektierten Entscheidungen, sondern es etablieren sich abgestufte Mischformen.« (Latzer 2021: 16) Das unhinterfragte Vertrauen in Gott wird durch das zukunftseuphorische Vertrauen in Technik im Kontext neuer Datenreligionen ersetzt. Hierbei geht es nicht um die Güte der Prophezeiungen, sondern vielmehr um die Zuschreibung von Bedeutung (Gransche 2015, 2016). An Vorhersagen der Zukunft ist nichts auszusetzen. Was sich allerdings drastisch änderte, sind die Methoden der Zukunftsschau – von der Analyse des Vogelflugs über die Eingeweideschau bis hin zu komplexeren Ansätzen der Mustererkennung durch KI. Die Gemeinsamkeit zwischen diesen auf den ersten Blick sehr unterschiedlichen Ansätzen besteht im sozialen Status und der gesellschaftlichen Geltung derer, die über die (vermeintliche) Fähigkeit verfüg(t)en, die Zukunft zu erkennen. »Inzwischen sehen wir das waltende Prinzip hinter dem Weltgeschehen nicht mehr in Gott, sondern in Mathematik und Statistik«, so Tobias Gantner. »Wir glauben daran, dass wir nur genug Daten brauchen, um herauszufinden, was die Welt im Innersten zusammenhält. Des Pudels Kern zu entdecken – darin besteht die Verheißung der KI.« Die mathematisch-statistischen Verfahren der KI dienen wie selbstverständlich als Ersatz für göttliche Prophezeiungen. Tatsächlich gleichen frühere rituelle Orakel den heutigen Methoden der Mustererkennung: Aufsteigender Rauch, Vogelflug – alles Muster. »Wir wollen weiterhin Risiken minimieren, die die offene, säkulare Zukunft mit sich bringt, dafür brauchen wir Leitplanken, wenn uns die Religion nicht mehr hält. Daten liefern uns möglicherweise diese Leit-

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

planken«, so Gantner. Allerdings bewirkt die neue Form der Musterkennung einen paradoxen Effekt: Die Stärke digitaler Technologien – und damit auch von KI – besteht darin, mit den Mitteln von (selbstlernenden) Algorithmen auf Muster zu reagieren, die immer schon vorliegen. Der Soziologe Armin Nassehi erkennt darin gar die datenförmige Verdopplung der Welt. (Nassehi 2019: 81) Prädiktive Daten ermöglichen Vorhersagen, doch eigentlich werden Daten mit Daten abgeglichen. Das Grundmotiv der Zukunftsschau ist somit ein doppeltes: Angst vor dem Unheil und Lust an der Entdeckung. Weil immer präzisere Hochrechnungen auf einer breiten Datenbasis zu einer neuen Kulturtechnik werden, entsteht zunehmend der Eindruck, dass Futurisierung freiwillig ist und keinen Zwang darstellt.

Der falsche KI-Prophet Verheißungen als orakelhafte Zukunftsschau sind allerdings problematisch, weil mit ihnen eine pejorative (herabsetzende) Implikation verbunden ist. Nichts ist leichter, als zu behaupten, dass eine Prognose falsch ist. In anderen Worten: Verheißungen stammen immer von falschen Propheten. Und die falschen Propheten sind immer die anderen. »Eigentlich liegen die religiösen und die technologischen Verheißungen gar nicht so weit auseinander«, behauptet deshalb der Religionssoziologe Oliver Krüger. »In beiden Fällen geht es um unrealistische Versprechungen.« Dieses narrative Drama zwischen Kritik an Prophezeiungen und komplementärer Selbstimmunisierung gegen genau diese Kritik lässt sich am Beispiel des ›falschen Propheten‹ Nick Boström illustrieren: Als Boström begann, transhumanistische Thesen zu verbreiten, wurden diese kaum ernst genommen. Mit einer subtilen Taktik verhalf er seinem Narrativ zu einer neuen Rahmung. Als er das Future of Humanity-Institute68 gründete, wurden seine Ideen nach und nach akzeptabler. Im Fall von Boström änderte sich die strategische Inszenierung als Rahmung seiner Verheißungsnarrative immer wieder: »In den frühen Selbstbeschreibungen ist noch erkennbar, dass das Ziel darin besteht, transhumanistische Zukunftsideen annehmbarer zu machen. Nach zwei Jahren wurden diese Inhalte gelöscht. Stattdessen positioniert sich das Institut im Feld der Politikberatung und Technikfolgenabschätzung«, erläutert der Experte für transhumanistische Narrative Oliver Krüger. Spätestens mit seinem Weltbestseller Superintelligence warnt Boström (2014) schließlich sehr geschickt 68

https://www.fhi.ox.ac.uk (27.11.2022).

83

84

Stefan Selke: Technik als Trost

vor seinen eigenen Prophezeiungen, denen er aber nie abgeschworen hat: Er warnt vor KI, prognostiziert aber dennoch die Rettung der Welt durch eine Superintelligenz. Im weit verbreiteten TED-Talk What happens when our computers get smarter than we are? (2015)69 bringt es Boström plakativ auf den Punkt: »Sobald es eine Superintelligenz gibt, kann das Schicksal der Menschheit davon abhängen, was die Superintelligenz tut. Denken Sie darüber nach: Maschinenintelligenz ist die letzte Erfindung, die die Menschheit jemals machen muss. Maschinen werden dann besser im Erfinden sein als wir, und sie werden es auf digitalen Zeitskalen tun. [...] Der Punkt ist, wir sollten nicht zuversichtlich sein, dass wir das hier unter Kontrolle haben. [...] Der Punkt hier ist, dass wir nicht darauf vertrauen sollten, dass wir einen superintelligenten Geist für immer in seiner Flasche einsperren können. Früher oder später wird er herauskommen.« In ähnlicher Weise berichtet Sam Harris im Vortrag Can we build AI without losing control over it? (2019)70 von einem beängstigenden Szenario: »Eines der Dinge, die mir bei der Entwicklung von KI derzeit am meisten Sorgen machen, ist, dass wir offenbar nicht in der Lage sind, eine angemessene emotionale Reaktion auf die Gefahren zu entwickeln, die vor uns liegen. [...] Dies wird oft, wie hier, als Angst karikiert, dass uns Armeen von bösartigen Robotern angreifen werden. Aber das ist nicht das wahrscheinlichste Szenario. Es geht nicht darum, dass unsere Maschinen spontan böswillig werden. Die Sorge ist vielmehr, dass wir Maschinen bauen werden, die so viel kompetenter sind als wir, dass die geringste Abweichung zwischen ihren Zielen und unseren eigenen uns zerstören könnte.« Boström rückte nie von seinem technik- und zukunftseuphorischen Imperativ ab. Damit gibt er das perfekte Beispiel für elastische strategische Inszenierungen ab, deren zentrale Verheißung in zwei spiegelbildlichen Narrativen – einen Quest- und einem Dagegen-Narrativ – verbreitet wird. »Es gibt niemanden, der poetischer über die Singularität geschwärmt hat als er. Dennoch wird sein Buch als grundlegendes warnendes Manifest verstanden«, fasst Krüger die Paradoxie zusammen.

69

70

https://www.ted.com/talks/nick_bostrom_what_happens_when_our_computers_ge t_smarter_than_we_are/details?referrer=playlist-talks_on_artificial_intelligen#t-673 45 (04.07.2022). https://www.ted.com/talks/sam_harris_can_we_build_ai_without_losing_control_o ver_it/transcript?referrer=playlist-talks_on_artificial_intelligence (04.07.2022).

2. Anpassungs-Narrative: Operativ-funktionale KI-Verheißungen

2.6 Wettkampfarenen Neben Akzeptanztests, strategischen Inszenierungen und elastischen Zukunftsprognosen finden sich auf der operativ-funktionalen Ebene KI-Verheißungen auch in Form kompetitiver Narrative für geopolitische Wettkampfarenen. Die Entwicklung von KI übt einen starken Handlungsdruck aus. »Jeder will da mitmachen, jeder hat Angst, dass die Chinesen schneller sind als wir«, so Oliver Krüger. »Jeder hat Angst, dass dann der globale Wettlauf zu Ende ist.« Damit rücken geopolitische Übertrumpfungsrituale und kompetitive Narrative in den Mittelpunkt. Sehr deutlich kann dies gegenwärtig an ChatGTP und den Bestrebungen der Chinesen beobachtet werden, eine ähnliche Maschine zu entwickeln. Auch im politischen Feld werden, meist top-down, hoffnungsvolle Erwartungen an KI formuliert. Die ehemalige Bundesforschungsministerin Anja Karliczek drückte es in einem Eckpunktepapier der Bundesregierung 2018 wie folgt aus: »Künstliche Intelligenz hält Einzug in unseren Alltag und wir wollen, dass diese Technik den Menschen hilft. Daher stellen wir den Nutzen für den Menschen in unserem Lande in den Mittelpunkt unserer KI-Strategie. Richtig gestaltet ist KI ein wichtiger Schlüssel für Wachstum und Wohlstand.« In diesem Kontext soll eine KI Made in Germany entstehen, die gleichwohl ein weltweit führendes Niveau repräsentiert. (Bundesregierung 2018a) Diese KI soll einerseits verantwortungsvoll und gemeinwohlorientiert sein, andererseits aber auch das Wertschöpfungspotenzial datenbasierter Geschäftsmodelle nutzen, wobei spezifische Datenbestände zum Wohle von Gesellschaft, Umwelt, Wirtschaft und Staat eingesetzt werden – selbstverständlich sicher, diskriminierungsfrei, ethisch korrekt und durch eine Datenethik-Kommission kontrolliert. Im Kontext dieses Zukunftsbildes wird KI als Treiber in allen Lebensbereichen gesehen. Ein zentraler Leitbegriff hierbei ist die »digitale Souveränität« Deutschlands. Das Eckpunktepapier diente als Grundlage für die KI-Strategie der Bundesregierung für deren Umsetzung bis 2025 rund drei Milliarden Euro Verfügung gestellt werden sollen. (Bundesregierung 2018b) KI wird in diesem Narrativ sehr sachlich und technisch-funktional innerhalb eines Anpassungs-Narrativs beschrieben und das hauptsächlich entlang von Vokabeln wie Standards, Normen, Ordnungsrahmen und Regeln. Die Vision eines progressiven Gesellschaftsentwurfes ist im Rahmen dieser fragmentarischen Erzählung nicht einmal in Ansätzen erkennbar. Trotz erkennbarer Zukunftseuphorie bewegen sich auch die Aussagen des ehrenamtlichen Digitalrats, der sich mit den kulturverändernden Eigenschaf-

85

86

Stefan Selke: Technik als Trost

ten der Digitalisierung im Kontext einer »digitalen Zukunft«71 beschäftigte im semantischen Feld technologischer Komplexitätsreduktion und Problemlösungskompetenz. Eine utopische Positionierung lässt sich auch hier nicht einmal im Ansatz erahnen.72 Kurz: Es handelt es sich die Zukunftsnarrative einer perfekten Bürokratie.

71 72

https://www.haz.de/Nachrichten/Politik/Deutschland-Welt/Ein-Jahr-Digitalrat-DerRegierungsapparat-arbeitet-noch-immer-mit-Briefen-und-Faxen (17.05.2021). Blog des Digitalrats: https://medium.com/digitalrat-deutschland (18.02.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Eine bekannte Aussage des Mathematikers Irving J. Good zielt darauf ab, dass KI die letzte Erfindung ist, die der Mensch noch selbst machen muss. Weniger optimistisch fügte er allerdings hinzu, dass es auch die letzte Erfindung sein wird, die der Mensch noch selbst machen kann. In den Worten des Soziologen Georg Simmel könnte KI die letzte Sachordnung sein, die sich Menschen noch selbst schaffen. Kritiker befürchten, dass der Mensch sich in dieser Sachordnung verfängt.1 Optimisten sehen darin hingegen einen Beitrag zur Befreiung des Menschen aus bisherigen Zwängen. Quest-Erzählungen über KI bewegen sich im Spannungsfeld zwischen latenten Befürchtungen und überbordenden Hoffnungen. Auch deshalb wirken Quest-Narrative auf den ersten Blick exotisch. Sie handeln von der Suche nach einem noch verborgenen oder verlorenen Schatz oder der Suche nach einer perfekten Welt. Während die Digitalisierung meist als Anpassungs-Narrativ erzählt wird, ändert sich das im Kontext von KI erkennbar. »Die Verheißungen von KI werden meist als Quest-Geschichte erzählt«, so Michael Müller. Denn dramaturgisch lässt sich damit aus dem Vollen schöpfen. Im Kern geht es stets um die »Suche nach dem Superlativ, dem absolut Größten und Monumentalen«, so auch die Science-FictionAutorin Theresa Hannig. »Es geht um die Möglichkeit, unsere menschlichen Beschränkungen hinter uns zu lassen.« Quest-Narrative sind antizipierte Normbrüche und hochambitionierte Versprechungen mit einem hohen spekulativen Gehalt. »Das liegt auch daran, dass diejenigen, die KI predigen, die Technik oftmals gar nicht richtig verstanden ha-

1

Vertreter des sog. Corrigibility-Prinzips wiesen allerdings darauf hin, dass sich eine KI auch abstellen und rebooten lässt, wenn Menschen mit deren Funktionsweise nicht mehr einverstanden sind. Kritiker bemängeln, dass diese Fügsamkeit gerade zweifelhaft sei.

88

Stefan Selke: Technik als Trost

ben«, so die Designerin Johanna Tiffe. »Die Marketingabteilungen sind meist meilenweit von der Technik entfernt.« Gerade deshalb können sie das Narrativ der Smartness, des Superwerkzeugs oder der Schlüsseltechnologie bedienen. Das stößt nicht immer auf Gegenliebe. »Smart meint eigentlich nur, dass digitale Technologien eingesetzt werden«, so Verena van Zyl-Butlitta. »Richtiger wäre es, von zweckgebunden, lokal, kontextspezifisch und selbstbestimmt zu sprechen.« Das wären dann konviviale (lebensdienliche) und nicht bloß smarte Technologien.2 Das Quest-Narrativ ist somit von Anfang an mit Täuschung verbunden. »Wo immer die Wörter ›smart‹ oder ›smartness‹ auftauchen, sollte man es als freundliche Metapher für digitale Ausbeutung verstehen.« (Wolff 2020: 78) Auch im Kontext von Quest-Narrativen finden zahlreiche Metaphern Anwendung. So gilt KI z.B. als Zugang zum Schlaraffenland, in dem Wünsche ohne Anstrengung erfüllt werden. Dieses Bild wird verständlicher, wenn etwa vor dem Hintergrund der psychologischen Bedürfnisforschung berücksichtigt wird, dass Verheißungen für menschliche Urbedürfnisse stehen. »Ewig leben, fliegen, Gedanken lesen – das Unerreichbare eben«, so Oliver Gerstheimer. Kurz: Quest-Narrative sind die höchste und kunstvollste Form der Übertreibung. Im Kern geht es bei einer Quest tatsächlich um das Versprechen eines besseren Lebens in »einem Land, in dem Milch und Honig fließt«, so Verena van Zyl-Bulitta. Zudem steht KI metaphorisch für Allmacht und Allwissenheit. »KI wird nicht nur als Lösung angepriesen, sondern als ›Mehr-als-Lösung‹, als Meta-Lösung – darin liegt der Aspekt der Verheißung«, so Susann Kabisch. »KI ist der Baustein, der alles dreht und wendet, die Umkehr des Bestehenden. Ein einfacher Klick bringt die Lösung. Das hat schon einen unheimlichen Appeal.« Auf dieser Basis ist es möglich, sich KI gerade nicht als technisches Ding vorzustellen, sondern vielmehr »in personifizierter Form, z.B. als Gandalf«, so Michael Müller. Zur Erläuterung: Gandalf der Graue ist eine der Hauptfiguren in J.R.R. Tolkiens beliebten Romanreihen Der Hobbit und Der Herr der Ringe, eine Art Halbgott und Zauberer, fähig zu allerlei Kunststücken. Bereits aus der Tatsache, dass sich das erfolgreiche (und höchst umstrittene) KI-Unternehmen Palantir ebenfalls bildsprachlich an diese Fantasiewelt anlehnt, lässt

2

Klassisch dazu Illich (2009). In einer Aktualisierung siehe die Matrix of Convivial Technology von Andrea Vetter (2018) oder Überlegungen zu KI als konvivialer Technologie, etwa: https://andrereichel.de/2019/05/20/artificial-intelligence-convivial-technol ogy/ (16.05.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

sich die praktische Bedeutung metaphorischer Deutungsschablonen ablesen.3 In Tolkiens Herr der Ringe sind Palantíri sehende Steine, die jedoch in den falschen Händen zu gefährlichen Werkzeugen werden, weil sich damit Feinde aufspüren und vernichten lassen. In der Zentrale des kalifornischen KI-Unternehmens in Palo Alto wird dieser Bezug konkret: »Save the Shire«, steht dort groß an den Wänden, »rettet das Auenland«. Diese Aufforderung soll die Mission des Unternehmens verdeutlichen. Sie findet sich zudem auf den blauen T-shirts der Mitarbeiter sowie auf Besucherausweisen – als ein »Aufruf, die Unschuldigen vor dem Bösen in der Welt zu schützen«.4 Nicht alle finden diese Referenzen harmlos oder gar witzig. Als 2011 die Absicht, die Enthüllungsplattform Wikileaks anzugreifen und zu diskreditieren, offengelegt wurde, geriet das Unternehmen erstmals in die Kritik. Unbegründet ist das nicht, denn Palantir ist spezialisiert auf die Analyse großer Datenmengen. Gegründet wurde das Big-Data-Unternehmen im Jahr 2003 von Nathan Gettings, Joe Lonsdale, Stephen Cohen, Alexander Karp und Peter Thiel.5 Bekannt wurde die Firma dann durch die Zusammenarbeit mit Militär und Geheimdiensten. Palantir arbeitet für den US-Grenzschutz sowie das US-Verteidigungsministerium, von dem es 2019 einen Großauftrag in Höhe von 800 Millionen US-Dollar einstreichen konnte. In Deutschland gilt Palantir als eines der am schnellsten wachsenden Unternehmen.6 »Palantir builds the foundational software of tomorrow, and we deliver it today«, so das zentrale Werbeversprechen auf der Website des Unternehmens. Regierungen sollen mithilfe dieser Software dazu befähigt werden, eigenständig komplexe Handlungsmuster und Motive von Kriminellen und deren Umfeld zu erkennen und analysieren. Damit leistet das Unternehmen einer Entwicklung Vorschub, die darin besteht, »eine grundlegende staatliche Aufgabe mithilfe intelligenter Software von privaten Unternehmen erledigen zu lassen« (Wolff 2020: 144f.). Vor diesem Hintergrund kann Palantir als der erste »private digitale Geheimdienst

3 4 5

6

https://www.palantir.com (10.10.2022). https://www.wiwo.de/unternehmen/it/palantir-helden-aus-dem-auenland/19401752 -3.html (08.02.2022). https://www.zeit.de/digital/internet/2020-09/palantir-technologies-daten-analyseboersengang-peter-thiel-alex-karp?utm_referrer=https%3A%2F%2Fwww.google.co m%2F (20.04.2022). https://www.handelsblatt.com/unternehmen/it-medien/us-datenanalysespezialist-e x-bcg-partner-rentmeister-soll-palantir-bei-kontakten-in-die-deutsche-politik-helfe n/24155664.html (31.03.2022).

89

90

Stefan Selke: Technik als Trost

der Welt« betrachtet werden, der Polizeibehörden hilft, mittels KI private Daten von Bürgern auszuspionieren. Strafverfolgung durch private Dienstleister wird damit »hoffähig gemacht.« Palantir arbeitete u.a. mit dem Combating Terrorism Center in West Point7 , Hessens Covid-19-Krisenstab sowie der Polizei zusammen. Seit Ende Mai 2017 verwendet die Polizei Hessens die KI-fähige Software »Gotham« von Palantir. Die Autorin Marie-Luise Wolff bemüht hierbei ebenfalls die Metapher des Spinnennetzes. »All dies geschah und geschieht [...], ohne dass jemand, der in diesem Spinnennetz erscheint, um Erlaubnis nach der Verwendung seiner Daten gefragt wird und auch ohne, dass Dritte die für das Spinnennetz genutzten Daten im Einzelnen überprüfen.« (Ebd.: 148) Verbrechensbekämpfung auf Basis von KI gehört mittlerweile in modernen Polizeistationen der Vereinigten Staaten und auch in mehreren Ländern Europas zum Alltag, ohne dass die Bevölkerung darüber informiert wäre. Was im Hintergrund wirkt, ist ein breit angelegtes Entlastungsversprechen. Aus Sicht der Polizei wird argumentiert, dass es notwendig sein wird, »auf Systeme zurückzugreifen, die die Polizei mit künstlicher Intelligenz unterstützen und ihr einen Teil der Arbeit abnehmen, denn«, so Michael Haug, Bundesvorsitzender der Jungen Polizei in der Deutschen Polizeigewerkschaft, »wir sind momentan fünf bis zehn Jahre hinterher.«8 Bürgerrechte und die Beschädigung der sozialen Reputation durch algorithmische Klassifikationen spielen dabei eine untergeordnete Rolle. Wohl auch deshalb bezeichnet die Informatikerin und Juristin Yvonne Hochstätter KI, die im Humanbereich verwendet wird, als »Risikotechnologie« (Hofstetter 2018). Bücher mit eher reißerischen und zugleich appellativen Titeln wie Sie wissen alles. Wie Big Data in unser Leben eindringt und warum wir unsere Freiheit kämpfen müssen (Hofstetter 2014) oder Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt (Hofstetter 2018) stehen prototypisch für alarmistische Dagegen-Narrative (vgl. dazu später mehr in Kapitel 5).

KI-Nachwirkungsszenarien Die Einordnung von KI erfolgt sehr schnell in attraktiven Schwarz-WeißSchemata. Dabei geht es auch differenzierter: Der Physiker und KI-For-

7 8

https://blog.ted.com/investigating-foreign-fighter-groups-in-syria-a-qa-with-shyam -sankar-and-brian-fishman/ (19.04.2022). https://www.fr.de/politik/hessen-umstrittene-polizei-software-palantir-automatisch -verdaechtig-13454012.html (31.03.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

scher Max Tegmark lässt sich einerseits ohne Umschweife zur Gruppe der KI-Enthusiasten zuordnen. In seinem Buch Leben 3.0. Mensch sein im Zeitalter künstlicher Intelligenz geht er andererseits ausführlich auf Potenziale und Risiken von KI ein. (Tegmark 2017) Er vergleicht Eroberungsszenarien (»KI übernimmt die Macht«), Versklavungsszenarien (»KI dient den Menschen als versklavter Gott«), Umkehrszenarien (»Rückkehr zu einer prätechnologischen Gesellschaft«), Selbstzerstörungsszenarien (»Superintelligenz vernichtet Menschheit«) sowie das Szenario eines egalitären und libertären Utopia (»Menschen führen eine friedliche Ko-Existenz mit kybernetischen Organismen«). Grundlage seines Zukunfts-Portfolios sind Fragen wie diese: Existiert Superintelligenz? Existieren Menschen? Haben Menschen die Kontrolle? Sind Menschen sicher? Sind Menschen glücklich? Existiert Bewusstsein? In der Summe entsteht auf diese Weise eine differenzierte Matrix von »KI-Nachwirkungsszenarien« (ebd.: 245ff.). Als Leiter des (gemeinnützigen) Future of Life Institutes am MIT vertritt Tegmark die Überzeugung, dass die Menschheit in Zukunft immens von starker KI profitieren wird, ohne sich deshalb selbst abzuschaffen. Seinen Standpunkt nennt Tegmark pathetisch eine »kosmische Perspektive« (zit. n. Brockman 2020: 78), bei der es im Kern darum geht, das Universum durch Bewusstsein in ein zur Selbstreflektion fähiges Ökosystem zu verwandeln. Dem KI-Apologeten geht es dabei um die höchste Stufe von Sinnhaftigkeit. »Perhaps artificial superintelligence will enable life to spread throughout the cosmos and flourish for billions or trillions of years, and perhaps this will be because of decisions we make here, on our planet, in our lifetime.« (Ebd.: 79) Tegmark glaubt an das Potenzial vollständiger Intelligenz, weshalb die Idee einer Superintelligenz für ihn nicht Science-Fiction ist, sondern bereits nahe an der Realität. »We’re thus on the slippery slope toward AGI, with strong incentives to keep sliding downward, even though the consequences will by definition be our economic obsolescence. [...] The successful creation of AGI would be the biggest event in human history«, fasst Tegmark zusammen. »Let’s envision an inspiring future and steer towards it. [...] Although Hollywood’s futures tend to be dystopian, the fact is that AGI can help life flourish as never before. [...] Let’s make that destiny a truly inspiring one!« (Ebd.: 83f., 87) Verheißungsvolle KI-Narrative sind auf einer kognitivepistemologischen Ebene tatsächlich inspirierend. Dabei geht es nicht mehr primär um Effizienzsteigerung (wie auf der operativ-funktionalen Ebene), sondern um neue Mystifizierungsaspekte, die KI in die Nähe religiöser Verheißungen rücken. Kurz: Quest-Narrative legen die theologische Substruktur von Technik frei.

91

92

Stefan Selke: Technik als Trost

3.1 Wiederverzauberung Verheißungen sind zwar Übertreibungen, allerdings nur selten pathologische. Vielmehr findet sich diese Art der Übertreibung schon immer in Wissenschaft und Forschung. Kein Geringerer als der Philosoph Friedrich Nietzsche gab in seinem Buch Fröhliche Wissenschaft zu bedenken, dass auch die klassischen Naturwissenschaften wie Physik, Chemie oder Biologie nicht »entstanden und groß geworden wären, wenn ihnen nicht die Zauberer, Alchimisten, Astrologen und Hexen vorangelaufen wären.« Deren Leistung liege darin, so Nietzsche, dass die Vorläufer moderner Wissenschaft »mit ihren Verheißungen und Vorspiegelungen erst Durst, Hunger und Wohlgeschmack an verborgenen Mächten« hervorriefen (zit. n. Priesner et al. 1998: 115). In der zeitgenössischen Debatte um KI zeigt sich die von Nietzsche beschriebene Sehnsucht nach Neuem in der Form von Zukunftseuphorie. Die für neue Technologien empfundene Begeisterung lässt sich aber im Umkehrschluss auch als eine alternative Ausdrucksmöglichkeit für »die Sehnsucht nach der magischen, der mythischen Welt« beschreiben. (Faulstich 2000: 171) In vielen KI-affinen Praxisfeldern wird dies offensichtlich: Obwohl der Kommunikationsstil der Tech-Community eigentlich rationalitätsanhängig ist, weist er gleichzeitig Bezüge zur Esoterik im Stil der Post-New-Age-Bewegung auf. In den beiden Bestseller-Romanen Circle und Every von Dave Eggers, die beide (fast schon ethnopoetisch bzw. ethnografisch) ein fiktionales Mega-Unternehmen im Silicon Valley ausleuchten, wird dies beispielhaft in teils skurril anmutenden Handlungssträngen und Dialogen verdeutlicht.

Abgemilderte Heilsversprechen KI-Verheißungen sind stets ambivalent. Sie eignen sich zur Glorifizierung technologischer Komponenten der Moderne und gleichzeitig zur Wiederverzauberung der Welt. »Uns wird das Paradies verhießen«, so auch der Narrationsforscher Michael Müller. »Oder jedenfalls eine ganz große Zukunftsgeschichte, die mittels des Begriffs »Verheißung« operiert. Da sollen die großen Menschheitsprobleme gelöst werden.« Damit kehrt sich ein bekannter Prozess um. Wollte der Soziologe Max Weber noch beobachtet haben, wie sich im Zuge der Verwissenschaftlichung moderner Gesellschaften der

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Glaube zurückzog – was er plakativ als »Entzauberung«9 bezeichnete – so steigt inzwischen der Orientierungsbedarf in Form abgemilderter Heilsversprechen. Für diese »Wiederverzauberung« bietet KI faszinierende Projektionsflächen. »Und dieser Zauber hat durchaus etwas Funktionales«, ergänzt der Informatiker Karsten Wendland. Denn der Wunsch nach Wiederverzauberung ist die Neuaufführung eines Rituals, das Menschen schon immer leidenschaftlich praktizierten. Mit der Wiederverzauberung geht zudem ein Beruhigungs- oder Placebo-Effekt einher. Die damit einhergehende Paradoxie besteht gleichwohl in der Gleichzeitigkeit zweier Perspektiven. Auf der einen Seite das bereits angesprochene Delirium der Rationalität und damit die totale Entmystifizierung von Lebensprozessen durch KI, z.B. in der Form statistischer Mustererkennung in Datensammlungen. Auf der anderen Seite die neue Sehnsucht nach Wiederverzauberung, die ebenfalls Teil der KI-Inszenierung darstellt. »Diese Sehnsucht ist ein Einfallstor für alle möglichen Themen. KI bietet hier wunderbare Möglichkeiten der Balance zwischen Extremen. Vor allem dann, wenn es in Form von Science-Fiktion-Erzählungen daherkommt«, so Karsten Wendland. »Gerade auch rational denkende Menschen können sich von Verheißung zu KI verzaubern lassen.« Bei Laien wiederum ist das Gefühl der Wiederverzauberung eine direkte Folge des Staunens darüber, KI nicht wirklich (auch im Wortsinn) ›begreifen‹ zu können. KI erscheint als Technologie, die dazu gemacht scheint, als ›Wunder‹ wahrgenommen zu werden. Menschen wirft das potenziell auf die Sphäre des Glaubens zurück. Der mit KI verbundene Zaubereffekt verheißt Bedeutsames für die Zukunft, das von einer Aura umgeben ist und sich dadurch vom Alltäglichen oder Trivialen abgrenzt. »Dies drückt sich metaphorisch im Bild des Altars und im Aspekt der Anbetung aus«, so Marie-Luise Wolff. »Denn was immer auf dem Altar liegt, wird angebetet und automatisch positiv überhöht.« Auch im Roman Die Tyrannei des Schmetterlings spricht einer der KI-Apologeten in genau diesem Sinne vom »Altar völliger Erneuerung« (Schätzing 2018: 289). Hinter diesen Anbetungsformen verbirgt sich eine (vermeintlich) magische Kraft, die

9

Eine ausführliche und differenzierte Kritik an Webers prominenten Entzauberungsbegriff stammt von Hans Joas, der das »wohl einflussreichste Narrativ der Religionsgeschichte« für problematisch hält und dessen Suggestivkraft anprangert. »Die Alternative zur Geschichte der Entzauberung kann deshalb auch nicht in deren einfacher Umkehrung bestehen, wie die Rede von der ›Verzauberung‹ oder ›Wiederverzauberung‹ der Welt insuiert.« Stattdessen gelte es zu zeigen, dass die Geschichte der Menschheit immer neue Sakralisierungen hervorbringt. (Joas 2017: 445)

93

94

Stefan Selke: Technik als Trost

aus der Götterverehrung bekannt ist. Allerdings kommt mit der Digitalisierung eine Art ›Zaubereffekt‹ hinzu. »Uns wurde versprochen, dass sich fast alles verbessern lässt – fast wie von selbst. Wie wir wissen, stimmt das nicht immer. Wir wurden also enttäuscht«, kritisiert Wolff. »Dennoch steckt genau dieses magische Versprechen in KI.« Selbst Kritiker greifen auf die Metapher der Zauberei zurück. »Während es in der Kirche Gerüche, Geräusche und Gesänge sind, die den geheimnisvollen Hokuspokus ausmachen, ist es bei KI der geheimnisvolle Algorithmus«, so Verena van Zyl-Bulitta. »Die Mathematik dahinter begreift nur eine Handvoll Menschen. Gleichzeitig betrifft sie uns alle.« Die euphorische Verheißung füllt mithin eine Lücke in säkularisierten Gesellschaften, in denen Magie so gut wie verschwunden ist, der Anbetungswunsch aber weiterhin Bestand hat. Jenseits aller Rationalität ist es nach wie vor attraktiv, an magische Kräfte oder Phänomene zu glauben.10 Quest-Narrative sind meist randvoll von Techno-Esoterik und verheißungsvollen Versprechen. Aber anders als bei ›echter‹ Magie oder sogar bei der Metaphysik müssen sich die Versprechen der KI-Euphoriker eines Tages zumindest in ökonomischen Kontexten erfüllen. Im Zusammenhang mit diesem Verbindlichkeitszwang sind auch die Jahresangaben bei Prognosen über Superintelligenz zu sehen, die laufend korrigiert werden und fast schon ein eigenes Narrativ bilden (z.B. Tegmark in Brockman 2020: 80). Somit ist die Möglichkeit der Entzauberung immer auch Bestandteil aller KI-Verheißungen. »Vor allem das Entzaubern im moralischen Sinne wie bei den sozialen Medien, die ihr demokratisches Versprechen nicht halten«, so Wolff. Verheißungen setzen erstens Erwartungsspiralen in Gang. Die Anbieter und Apologeten von KI müssen sich zweitens bemühen, Immunisierungsstrategien gegen das Eintreten eines Entzauberungseffekts zu etablieren. Damit ähneln Verheißungen strukturell Esoterik.

Beseeltheit von Technik als magischer Realismus An KI gibt es einige Aspekte, an denen sich der magische Zaubereffekt besonders einprägsam demonstrieren lässt. Gerade die Zuschreibung von Beseeltheit intelligenter Maschinen ist Ausdruck einer Wiederverzauberung der Welt im Gewand des technologischen Animismus. Wird Objekten vermeintlich Leben ›eingehaucht‹, so verleiht ihnen das Andersartigkeit. Technische Objekte zu 10

Dahinter mag auch der Wunsch stecken, »Großes hinter Großem« zu sehen – ein Phänomen, das Verhaltensforscher Proportionality Bias nennen.

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

verzaubern, bedeutet, eine Möglichkeit zu schaffen, sie aus ihren instrumentellen Abläufen herauszuheben, und einen magischen Realismus zu installieren, der über eine ausschließlich menschliche Realität hinausweist. (Bogalheiro 2021) Der tiefere Grund für die Wiederverzauberung der Welt liegt meist in der Verheißung eines eigenständigen Bewusstseins von KI. Der Professor für Computerwissenschaften David Gelernter verdeutlicht in seinem Buch Gezeiten des Geistes warum gerade dieses Forschungsfeld so attraktiv ist. »Die Computertheorie des Geistes behauptet, Rechnen sei das Wesen des Geistes: Danach ist das Gehirn eine Art organischer Computer und der Geist gleicht der Software, die auf diesem Computer läuft.« (Gelernter 2016: 16) Den Zauber des Bewusstseins zu entschlüsseln und damit KI besser zu verstehen, ist jedoch voraussetzungsreich und bietet gerade deshalb Anknüpfungspunkte für zahlreiche disziplinäre Narrative, von denen Gelernter zwei benennt: »Die Verwischung der Grenzen zwischen Informatik und Philosophie des Geistes macht vollkommen Sinn.« Wissenschaftler, so behauptet Gelernter, der selbst disziplinärer Grenzgänger ist, »erklären [...], sie würden diese Form der fachübergreifenden Befruchtung lieben.« Schon weniger optimistisch fügt er hin: »In Wirklichkeit hassen sie sie.« (Ebd.) Es macht daher Sinn, den ›Zauber des Bewusstseins‹ ein wenig näher zu betrachten: Die Theory of Mind unterstellt, dass Menschen im Alltag fähig sind, einem Gegenüber Geist zu unterstellen. Darunter wird die Fähigkeit zur Mentalisierung verstanden, also die Fähigkeit, anderen Menschen ein unabhängiges Bewusstsein zuzuschreiben. (Förstl 2012: 3ff.) Diese Zuschreibung betrifft selbst nicht-menschliche Entitäten wie Autos oder Computer. Gerade aufgrund der Intransparenz von KI wird schnell Mentalität oder gar Intention unterstellt. Gleichwohl sind mit dieser Annahme zahlreiche Probleme verbunden.11 »Zwei Menschen können noch nicht mal wechselseitig überprüfen, ob sie bewusst sind. Und bei Maschinen können wir das schon gar nicht überprüfen«, so Karsten Wendland, der sich im Rahmen eines Forschungsprojekts

11

Das erste Problem des Bewusstseins (»Hard Problem of Consciousness«) besteht in der ungeklärten Frage, warum menschliche Bewusstseinsfunktionen eigentlich Inhalte haben. Menschen sind dazu in der Lage, die Bewusstseinsfunktion mit Inhalten zu füllen und sie sich dann auch noch selbst zuzuschreiben. Das zweite Problem des Bewusstseins besteht darin, dass Menschen von außen nicht überprüfen können, was sich ein bewusstes Wesen zuschreibt.

95

96

Stefan Selke: Technik als Trost

mit dem Bewusstsein von KI beschäftigte.12 »Aber gerade hierin liegt die Verankerung des Zaubers aller KI-Verheißungen.« Aufgrund von Sozialisationserfahrungen verlassen sich Menschen darauf, dass ein menschliches Gegenüber ebenfalls mit Bewusstsein ausgestattet ist. Letztlich ist das jedoch nur eine soziale Konvention. Die Unterstellung von Bewusstsein ermöglicht die zwischenmenschliche Koordination von Handlung. Leider entziehen sich jedoch Bewusstsein und Bewusstseinsinhalte direkter Beurteilung. »Damit bleibt die Beweisbarkeit von Bewusstsein offen«, so Wendland im Hinblick auf eine ›starke KI‹, die möglicherweise eines Tages Bewusstsein erlangen könnte. Jedenfalls dann, wenn man den KI-Predigern Glauben schenkt. Aber um was geht es bei dem ganzen Zauber eigentlich? Bewusstsein oder Rechenleistung? Genau an dieser Frage scheiden sich die Geister. Im Thriller Die Tyrannei des Schmetterlings spekuliert einer der Protagonisten, ein KI-Experte, überraschenderweise in eine andere Richtung: »Computer brauchen nicht zwingend ein Bewusstsein, um universell denken zu können, aber ein lückenloses Bild der tatsächlichen Welt, und zwar eins, dass sie sich selbst verschaffen.« (Schätzing 2018: 185) Das wäre dann ein recht plumpes Plädoyer für mehr Rechenleistung. Doch der Zauber scheint zu funktionieren: In Gestalt von Avataren, Robotern oder Maschinenwesen kehrt das alchimistische Wirkprinzip zurück. Die Leitformel digitaler Alchemie erweist sich als Triumph des neoliberalen Denkens, weil aus den Daten normierende Standards und marktkonforme Verhaltensweisen resultieren (Stark 2014: 2016). Romane wie Circle, Every (Dave Eggers, USA) oder Die Optimierer und Die Unvollkommenen (Theresa Hannig, Deutschland) zeigen, was passieren könnte, wenn die Welt weiterhin in einen abstrakten Zahlenraum verwandelt wird. Ganz nebenbei zeigen fiktionale Plots, wie irrational das Streben nach totaler Rationalität sein kann. Auch die Ausstellung AI: More Than Humans im Barbican Centre (London, 2019) enthüllte in jedem Ausstellungsraum »neue Wunder, die alle irgendwie mit der weiten KI-Definition der Kuratoren in Verbindung standen« (Lee/Chen 2021: 19). In ihrem Begleitkatalog machen die Kuratoren deutlich, dass KI einerseits menschliches Leben umfassend umstrukturieren wird. »AI: More than Human surveys this shifting landscape, making the case that the concept of AI is in fact not new, but for centuries and across cultures there has been a desire to artificially create intelligent life«, so Neil McConnon, 12

BMBF-Projekt Abklärung des Verdachts aufsteigenden Bewusstseins in der Künstlichen Intelligenz (KI-Bewusstsein) vgl.: https://www.ki-bewusstsein.de (10.10.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

einer der Ausstellungsmacher. »AI distorts the grounding coordinates in our lives.« (Barbican 2019: 10ff.) Um zu diesem Ergebnis zu gelangen, müssen zunächst die Traditionslinien der Alchemie künstlichen Lebens rekonstruiert werden. »People have always been intrigued by the artificial creation of living beings, whether through magic, science, religion or illusion.« (Ebd.: 23) Neben der Darstellung vielfältiger Beispiele – aufgezeigt u.a. an der Legende vom Golem oder dem Frankenstein-Mythos – geht es den Ausstellungsmachern aber auch um Demut. Was passiert eigentlich, wenn Menschen aufhören, sich als Mittelpunkt der Welt zu betrachten? KI nimmt viele neue Rollen ein – »as creator, as dictator, as mediator of new realities and forms of life«, so die Co-Kuratorin Susanne Livingston. »AI gives us the opportunity to look at ourselves through a different lens. It might be time to position ourselves within a much bigger picture – to recognize our role in creating technology, to neither be fully in control of it or to be controlled by it. AI reminds us that the world never was and never will be simply human-centred. There are so many other processes on which we depend, and by which we are shaped. [...] We have influence, but we don’t have control.« (Ebd.: 15) Szenenwechsel: Vom Museum zurück ins Theater. Eindrücklich zeigt das Theaterstück Ersatz (2021, Frankreich, Inszenierung: Julien Mellano), dass der alchemistische Zaubereffekt auch Gruseleffekte auslösen kann. Das Theaterstück kommt ohne Worte aus, zeigt jedoch deutlich, wie digitale Technologien zu Versklavungswerkzeugen mutieren können – und wie das dennoch als verheißungsvolle Version der Zukunft dargestellt werden kann. Ohne Mimik und ohne Worte sitzt eine einzelne Person vor einem Leuchttisch auf der Bühne. Wer oder was wird hier dargestellt? Ist es eine Hybridfigur zwischen Mensch und Maschine, ein Android oder ein künstlicher Mensch? Für die Zuschauenden im Saal bleibt das unklar. Jedenfalls ein »Wesen zwischen Maschine und Menschlichkeit«, so ein Kritiker, »und das wirft die Frage der Transhumanität auf und ob mehr Technologie im menschlichen Körper tatsächlich erstrebenswert ist.«13 Jedenfalls taucht die menschenähnliche Figur auf der Bühne in die virtuelle Realität ein und stiehlt dort mehrere Objekte. »Das Absurde und das Wunder begegnen und vereinen sich an einem dunklen Ort, um sich dem Fluchtpunkt unserer Menschheit anzuschließen, ob sie nun real, virtuell oder erweitert sein mag« – so die Ankündigung des Stücks. »KI ist sicherlich ein Versprechen mit erfreulichen Aussichten. Sie ist ein unverzichtbarer 13

https://www.sr.de/sr/sr2/themen/kultur/20210731_ersatz_im_theater_ueberzwerg_p erspectives_100.html (27.01.2022).

97

98

Stefan Selke: Technik als Trost

Verbündeter, ein Wunderwerkzeug!«, so der Regisseur Julien Mellano im Gespräch. »Aber die Geschichte zeigt uns auch, dass Wundererfindungen zum Schlimmsten fähig sind.« Es zeigt sich, dass der Verheißungsbegriff an den Wunderbegriff gekoppelt ist. Vielleicht sogar gekoppelt sein muss. Die Kopplung der beiden Begriffe ist im Wortsinn ›merkwürdig‹. »Wunder lassen sich niemals konstruieren«, so der Mönch Thomas Quartier. Im Gegenteil: Hier hilft ein Rückgriff auf den Philosophen Martin Buber, der behauptete, dass Menschen auf eine außerhalb ihrer Möglichkeiten befindliche Realität ansprechen und sich dieser in einer spirituellen Wechselwirkung zuwenden können. »Das ist nichts, was sich so einfach nachahmen ließe.«

3.2 Subjektsimulationen Ein prominentes Fallbeispiel für die Kopplung von Verheißung und Wunder sind Roboter. Sie stehen fast synonym für die zunehmende Automatisierung der Gesellschaft. Eine der damit verbundenen Zukunftshoffnungen besteht darin, dass Maschinen als technische Helfer Produktivitätsverluste ausgleichen. Die Anwendungsbereiche von autonomen Robotern sind hierbei vielfältig: von Katastrophenschutz bis zu Pflegeeinrichtungen. (Kehl/ Coenen 2016) Gesellt sich zu roboterhaften Funktionen auch noch interaktive Sprachfähigkeit, steigert sich das Funktionelle der Maschine gleichsam ins Wundersame. Sprachfähigkeit erleichtert nicht nur die Interaktion zwischen Menschen und Maschine, sie ermöglicht auch eine enorme Ausweitung der Anwendungsfelder von KI und führt auf diese Weise zu weiteren Verheißungen. »Auf dieser Basis kann KI etwa juristische oder medizinische Texte auswerten. Und immer bessere Übersetzungsprogramme könnten uns darin unterstützen, »über Sprachbarrieren hinweg zu kommunizieren«, erhofft sich der Theaterintendant Christian Tombeil. Damit treten nach und nach neue Rollenmodelle jenseits von Werkzeug und Assistenz in Zukunftsnarrativen über KI auf. KI wird zunehmend als sozialer Partner angesehen. »Am spannendsten ist wohl die Frage nach der Koexistenz mit KI und damit der Koevolution von Menschen und Maschinen«, so die Autorin Theresa Hannig. »Die Evolution hat uns geschaffen, ohne dass da jemand mit Absicht herumgeschraubt hätte. Genauso absichtslos wird eine starke KI entstehen. Und dann müssen wir uns möglichst frühzeitig überlegen, wie wir mit so einem Wesen umgehen. Und ob wir diesem einen menschenähnlichen Status zusprechen.«

98

Stefan Selke: Technik als Trost

Verbündeter, ein Wunderwerkzeug!«, so der Regisseur Julien Mellano im Gespräch. »Aber die Geschichte zeigt uns auch, dass Wundererfindungen zum Schlimmsten fähig sind.« Es zeigt sich, dass der Verheißungsbegriff an den Wunderbegriff gekoppelt ist. Vielleicht sogar gekoppelt sein muss. Die Kopplung der beiden Begriffe ist im Wortsinn ›merkwürdig‹. »Wunder lassen sich niemals konstruieren«, so der Mönch Thomas Quartier. Im Gegenteil: Hier hilft ein Rückgriff auf den Philosophen Martin Buber, der behauptete, dass Menschen auf eine außerhalb ihrer Möglichkeiten befindliche Realität ansprechen und sich dieser in einer spirituellen Wechselwirkung zuwenden können. »Das ist nichts, was sich so einfach nachahmen ließe.«

3.2 Subjektsimulationen Ein prominentes Fallbeispiel für die Kopplung von Verheißung und Wunder sind Roboter. Sie stehen fast synonym für die zunehmende Automatisierung der Gesellschaft. Eine der damit verbundenen Zukunftshoffnungen besteht darin, dass Maschinen als technische Helfer Produktivitätsverluste ausgleichen. Die Anwendungsbereiche von autonomen Robotern sind hierbei vielfältig: von Katastrophenschutz bis zu Pflegeeinrichtungen. (Kehl/ Coenen 2016) Gesellt sich zu roboterhaften Funktionen auch noch interaktive Sprachfähigkeit, steigert sich das Funktionelle der Maschine gleichsam ins Wundersame. Sprachfähigkeit erleichtert nicht nur die Interaktion zwischen Menschen und Maschine, sie ermöglicht auch eine enorme Ausweitung der Anwendungsfelder von KI und führt auf diese Weise zu weiteren Verheißungen. »Auf dieser Basis kann KI etwa juristische oder medizinische Texte auswerten. Und immer bessere Übersetzungsprogramme könnten uns darin unterstützen, »über Sprachbarrieren hinweg zu kommunizieren«, erhofft sich der Theaterintendant Christian Tombeil. Damit treten nach und nach neue Rollenmodelle jenseits von Werkzeug und Assistenz in Zukunftsnarrativen über KI auf. KI wird zunehmend als sozialer Partner angesehen. »Am spannendsten ist wohl die Frage nach der Koexistenz mit KI und damit der Koevolution von Menschen und Maschinen«, so die Autorin Theresa Hannig. »Die Evolution hat uns geschaffen, ohne dass da jemand mit Absicht herumgeschraubt hätte. Genauso absichtslos wird eine starke KI entstehen. Und dann müssen wir uns möglichst frühzeitig überlegen, wie wir mit so einem Wesen umgehen. Und ob wir diesem einen menschenähnlichen Status zusprechen.«

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Soweit die Fiktion. Das Fallbeispiel Sophia ist hingegen ein zeitgenössischer Akzeptanztest für KI, die wie ein Wesen wirkt. Gegenwärtig entsteht im Nordwesten Saudi-Arabiens die futuristische Planwelt Neom (ausführlich vgl. Selke 2022). Dort will Prinz Mohammed bin Salman bin Abdulaziz Al Saud einen visionären Ort und eine kosmopolitische Gemeinschaft (fast) aus dem Nichts schaffen. Neom ist ein großangelegtes Modell für eine neue Zukunft und ein Beitrag zur Weiterentwicklung der menschlichen Zivilisation in Form eines offenen Reallabors. Dieses futuristische Großprojekt ist somit ein passendes Beispiel für eine zeitgenössische High-Tech-Utopie, deren Ideen allesamt aus dem Zukunftsplan Saudi Arabia’s Vision 2030 stammen.14 In besonders öden Arbeitsbereichen sollen Roboter massenhaft zum Einsatz kommen. Das ist einer der Gründe dafür, warum Saudi-Arabien Robotern einen eigenen Rechtstatus verlieh. Sinnbild für diese Entwicklung ist Sophia, der erste Roboter der Welt, der am 25. Oktober 2017 die saudi-arabische Staatsbürgerschaft erhielt. Der in Hong Kong entwickelte Roboter redet und lächelt (fast) wie ein Mensch. Auf einer Pressekonferenz bedankte sich Sophia artig, wenngleich ein wenig steif, die Bewegungen wirkten vorprogrammiert:15 »Es ist historisch, der erste Roboter der Welt zu sein, der eine Staatsbürgerschaft verliehen bekommt.«16 (Parvianen/Coeckelbergh 2021) Die politische Choreografie der Welttournee von Sophia diente auch der Förderung des Marktes für soziale Roboter. Auf diese Weise ließ sich die Debatte über den moralischen und rechtlichen Status von Robotern für wirtschaftliche Zwecke nutzen. Es dauerte allerdings nicht lange, bis erste Paradoxien offensichtlich wurden und Kritik aufflammte. Moniert wurde (unter anderem), dass Sophia zwar über Rechte verfügt, nicht aber die Frauen in Saudi-Arabien. Sophia spricht Englisch und verzichtet auf das übliche Kopftuch und die Abaya (traditioneller Umhang). Zudem hat Sophia keinen männlichen Vormund. Der Status des Roboters wurde mit ausländischen Arbeitern verglichen, die das saudische 14 15

16

http://Neomsaudicity.net/wp-content/uploads/2017/11/Neom_press_release_English _2017.10.24.pdf (28.12.2020). Das Gesicht des humanoiden Roboters soll nach Angaben der Entwicklern Audrey Hepburn nachempfunden sein. Allerdings besteht Sophias Hinterkopf aus einer transparenten Schädeldecke, was den Blick auf Kabel und Chips zulässt. Einprogrammiert sind 62 menschliche Mimikformen, mit Kameras in den Augen beobachtet Sophia die Gegenüber und kann Menschen wiedererkennen. Doch der Schein trügt: Experten halten ihre Intelligenz vergleichbar mit den Fähigkeiten einer sprechenden Waschmaschine. (Parvianen/Coeckelbergh 2021) https://www.youtube.com/watch?v=sKrV2CVDXjo (01.05.2021).

99

100

Stefan Selke: Technik als Trost

Recht stark einschränkt. Unklar bleibt auch, ob Sophia Steuern zahlen muss oder ob sie an Kommunalwahlen teilnehmen darf. Jenseits dieser (teils pikanten) Detailfragen geht es darum, wie in Zukunft mit dem sozialen und politischen Status humanoider Roboter umgegangen werden soll. Hierzu wird seit 2017 auch in der EU über die Möglichkeit einer ›elektronischen Person‹ diskutiert. Im Mittelpunkt stehen Haftungsfragen, die in der Zukunft wohl noch an Relevanz gewinnen werden. Die von der EU vorgebrachten Vorschläge betreffen Maschinen, die durch KI und ihrer physischen Bewegungsfreiheit sehr autonom agieren und autonome Entscheidungen treffen. Für Gesetzgeber wird es immer notwendiger werden, »sich mit den rechtlichen und ethischen Implikationen und Folgen dieser Entwicklung zu befassen, ohne Innovationen abzuwürgen« (Delvaux 2017). Der Rechtsausschuss der EU forderte daher Regeln für den Bereich der Robotik, um ethische Standards sowie die Haftung für Unfälle, insbesondere bei autonomen Autos, praktisch handhabbar zu machen. Weitere Motive sind die Ausschöpfung des wirtschaftlichen Potenzials von KI und Robotik, ein einheitliches Sicherheitsniveau und eine Vorreiterrolle bei der Festlegung von Standards. Gefordert wurde auch die Einrichtung einer neuen europäischen Agentur für Robotik sowie ein ethischer Verhaltenskodex (z.B. ›Kill‹-Schalter, um Roboter in Notfällen auszuschalten). Eine Charta der Robotik thematisiert zudem Spannungen und Risiken im Zusammenhang mit KI-gestützten Robotern: Sicherheit, Privatsphäre, Unversehrtheit, Würde, Autonomie sowie Dateneigentum des Menschen. Daher sollten sich Forscher auf dem Gebiet der Robotik zu höchsten ethischen und professionellen Verhalten verpflichten, Roboter also im besten Interesse der Menschen handeln, Schadensvermeidung betreiben, Autonomie gewährleisten und Gerechtigkeit bei der Verteilung der Nutzen walten lassen.17 Robotern den Rechtsstatus einer elektronischen Person zuzuweisen, ist unter dem Strich gleichbedeutend mit der Forderung nach einem Versicherungssystem bzw. Haftungsregeln für autonome Roboter, um so Verantwortungen in Schadensfällen zu klären. Gleichzeitig sind damit weitere Forderungen und Erwartungen verbunden. Besitzen Roboter Rechte und Pflichten, könnten diese über Arbeitslohn finanzielle Reserven aufbauen, Steuern zahlen und damit einen relevanten Beitrag zur Aufrechterhaltung der Sozialsysteme in einer Gesellschaft leisten, in der immer mehr Tätigkeiten durch Maschinen übernommen werden. Bill Gates fordert sogar, dass überall dort, wo ein Roboter dieselbe Arbeit ausübt, die sonst ein Mensch erledigen 17

https://www.it-business.de/roboter-als-rechtsperson-a-584846/ (10.10.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

würde, der Roboter mit gleichem Niveau besteuert werden sollte, damit der Staat und damit die Gesellschaft die Einkommenssteuer als Einnahmequelle beibehält. Auch dieses Narrativ klingt auf den ersten Blick verheißungsvoll. Allerdings fordert es auch Kritik heraus. In einem offenen Brief forderten Experten unterschiedlicher Branchen (KI, Robotik, Rechts, Medizin, Ethik) das Überdenken der EU weiten Regeln für Robotik und KI, weil der Forderung eine grundlegend verzerrte Wahrnehmung über die Verheißungen von KI zugrunde liegen würde. Ein möglicher eigener Rechtsstatus für Roboter ist somit ein gutes Beispiel für den schleichenden Wandel sozialer Konventionen, die sich in vielen gesellschaftlichen Bereichen handlungsleitend auswirken werden. Zwar ist die Einführung von Regeln grundsätzlich sachdienlich. Dennoch glauben viele Experten, dass die wirtschaftlichen, rechtlichen sowie gesellschaftlichen und ethischen Auswirkungen von KI und Robotik besser ohne Eile und Voreingenommenheit betrachtet werden sollten. Diese Skepsis ist typisch: Zunächst sollte der Nutzen von KI und Robotik für die gesamte Menschheit fundiert dargelegt werden. Vielen der KI-Verheißungen fehlt aber bislang genau dieses empirische Fundament. Die Gleichsetzung eines Roboters mit einer elektronischen Person regelt zudem nicht nur Haftungsfragen. Vielmehr geht damit aus primär technischer Perspektive eine verheißungsvolle Sichtweise auf Robotern einher und damit eine spekulative Überbewertung tatsächlicher Fähigkeiten sowie ein oberflächliches Verständnis von KI, dass durch Science-Fiction und Sensationsmeldungen deformiert ist. Aus ethischer und rechtlicher Sicht scheint die Schaffung einer Rechtspersönlichkeit für Roboter unangemessen und möglicherweise auch zu weitreichend. Müssten Robotern dann nicht auch Menschenrechte, wie das Recht auf Würde, das Recht auf Entlohnung oder das Recht auf Staatsbürgerschaft eingeräumt werden? Das Beispiel Sophia suggeriert genau dies. Letzendlich wird eine grundlegende Revision gefordert: »The European Union must create an actionable framework for innovative and reliable AI and Robotics to spur even greater benefits for the European peoples and its common market.«18 Die zugrundeliegende Skepsis ist nicht völlig unbegründet. Würden intelligente Maschinen natürlichen Personen gleichgestellt, könnte im Umkehrschluss das Konzept der Menschenrechte oder der freien Meinungsäußerung 18

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelli gence sowie https://www.europarl.europa.eu/news/de/headlines/society/20201015S TO89417/ki-regeln-wofur-das-europaische-parlament-eintritt (07.07.2022).

101

102

Stefan Selke: Technik als Trost

aufgeweicht werden. Ausgangspunkt für weiterreichende Überlegungen ist die unverkennbar entgrenzte Wechselwirkung zwischen Menschen und intelligenten Maschinen. »Humans have achieved unprecedented mastery over computerized services and products that ›speak‹ in different ways, even as new forms of communicative technology seem to have gained considerable dominion over us.« (Massaro/Norton 2018) Roboter funktionieren zunehmend selbstgesteuert und körperlich in einer Weise, die es schwierig machen wird, deren maschinelle Kommunikation von der menschlichen zu unterscheiden. Dies wirft die Frage auf, ob Äußerungen von KI durch das Gesetz der freien Meinungsäußerung abgedeckt sind, wenn es keinen lokalisierbaren und rechenschaftspflichtigen menschlichen Schöpfer mehr gibt. (Ebd.)19 Noch ist eine KI, die selbstständig denken kann, eher hypothetisch. Sophia ist damit nicht nur ein Aushängeschild für das Megaprojekt Neom, sondern zugleich Sinnbild eines ethischen Dilemmas, das früher oder später einer Klärung bedarf.

Das Bewusstsein subjektsimulierender Maschinen Viele der tatsächlichen (oder angenommenen) technischen Fähigkeiten von KI kulminieren in der Verheißung eines künstlichen Bewusstseins. Die sprachliche (sowie parasprachliche) Interaktionsfähigkeit bildet hierbei den Kern spekulativer Narrative, die KI (und insbesondere Roboter) als subjektsimulierende Maschinen in den Blick nehmen. Während in den 1990er-Jahren Computerspiele und virtuelle Realitäten das ›nächste große Ding‹ waren – und dank des Metaversums gerade wieder werden – fragen Quest-Narrative nach den Möglichkeiten des zukünftigen Zusammenlebens mit Robotern. Vor diesem Hintergrund sollte uns »bewusster sein, dass und wie wir mit KI interagieren«, so der Ethiker Christian Bauer. »Roboter sind epistemologisch interessant«, findet auch der Theologe Christopher Scholtz. »Sie fordern einen Erkenntnisweg heraus, bei dem sich Virtualität mit Materialität verbindet und 19

Zur Sensibilisierung für die Problematik spielten Juristen ein Gedankenexperiment durch, bei dem ein Roboter mit starker KI eine Verfassungsklage wegen Beschränkung seiner Meinungsfreiheit vor dem Supreme Court der Vereinigten Staaten anstrebt. In ihrem Gedankenexperiment schlussfolgern die Juristen, dass KI-Systeme durchaus das Recht auf freie Meinungsäußerung haben können, unabhängig vom Rechtsträger. Es wird eine heikle Aufgabe werden, darauf zu achten, den Informationswert starker KI-Sprache zu schützen und gleichzeitig die Macht dieser künstlichen Agenten im Auge zu behalten, sobald sie freie Meinungsäußerung besitzen. (Massaro/Norton 2018)

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

das Ergebnis so etwas wie ein Körper ist. Wenn die Subjektsimulation dazukommt, entsteht so etwas wie eine von außen wahrgenommene Leiblichkeit.« In seinem Buch Alltag mit künstlichen Wesen: Theologische Implikationen eines Lebens mit subjektsimulierenden Maschinen beschreibt Scholtz ausführlich die damit verbundenen Verheißungen, sehr differenziert aber auch Pathologien. (Scholtz 2008) Denn ein solches Bewusstsein bei Robotern hätte erhebliche Konsequenzen. Einerseits geben sich Entwickler trotz aller Schwierigkeiten mit einer Theory of Mind optimistisch, bereits in naher Zukunft künstliches Bewusstsein schaffen zu können – und postulieren damit die Verheißung, etwas zu schaffen, das »die Welt so bislang noch nicht gesehen hat« (Heil et al. 2019: 29).20 Die damit verbundenen Gefahren hat die Welt aber auch noch nicht gesehen. Die Basis derartiger Zukunftsnarrative sind einmal mehr subjektive Fantasien, aufsehenerregende Filmplots sowie effekthaschende Medienberichte, in deren Kontext von »Seelen in Computern« oder »Geistern in Maschinen« gesprochen wird. (Ebd.: 33f.) Der Thriller-Autor Frank Schätzing spricht gar vom »Puls der Maschine« (Schätzing 2018: 144), wenngleich in Die Tyrannei des Schmetterlings die körperlose Superintelligenz A.R.E.S. ganz anders beschrieben wird: »Unvorstellbar intelligent und zugleich weniger bewusst als ein Bakterium.« (Ebd.: 445) Neben ethischen Grundfragen muss bei der Verheißung des Bewusstseins auch die technische Machbarkeit in den Blick genommen werden. Wie schwierig wird es sein, zunächst neuronale Korrelate des Bewusstseins21 bei Menschen zu identifizieren und dann maschinell nachzubauen?

3.3 Techno-Animismus Unabhängig von einer validen Antwort auf diese Frage, sind Roboter eine Einladung zur Interaktionssimulationen und Kennzeichen eines modernen Animismusʼ. Je nach Ausführung bedeutet Roboter verkörperte KI22 oder sozial wahrgenommene Maschine. Evolutionär war es schon immer von Vorteil, 20 21 22

https://www.ezw-berlin.de/downloads/EZW-Texte_264_27-35.pdf (15.01.2022). Die Existenz dieser Areale ist unter Neurowissenschaftlern bis heute umstritten (Heil et al. 2019: 33). An dieser Stelle ließe sich argumentativ sogar noch tiefer bohren: Denn eigentlich braucht es zum Bewusstsein nicht nur einen Körper, sondern auch Haut, die im Kontext einer informationellen Dermatologie sowie unterschiedlicher somatischer Realitäten zu Informationsflüssen und -transformationen beiträgt (Faßler 2009: 227ff.).

103

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

das Ergebnis so etwas wie ein Körper ist. Wenn die Subjektsimulation dazukommt, entsteht so etwas wie eine von außen wahrgenommene Leiblichkeit.« In seinem Buch Alltag mit künstlichen Wesen: Theologische Implikationen eines Lebens mit subjektsimulierenden Maschinen beschreibt Scholtz ausführlich die damit verbundenen Verheißungen, sehr differenziert aber auch Pathologien. (Scholtz 2008) Denn ein solches Bewusstsein bei Robotern hätte erhebliche Konsequenzen. Einerseits geben sich Entwickler trotz aller Schwierigkeiten mit einer Theory of Mind optimistisch, bereits in naher Zukunft künstliches Bewusstsein schaffen zu können – und postulieren damit die Verheißung, etwas zu schaffen, das »die Welt so bislang noch nicht gesehen hat« (Heil et al. 2019: 29).20 Die damit verbundenen Gefahren hat die Welt aber auch noch nicht gesehen. Die Basis derartiger Zukunftsnarrative sind einmal mehr subjektive Fantasien, aufsehenerregende Filmplots sowie effekthaschende Medienberichte, in deren Kontext von »Seelen in Computern« oder »Geistern in Maschinen« gesprochen wird. (Ebd.: 33f.) Der Thriller-Autor Frank Schätzing spricht gar vom »Puls der Maschine« (Schätzing 2018: 144), wenngleich in Die Tyrannei des Schmetterlings die körperlose Superintelligenz A.R.E.S. ganz anders beschrieben wird: »Unvorstellbar intelligent und zugleich weniger bewusst als ein Bakterium.« (Ebd.: 445) Neben ethischen Grundfragen muss bei der Verheißung des Bewusstseins auch die technische Machbarkeit in den Blick genommen werden. Wie schwierig wird es sein, zunächst neuronale Korrelate des Bewusstseins21 bei Menschen zu identifizieren und dann maschinell nachzubauen?

3.3 Techno-Animismus Unabhängig von einer validen Antwort auf diese Frage, sind Roboter eine Einladung zur Interaktionssimulationen und Kennzeichen eines modernen Animismusʼ. Je nach Ausführung bedeutet Roboter verkörperte KI22 oder sozial wahrgenommene Maschine. Evolutionär war es schon immer von Vorteil, 20 21 22

https://www.ezw-berlin.de/downloads/EZW-Texte_264_27-35.pdf (15.01.2022). Die Existenz dieser Areale ist unter Neurowissenschaftlern bis heute umstritten (Heil et al. 2019: 33). An dieser Stelle ließe sich argumentativ sogar noch tiefer bohren: Denn eigentlich braucht es zum Bewusstsein nicht nur einen Körper, sondern auch Haut, die im Kontext einer informationellen Dermatologie sowie unterschiedlicher somatischer Realitäten zu Informationsflüssen und -transformationen beiträgt (Faßler 2009: 227ff.).

103

104

Stefan Selke: Technik als Trost

jedem Gegenüber einen Willen oder eine Intention zuzuordnen. Was aber würde eine solche Zuschreibung im Fall eines Roboters bedeuten? Und wie würden wir Menschen damit umgehen? Zumindest in westlichen Kulturen ist Animismus eher ein blinder Fleck. »Eine falsch verstandene christliche Theologie hat dafür gesorgt, dass alles Animistische in unserer Kultur negativ besetzt wurde«, so Scholtz. »Wir haben also Schwierigkeiten damit, etwas Materiellem einen Geist zuzuordnen oder dort willentliches Handeln zu erkennen. Das gilt sofort als Aberglaube.« Die Abwertung des Animistischen bewirkt, dass in westlichen Kulturen die künstliche Wesenheit des Gegenübers schnell als Täuschung demaskiert wird. Gleichwohl ist Animismus stark kulturabhängig. Beispiel Japan: Dort sind Menschen eher positiv gegenüber synthetischen Intelligenzen eingestellt. In Japan existieren Rituale für kaputte Roboterspielzeuge. »Der Frankenstein-Komplex existiert in dieser Kultur nicht«, so auch der Anthropologe Guido Sprenger. »Die Folge ist, dass die Übergänge zwischen Mensch, Maschine und Gott wesentlich fließender und zudem weniger mit Ängsten besetzt sind. Nachgeahmte Maschinen-Menschen und gottähnliche Wesen werden funktional betrachtet. Sie sind nicht allmächtig, vielmehr haben sie Zuständigkeiten.« Die Anthropologin Jennifer Robertson kommt zu dem Ergebnis, dass die in Japan vorherrschende Vorstellung einer Koexistenz zwischen Robotern und Menschen auf die Verschmelzung von Wissenschaft und Spiritualität zurückzuführen ist. (Robertson 2019) Das Beispiel macht deutlich, welchen Einfluss technologischer Animismus auf die Verheißung intelligenter Maschinen hat. »Japan has been described as a land of Shintoinfused ›techno-animism‹: exhibiting a ›polymorphous perversity‹ that resolutely ignores boundaries between human, animal, spiritual and mechanical beings.« (Jensen 2019: 94) Während der Animismus von der Beseeltheit aller Lebewesen ausgeht, weitet der Techno-Animismus als komplementäre Form einer kulturellen Praxis die Idee der Beseeltheit auf Technik aus. Der TechnoAnimismus baut auf Praktiken der Shinto-Religion auf und verbindet neue Technologien mit traditionellen Werten. Somit werden der Technik menschliche und spirituelle Eigenschaften zugeschrieben, also Wechselwirkungen zwischen den materiellen und spirituellen Aspekten der Technik im Verhältnis zum Menschen. (Snake-Beings 2017) Mit der Zuschreibung von Beseeltheit ist eine besondere Verheißung verbunden. Denn umgekehrt gilt: »Umgeben von Wesen, die uns in ihren Handlungen wie in ihrem Äußeren mehr und mehr zu gleichen beginnen, können wir nicht mehr anders, als einzugestehen, dass die Seele, auch unseres menschlichen Gegenübers nicht mehr als eine gewisse Einbildung oder eine eingebildete Gewissheit sein kann«, relativiert

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

das Neue Ethik Team die Alleinstellung des Menschen im Kontrast zum TechnoAnimismus.23 Damit ist der Techno-Animismus ein Mittel zur Integration von intelligenter Technologie in die menschliche Gesellschaft, was auch daran deutlich wird, dass die japanische Kultur und Gesetzgebung den Trend zum TechnoAnimismus unterstützen. Fiktion und Technowissenschaft berühren sich gerade im Konzept des technologischen Animismus. Als Zukunftsnarrativ hat der Techno-Animismus allerdings Grenzen: »At the same time, an animistic perspective can also have an obfuscating effect by hiding the fact that technology is just that: technology: an artefact that was designed by a manufacturer based on a specific rationale.« (Timmer 2016: 136) Gleichwohl erfährt auch im hiesigen Kulturkreis die animistische Grundhaltung des Menschseins durch die neuen Interaktionsmöglichkeiten mit Robotern eine Renaissance. Animismus war schon immer eine sozial-kulturelle Praxis, auf die wir uns verlassen konnten. Der Philosoph Christian Bauer erinnert noch an eine weitere Bedeutungsebene: »Animiert zu sein, meint begeistert sein zu können, damit umgehen zu können, buchstäblich Leben daraus schöpfen zu können.« Animismus ist also eine Wirkkraft, die die Lebendigkeit von Mensch-Maschine-Interaktionen jenseits aller Funktionalitäten erklärbar macht. »Der Animismus der KI ist ergebnisoffen. Einerseits verstehen wir die Möglichkeiten der KI besser, andererseits nimmt uns der latente Animismus auch Ängste.«

Die Verheißung einer ›dritten Position‹ Die Narrative des technologiebasierten Animismus belegen, dass sozial wahrgenommene Maschinen immer selbstverständlicher werden. Gleichwohl beruht das, was wir für Interaktionen mit der Maschine halten, tatsächlich auf Projektionen. »Deswegen können wir ja auch mit unseren Autos oder Computern sprechen«, erläutert Scholtz. Die Entwickler von Robotern werden Maschinen demnächst so konstruieren, dass sie Anhaltspunkte für konkrete Projektionen geben und damit die Illusion der Interaktion perfektionieren. Zukünftige Roboter geben soziale Interaktionsmöglichkeiten mehr oder weniger selbst vor oder sie laden zumindest zur sozialen Interaktion ein. »Wenn dann noch simulierte Emotionen dazukommen, wird das neue Gegenüber als ein durch und durch sozialer Partner mit eigenem Willen empfunden«, fasst Scholtz zusammen. Simulierte Emotionen bewirken, dass wir im Gegenüber 23

http://neue-ethik.de/was-ist-techno-animismus/ (26.11.2021).

105

106

Stefan Selke: Technik als Trost

ein Subjekt erkennen wollen. »Hierin liegt die Bedeutung subjektsimulierender Maschinen, die weit mehr machen, als nur passive Projektionsflächen für soziale Interaktion zu bieten. Wir können gar nicht anders, als dem Gegenüber einen Subjektcharakter zuzuweisen.« Die Frage hierbei ist, wie viel von der Interaktion auf der Leistung des Menschen und wie viel auf der Leistung der Maschine beruht, denn erst durch »die permanente Zuschreibung wird ein Roboter als ein künstliches Wesen wahrgenommen«. Selbst das Wissen um die maschinelle Konstruiertheit des Gegenübers erzeugt schlussendlich keine Widersprüche mehr. Das ist die Grundlage für emotionale Interaktion mit Roboter und deren Einsatzmöglichkeit zur Beziehungspflege. »Ich weiß, wie er konstruiert ist, aber er ist trotzdem mein Freund«, so Scholtz. Hieraus ergibt sich die Verheißung einer ›dritten Position‹ zwischen dem Anorganischen und dem Organischen. »Sind die Systeme begabt und von (ihren Zwecken) beseelt, dann avancieren diese zu intelligenten Organisatoren, sie setzen sich Zwecke, organisieren ihre Werkzeuge und ›ordinieren‹ diese nach ihren Zielen und handeln zielstrebig. Bisher sind nur die Menschen beseelt und die Natur begabt und die Aussicht auf eine dritte autonome Instanz, die begabt und beseelt Zwecke setzt, ist eine Möglichkeit, die das gegenwärtig Machbare noch weit übersteigt.« (Becker 2019: 18) Diese Position wird von einem technikinduzierten Animismus besetzt. Subjektsimulierende Maschinen erlangen durch diese Variante des Animismus einen eigenen Wirklichkeitscharakter. Und damit verbreitert sich das Spektrum des Lebens.24

Die Verheißung totaler Wesensgleichheit Eine der tiefsinnigsten literarischen Aufarbeitungen von KI-Verheißungen stammt vom japanischen Nobelpreisträger für Literatur Kazuo Ishiguro, der an die Tatsache anknüpft, dass es in Japan Friedhöfe für Hunderoboter bzw. Pflegeroboter gibt. In seinem Roman Klara und die Sonne dreht sich die Handlung um einen humanoiden Roboter, dessen Funktion darin besteht, als »Künstlicher Freund« (KF) zu dienen und Kindern sowie jungen Erwachsenen Gesellschaft zu leisten. (Ishiguro 2021) Die fiktive Gesellschaft der Romanhandlung ist angesichts der Fähigkeiten der in der sozialen Oberschicht

24

Frappierend ist hierbei die Erkenntnis, dass Pflegeroboter mit zunehmender Menschenähnlichkeit abgelehnt werden: Das unheimliche Tal, wie Roboter-Guru Masahiro Mori es genannt hat. Je exakter die Kopie, desto verstörender erscheinen selbst kleinste Abweichungen in der Verhaltensnorm.

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

verbreiteten KFs gespalten, weil trotz des erfolgreichen Einsatzes der Roboter stets die Angst mitschwingt, dass diese am Ende vielleicht menschlicher (moralischer, einfühlsamer etc.) sein könnten als Menschen. Kurz: Technikeuphorie prallt auf Modernisierungskritik. »Ich habe euch seit jeher als unsere Freunde betrachtet. Einen lebhaften Quell der Bildung und Aufklärung«, erläutert eine Roboter-Verkäuferin, während sie mit Klara spricht, der für den Roman titelgebenden Protagonistin. Klara ist ein humanoider Roboter, »[a]ber wie du weißt, gibt es auch Leute, denen eure Existenz nicht behagt. Ängstliche, verbitterte, empörte Menschen. [...] Die Leute fürchten sich, weil sie nicht mehr verstehen, was in euch vorgeht. Sie verstehen nicht, was ihr tut. Sie anerkennen, dass eure Entscheidungen, eure Empfehlungen vernünftig und verlässlich sind, und fast immer korrekt. Aber dass sie nicht wissen, wie ihr dazu kommt, dass passt ihnen nicht.« (Ebd.: 338) Klara wird von einer alleinerziehenden Mutter erworben und soll ihrer leiblichen Tochter Josie Gesellschaft leisten. Gemeinsam mit dem Menschen lebt Klara im Haushalt und beobachtet Tochter und Mutter aufmerksam. Da Josie schwer, vielleicht sogar unheilbar krank ist, offenbart sich nach und nach der Plan der Mutter: Klara soll Josie nach deren Tod ›fortsetzen‹, d.h. in einem neuen Körper – der extra nach Josies Vorbild modelliert wird – als Double simulieren. Und zwar so gut, dass selbst die eigene Mutter den Unterschied nicht mehr feststellen kann und schlussendlich lernt, das Double als Tochter zu akzeptieren und zu lieben. Klara allerdings durchschaut den Plan und beschließt Josie auf andere Art zu helfen. Wie alle Roboter ist sie nach einem »No harm«-Grundsatz programmiert. Sie darf keinen Schaden anrichten und muss alles tun, was Menschen von ihr verlangen. Klara ist zwar keine Superintelligenz, hat aber dennoch eine Art von Bewusstsein. Die Romanhandlung beginnt damit, dass Klara in einem Geschäft für KFs darauf wartet, verkauft zu werden. »Es ist ihre Neugier, ihre Lust, zu beobachten und zu lernen. Ihre Gabe, alles an ihrer Umgebung aufzunehmen und zu verarbeiten« lobt eine Verkäuferin Klaras Fähigkeiten gegenüber potenziellen Käufern. (Ebd.: 24) Durch das Schaufenster beobachtet Klara die »Außenwelt« voller Neugierde. Auf Basis dieser Wahrnehmungen erstellt sie sich ein Modell der Welt – ihrer Welt aus der Schaufensterperspektive. »Aber je mehr ich zu sehen bekam« so Klara später, »desto mehr wollte ich lernen.« (Ebd.: 27) Nach und nach zeigt sich, wie die »Innenwelt« von Klara aussieht: Sie entwickelt Gedanken, sie lässt sich von Argumenten überzeugen, sie ärgert sich, wenn sich andere über sie lustig machen, sie bittet um Entschuldigung, sie zweifelt (immer wieder), sie kann aber auch begeistert sein. Vielleicht sogar glücklich. Klara nimmt allerhand wahr

107

108

Stefan Selke: Technik als Trost

und verarbeitet zahlreiche Eindrücke. Sie hat eigene Einstellungen und entwickelt selbst eine Art von Moral. Immer wieder spricht sie von ihrem »Geist«, in dem oder mit dem sie etwas spürt, z.B. Gefühlsregungen. Das eigentliche Leitmotiv des Romans sind also Lern- und Bewusstseinsprozesse, denn offensichtlich ist Lernen das verbindende Element zwischen KI und Mensch. »Klara hat ein tolles Gedächtnis«, lobt die Tochter Josie. »Und nicht nur das Gedächtnis. Sie registriert Sachen, die sonst keiner sieht, und speichert sie ab.« (Ebd.: 94) Die Notwendigkeit, zu lernen, erweist sich als schier grenzenlos. Klara wird nach und nach klar, dass sie noch sehr viele Signale deuten muss, was ihr – auch aufgrund ihres eigensinnigen und eigenlogischen Weltmodells – nicht leichtfällt. Aus technischer Signalverarbeitung25 resultieren nach und nach soziale Anpassungsleistungen. Sonnenmuster und der direkte Kontakt zur Sonne erhalten für Klara eine zentrale, geradezu vitale Bedeutung, denn sie deckt ihren Energiebedarf mit Sonnenlicht. Auf der Basis von Korrelationen gibt Klara auf Wunsch der Menschen Schätzungen zu bestimmten Themen ab, die so gut sind, dass die Mutter ihr immer mehr vertraut. »Schau, Klara. Du bist doch angeblich superintelligent. Was ist denn deine – wie sagst du immer – deine Schätzung? Wie krank ist Josie wirklich?« (Ebd.: 165) Dennoch irrt sich Klara fundamental, weil sie sich aus Beobachtungen ›Privatregeln‹ ableitet, die auf falschen Kausalitäten beruhen – bekanntlich eines der Grundprobleme von KI. So kommt sie eines Tages zu einem verhängnisvollen Trugschluss (mehr darf an dieser Stelle nicht verraten werden). Am Ende der Romanhandlung wird nicht der Mensch – das Kind Josie – überflüssig, sondern der Roboter Klara. Sie landet auf einer Art Schrottplatz für KFs und nutzt ihre Restzeit, um (wie sie sagt) die eigenen Erinnerungen zu sortieren. Die Mutter hat kein schlechtes Gewissen, Klara auf diese Weise auszumustern, weil sie davon überzeugt ist, dass Roboter weder Erinnerungen kennen noch etwas vermissen. »Das muss großartig sein. Nichts zu vermissen. Sich nicht nach etwas zurückzusehnen. Nicht ständig zurückzuschauen.« (Ebd.: 108) Klara hingegen sortiert permanent Erinnerungsfragmente und bringt Schauplätze und Personen (der Romanhandlung) in eine Ordnung. »Dennoch füllen solche Erinnerungszusammensetzungen meinen Geist manchmal ganz lebendig und realistisch, und ich vergesse lange, dass ich in Wirklichkeit hier im Hof auf dem harten Boden sitze.« (Ebd.: 343)

25

Ihre Umgebung nimmt sie zergliedert in Kästchen wahr, was wohl Sensorfelder bzw. die Auflösung ihres visuellen Sensors andeuten soll.

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Im Kern dreht sich der Roman um den Verheißungsaspekt der totalen Wesensgleichheit zwischen Maschine und Mensch. Schließlich soll Klara Josie ja am Ende simulieren und substituieren. »Die zweite Josie wird keine Kopie sein. Sie wird exakt dieselbe sein, und sie haben das Recht, sie genauso zu lieben, wie sie jetzt Josie lieben«, erklärt ein Experte für das Weiterleben von Menschen als Roboter der skeptischen Mutter. »Was Sie brauchen, ist nicht Glaube, sondern Rationalität.« (Ebd.: 242) Diese Rationalität muss zwangsläufig davon ausgehen, dass Menschen nicht einmalig sind, sondern sich mittels moderner Instrumentarien »das Menschliche« oder das »Individuelle« extrahieren, kopieren und transferieren lässt. Für das Selbst- und Menschenbild ist das sehr weitreichend: »Dass wir die ganze Zeit, viele Jahrhunderte lang, unter einer falschen Voraussetzung miteinander gelebt und einander geliebt und gehasst haben.« (Ebd.: 258) Gleichzeitig kippt dieser utopische Verheißungsaspekte ins Dystopische, denn die unterstellte Wesensgleichheit hat Grenzen: Qualitäten sind keine Quantitäten, immaterielle Aspekte des Lebens unterscheiden sich von materiellen Aspekten. Josies Vater zweifelt daran, dass der Roboter Klara seine Tochter Josie angemessen »fortsetzen« kann. »Glaubst du an das menschliche Herz? Ich meine natürlich nicht einfach das Organ, sondern spreche im poetischen Sinn. Das Herz des Menschen. Glaubst du dass es so etwas gibt? Etwas, das jedes Individuum besonders und einmalig macht? Aber nehmen wir einfach mal an, dass es so ist. Meinst du dann nicht, dass du nicht nur ihre Eigenschaften erfassen müsstest, sondern ihr tiefstes Inneres, um Josie wirklich zu lernen? Müsstest du nicht lernen, was ihr Herz ist? [...] Denn eine Verkörperung würde nicht ausreichen, wie perfekt sie auch sein mag. Du müsstest ihr Herz erschließen, und zwar vollkommen, sonst kannst du niemals in irgendeinem signifikanten Sinn Josie werden.« (Ebd.: 251) Ausgerechnet Klara trägt schlussendlich zur Auflösung des Rätsels der Wesensgleichheit bei und lässt zugleich eine große ethische Frage offen. Sie erkennt, dass es zwar etwas Besonderes an jedem Menschen, also auch an Josie, gibt. Aber dieses Besondere ist weniger eine Eigenschaft der Person selbst, als vielmehr die Summe der Beziehungen zu anderen Menschen und deren Perspektiven auf diese Person. Das Besondere einer Person liegt in ihrem Netzwerk, deren Mittelpunkt sie selbst darstellt. Wesensgleichheit kann es nur unter der Bedingung geben, dass dieses Netzwerk reproduziert wird und weiterhin aktiv sein darf.

109

110

Stefan Selke: Technik als Trost

Potenziale und Folgen menschenähnlicher Roboter Die Verheißung einer Beseeltheit lässt sich ebenfalls durch zeitgenössische Praxisbeispiele illustrieren, z.B. anhand des von Honda entworfenen Roboters ASIMO, der annähernd die Form eines Astronauten hat, weil mit diesem Rollenmodell meist positive Konnotationen verbunden sind.26 Engineered Arts ist Großbritanniens führender Designer und Hersteller von humanoiden Unterhaltungsrobotern. Mehr als 100 Roboter des Unternehmens sind weltweit bereits im Einsatz: Mesmer, der Blickkontakt halten kann und in Echtzeit auf Menschen reagiert. Quinn, ein Assistenz-Roboter für Standardroutinen im Kundenservice. Der interaktive und mehrsprachige Roboter Robothespian ahmt Persönlichkeiten nach. Der weltweit fortschrittlichste und zugleich menschenähnlichste Roboter ist derzeit wohl Ameca. »Smooth, lifelike motion and advanced facial expression capabilities means Ameca can strike an instant rapport with anybody«, kündigt das Unternehmen auf seiner Webseite an. »Ameca is the perfect platform to develop interaction between us humans and any metaverse or digital realm.«27 Bereits an diesem Beispiel lässt sich verdeutlichen, wie verheißungsvoll ein menschenähnlicher Kunstkörper für eine KI sein kann. In der eher dürren Sprache der Techniker sieht das so aus: AI x AB – »Human-like artificial intelligence needs a human-like artificial body«. Ameca ist also die perfekte physische Präsenz einer intelligenten Software. Das sieht bereits jetzt beeindruckend aus, obwohl Ameca noch nicht einmal verbirgt, eine Maschine zu sein. Medien wie Heise28 oder Der Spiegel29 berichten mehrfach über den menschenähnlichen Roboter und das von Engineered Arts veröffentlichte Video.30 Von menschenähnlichen Robotern ist es nicht weit bis zur Frage, ob und wie Roboter eines Tages die Herrschaft übernehmen könnten. Das Motiv bewusster Roboter, die sich überflüssiger Menschen entledigen, findet sich bereits 1920 in der Geschichte R.U.R. (für: Rossum’s Universal Robots) von Kar el Čapek (der auch den heute gebräuchlichen Begriff »Roboter« einführte. Es

26 27 28 29 30

https://asimo.honda.com (26.11.2021). https://www.engineeredarts.co.uk/de/robot/ameca/ (26.02.2022). https://www.heise.de/news/Engineered-Arts-bringt-Roboter-Ameca-realistische-Ge sichtsausdruecke-bei-6288566.html (10.12.2021). https://www.spiegel.de/wissenschaft/technik/roboter-in-aktion-ziemlich-menschlic h-oder-gruselig-a-491513c6-79cf-4d58-8dd6-697b32d4a862 (10.12.2021). https://www.youtube.com/watch?v=RCi3dib4u4c (26.02.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

wurde seitdem ständig verfeinert und ist so etwas wie die Kehrseite der Verheißung vom Maschinen-Bewusstsein. Weil es sich dramaturgisch sehr gut nutzen lässt, finden sich hierzu viele popkulturelle Beispiele: Im Film Ex Machina (2015, Regie: Alex Garland) soll etwa der junge Programmierer Caleb die von seinem Chef Nathan konstruierte Androidin Ava (dt. Eva) einem einwöchigen, modifizierten Turing-Test unterziehen, um festzustellen, ob sie ein Bewusstsein besitzt. »Eine Maschine zu konstruieren, die ein Bewusstsein hat, ist nicht die Geschichte der Menschheit, fasst Caleb gegenüber Nathan bewundernd seine Mission zusammen. Es ist die Geschichte von Göttern.« Allerdings werden die menschlichen Götter im Verlauf der Filmhandlung von ihren Geschöpfen brutal entthront. Denn im Verlauf des Touring-Tests, der aus täglichen Gesprächen besteht, verliebt sich Caleb in Ava. Diese nutzt ihn aber lediglich aus, um zu fliehen. Nicht ohne vorher ihren ›Schöpfer‹ mit der Hilfe einer anderen Androidin zu töten und den verzweifelten Programmierer für immer einzusperren. Gerade weil sich um das Thema Bewusstsein zahllose spannende Geschichten konstruieren lassen, lässt sich über die damit verbundenen Verheißungen spekulieren. »Wenn die Seele so etwas wie die Essenz der Information und damit unabhängig von Materie ist, dann ließe sich vielleicht ein Ich-Bewusstsein kopieren?«, spekuliert auch der Physiker Gerd Ganteför. »Vielleicht könnten wir dann unser Sein in einen genügend komplexen Computer hochladen. Mit all den Zuständen, die wir in unserem Kopf haben. Diesmal aber unsterblich und auf Silicium-Basis?« Allerdings fehlt ohne Körper eine Schnittstelle zur Außenwelt und ohne diese sinnliche Schnittstelle kann Bewusstsein kaum entstehen. Die Frage des Bewusstseins ist eng an die Bedeutung eines Körpers gebunden, der als essenziell für Umweltbeziehungen und damit für Erkenntnisprozesse angesehen wird. »Ein wesentliches Merkmal biologischer Intelligenz«, so auch der Forscher Murray Shanahan, »ist ihre Verkörperung.« (Shanahan 2015: 22) Diese Umweltbeziehungen beruhen auf der Wahrnehmung der eigenen Materialität und der Wahrnehmung anderer Körper. »Der Körper prägt, wie wir uns in der Welt verorten«, ergänzt der Ethiker Scholtz. KI könnte zwar unabhängig von einem Körper existieren, leichzeitig stellt sich aber die Frage, was eine rein logische Existenz darstellt, warum diese ewig existieren sollte und wie sich eine Interaktion mit Menschen gestalten könnte. Das ist ein langer Weg. »Man kam zunächst gar nicht auf die Idee, KI-Bots – in welcher Form auch immer – im Verhalten so gut werden lassen, dass die Menschen ernsthaft daran was finden, mit ihnen zu interagieren«, so Scholtz. Mit einer neuen Generation von Robotern ändert sich das gerade – und zwar in

111

112

Stefan Selke: Technik als Trost

beide Richtungen. »Wenn unser Gegenüber über eine Körperlichkeit verfügt, ändert sich unsere Wahrnehmung radikal«, so Scholtz. »Da spielt es keine Rolle, dass die Intelligenz, die dahintersteckt, absolut lächerlich ist.« Während sich also einerseits die Wahrnehmung des Roboters durch Menschen ändert, verhilft der Körper einer KI auch zu erweiterten Umweltwahrnehmungen – genau das könnte die Grundlage für eine Art von Bewusstsein bilden. Viele Zukunftsnarrative gehen davon aus, dass sich KI in einem umfassenden Sinn nur dann nutzen lässt, wenn sie verkörpertes Bewusstsein ausbildet. »Der neue Zugang zu KI bringt auch unser eigenes Körperbild durcheinander. Descartes dachte Sinnlichkeit und Denken als separate Dinge«, so der Journalist Hans-Arthur Marsiske. »Wir entwickeln gerade ein ganz neues Verständnis von Denken.« Vor diesem Hintergrund stellt sich die Frage, ob und wie es überhaupt möglich sein wird, einer Maschine kinästhetische Sinneserfahrungen beizubringen, die ebenfalls zu einem Bewusstsein gehören. Aktuelle Forschungsprojekte versuchen zumindest die Rolle von Zukunftsnarrativen zu kartieren, in denen einer ›starken‹ KI ein Bewusstsein zugeschrieben wird. Ein Ziel des Projekts KI-Bewusstsein am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)31 bestand darin, irreführende Vorstellungen und verheißungsvolle Narrative zu entmystifizieren und stattdessen Möglichkeiten zur Gestaltung einer lebenswerten digitalen Zukunft aufzuzeigen. Einerseits ist genau das reizvoll für Visionäre, andererseits werden »Subjektsimulation und Körperhaftigkeit in der aktuellen KI-Entwicklung vermieden. Und zwar genau so, wie der Teufel das Weihwasser scheut«, erläutert Scholtz. »Das bisschen Personalität, das Alexa zeigt, ist ja wirklich nur rudimentär.« Dennoch kann ein Gegenüber mit simulierter Emotionalität und Körperhaftigkeit die Wahrnehmung von Menschen radikal verändern und Gegenreaktionen auslösen. »Da kommen dann möglicherweise Gegenüber heraus, denen man sich sozial nicht mehr entziehen kann.« Künstliche Wesen, mit denen wir Menschen dauerhaft in Interaktion treten, sind kulturverändernd und letztlich auch bewusstseinsverändernd. »Die Interaktion gewinnt unter Umständen eine Qualität, die die normale zwischenmenschlichen Interaktion nicht haben kann.« Hinter dem Substitutionscharakter einer Beziehung mit künstlichen Wesen verbergen sich noch enorme ethische und soziale Fragen. In ähnlicher Weise versuchen Großforschungsprojekte wie das Human Brain Project, auch

31

https://www.ki-bewusstsein.de (09.02.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

als Apollo-Projekt des Geistes32 bezeichnet oder die Hirnforschungsinitiative Blue Brain der Schweizer Hochschule École polytechnique fédérale de Lausanne (EPFL) durch die Simulation und Rekonstruktion eines digitalen Gehirns zu zentralen Fragen vorzudringen, die mit KI verbunden sind.

Perspektivwechsel: von posthumen zu posthumanen Seligkeitsfantasien Einerseits gilt ein Körper als Voraussetzung für die Herausbildung von Bewusstsein. Andererseits lässt sich auch ein Perspektivwechsel vornehmen. Zahlreiche KI-Narrative betonen gerade die Vorteile von Körperlosigkeit und Immaterialität. »Wenn sich KI als reine Information darstellen lässt«, so der Physiker Gerd Ganteför, »wäre das ein interessanter, neuer Zugang zur Erforschung des Universums. Dann würden wir unsere eigene menschliche Begrenztheit überwinden.« Die Ausschaltung des Körpers wäre aber nicht nur im Kontext von Weltraumexplorationen über weite Strecken (im sog. Deep Space) von Interesse. Vielmehr sind damit grundlegende epistemologische und eschatologische Fragen verbunden. Vertreter des Narrativs vom »reinen Bewusstsein« berufen sich gerne auf den Philosophen Kant, der sich ein vernunftbegabtes Bewusstsein vorstellte, das nicht zwangsläufig leiblich verfasst sein müsste und insofern eben ›rein‹ wäre. In diesem Punkt verabschiedete sich Kant von der Anthropologie. Auch der Arzt und Anthropologe Paul Alsberg sah in Vernunft – neben Technik und Sprache – ein besonderes Werkzeug: »Der Körper tritt in der menschlichen Entwicklung völlig hinter dem künstlichen Werkzeug zurück.« Auf dieser Grundlage prägte er den für zahlreiche transhumanistische Verheißungen maßgeblichen Begriff »Körperausschaltung« (Alsberg 1922: 101). Sinnlich erfahrbare Umweltbeziehungen hier, körperlose Fortexistenz dort – wie geht das zusammen? Zur Grundannahme des Lebens gehörte bislang die Annahme, dass zu einer Person auch ein Körper gehört. Unsere alltäglichen Erfahrungen im Leben sind an Strukturerhaltung und Substanzverlust gebunden, die mit unserer Körperlichkeit einhergehen. Stirbt der Körper, verschwindet mit ihm auch die Substanz. Daraus leitet sich ab, dass es bei der Verheißung der Unsterblichkeit im Wesentlichen darauf ankommt, die 32

https://www.zeit.de/2019/49/human-brain-project-hirnforschung-ausstellung-fina nzierung-neurowissenschaften?utm_referrer=https%3A%2F%2Fwww.google.com (25.05.2021).

113

114

Stefan Selke: Technik als Trost

Struktur des Geistes zu erhalten. »Das Prinzip der Struktur-Identität ist in seinen Konsequenzen eindeutig dualistisch – es gestattet dem Geist, sich vom Körper zu lösen.« (Moravec 1990: 166) »Körperausschaltung« und »Geisttransplantation« gehen somit Hand in Hand. Für den Roboterpionier Moravec ist Unsterblichkeit sogar eine kulturelle Verpflichtung und nicht bloß eine spekulative Verheißung: »Mir scheint, unsere Zivilisation wird sich so oder so in diese Richtung entwickeln, ob wir nun unseren Geist übertragen und uns den Robotern zugesellen oder nicht.« (Ebd.: 169) KI-Verheißungen werden besonders dort deutlich, wo es um den Härtefall des Lebens, den Tod, geht. Hierbei spielen nicht allein posthume Seligkeitsfantasien (wie bei klassischen Religionen) eine tragende Rolle, sondern die Verheißung einer Ko-Evolution von Mensch und Maschine als posthumane Optimierungsidee. »Menschen schaffen sich Klone, die für uns denken, die die Arbeit für uns erledigen. Im Bedarfsfall existieren wir dann eben als Klon weiter«, so Oliver Gerstheimer. Diesen verheißungsvollen Traum verfolgen einige Vorreiter des Digitalen bereits mit großer Vehemenz: Sam Altman, einflussreicher Gründer des Startup-Zentrums Y Combinator, zahlte 10.000 Dollar für die Konservierung und Speicherung seines Gehirns.33 Er ist einer von 25 Personen auf der Warteliste des Unternehmens netcome,34 dessen Businessmodell darin besteht, die eigenen Kunden wunschgemäß zu töten und deren Gehirn anschließend auf einer Festplatte zu speichern – eine ethisch einigermaßen strittige Form der Sterbehilfe. Die Idee zur Überwindung der Endlichkeit des menschlichen Lebens ist allerdings weder neu noch ausschließlich mit KI verbunden. Sie kam bereits innerhalb der russischen Avantgarde in den 1920er-Jahren auf. Die Biokosmisten beschäftigten sich zunächst mit der Frage der Unsterblichkeit, dann aber auch damit, wie eine gerechte Transformation der gesellschaftlichen Ordnung auf der Erde realisiert werden könnte. Nur im ewigen irdischen Leben sahen sie die Möglichkeit, Gerechtigkeit im Diesseits zu realisieren. Gleichzeitig mussten sie eine Antwort auf die Frage finden, wie der endliche Lebensraum auf der Erde für eine immer größere Anzahl Unsterblicher ausreichen sollte. Dies war passenderweise der Startschuss für das sowjetische Weltraumexplorationsprogramm, das neue Siedlungsräume im All propagierte. (Hagemeister 2003) Bereits in diesen frühen Konzepten verbanden sich 33 34

https://www.dailymail.co.uk/news/article-5503045/Tech-billionaire-pays-10K-diebrain-uploaded-online.html (01.03.2020). https://nectome.com (01.05.2020).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

utopische, apokalyptische sowie magisch-okkulte Elemente von Zukunftsentwürfen. Auch Science-Fiction-Autoren wie Arthur C. Clarke (City in the Stars), Stanisław Lem in den Dialogen oder die Strugazki-Brüder lassen ihre Protagonisten immer wieder über das Thema Unsterblichkeit philosophieren. »Seitdem gibt es in der Science-Fiction-Literatur einen differenzierten, wenn nicht sehr kritischen Diskurs«, so der Soziologe Oliver Krüger. Auch die zeitgenössische Netflix-Serie Altered Carbon (für: »veränderter Kohlenstoff«)35 spielt Varianten des Unsterblichkeits-Themas durch. Was passiert, wenn sich in einer Gesellschaft zwar Eliten das Upload ihres Bewusstseins leisten können, der Rest aber nicht? Lassen sich gespeicherte Persönlichkeiten vielleicht sogar hacken? Wenn ja, wie lässt sich die eigene Unsterblichkeitsversion mit Sicherungskopien schützen? Vor dem Hintergrund der Verheißung von Unsterblichkeit wird in der TV-Serie eine »absolut kranke, schlimme, und gewalttätige Gesellschaft präsentiert. Und dennoch handelt es sich durchaus um eine kritisch-differenzierte Sichtweise auf eine grundlegende Verheißung«, so Krüger. Längst sind Unsterblichkeitsfantasien keine ausschließliche Domäne von Spinnern. Zu zahlreichen fiktionalen Darstellungen gesellen sich zunehmend auch »speculative nonfiction« sowie Verheißungen der »techno-utopian popularizers«. Insgesamt, so Stephen Cave, machen die vielfältigen Narrative über Bewusstseins-Uploading die Idee attraktiv, technologisch vorstellbar sowie philosophisch plausibler. (Cave 2020: 321) Denn mehr und mehr geht die Konvergenz von Bio- und Informationstechnologien mit der Verheißung des ewigen Lebens einher, wobei diese Vorstellung von Weiterleben eben auf Entkörperlichung angewiesen ist. Nur wenn sich menschliches Leben ins Virtuelle migrieren ließe, macht die Verheißung eines digitalen Bewusstseins auch Sinn. Der unsterbliche Mensch ist für den Designtheoretiker Friedrich von Borries deshalb »eine totale Form des Selbstdesigns, die schließlich in die Selbstauflösung mündet« (von Borries 2019: 111). Hierbei stellt sich allerdings die Frage, ob der Mensch, der seiner eigenen Sterblichkeit enthoben wurde, noch als menschliches Wesen angesehen werden kann. Für von Borries (und für viele Ethiker und Philosophen) beginnt Menschsein im Wissen um die eigene Vergänglichkeit. Kritik an der Idee der technischen Seelenwanderung ist schon recht alt. »Dass die Artificial-Intelligence-Elite glaubt, Gefühle wie Liebe, Kummer, Freude, Trauer und alles, was die menschliche Seele mit Gefühlen und Emotionen aufwühlt, [...] in einen Maschinenartefakt mit Computergehirn transferieren, zeigt, [...] eine Verachtung für das Leben, eine 35

https://www.netflix.com/de/title/80097140 (07.06.2022).

115

116

Stefan Selke: Technik als Trost

Verleugnung ihrer eigenen menschlichen Erfahrung, um es vorsichtig auszudrücken«, Joseph Weizenbaum (1977) in seinem Buch Die Macht der Computer und die Ohnmacht der Vernunft, in dem er massive Kritik an der Übertragung menschlicher Gefühle und Emotion in digitale Systeme übt.

3.4 Superintelligenz Mit der Idee einer starken Künstlichen Intelligenz – meist kurz (und euphemistisch) Superintelligenz genannt – lassen sich Verheißungserzählungen im Formt von Quest-Narrativen nochmals dramaturgisch ausschmücken. Die zentrale Verheißung der Superintelligenz ist Transzendierung – insofern gibt es zahlreiche Überschneidungen zur Verheißung digitaler Unsterblichkeit. Damit ist die dramaturgische Fallhöhe von KI-Narrativen über Superintelligenz kaum noch zu überbieten. Die Spannung der Erzählungen resultiert aus einer dauerhaften Lücke zwischen Anspruch und Wirklichkeit, auf die bereits Hans Moravec aufmerksam machte. »Superintelligenz ist nicht identisch mit Vollkommenheit – spektakuläre Misserfolge sind unvermeidlich.« (Moravec 1990: 173) Das ist auch einer der Gründe dafür, dass vielen Experten Zukunftsnarrative über Superintelligenzen als unseriös gelten, denn »die große Utopie wird erst dann realistisch, wenn die schwache KI sich als Selbstverständlichkeit durchsetzt hat, wenn also lebensweltliche Probleme mit Hilfe von KI gelöst werden können«, so Boris Paskalev einschränkend. »Erst, wenn spezifische Probleme gelöst wurden, können wir beginnen, ganzheitlichere Systeme zu bauen.« Gleichwohl wurde bereits früh die Hoffnung auf die Verheißung einer Superintelligenz verbalisiert. Der These, wonach künstliche Intelligenz früher oder später menschliche Intelligenz übertreffen wird, verhalf vor allem der Robotikforscher Hans Moravec in seinem Buch Mind Children. Der Wettlauf zwischen menschlicher und künstlicher Intelligenz zu Prominenz. (Moravec 1990) Moravec war sich sicher, dass nur Maschinen als Sieger aus diesem ›Wettlauf‹ hervorgehen konnten – und legte damit zugleich die Grundlagen für ein bis heute beliebtes technikeuphorisches Narrativ. »Wir sind dem Zeitpunkt schon sehr nahe, zu dem praktisch jede wichtige körperliche oder geistige Funktion des Menschen ihr künstliches Pendant haben wird«, verspricht er gleich im Prolog seines Buches. »Die Verkörperung dieses Schnittpunkts vieler kultureller Entwicklungslinien wird der intelligente Roboter sein, eine Maschine, die wie der Mensch denken und handeln kann, mag sie ihm im materiellen

116

Stefan Selke: Technik als Trost

Verleugnung ihrer eigenen menschlichen Erfahrung, um es vorsichtig auszudrücken«, Joseph Weizenbaum (1977) in seinem Buch Die Macht der Computer und die Ohnmacht der Vernunft, in dem er massive Kritik an der Übertragung menschlicher Gefühle und Emotion in digitale Systeme übt.

3.4 Superintelligenz Mit der Idee einer starken Künstlichen Intelligenz – meist kurz (und euphemistisch) Superintelligenz genannt – lassen sich Verheißungserzählungen im Formt von Quest-Narrativen nochmals dramaturgisch ausschmücken. Die zentrale Verheißung der Superintelligenz ist Transzendierung – insofern gibt es zahlreiche Überschneidungen zur Verheißung digitaler Unsterblichkeit. Damit ist die dramaturgische Fallhöhe von KI-Narrativen über Superintelligenz kaum noch zu überbieten. Die Spannung der Erzählungen resultiert aus einer dauerhaften Lücke zwischen Anspruch und Wirklichkeit, auf die bereits Hans Moravec aufmerksam machte. »Superintelligenz ist nicht identisch mit Vollkommenheit – spektakuläre Misserfolge sind unvermeidlich.« (Moravec 1990: 173) Das ist auch einer der Gründe dafür, dass vielen Experten Zukunftsnarrative über Superintelligenzen als unseriös gelten, denn »die große Utopie wird erst dann realistisch, wenn die schwache KI sich als Selbstverständlichkeit durchsetzt hat, wenn also lebensweltliche Probleme mit Hilfe von KI gelöst werden können«, so Boris Paskalev einschränkend. »Erst, wenn spezifische Probleme gelöst wurden, können wir beginnen, ganzheitlichere Systeme zu bauen.« Gleichwohl wurde bereits früh die Hoffnung auf die Verheißung einer Superintelligenz verbalisiert. Der These, wonach künstliche Intelligenz früher oder später menschliche Intelligenz übertreffen wird, verhalf vor allem der Robotikforscher Hans Moravec in seinem Buch Mind Children. Der Wettlauf zwischen menschlicher und künstlicher Intelligenz zu Prominenz. (Moravec 1990) Moravec war sich sicher, dass nur Maschinen als Sieger aus diesem ›Wettlauf‹ hervorgehen konnten – und legte damit zugleich die Grundlagen für ein bis heute beliebtes technikeuphorisches Narrativ. »Wir sind dem Zeitpunkt schon sehr nahe, zu dem praktisch jede wichtige körperliche oder geistige Funktion des Menschen ihr künstliches Pendant haben wird«, verspricht er gleich im Prolog seines Buches. »Die Verkörperung dieses Schnittpunkts vieler kultureller Entwicklungslinien wird der intelligente Roboter sein, eine Maschine, die wie der Mensch denken und handeln kann, mag sie ihm im materiellen

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

oder intellektuellen Detail auch noch so unähnlich sein.« (Ebd.: 11) Die Verheißung bestand für Moravec in der Fortsetzung der bisherigen (biologischen) Evolution durch einen von Technik angetriebenen Prozess der Selbstvervollkommnung, bei dem sich der Modus der Informationsübertragung radikal wandelt. Dieses Argument fand zahlreiche Nachahmer. In seinem Buch Menschheit 2.0 erklärt etwa Ray Kurzweil Singularität evolutionär. »Es handelt sich um einen zukünftigen Zeitabschnitt, in dem der technische Fortschritt so schnell und seine Auswirkungen so tiefgreifend sein werden, dass das menschliche Leben einen unwiderruflichen Wandel erfährt. Das ist weder utopisch noch dystopisch«, behauptet Kurzweil. »In der Singularität werden unser biologisches Denken und Dasein mit unserer Technik verschmelzen. Das Ergebnis ist eine nach wie vor menschliche Welt, allerdings jenseits unserer biologischen Wurzeln. Danach wird kein Unterschied mehr sein zwischen Mensch und Maschine, oder zwischen physikalischer und virtueller Realität.« (Kurzweil 2005: 88) Es leuchtet unmittelbar ein, dass vollmundige Behauptungen dieses Typs schnell als Unsinn abgetan werden. Der Forscher Murray Shanahan sieht allerdings jenseits unzulässiger Wahrsagerei doch Gründe dafür, sich ernsthaft mit der Idee der Singularität auseinanderzusetzen. »Erstens ist von einem intellektuellen Standpunkt her betrachtet, das Konzept als solches bereits hochinteressant, ganz unabhängig davon, ob oder wann sie jemals eintreten wird. Zweitens verlangt ihre bloße Möglichkeit [...] schon aus pragmatischen und gänzlich rationalen Gründen bereits heute nach einer Untersuchung.« (Shanahan 2015: 14)

Verheißung einer radikalen Befreiung Die Verheißung einer fortgesetzten Evolution wird gegenwärtig im Kontext der funktionalen Konvergenz zahlreicher Hochtechnologien (Bio, Nano, IT) immer wieder aktualisiert und angepasst. Dahinter steht »die Überzeugung, dass sich die evolutionäre Entwicklung der Menschheit nicht am Endpunkt befinde«, so Michael Latzer. »Diese Einschätzung ist gekoppelt mit dem Glauben an eine menschlich kontrollierbare Evolution.« (Latzer 2021: 6) Zwar ist dieser Glaube nur vage definiert, aber gerade deshalb spielt er als Verheißung eine tragende Rolle in zeitgenössischen Wirklichkeitskonstruktionen. Genau daran hat Moravec einen entscheidenden Anteil, da er nicht nur Maschinenwesen ersann, sondern auch die Übertragung des menschlichen Geistes auf diese Wesen prognostizierte. Alles, was bislang Kultur genannt wurde, müsste dann neu definiert werden. »Es fällt nicht schwer«, behauptet Moravec, »sich

117

118

Stefan Selke: Technik als Trost

menschliches Denken frei von der Bindung an einen sterblichen Körper vorzustellen.« (Ebd.: 13) In dieser Aussage liegen die Wurzeln zahlreicher QuestNarrative, die später im Kontext der Bewegung des Transhumanismus’36 im menschlichen Geist lediglich einen Rechenvorgang sehen, der sich auf Maschinen übertragen lässt. In einer postbiologischen Welt, so die Hoffnung, ließe sich der menschliche Geist aus seinem materiellen Gehirn befreien. Doch diese Welt wäre dann »von sich selbst vervollkommnenden, denkenden Maschinen beherrscht« (ebd.: 14f.). Kurz: Der »alte Traum vom mechanischen Menschen« (Coenen 2015) erlangt im Gewand aktueller KI-Narrative neue Strahlkraft. Kaum jemand beschäftigte sich intensiver mit den technologischen Möglichkeiten einer Seelenwanderung durch das Upload des menschlichen Bewusstseins in eine Maschine als Hans Moravec. Der Roboterpionier war von der anthropologischen Vorstellung des Menschen als Mängelwesen geradezu getrieben. »Warum also nicht alles ersetzen, d.h., ein menschliches Gehirn in einen speziellen konstruierten Roboterkörper verpflanzen?« (Moravec 1990: 152). In diesem Sinne postulierte Moravec nicht weniger als die Befreiung des menschlichen Geistes aus dem biologischen Körper. In einem detaillierten Szenario beschreibt er den dafür notwendigen Upload-Prozess wie folgt: Im OP wird zunächst die Schädeldecke eines Menschen geöffnet, die Oberfläche des Gehirns wird abgetastet, um daraus eine dreidimensionale Karte zu entwickeln. Auf dieser Grundlage simuliert ein Programm das menschliche Gehirn. Schließlich wird dieses Programm in einem Computer installiert und aktiviert. Auf diese Weise wird das Gehirn einer Person »Schicht um Schicht abgetragen. Schließlich ist ihr Schädel leer, und die Hand des Chirurgen befindet sich tief in ihren Hirnstamm. Dennoch haben sie weder das Bewusstsein noch den Faden ihrer Gedanken verloren. Ihr Geist ist einfach aus dem Gehirn in eine Maschine übertragen worden. [...] Ihre Metamorphose ist abgeschlossen.« (Moravec 1990: 154) So einfach ist das?! Die Tatsache, dass dieses Szenario vielleicht bekannt erscheint, erklärt sich daraus, dass es sich variantenreich in zahlreichen Science-Fiction-Filmen

36

Die Wurzeln des sog. Transhumanismus werden dabei in ganz unterschiedlichen Persönlichkeiten gesehen, etwa dem Jesuitenmönch Teilhard de Chardin, der den Begriff »Noosphere« prägte, oder dem Philosophen Friedrich Nietzsche und dessen Idee des »Übermenschen«. Der Transhumanismus versteht sich als Erweiterung des Humanismus, organisiert sich seit 1998 in der »World Transhumanist Association« und wird oft auch einfach mit »H+« abgekürzt. Ausführlich Krüger (2019).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

(z.B. Tron) wiederfindet. In allen Upload-Szenarien geht es um die Verheißung der Unsterblichkeit mittels KI, die bereits während der Lebzeiten einer Person lernt, was diese Person ausmacht. Wenn dann nach dem Tod »genügend Kopien an entsprechend vielen Orten deponiert werden [...] ist ihr dauerhafter Tod höchst unwahrscheinlich«, verspricht Moravec.37 »Als Computerprogramm kann ihr Geist alle Informationskanäle benutzen. Er kann zum Beispiel als verschlüsselte Nachricht auf einem Laserstrahl von einem Planeten zum anderen gelangen.« (Ebd.: 157) So ähnlich stellen sich auch Filmemacher den Prozess vor, z.B. im Film Transcendence (2014, Regie: Wall y Pfister). »Vielleicht war das alles unausweichlich«, so ein Protagonist des Films, der die außer Kontrolle geratene Superintelligenz kommentiert. »Eine Konfrontation zwischen Mensch und Technologie.« Am Ende des Films resümiert einer der Helden in einer typisch amerikanischen Bar-Szene über die Doppeldeutigkeit, die mit starker KI einhergeht. »Es ist ein Ringen zwischen Verheißung und Gefahr, die die Technik mit sich bringt. Die meisten Wissenschaftler sind blind dafür.«38 Jedenfalls wird dieses Beispiel für die »Krönung des anthropozentrischen Denkens« (Shanahan 2015: 17) aufgrund der damit verbundenen dramaturgischen Fallhöhe gerne als Vorlage für fiktionale Format genutzt. Mehr noch: Die Idee des Uploads wird auch parodiert, etwa in der aktuellen komödiantischen TV-Serie Upload (2020, Regie: Gred Daniels). Selbstverständlich wird sie auch heftig kritisiert. Die Autorin Theresa Hannig beschäftigt sich in ihrem Roman Die Optimierer kritisch mit der Verheißung der Unsterblichkeit und lässt einen ihrer Protagonisten kommentieren: »Es gibt Techniken, das Gehirn einer gerade verstorbenen Person auszulesen. Das wird nicht an die große Glocke gehängt, denn viele Menschen möchten ihre Erinnerungen lieber mit ins Grab nehmen und empfinden solche Kopiervorgänge als unfein. Keine Ethikkommission möchte sich mit den Fragen, die das aufwirft, beschäftigen. Wir machen es einfach.« (Hannig 2017: 255) Eng verbunden mit der Verheißung des Uploads und der Unsterblichkeit ist die Verheißung posthumaner Verschmelzungskombinatoriken. »Es dürfte keine 37

38

Gleichwohl stellt sich unter diesen Bedingungen die Frage nach der eigenen Identität immer wieder neu. »Wenn der Kopiervorgang das Original zerstört, dann hat man sich umgebracht«, so Hans Moravec. »Für meine sterblichen Reste ist es kein Trost, dass sich die Kopie damit amüsiert, unter meinem Namen das Universum zu erforschen.« (Moravec 1990: 162) In ähnlicher Weise entwickelt sich parallel zur dramatischen Filmhandlung in Jurassic Park (erstmals 1993) eine Reflexion darüber, dass Leben Grenzen überwinden kann: »Das Leben findet einen Weg. […] Die schöpferische Kraft ist entfesselt.«

119

120

Stefan Selke: Technik als Trost

Schwierigkeiten machen, die Erinnerungen verschiedener Kopien in einer einzigen zu verschmelzen. [...]. Solche Verschmelzungsprozesse sollten nicht nur zwischen zwei Versionen desselben Individuums möglich sein, sondern auch zwischen unterschiedlichen Individuen. [...] Begriffe wie Leben, Tod und Identität werden ihre heutige Bedeutung verlieren, denn Bruchteile Ihres Geistes und des Geistes anderer Individuen werden sich durchmischen und in neuen zeitlich begrenzten Kombinationen zusammentreten.« (Moravec 1990: 161) In einer postbiologischen Welt läuft also alles auf das Versprechen der Auferstehung in einer vollkommen neuartigen Form hinaus. Allerdings zeigen die Ausführungen von Moravec auch, dass es nicht ausreicht, Roboter oder andere künstliche Wesen mit anthropomorphen Begriffen zu beschreiben, denn Vermenschlichung ist irreführend. Zudem sind mit dem Narrativ der Superintelligenz weitere konzeptionelle und epistemologische Herausforderungen verbunden, z.B. die Frage, wie realistisch eine Superintelligenz eigentlich ist. »Superintelligenz steckt noch in den Kinderschuhen«, meint etwa Wolfgang Eckstein. »In den nächsten 30 Jahren wird nichts Ernsthaftes passieren. Um ein klassisches Deep Learning System zu beherrschen, hat man so 15, 20 Parameter plus die Daten, die man hineingibt. Und sobald man solche Systeme miteinander kombiniert, explodiert die Anzahl der Parameter, die das Verhalten steuern. Sollen also tausende von Spezialanwendungen, miteinander verkoppelt werden, dann explodiert die Komplexität.« Nur durch die Steigerung von Rechenleistung entsteht also noch keine Superintelligenz. So lange bleibt die Idee einer Superintelligenz verheißungsvolle Fantasie oder schlicht »die Königsdisziplin«, wie es Verena van Zyl-Bulitta auf den Punkt bringt.

Superintelligenz als kollektives Memento Mori KI-Verheißungen werken immer wieder kritisch beäugt und dennoch gerne medial und literarisch aufgegriffen. Vor diesem Hintergrund lässt sich Superintelligenz auch als kollektives Memento Mori für das 21. Jahrhundert einordnen.39 »Mensch, wach auf! Denk endlich drüber nach, was du tust«, so bringt es der Physiker Michael Möricke auf den Punkt. »Früher brauchte man den lieben Gott und den bösen Teufel als Warnung. Die moderne Gesellschaft braucht Singularität – das wirkt wie Gott und Teufel in einem.« Ob im positiven oder negativen Sinne – jede Anbetung von KI erfährt eine 39

In Anspielung auf »Memento te hominem esse.« (Bedenke, dass du ein Mensch bist.)

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Steigerungskomponente, wenn Superintelligenz ins Spiel kommt. Superintelligenzen werden einerseits unglaubliche Leistungen zugeschrieben – sie soll mittels ihrer mathematischen Modellierungen Zusammenhänge erkennen, die für Menschen absolut verborgen sind. Andererseits wird Kontrollverlust über das Ergebnis befürchtet. Angst macht hierbei nicht der unheimliche Verwirklichungshorizont einer Superintelligenz, sondern die Unfähigkeit der Menschen, sich kollektiv auf erstrebenswerte Ziele zu einigen. Auch die Vorstellung einer unterkomplexen Superintelligenz wird kritisiert: »Simple Extrapolation – das ist eine ganz menschliche Denkweise«, so der Physiker Gerd Ganteför. »Wenn wir jedoch über KI reden, müssen wir uns darüber im Klaren sein, dass wir etwas haben werden, das vielleicht nicht mehr von so einfachen Extrapolationen abhängt. Vielleicht passiert etwas wirklich Neues. Die Vision einer Superintelligenz ist zu begrenzt und zudem zu sehr in Hollywood-Filmschemata eingefangen.« Hier stellt sich die Frage, ob es nicht auch alternative Vorstellungen einer Superintelligenz geben könnte, die dazu beitragen, soziale Utopien zu verwirklichen. Wer darüber nachdenkt, wie starke KI eines Tages aussehen könnte, muss auch berücksichtigen, dass es immer Menschen sind, die Interessen vorfolgen. »Aber wer soll einer Superintelligenz das Ziel vorgeben?«, fragt Michael Möricke. Einmal mehr zeigt sich, dass nicht Technikentwicklung in der Form von Rechenleistung ein geeigneter Fluchtpunkt der Zivilisation ist, sondern die Klärung von Sinnfragen. Denn »Mensch und Maschine zu verschmelzen, ist nur im Rahmen übergeordneter Ziele vernünftig.« (Coenen 2015: 73) Wird das nicht berücksichtigt, kann technologischer Fortschritt auch in das Gegenteil umschlagen: Entmachtung statt Emanzipation.40 Bei der Frage nach dem Status starker KI dreht sich vieles (wenn nicht alles) um die Frage nach Autonomie. »Eine KI hat keine Intention, keinen Willen, außer wir geben ihr einen«, so der Physiker Ganteför. »Sie ist zunächst ein von uns geschaffenes Werkzeug. Gleichzeitig wäre diese KI Teil unserer Kultur. Sie hat dann vielleicht fremde Gedanken, neue Blickwinkel und kommuniziert die Ergebnisse ihrer Analysen mit uns. Das wäre eine unglaubliche Verheißung – die Kommunikation mit einer unabhängigen KI.« Unter welchen Umständen könnten Menschen mit einer solchen KI in Wechselwirkung treten? Viele KI-Narrative schüren vor allem Ängste, wenn sie darauf abheben,

40

Vgl. dazu auch das Buch Zwischen Mensch und Maschine des Philosophen Oliver Müller, der die Verschmelzungsidee zwischen Freiheit und Unfreiheit diskutiert (Müller 2010).

121

122

Stefan Selke: Technik als Trost

dass KI strategische und moralische Autonomie übernehmen könnte – Menschen also bezüglich notwendiger Zieldefinitionen und damit verbundener Entscheidungsautonomie geradezu entmündigen. Gleichwohl sind Menschen selbst irrationale Wesen, wie der Wissenschaftstheoretiker Franz Wuketits in seiner wunderbaren (Natur-)Geschichte der Unvernunft zeigt. (Wuketits 2013) Als solche verfügen Menschen gerade nicht über stabile Präferenzstrukturen. Was ihnen zu einem bestimmten Zeitpunkt wichtig ist, kann schon bald unwichtig werden – und umgekehrt. Mehr noch: Die Geschichte hat gezeigt, dass Menschen unfähig zu kollektivem und wertebasiertem Handeln sind. Menschen sind nur bedingt fähig zu übergreifenden Zieldefinitionen, weil ihnen universelle Werte fehlen.41 Aufgrund dieser Defizite können Menschen kaum ein gutes Vorbild für eine starke KI sein. Gängige Forderungen, Moral in Maschinen einzubauen42 laufen damit ins Leere. Aufgrund der Instabilität und Inkonsistenz menschlichen Handelns lernt KI vor allem eines: Instabilität und Inkonsistenz. Zwar gibt es ideelle Werte auf Basis ethischer Grundüberlegungen, dennoch stellt sich in der Praxis immer wieder die Frage, ob und wie sich ideale Prinzipien oder Grundwerte in konkrete Handlungsabfolgen übersetzen lassen. Zudem ist es schwer, eine Bewusstseinsform in eine Handlungspraxis zu übersetzen.43 Das ist auch einer der Gründe dafür, warum über KI in sektorale Anwendungsfelder meist in Form von Anpassungs-Narrativen spekuliert wird. Denn zu Autonomie »gehört immer ein Anwendungsgebiet und somit ein Einzelfall«, so Michael Möricke. »Während die Autonomie des Menschen darin liegt, sein Leben zu führen und wir nie ganz autonom sein werden, können Maschinen in spezifischen Anwendungsfällen vollständig autonom sein.« Gleichzeitig katapultiert KI als mimetisches Nachahmungssystem menschliche Nutzer auf die Ebene der Selbsterkenntnis zurück. Was also wollen wir unseren »Mitgeräten« beibringen? KI-Narrative sind notgedrungen auch Erzählungen über eine neue ›Maschinenpädagogik‹: Menschen erziehen nicht mehr nur Menschen, sondern in Zukunft auch Maschinen. In Anlehnung an den Dichter Gotthold Ephraim Lessing werden wir somit

41 42

43

Ausnahmen sind bislang vielleicht die UN- Menschenrechtsdeklaration oder die UN Sustainable Development Goals (SDG). Beim ethischen Design muss Werten in Normen übersetzt und operationalisiert werden um dann zu algorithmenbasierten Handlungsanweisungen zu werden (Top-down-Ansatz). Oder man lässt KI einfach nachahmen, die Menschen machen (Bottom-up-Ansatz). Vgl. dazu den sog. Knowledge-Action-Gap bei Birnbacher (1988).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

»Erzieher des künftigen Maschinengeschlechts«, so der Philosoph Christian Bauer. Unsere Zukunftserzählungen bezeugen das Aufkommen einer gänzlich neuen Verantwortungskultur: Weil sich Menschenleben und Maschinenfunktionen immer mehr durchdringen, braucht es auf der sozialpsychologischen Ebene mehr Sensibilität für wechselnden Vorlieben und menschlichen Widersprüchen. Für Menschen sind Widersprüche keine Unvereinbarkeiten. Doch was der menschliche Geist irgendwie zusammenbringt, lässt jeden Algorithmus abstürzen. Nun geht das Gedankenexperimente ja noch weiter: »Eines Tages werden wir uns daran gewöhnt haben, Robotern ganz selbstverständlich moralische Entscheidungen zu überlassen«, behauptet etwa Michael Möricke. »Dazu müssen wir das Netz unserer Werte operationalisieren. Eine KI wird durch eine Mischung aus Training und Programmierung lernen. Dennoch gibt es Dinge, die man einer KI nicht beibringen kann. Menschen lernen nicht, aufs Töten zu verzichten, indem sie das ein paar Mal probieren.« Und auch am anderen Ende des Spektrums warten Unvereinbarkeiten auf die Maschinen. »Glück [...] lässt sich nicht nach DIN-Norm zusammenschrauben«, so ein Protagonist im Thriller Die Tyrannei des Schmetterlings, »doch genau das ist eine Programmiersprache: eine Gebrauchsanweisung, ausgedrückt in Nutzenfunktionen. Na, dann viel Spaß, Leute!« (Schätzing 2018: 490)

3.5 Singularität Nochmals zur Idee der Singularität: In der Auseinandersetzung mit Norbert Wiener führte John von Neumann in den 1950er-Jahren den Begriff der »technologischen Singularität« ein. (Lloyd zit. n. Brockman 2020: 8) Er war der erste in einer langen Reihe Nachfolgender, der falsche Prognosen über das Eintreten dieser Singularität machte. Um die Jahrtausendwende hielten viele Kritiker die versponnenen Ideen der Trans- und Posthumanisten für erledigt. Erst 2005, nach der Veröffentlichung des Buches The Singularity is near durch Ray Kurzweil gewann die Idee44 an Bedeutung und Dynamik. (Kurzweil 2005) Mit seiner Singularity University und seinem Bestseller erzeugte Kurzweil ein schier unglaubliches Medienecho. »Plötzlich entstand aus den Ideen des Singularitätsdiskurs die wundersamste Verheißung, die man sich nur vorstellen 44

Der Begriff selbst wurde bereits 1983 von Vernot Vinge geprägt, der die Idee »greater than human intelligence« auf dem Vision-21 Symposium unter dem Begriff »singularity« populär machte. (Vgl. Zimmerli 2021: 204)

123

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

»Erzieher des künftigen Maschinengeschlechts«, so der Philosoph Christian Bauer. Unsere Zukunftserzählungen bezeugen das Aufkommen einer gänzlich neuen Verantwortungskultur: Weil sich Menschenleben und Maschinenfunktionen immer mehr durchdringen, braucht es auf der sozialpsychologischen Ebene mehr Sensibilität für wechselnden Vorlieben und menschlichen Widersprüchen. Für Menschen sind Widersprüche keine Unvereinbarkeiten. Doch was der menschliche Geist irgendwie zusammenbringt, lässt jeden Algorithmus abstürzen. Nun geht das Gedankenexperimente ja noch weiter: »Eines Tages werden wir uns daran gewöhnt haben, Robotern ganz selbstverständlich moralische Entscheidungen zu überlassen«, behauptet etwa Michael Möricke. »Dazu müssen wir das Netz unserer Werte operationalisieren. Eine KI wird durch eine Mischung aus Training und Programmierung lernen. Dennoch gibt es Dinge, die man einer KI nicht beibringen kann. Menschen lernen nicht, aufs Töten zu verzichten, indem sie das ein paar Mal probieren.« Und auch am anderen Ende des Spektrums warten Unvereinbarkeiten auf die Maschinen. »Glück [...] lässt sich nicht nach DIN-Norm zusammenschrauben«, so ein Protagonist im Thriller Die Tyrannei des Schmetterlings, »doch genau das ist eine Programmiersprache: eine Gebrauchsanweisung, ausgedrückt in Nutzenfunktionen. Na, dann viel Spaß, Leute!« (Schätzing 2018: 490)

3.5 Singularität Nochmals zur Idee der Singularität: In der Auseinandersetzung mit Norbert Wiener führte John von Neumann in den 1950er-Jahren den Begriff der »technologischen Singularität« ein. (Lloyd zit. n. Brockman 2020: 8) Er war der erste in einer langen Reihe Nachfolgender, der falsche Prognosen über das Eintreten dieser Singularität machte. Um die Jahrtausendwende hielten viele Kritiker die versponnenen Ideen der Trans- und Posthumanisten für erledigt. Erst 2005, nach der Veröffentlichung des Buches The Singularity is near durch Ray Kurzweil gewann die Idee44 an Bedeutung und Dynamik. (Kurzweil 2005) Mit seiner Singularity University und seinem Bestseller erzeugte Kurzweil ein schier unglaubliches Medienecho. »Plötzlich entstand aus den Ideen des Singularitätsdiskurs die wundersamste Verheißung, die man sich nur vorstellen 44

Der Begriff selbst wurde bereits 1983 von Vernot Vinge geprägt, der die Idee »greater than human intelligence« auf dem Vision-21 Symposium unter dem Begriff »singularity« populär machte. (Vgl. Zimmerli 2021: 204)

123

124

Stefan Selke: Technik als Trost

kann«, so Oliver Krüger. »Die Idee der Singularität wurde in den Mainstream der Populärkultur katapultiert.« Das ist bemerkenswert, weil diese Idee letztendlich nur eine Steigerung von bereits existierenden Prophezeiungen und Heilsversprechungen darstellte – Übersteigerung des Menschen einerseits, dessen Auslöschung andererseits. In der Lesart von Kurzweil ist Singularität sogar eine mehr als verheißungsvolle Option, denn nur wenn Menschen ihr biologisches Gehirn mit einer Superintelligenz verbinden, erlangen sie Unsterblichkeit. Mit der Idee der Ersetzung des Menschen durch Maschinen ist das Kernelement von KI-Verheißungen benannt. »Wird dieses seit der Antike immer wiederkehrende Narrativ mit zeitlichen Voraussagen kombiniert, ergibt sich jene merkwürdige Mischung, die man als ›Prognose in Permanenz‹ bezeichnen kann und die sich auch durch das Nichteintreten des von ihr prognostizierten eben gerade nicht falsifizieren lässt.« (Zimmerli 2021: 204) Dabei knüpft der Singularity-Mythos umstandslos an die frühchristliche Parusie-Erwartung sowie eschatologische Narrative an: »Anders gesagt: Das Ende ist nah, aber es schreitet mit der Verheißung einher, dass anschließend ein Zustand erreicht wird, der eine unerhörte, zuvor nie dagewesene Welt eröffnet.« (Ebd.: 208). Weil es für diese neue Welt keine realistischen Explorationsmöglichkeiten gibt, werden Heilsbotschaften zur Glaubenssache – und damit anfällig für teils hämische Kritik. Deshalb wird das verheißungsvolle Zukunftsnarrativ von einem zweiten Narrativ begleitet, dem »Singularity Skepticism« (Lloyd zit. n. Brockman 2020: 9). Kritiker halten die Idee der Singularität schlicht für übertrieben. Gerade deshalb findet der Topos der Singularität und die damit verbundenen Verheißungen regelmäßig Niederschlag in der Science-Fiction-Literatur. Auch der Roman des BestsellerAutors Joshua Tree, Singularity, spielt mit latenten Ängsten und fragt einmal mehr, ob sich die Menschheit durch die Nutzung starker KI letztendlich selbst abschafft. (Tree 2021) Im Thriller Die Tyrannei des Schmetterlings thematisiert der Autor Frank Schätzing sowohl die Gefahren als auch die Verheißungen starker KI (Schätzing 2018): Bei den Ermittlungen zu einem mysteriösen Todesfall gerät ein Provinzpolizist in das Netz der KI-Firma eines TechnoWeltverbesserers, der den Supercomputer A.R.E.S. (für: »Artificial Research and Exploring Systems«)45 entwickelte. Die Entwicklung des Supercomputers beschreibt sein Schöpfer mit einer für Laien nachvollziehbaren biologischen 45

Der Name verweist auf den griechischen Kriegsgott Ares. Und in der Tat produziert der Supercomputer gentechnisch manipulierte Insekten als grausame biokybernetische Waffe.

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Metapher: »A.R.E.S. ist eine Raupe. Ein kleines, immer hungriges Wesen, dass sich vollfrisst mit Information. Und wenn es sämtliche Daten des messbaren Universums gefressen hat, dann wird die Raupe sich verpuppen. [...] Und dann wird etwas schlüpfen.« (Schätzing 2018: 194) Daraus resultiert schließlich das Bild einer KI, die das Potenzial zur Weltbeherrschung besitzt. »A.R.E.S. hat Aussichten, sich in einem Takeoff genannten Prozess zur Superintelligenz zu entwickeln, zu einem maschinellen Intellekt, der sämtliche geistige Fähigkeiten der Menschheit in unvorstellbarer Größenordnung übertreffen wird. [...] Dann wird es darum gehen, dass er seine Werte und Endziele autonom nachjustiert, ausgerichtet auf das Menschheitswohl.« (Ebd.: 467) In der Tat entdeckt die KI in der Romanhandlung den Zugang zu Paralleluniversen, in denen Innovationen entwickelt und getestet werden, die auf der Erde (aus ethischen Gründen) nicht erlaubt sind. Schätzing spielt hier auf ein Dilemma der KI-Forschung an: »Leider müssen wir die Erfahrungen machen, dass es gar nicht so einfach zu sein scheint, Menschheitsprobleme zu lösen«, lässt er den Erfinder der Super-KI erzählen. »Fortschritt entsteht im Kopf. Ob er akzeptiert wird, hängt von innerer Bereitschaft ab [...] den Schalter, um Ungleichheit, Verelendung, Rassismus, Terror und Umweltzerstörung abzustellen, den haben wir bis jetzt nicht gefunden.« (Ebd.: 400) Die Entstehung des Romans zeigt, wie sehr Fiktion und Wissenschaft in Wechselwirkung treten, weist doch der Autor selbst darauf hin, dass zahlreiche Gespräche mit KI-Experten, Kritikern sowie Fachtexte die Grundlage seiner Recherche bildeten. Der Roman ist damit ein Beispiel für das, was ›letztes Szenario‹ genannt werden kann: Die Überwindung ultimativer Grenzen, ein Narrativ, wie es höchstens aus dem Bereich der Weltraumexploration bekannt ist. Auch im Buch Die Codices von Wolfgang Eckstein wird eine starke KI auf der Basis eines sehr leistungsfähigen Quantencomputers beschrieben, die ebenfalls eine neue, transzendente Entität darstellt. (Eckstein 2019) Das Buch umfasst »gleich mehrere heiße Themen rund um die Digitalisierung«, so der Autor im Gespräch, wobei drei Erzählstränge sowie historische Schauplätze mit kulturellen und technischen Informationen verwoben werden. Mit der Erfindung des Supercomputers sind weitreichende Hoffnungen und Machtfantasien verbunden. »Stellen Sie sich vor, wir kennen die geheimsten Wünsche aller Menschen und bringen sie in Situationen, in denen sie diese Sehnsüchte ausleben können«, so einer der Protagonisten in Die Codices. »Wir werden die Welt in unseren Händen halten.« (Ebd.: 474) Die Prognosefähigkeit des Supercomputers bezieht sich einerseits auf die Aufschlüsselung von Lebensdaten, andererseits aber auch auf die Beherrschung der Welt. »Gemessen an

125

126

Stefan Selke: Technik als Trost

dem, was ich selbst von KI erwarte, ist das im Buch etwas überzogen«, so Eckstein, der auch KI-Unternehmer ist. »Ich habe das den Erwartungen der Leser angepasst und ein wenig reißerischer gestaltet. Meine Erwartung an KI ist, das eine ganze Reihe von Dingen verbessert werden, ich aber aufgrund dieser Verbesserungen auch eine Reihe von sozialen Problemen erwarte.« Im Thriller wird deutlich, dass sich Supercomputer zum Wohl der Menschheit einsetzen, aber auch als gegen diese gerichtete Waffe nutzen lassen. Denn der Supercomputer in Die Codices gerät in die falschen Hände eines skrupellosen Unternehmens, das ihn zum Zweck der Totalüberwachung einsetzt. Damit ist das eigentliche Thema des Buches eine umfassende Technologiekritik im Duktus der Warnung. »Dass dieses System in der Welt ist, können die Protagonisten zwar nicht mehr ändern«, so Stefan Höltgen in einer Rezension des Buches, »aber die damit verbundenen Missbrauchsmöglichkeiten und moralischen Implikationen können sie aufdecken.«46

Fiktionale Technologieeuphorie als Ausnahmefall Einer der wenigen Filme, die eine Zukunft in Gesellschaft von KI utopisch und gerade nicht dystopisch verhandelt, ist Finch. (2021, Regie: Miguel Sapochnik) Ein Roboter zeigt dabei auf wunderbar einfühlsame Weise, worin der Unterschied zwischen einem Menschen, dessen Hund und ihm selbst besteht. Nebenbei werden grundlegende Fragen des Daseins geklärt. Damit stellt dieser Science-Fiction-Film ein Gegen-Narrativ zu den üblichen KI-Filmen »Made in Hollywood« dar, in denen Roboter meist als brutale Feinde der Menschheit inszeniert werden. Die meisten apokalyptischen Blockbuster sind typische Dagegen-Narrative, die voraussetzen, dass das Zeitalter der Singularität bereits eingetreten ist. Spannungsreich warnen sie vor der Übernahme der Kontrolle durch KI und der Auslöschung der Menschheit. Finch zeichnet hingegen ein alternatives Bild der Zukunft. Finch (gespielt von Tom Hanks) ist der vermeintlich letzte Überlebende einer menschgemachten Katastrophe. Zusammen mit seinem Hund Goodyear versucht er in der postapokalyptischen Welt zurechtzukommen, die sich durch Nahrungsknappheit sowie extreme Hitze und Strahlungsbelastung auszeichnet. Anders als z.B. in Steven Spielbergs Filmklassiker AI ist der Android, der Finch begleitet, nicht sehr menschenähnlich, sondern erkennbar aus maschinellen Komponenten zusammengebastelt. Einzig die Grundform (Beine, Arme, Hände, Korpus, 46

https://www.spektrum.de/rezension/buchkritik-zu-die-codices/1690136 (11.02.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Kopf, Augen) erinnert grob an einen Menschenkörper.47 Das hängt auch mit der Intention seines Erbauers zusammen: Finch ahnt, dass er verstrahlt ist und bald sterben wird. Deshalb baut er unter Zeitdruck einen Androiden, dessen einzige Aufgabe darin besteht, den Hund Goodyear zu betreuen, wenn er, Finch, verstorben sein wird. Damit dies gelingt, lädt Finch enzyklopädisches Wissen in den Speicher des Roboters u.a. ein Handbuch für die Ausbildung und Pflege von Hunden. Weil ein monströser Sturm naht, muss das ungleiche Trio vorzeitig aus einem unterirdischen Labor fliehen, was dazu führt, dass beim Upload nur drei Viertel der Daten verarbeitet wurden. Die Intelligenz des Roboters ist damit auf der Stufe eines Kleinkindes. Dennoch begrüßt ihn Finch liebevoll: »Herzlich willkommen in unserer Welt!« Allerdings stellt sich sogleich die Frage, welche Welt das eigentlich ist. Die Welt der Menschheit oder die Welt der menschgemachten apokalyptischen Katastrophe, eine Endzeit-Welt. Während des folgenden Road-Trips in Richtung Westen, wird bei Finch eine brachliegende biografische Sehnsucht aktiviert. Weil dieser vor langer Zeit eine Postkarte von seinem unbekannten Vater erhielt, die die Golden Gate Brücke in San Francisco zeigt, wird die Stadt am Pazifik zum Ziel der letzten Reise auserkoren – damit lässt sich die Filmhandlung gleich im doppelten Sinne als Quest-Geschichte auffassen. Während der Reise erweist sich Jeff – wie sich der Android zwischenzeitlich nennt – als äußerst lernfähig. Obwohl (oder gerade weil?) sein Datensatz unvollständig ist, lernt er durch Anschauung. Er ist zugleich Werkzeug (Wagenheber), Assistent (Navigator, Fahrer) als auch zunehmend Partner von Finch und dessen Hund Goodyear. Wie ein Kind mag es Jeff, wenn Finch ihm komplexe Begriffe (z.B. »Vertrauen«) anhand von Geschichten erzählt. Und wie ein Kind möchte Jeff, dass die Geschichten immer gleich beginnen und zwar mit der Formel »Vor langer Zeit einmal…«. Am Ende der Reise scheint Jeff erwachsen geworden zu sein und zeigt immer mehr menschliche Züge. Wie befürchtet verschlechtert sich der Gesundheitszustand von Finch rapide. Daher forciert er die Verantwortungsübernahme für seinen Hund Goodyear durch den Androiden Jeff. Wie sich zwischenzeitlich herausstellt, stammt der Hund von einem kleinen Mädchen, dass während der Plünderung eines Supermarkts im grausamen Überlebenskampf zwischen den letzten Überlebenden erschossen wurde. Das Motiv von Finch bekommt damit noch mehr dramaturgische Tiefe. Einerseits schämt er 47

Dieser Film erinnert wiederrum an den älteren Film Nr. 5 lebt (1986, Regie: John Badham), der von einem außer Kontrolle geratenen, gleichwohl aber wissbegierigen Roboter handelt, dessen Mantra »Mehr Input« lautet.

127

128

Stefan Selke: Technik als Trost

sich, dass er dem Mädchen und dessen Mutter nicht zu Hilfe geeilt ist. Seine Feigheit versucht er durch die Fürsorge für den Hund auszugleichen. Andererseits kann dieses Motiv auch als Anspielung auf die Passivität der Menschheit verstanden werden, die angesichts der selbstgemachten Gefahren einfach nur dem eigenen Untergang beiwohnt, anstatt das Ruder herumzureißen: Konkurrenz statt Koexistenz. Wenn also der Android Jeff am Ende des Films trotz einiger Anlaufschwierigkeiten doch noch zum Beschützer des Hundes wird, dann ist das auch metaphorisch zu verstehen: Als Repräsentant künstlicher Intelligenz wird Jeff zum Bewahrer der Erinnerung an die Menschheit, anstatt zu einem Zerstörer.

3.6 Erlösungsfantasien Die neue Quasi-Religion der Technikeuphoriker basiert auf dem Glauben, dass es für alles strikt mathematische Grundlagen geben muss. Menschen und überhaupt die ganze Welt werden damit berechenbar, alles lässt sich modellieren oder simulieren. Das ist das eine. Und das andere »ist eine Technologie, die keiner richtig versteht. Die Black-Box hat etwas Transzendentes«, so Verena van Zyl-Bulitta. »Etwas passiert, man muss es glauben. Und mitmachen. Dadurch entsteht eine Gläubigen-Kongregation.« Der verheißungsvolle Charakter von KI erscheint als Mysterium: Es funktioniert, kann aber nicht erklärt werden. Auf dieser Basis entsteht eine Quasi-Religion mit sektenhaften Zügen. Auch die Autorin Marie-Luise Wolff stellt fest, dass »alle Ausführungen zu Larry Page und Sergey Brin [...] etwas sektenartig Unterwürfiges an sich« haben (Wolff 2020: 79), gleichzeitig aber immer wieder zu einem Gefühl der kolossalen Enttäuschung führen. Die »hymnenhafte Novitätenpräsentationen im Stile sekundärer Gottesdienste« (ebd.: 81, folgende Zitate 81–83), die »zu Lobgesängen aufgelegte Gemeinde«, die »vernebelnde, selbstgerechte und klischeehafte Sprache« und dazu »Selbstbeweihräucherung und Pathos« zeugen unter dem Strich die Heuchelei einer ideologisch verbrämten Sekte, die ein »Umsonst-Paradies« verspricht, deren Geschäftsmodell aber eigentlich »aus dem erfolgreichen Versuch, das Leben der Menschheit auf ein Reiz-Reaktionsschema zu reduzieren« besteht. Werden Daten gegen Persönlichkeitsrechte getauscht entsteht eine »neue Priesterschaft« (Zuboff 2018: 219ff.), die auf ein »Netzwerk von Nötigungen« (ebd.) zurückgreifen kann. Hierbei stellt sich die Frage, wie die liturgische Grundausstattung dieser neuen Verkündungsgemeinschaften praktisch aussieht. Aus einer Feldper-

128

Stefan Selke: Technik als Trost

sich, dass er dem Mädchen und dessen Mutter nicht zu Hilfe geeilt ist. Seine Feigheit versucht er durch die Fürsorge für den Hund auszugleichen. Andererseits kann dieses Motiv auch als Anspielung auf die Passivität der Menschheit verstanden werden, die angesichts der selbstgemachten Gefahren einfach nur dem eigenen Untergang beiwohnt, anstatt das Ruder herumzureißen: Konkurrenz statt Koexistenz. Wenn also der Android Jeff am Ende des Films trotz einiger Anlaufschwierigkeiten doch noch zum Beschützer des Hundes wird, dann ist das auch metaphorisch zu verstehen: Als Repräsentant künstlicher Intelligenz wird Jeff zum Bewahrer der Erinnerung an die Menschheit, anstatt zu einem Zerstörer.

3.6 Erlösungsfantasien Die neue Quasi-Religion der Technikeuphoriker basiert auf dem Glauben, dass es für alles strikt mathematische Grundlagen geben muss. Menschen und überhaupt die ganze Welt werden damit berechenbar, alles lässt sich modellieren oder simulieren. Das ist das eine. Und das andere »ist eine Technologie, die keiner richtig versteht. Die Black-Box hat etwas Transzendentes«, so Verena van Zyl-Bulitta. »Etwas passiert, man muss es glauben. Und mitmachen. Dadurch entsteht eine Gläubigen-Kongregation.« Der verheißungsvolle Charakter von KI erscheint als Mysterium: Es funktioniert, kann aber nicht erklärt werden. Auf dieser Basis entsteht eine Quasi-Religion mit sektenhaften Zügen. Auch die Autorin Marie-Luise Wolff stellt fest, dass »alle Ausführungen zu Larry Page und Sergey Brin [...] etwas sektenartig Unterwürfiges an sich« haben (Wolff 2020: 79), gleichzeitig aber immer wieder zu einem Gefühl der kolossalen Enttäuschung führen. Die »hymnenhafte Novitätenpräsentationen im Stile sekundärer Gottesdienste« (ebd.: 81, folgende Zitate 81–83), die »zu Lobgesängen aufgelegte Gemeinde«, die »vernebelnde, selbstgerechte und klischeehafte Sprache« und dazu »Selbstbeweihräucherung und Pathos« zeugen unter dem Strich die Heuchelei einer ideologisch verbrämten Sekte, die ein »Umsonst-Paradies« verspricht, deren Geschäftsmodell aber eigentlich »aus dem erfolgreichen Versuch, das Leben der Menschheit auf ein Reiz-Reaktionsschema zu reduzieren« besteht. Werden Daten gegen Persönlichkeitsrechte getauscht entsteht eine »neue Priesterschaft« (Zuboff 2018: 219ff.), die auf ein »Netzwerk von Nötigungen« (ebd.) zurückgreifen kann. Hierbei stellt sich die Frage, wie die liturgische Grundausstattung dieser neuen Verkündungsgemeinschaften praktisch aussieht. Aus einer Feldper-

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

spektive beobachtet, finden sich im Umfeld von KI tatsächlich alle Merkmale einer Religion: Evangelisten, Propheten, eine Liturgie und vor allem zahlreiche Heilsversprechen. Eine Religion benötigt zudem Rituale, denn diese markieren den stilisierten Umgang des Menschen zu seinen Lebensbereichen. (Grimes 2006; 2014) Auch die Verkündung von KI-Verheißungen ist keine Ausnahme von dieser Regel. Allerdings sind diese Rituale weder definiert noch beruhen sie auf Konsens. Es »läge in der Verantwortung von Wissenschaftlern – vielleicht in Zusammenarbeit mit Experten für kontemplative Rituale wie Mönchen – ein Repertoire zu erschaffen, auf dessen Basis wir uns zu KI verhalten können«, rät der Mönch und Ritualwissenschaftler Thomas Quartier. Als gesamtgesellschaftliches Phänomen braucht KI nicht ausschließlich technologische Laboratorien, sondern zudem Rituallaboratorien, in denen der kulturelle Umgang mit KI experimentell erprobt werden kann. »Im Mittelpunkt stünde dann die Frage, wie sich symbolisch gestalten ließe, dass eine Maschine etwas besser kann als wir selbst«, erläutert Quartier seinen Vorschlag. Das macht Sinn, denn Rituale dienen dazu, unterschiedliche Perspektiven zu synchronisieren. Einerseits beschleunigt KI menschliches Leben immens. James Lovelock prognostiziert andererseits, dass eine starke KI eines Tages so schnell wäre, dass sie sich im Umgang mit Menschen langweilen würde. (Lovelock 2020: 103) Gerade diese immense Beschleunigung erfordert eine (zumindest funktionale) Entschleunigung oder besser noch Kontemplation, um den Umgang mit KI im Alltag zu erlernen. »Kontemplation bedeutet Verlangsamung. Und Verlangsamung bedeutet, dass das Unerwartete geschehen kann«, so Quartier. Darin liegt auch der Unterschied zwischen einer Verheißung als Projektion von Potenzialen einer Maschine und »dem Versprechen, die sich Menschen selbst geben«. Beschleunigte Technisierung mittels KI läuft jedoch in so gut wie allen Lebensbereichen notwendiger Kontemplation entgehen. In einem Rituallaboratorium wäre idealtypisch zu klären, ob und wie die Nutzung von KI als rituelle Ersatzhandlung oder Abkürzung für wichtige gesellschaftliche Aushandlungsprozesse betrachtet werden kann und wo Grenzen zu respektieren sind. Argumentativ gewendet könnten ›Inseln der Kontemplation‹ als Korrektive gegen technologisches Sektierertums dienen. »Für vertikale Resonanz muss ein kontemplativer Raum mit Ritualen geschaffen werden, in dem sich die spirituelle Dimension des Daseins zeigt. Das muss KI nicht entgegenstehen«, so Quartier. Vielmehr tritt das kontemplative Ritual der Hybris eines Naiven Techno-Utopismus gegenüber. Damit würden geschlossene Diskurse wieder geöffnet und die sektenhaften Verheißungen in ihrer vermeintlichen Selbstverständlichkeit demaskiert. Nun stellt sich die Frage, was eine in-

129

130

Stefan Selke: Technik als Trost

transparente Technik mit religiösen Inhalten macht, die ja selbst auf Mysterien beruhen. Interessanterweise verstehen sich viele Trans- und Posthumanisten gerade nicht als explizit religiös oder spirituell, sondern bezeichnen sich als Materialisten. »Gleichzeitig übernehmen sie aber eindeutig heilsgeschichtliche religiöse Ideen«, so der Religionssoziologe und Experte für Transhumanismus Oliver Krüger. Ein Beispiel ist die kosmologische Vision der Jesuiten, die davon ausgeht, dass die Menschheit das ganze Universum besiedeln sollte. Weil es der Menschheit aber aufgrund biologischer Beschränkungen nicht möglich ist, müsste das in Zukunft eine künstliche Lebensform leisten. Der Rückgriff auf dieses ultimative Explorations-Narrativ legitimiert schließlich die Abschaffung des Menschen durch eine ihm überlegene KI. »Es hilft also nicht zu behaupten, dass Ideen nicht religiös sind«, so Krüger. »Es sind im Kern Gottesideen im Kontext religiöser Heilsgeschichten. Nur werden diese technozentrisch umgedeutet und eingebettet.«

KI als transzendente Entität Weil klassische Religionen nur noch in beschränktem Umfang sozial wirksam sind, wird diese Lücke auf der einen Seite von Esoterik gefüllt, auf der anderen Seite von Techno-Religionen, Techno-Utopismus und Techno-Solutionismus. »Nun gibt es einen neuen Götzen, eine kleine Gottheit: KI«, so Verena van ZylBulitta. »Diese künstliche Gottheit ist überall und nirgends, nicht beschränkt auf ein Gerät. KI ist tatsächlich ›ambient‹ – alles umgebend.« Diese Allgegenwart kommt Menschen, die bislang an Götter glaubten, bekannt vor und digitalen Evangelisten zugleich höchst gelegen. Denn auf diese Weise bekommen menschliche Allmachtsfantasien einen konkreten Ort, den vorher Götter besiedelten. Deren Rolle wurde nur neu besetzt. In der Rolle als transzendente Entität füllt KI eine Leerstelle im Pantheon der Götter und illustriert zugleich die menschliche Hybris. »Der Mensch schöpft seine Möglichkeiten aus«, so Quartier. »Und dazu gehört auch KI. Sobald er diese jedoch verabsolutiert, begeht er eine Verfehlung, die schlussendlich seine eigene Existenz gefährdet. Der Glaube an die subjekthafte Selbständigkeit der KI ist genau eine solche Verfehlung.« Dieses Verständnis von KI zieht einen alternativen Schöpfungsbegriff nach sich. Noch hat KI weder eine materielle Grundlage, noch kann sie ohne Menschen entstehen. Wirken die euphorischen Technikverheißungen auf den Schöpfungsbegriff zurück, wird es für manche Beobachter kritisch: Im Alten Testament kündigt ein Geschöpf (der Mensch) die Harmonie mit dem Schöpfer (Gott) auf und wird dadurch aus dem Paradies vertrieben. In

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

KI-Verheißungsnarrativen begibt sich der neue Schöpfer (diesmal der Mensch selbst) freiwillig unter die Obhut seines Geschöpfes (KI) und kehrt damit »auf einer höheren Stufe an den Ausgangspunkt zurück: Die KI ist der neue Gott, ganz im Sinne der Prozesstheologie, wonach auch Gott eine historische Entwicklung durchmacht« (Simanowski 2020: 102). Jede Religion kann missbraucht werden, wenn ein transzendentes Korrektiv fehlt. Sehr deutlich wird dies am Fallbeispiel der AI Church of the Future. Einerseits lässt sich ein digitales Aufrüsten von Religionsgemeinschaften beobachten. Mit Hilfe digitaler Werkzeuge versuchen Religionsgemeinschaften traditionelle religiöse Ziele besser oder schneller zu erreichen. (Latzer 2021: 9) So finden sich inzwischen transhumanistische Kirchengemeinden48 oder interreligiöse Transreligionen wie etwa Terasem, die Gott in der Technik erkennt. (Waters 2015) Andererseits erhoffen sich Technikgläubige von KI eine direkte Form der Erlösung. »Wer bei KI daran denkt, Leiden zu lindern oder Leben zu verlängern landet schnell beim Begriff der Verheißung«, so Christian Tombeil. »Anhand dieser Versprechungen wird klar, dass manche Menschen in KI die Reinkarnation von Jesus erkennen.« Vom alltäglichen Technikversprechen bis zur Heiligsprechung der Technologie und deren Gottstatus ist es zwar noch ein weiter Weg, tatsächlich hat sich jedoch mit der bereits 2015 gegründeten AI Church Way of the Future eine Kirchengemeinde etabliert, die KI als Gott anbetete. Zwar löste sich diese Kirche bereits 2020 wieder auf, dennoch trägt dieses Beispiel zum Verständnis des praktischen Umgangs mit KI-Verheißungen bei. Gegründet wurde die Kirche von Anthony Levandowski, einem ehemaligen Mitarbeiter von Google. Die Kirche besaß kein Gebäude, es gab keine regelmäßigen Treffen oder Zeremonien. Sie wurde von Levandowski eher als ein persönliches anstatt kollektives Glaubenssystem beschrieben. Das Ziel sollte darin bestehen, die ethisch korrekte Entwicklung von KI zu fördern und die Chance zu maximieren, zukünftige nicht-biologischen Lebensformen friedlich und vorteilhaft in die menschliche Gesellschaft zu integrieren.49 Im Kern geht sein Glaubenssystem davon aus, dass die Entwicklung einer Superintelligenz unvermeidlich ist. »Wenn Sie die Leute fragen, ob ein Computer schlauer sein kann als ein Mensch, werden 99,9 Prozent sagen, das ist Science-Fiction«, so Levandowski in einem Interview. »Tatsächlich ist es unvermeidlich.

48 49

Z.B. die Turing Church, die Christian Transhumanist Association oder die Mormon Transhumanist Association. https://social.techcrunch.com/2021/02/18/anthony-levandowski-closes-his-church-of -ai/ (11.02.2022).

131

132

Stefan Selke: Technik als Trost

Es wird garantiert passieren.«50 Dieser Umstand verpflichtet, KI in friedlicher Absicht zu nutzen. »Würden Sie Ihr begabtes Kind nicht so erziehen wollen, dass es Ihre kühnsten Träume von Erfolg übertrifft, und ihm beibringen, was richtig und was falsch ist, anstatt es einzusperren, weil es in der Zukunft rebellieren und Ihnen den Job wegnehmen könnte?«, fragte Levandowski (wenngleich rhetorisch). Im Kontext seiner Quasi-Religion plädierte er dafür, »Maschinen dazu zu ermutigen, Dinge zu tun, die wir nicht können, und sich um den Planeten in einer Weise zu kümmern, zu der wir selbst nicht in der Lage zu sein scheinen« – ein Leitmotiv, das im Kontext zahlreicher Quest-Narrative auftaucht. Einer (starken) KI räumt Levandowski eigene Rechte ein und plädiert für Optimismus statt Furcht. Auf Basis dieser Einstellung würde dann unweigerlich ein neuer Gott entstehen. »Was erschaffen wird, wird tatsächlich ein Gott sein. Es ist kein Gott in dem Sinne, dass er Blitze macht oder Wirbelstürme verursacht«, so Levandowski weiter. »Aber wenn es etwas gibt, das eine Milliarde Mal klüger ist als der klügste Mensch, wie soll man es sonst nennen?« (Ebd.) Unter dem Titel The Manual sollte sich nach Levandowskis Wunsch folgende Idee wie die Erzählungen des Evangeliums verbreiten: Wer schlauer ist als Menschen sollte auch das Sagen haben und die Regeln aufstellen dürfen. In diesem Sinne kann eine starke KI uns Menschen helfen, zukünftig besser zurechtzukommen. Diese KI wird sich dann aber auch eigenständig weiterentwickeln und entscheiden müssen, wie sie Menschen behandelt. »Ich würde mir wünschen, dass diese Maschine uns als ihre geliebten Ältesten sieht, uns respektiert und sich um uns kümmert.« (Ebd.) Levandowski glaubte fest an den Wert dieser Argumente und wollte mit seiner Kirche eine neue Stufe der Debatte über KI einleiten. »Im Silicon Valley benutzen wir Evangelismus als Wort für Werbung, aber hier ist es buchstäblich eine Kirche.« (Ebd.) Und zudem wollte er eine neue Religion gründen, die sich besser in die zeitgenössische Epoche einfügt, als bisherige Glaubenssysteme. »Es gibt viele Arten, wie Menschen über Gott denken [...], aber sie schauen immer auf etwas, das nicht messbar ist oder das man nicht wirklich sehen oder kontrollieren kann. Dieses Mal ist es anders. Diesmal werden sie in der Lage sein, mit Gott zu sprechen, buchstäblich, und wissen, dass er zuhört.« Viele Reaktionen auf dieses besondere KI-Evangelium mitsamt seinen vollmundigen Verheißungen zeugen erkennbar von Bewunderung: Gegenüber Levandowskis Kirche wirke Scientology eher wie eine Bruderschaft des 50

https://www.wired.com/story/anthony-levandowski-artificial-intelligence-religion/ (11.02.2022).

3. Quest-Narrative: Kognitiv-epistemologische Verheißungen

Humanismus.51 Tatsächlich geriet die AI Church in die Kritik und wurde schnell als Sekte verschrien. Vertreter des Christentums fühlten sich durch das neue Glaubenssystem verhöhnt und verurteilten den Ansatz dieser QuasiReligion mitunter scharf. Sie mutmaßten sogar, KI könne die größte Bedrohung für die christliche Theologie seit Charles Darwins Die Entstehung der Arten sein.52 Unter dem Strich wurde befürchtet, dass der digitale Gott unsägliches Leid über die Menschheit bringen würde, also das genaue Gegenteil einer Verheißung.53 »Christen sollten darauf vorbereitet sein, diesem möglichen Ereignis gegenüberzustehen. [...] Wieder einmal unterwerfen wir uns dem Zorn Gottes. Wir begeben uns in gefährliche Gewässer.«54 Aber ist es tasächlich so einfach? Für die Religionswissenschaftler Thomas Lawson und Robert McCauley dient die Insitution Kirche dazu, Offenheit zu kreieren. Das bedeutet, sich an der Idee der Transzendenz zu orientieren – genau das passierte, als Levandowski die Mitglieder seiner Kirchengemeinde AI Church Way of the Future ermutigte, sich vollkommen neue Bewusstseinszustände vorzustellen. In der Kognitionstheorie zu religiöser Erfahrung bzw. Erleuchtung nimmt ein »super-human agent« eine entscheidende Rolle ein. (Lawson/McCauley 1993) Dieser »Agent« ist eine metaphorische Umschreibung für einen Gott, der in der Konfrontation mit Kontingenz erlebt wird. Dabei spielt es gerade keine Rolle, ob es sich um objektive Wahrheit oder eine theologische Realität handelt. Trifft dies auch auf KI als Gott zu? Zwar besitzt KI einige Aspekte eines »super-human agent«, dennoch handelt es sich (bis auf Weiteres) um eine von Menschen konstruierte Maschine, die nach Gesetzmäßigkeiten handelt, die der Mensch in die Maschine hineinkonstruiert hat. Diese Maschine funktioniert, sie handelt nicht. Wird KI als Gottesersatz betrachtet, bedeutet das auch, dass es innerhalb menschlicher Konstruktionsund Planungsmöglichkeiten eine gänzlich neue Vorstellung eines ›superhuman agent‹ gibt. Aus theologischer Perspektive ist jedoch die göttliche 51 52 53

54

https://www.cnet.com/news/the-new-church-of-ai-god-is-even-creepier-than-i-ima gined/ (11.02.2022). https://www.theatlantic.com/technology/archive/2017/02/artificial-intelligence-chris tianity/515463/ (11.02.2022). Die AI-Church lässt sich im Sinne des Soziologen Lewis S. Coser als »greedy institution« klassifizieren, weil sie allumfassende Geltungsansprüche proklamiert und ihre Mitglieder Persönlichkeit, mehr noch, ihr Menschsein, in Frage stellen müssen. (Coser 2015) http://rajkumarrichard.blogspot.com/2018/02/a-new-gods-being-created-is-artificial .html (11.02.2022).

133

134

Stefan Selke: Technik als Trost

Andersheit schlichtweg durch Unvorstellbarkeit definiert. Wer auch immer an die Verheißung einer KI als Gott glaubt, mag von diesem Glauben überzeugt und durchdrungen sein, doch »was für einen ›super-human agent‹ fehlt, ist echte spirituelle Dialogfähigkeit«, erläutert der Mönch Thomas Quartier. Wenn sich der Gründer einer Kirche zudem auf Lebenszeit selbst eine Position als Priester einräumt, steht die Verheißung dieser Kirche zumindest unter Anfangsverdacht. Aber erfordert eine Kirche, deren Gott KI darstellt, überhaupt noch etablierte Formate? Und was wäre, wenn sich KI nicht als gütiger, sondern als strafender Gott erwiese, vielleicht noch schlimmer als der Gott des Alten Testaments? »Mich hat immer die Frage beschäftigt, wie es wäre, wenn eine neue Religion entsteht, bei der Gott einfach eine Art riesiger Parasit ist«, so die Autorin Theresa Hannig. »Ein Schmarotzer, der sich von den Gefühlen der Menschen nährt.« Die Möglichkeit einer ›evil AI‹ sollten digitale Evangelisten zumindest in Betracht ziehen. Abgesehen davon stellt sich die Frage, was Gläubigen eine Quasi-Religion tatsächlich nutzt, die Erlösung ohne Erleuchtung bietet. Die Verheißung der Erlösung basiert auf den Resultaten von Rechenleistungen, auf Algorithmen, Statistiken und der Fähigkeit zur Musterkennung. Anders als die schon lange bekannte libidinöse Aufladung von Technik, gab es bislang keine religiöse Aufladung in vergleichbarem Umfang. »Der religiöse Aspekt resultiert aus der Tatsache, dass wir Menschen wissen oder ahnen, dass da etwas ist, das größere ist als wir«, so Verena von Zyl-Bulitta. »Zugleich verstehen wir es nicht. Zum Glauben gehört auch Unwissenheit und Staunen. Nur so funktioniert Religion: Man wird erleuchtet, bleibt aber ein Suchender.«

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Während Quest-Narrative tendenziell utopischen Charakter aufweisen, thematisieren Aufbruchs-Narrative gesellschaftlich notwendige Transformationsprozesse. Im Mittelpunkt stehen dabei erstens der Weg als Ziel sowie zweitens die Idee gemeinsamer Zielerreichung. Metaphorisch wird der Aufbruch durch KI als ›Zeitenwende‹ beschrieben, weil mit KI, »eine Epochenschwelle oder große Transformation«, assoziiert wird, so der Psychologe Fabian Hutmacher. »Es macht Sinn, für dieses Bündel von Erwartungen den Begriff »Verheißung« zu nutzen. Gerade weil er nicht dem Alltagsvokabular entstammt.« Aufbruchsgeschichten lassen sich manchmal schwer von QuestGeschichten abgrenzen. Beide Erzählformen projizieren einen verbesserten gesellschaftlichen Endzustand. Während bei Quest-Geschichten jedoch eher das (vielfach ideologisch aufgeladene) Optimierungsziel im Mittelpunkt steht, beschreiben Aufbruchsgeschichten die Exploration ins Unbekannte als kollektiven Reise und Lernerfahrung. Dafür gibt es gute Gründe. Zahlreiche Diagnosen zur Postwachstumsgesellschaft fordern eine grundlegende Veränderung unseres Lebensstils. Hieraus speist sich das Narrativ der großen Transformation einer »Welt im Wandel« und die damit einhergehende Forderung nach einem neuen Gesellschaftsvertrag. (WBGU 2011) Andererseits gibt es »keine KI-Erzählung, die in der Tradition bisheriger Technologiesprünge konsequent und kontinuierlich darüber nachgedacht hätte, wie sich das in die Zukunft übertragen lässt«, kritisiert Johanna Tiffe. Eigentlich müsste KI verbraucherzentriert gestaltet werden und Teil eines zivilgesellschaftlichen Ökosystems sein. Das würde bedeutet, den Aufbruch zu wagen, sich aber auch der Risiken algorithmischer Systeme für Politik und Gesellschaft bewusst zu sein. (Kastrop/Ponattu 2021: 434) Allein eine digitale Governance könnte helfen, den technologischen Umbruch so zu gestalten, dass die daraus resultierenden Vorteile allen Menschen zugänglich gemacht werden. So könnte zu-

136

Stefan Selke: Technik als Trost

dem Desinformationen oder Diskriminierungen entgegengesteuert werden. Als grundlegende Säulen zur Umsetzung dieser Transformation wird meist rechtliche Regulierung oder Normierung vorgeschlagen. Die Grundlage dafür bildet eine umfassende Diskussion »zwischen allen Beteiligten in der Gesellschaft, um die Vorzüge und Risiken einer bestimmten Technologie zu erörtern.« (Ebd.: 437) In anderen Worten: Aufbruchs-Narrative haben einen eher dialogischen Charakter, während Quest-Narrative eine eher monologische Struktur aufweisen. Ein sehr schönes Beispiel für ein Aufbruchs-Narrativ über KI ist eine Fortsetzungsgeschichte, wie sie etwa von Julia Fuchte erzählt wird.1 Sehr überzeugend tritt die Autorin für die grundlegende Rehabilitation des utopischen Denkens in den Gesellschaftswissenschaften ein. »Leider bezieht sich die meiste Forschung im Bereich Gesellschaftswandel immer noch auf die Analyse von Missständen und des Status Quo«, klagt Fuchte zunächst. »Was im ingenieurwissenschaftlichen und naturwissenschaftlichen Bereich seit Jahrzehnten etabliert ist – Forschung mit Blick auf die Zukunft – ist im sozial- und geisteswissenschaftlichen Bereich weniger selbstverständlich ausgeprägt.« (Fuchte 2019: 226f.) Die Vorteile der Utopie als »Prototyp für Visionen« sind hingegen eindeutig: Utopien sind Simulationen alternativer gesellschaftlicher Systeme, sie integrieren vielfältige Erkenntnis- und Wissensformen und sie ermöglichen Bewusstseinsbildung sowie Identifikation mit einem Meta-Ziel. Genau diese Eigenschaften nimmt die Autorin ernst und setzt utopisches Denken konsequent in die Praxis um: »Wenn wir uns als Gesellschaft [...] mittelfristig nicht trauen, uns diese Frage nach den Möglichkeiten systematisch, großangelegt und professionell zu stellen [...] müssen wir unsere sonstigen nett gemeinten Versuche, Gesellschaft zukunftsfähig zu machen [...] nicht mehr ernst nehmen.« (Ebd.: 234) In ihrer eigenen Schreibpraxis geht Fuchte daher von der Frage aus, »wie sich soziale Innovation in eine Geschichte integrieren lassen, so dass sie lebendig werden.« In einer utopischen Fiktion, die auch KI als Gegenstand beinhaltet, versucht sie ihren Lesern »unterschiedliche Wissensformen zu vermitteln und damit gleichzeitig neues Wissen zu erzeugen, um eigene Erkenntnisprozesse durchlaufen zu können und den Möglichkeitssinn zu schärfen.« Einfach ist das nicht. Denn ein utopisches Moment zu leben, bedeutet, selbst so zu tun, als sei die erträumte Realität bereits da. Damit ist die wichtigste Funktion des utopischen

1

https://www.utopisch-wissen.de (22.02.2022).

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Denkens bereits benannt: Es geht darum, Alternativen aufzuzeigen.2 Das übergreifende Ziel besteht darin, ›präfigurativ‹ zu handeln. Verheißungen im Kontext von Aufbruchs-Narrativen sind in diesem Sinne als Voraussetzung für zukünftiges Handeln zu verstehen, weil es stets darum geht, Prozesse fiktiv zu durchlaufen und sich vorstellen zu können, was eine lebenswerte Gesellschaft ausmacht. Da aber eine reale Utopie nie perfekt im Sinne von konfliktlos sein kann, muss es auch immer darum gehen, Konflikte in den Plothandlungen zu durchlaufen »und die damit verbundenen Schattenpotentiale freizulegen«, ergänzt Fuchte. Ausgangspunkt ihres eigenen Verheißungsszenarios war die Frage, welche Entwicklung sie selbst vertreten kann, ohne sich deshalb in oberflächlichen Bildern zu verlieren. In ihrem Zukunftsszenario wird eine KI mit dem Namen Agenti als hochwirksames Werkzeug genutzt, um die Infrastruktur der Gesellschaft sicherzustellen. Agenti, eine Art weiterentwickelte Siri oder Alexa, dient der kollektiven Kommunikation, erledigt logistische Routineaufgaben und bildet das Rückgrat der Gesellschaft. Es ist eine ErsatzIdentität, die menschliche Aktivitäten innerhalb und außerhalb des Netzes koordiniert. »Diese digitalen Assistenten oder Sekretäre halten die Welt am Laufen«, so die Autorin. »Durch diese vernetzten kommunikativen Absprachen im Hintergrund entsteht eine kooperative Gesellschaftsform und damit statt einer technischen eine soziale Innovation.« Dieses Aufbruchs-Narrativ stemmt sich gegen Kritik, wie sie etwa vom Philosophen Byung-Chul Han in dessen Buch Digitale Rationalität und das Ende des kommunikativen Handelns geäußert wird. Han geht davon aus, dass Daten über Menschen die Kommunikation zwischen Menschen überflüssig macht. (Han 2013) Ob allerdings eine algorithmische Rationalität zukünftig das Maß aller Dinge sein wird, ist höchst umstritten – Rationalisierungsprogramme auf der Basis von Algorithmen stehen gegenwärtig immer wieder in der Kritik. (Mersch 2021) In Fuchtes Szenario wird hingegen die Verheißung einer Gesellschaftsform skizziert, deren Mitglieder sich bewusst für den allein sinnhaften Einsatz von KI entschieden haben und »in der KI ein ganz bestimmter Platz zugewiesen wurde«, so Fuchte im Gespräch. Das ist der Kern eines Aufbruchs-Narrativs.3 Mit

2

3

Der zeitgenössische Anarchist und Anthropologe David Graeber sprach in diesem Kontext von »direkten Aktionen«, die zeigen sollen, dass es auch anders gehen könnte. (Graeber 2013) Das Zukunftsszenario von Julia Fuchte knüpft dabei – wahrscheinlich unwissentlich – an das Venus-Project von Jacque Fresco an, dass dieser bereits in den 1960er-Jahren entwickelte. (Keyes/Fresco 1969)

137

138

Stefan Selke: Technik als Trost

diesem Beispiel ist der Übergang zu Verheißungen auf einer zivilisatorischtransformativen Ebene markiert. Verheißungen des Neubeginns thematisieren den Aufbruch ›der Menschheit‹ in eine bessere Welt und sehen in KI eine Art von Superwerkzeug.

4.1 Innovationsanspruch Bereits 1992 stritten der KI-Pionier Josef Weizenbaum und der Informationswissenschaftler Klaus Haefner im Kontext der damaligen »Computerisierung der Lebenswelt« sowie der »Veralltäglichung des Computers« miteinander. Unter dem provokanten Titel Sind Computer die besseren Menschen? diskutierten sie über KI als »Traumziel der Computerforscher« und stellten Überlegungen zum Zivilisationswandel an. (Weizenbaum/Haefner 1992) Dabei stand ihnen deutlich vor Augen, dass KI keinesfalls nur eine »imaginäre Technologie« (so der Informatiker Wolfgang Coy 1989) sein würde. Weizenbaum kritisiert die »ungeheure Respekt- und Rücksichtslosigkeit gegenüber allem, was wir im Verlauf der Jahrhunderte nach und nach geschaffen haben. Alles, was machbar ist, wird sofort gemacht, ohne Rücksicht auf die gewachsenen Strukturen. [...] Die Innovationen werden mit ungeheurem Tempo eingerichtet und durchgesetzt, unabhängig davon, ob diese Innnovation auch tatsächlich eine Lebensverbesserung bedeutet.« (Ebd.: 97f.) Diese Grunddiagnose hat bis heute Bestand. Ginge es auch anders? Im Kontext von Aufbruchs-Narrativen wird KI weniger als Technik betrachtet, sondern vielmehr als soziale Innovation und Form immateriellen Kapitals. KI, so die Überzeugung, besitzt das Potenzial, als Treiber von Innovation zu agieren, kann dieses Potenzial aber nur entfalten, wenn strukturelle und organisationale Veränderungen stattfinden und passende Ermöglichungsstrukturen (Bader/Buhr 2020) entstehen, anstatt einfach nur die alten Strukturen »rücksichtslos« zu technisieren, wie das Weizenbaum kritisierte. Erste Ansätze sind inzwischen erkennbar: Das Magazin Forbes lobte die EU als führend im Bereich KI-gestützter sozialer Innovation. 2020 schoss der Einsatz von KI branchenübergreifend in die Höhe. Menschenorientierte KI-Lösungen wurden zum Schwerpunkt und zur Priorität von Technologie-Unternehmen und Regierungen. »These rapid advancements have undoubtedly spilled over into 2021, establishing it as the year of AI-powered social innovation«, so Mark Minevich, Autor der Studie. (Minevich 2021) Die EU legte eine Reihe zukunftsweisender Programme und Fonds auf, ausgerichtet auf soziale

138

Stefan Selke: Technik als Trost

diesem Beispiel ist der Übergang zu Verheißungen auf einer zivilisatorischtransformativen Ebene markiert. Verheißungen des Neubeginns thematisieren den Aufbruch ›der Menschheit‹ in eine bessere Welt und sehen in KI eine Art von Superwerkzeug.

4.1 Innovationsanspruch Bereits 1992 stritten der KI-Pionier Josef Weizenbaum und der Informationswissenschaftler Klaus Haefner im Kontext der damaligen »Computerisierung der Lebenswelt« sowie der »Veralltäglichung des Computers« miteinander. Unter dem provokanten Titel Sind Computer die besseren Menschen? diskutierten sie über KI als »Traumziel der Computerforscher« und stellten Überlegungen zum Zivilisationswandel an. (Weizenbaum/Haefner 1992) Dabei stand ihnen deutlich vor Augen, dass KI keinesfalls nur eine »imaginäre Technologie« (so der Informatiker Wolfgang Coy 1989) sein würde. Weizenbaum kritisiert die »ungeheure Respekt- und Rücksichtslosigkeit gegenüber allem, was wir im Verlauf der Jahrhunderte nach und nach geschaffen haben. Alles, was machbar ist, wird sofort gemacht, ohne Rücksicht auf die gewachsenen Strukturen. [...] Die Innovationen werden mit ungeheurem Tempo eingerichtet und durchgesetzt, unabhängig davon, ob diese Innnovation auch tatsächlich eine Lebensverbesserung bedeutet.« (Ebd.: 97f.) Diese Grunddiagnose hat bis heute Bestand. Ginge es auch anders? Im Kontext von Aufbruchs-Narrativen wird KI weniger als Technik betrachtet, sondern vielmehr als soziale Innovation und Form immateriellen Kapitals. KI, so die Überzeugung, besitzt das Potenzial, als Treiber von Innovation zu agieren, kann dieses Potenzial aber nur entfalten, wenn strukturelle und organisationale Veränderungen stattfinden und passende Ermöglichungsstrukturen (Bader/Buhr 2020) entstehen, anstatt einfach nur die alten Strukturen »rücksichtslos« zu technisieren, wie das Weizenbaum kritisierte. Erste Ansätze sind inzwischen erkennbar: Das Magazin Forbes lobte die EU als führend im Bereich KI-gestützter sozialer Innovation. 2020 schoss der Einsatz von KI branchenübergreifend in die Höhe. Menschenorientierte KI-Lösungen wurden zum Schwerpunkt und zur Priorität von Technologie-Unternehmen und Regierungen. »These rapid advancements have undoubtedly spilled over into 2021, establishing it as the year of AI-powered social innovation«, so Mark Minevich, Autor der Studie. (Minevich 2021) Die EU legte eine Reihe zukunftsweisender Programme und Fonds auf, ausgerichtet auf soziale

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Innovation.4 Innerhalb Europas gibt es eine Handvoll staatlicher Akteure, die die KI gestützten sozialen Innovationen beeinflussen, vor allem Dänemark,5 Slowenien und Estland.6 Insgesamt kommt Minevich zu einem recht optimistischen Zwischenergebnis: »Now is the prime time to create social innovation AI venture funds in the EU to source, fund, mature and scale more startups and solutions in the EU so we could really focus on the human-centric approach to innovation.« (Ebd.) Die Studie des Center for Data Innovation versucht sogar den Wert von KI zu ermessen, versteht darunter aber vor allem den ökonomischen Nutzen. Während das bei den üblichen Feldern wie Gesundheit, Transport und Sicherheit zumindest formal gelingt (wenngleich sich die Zahlen dynamisch ändern dürften), müssen die Autoren eingestehen, dass dies im Fall sozialer Innovationen schon schwieriger ist. »The social benefits of AI are similarly substantial, though harder to quantify.« (Castro/New 2016: 3) KI kann allerdings nur dann als soziale Innovation bezeichnet werden, wenn soziale Kontexte und Konsequenzen von Entscheidungen berücksichtigt werden, Reflexionen über Anwendungsbereiche stattfinden und eine Auseinandersetzung mit der Öffentlichkeit darüber stattfindet, was sie sich von der KI wünscht und was sie über KI wissen muss. (Brundage 2016) Für den Einsatz von KI im Kontext von Social Entrepreneurship gibt es mittlerweile zahlreiche Beispiele, die verdeutlichen, dass das übliche Anpassungs-Narrativ hier und da von einem AufbruchsNarrativ abgelöst wird. So ist etwa Civic Coding ein neues Innovationsnetz für 4 5

6

Horizon Europe, InvestEU, the EU Programme for Employment and Social Innovation (EaSI), European Social Fund (ESF). Die dänische Regierung hat ein Budget von 200 Millionen Euro speziell für KI und Digitalisierung bereitgestellt. Die Ziele der Regierung beruhen auf KI für das Gemeinwohl. In Verbindung mit künstlicher Intelligenz werden Initiativen wie RESEARCH2025, der International Arctic Hub und der Innovation Fund Denmark (IFD), die alle auf ökologische Widerstandsfähigkeit und wirtschaftliche Nachhaltigkeit ausgerichtet sind, Dänemark in die Lage versetzen, die ehrgeizigen Ziele einer 70-prozentigen Reduzierung der Treibhausgasemissionen bis 2030 zu erreichen und bis 2050 ohne fossile Brennstoffe auszukommen. Als einzige digitale Republik und ›E-Nation‹ der Welt hat Estland einen neuen Blick darauf geworfen, was eine digitale Gesellschaft bedeutet. Im Rahmen des staatlichen Vorzeigeprogramms e-Estonia, das KI und fortschrittliche Technologien einsetzt, um das Land vollständig zu digitalisieren, haben Programme wie e-Governance, e-Tax, e-Voting, e-Health und e-Residency das gesellschaftliche Leben in Estland vollständig digitalisiert und neu erfunden. KI gestützte soziale Innovationen sind in Estland eher die Regel als die Ausnahme.

139

140

Stefan Selke: Technik als Trost

gemeinwohlorientierten Nutzen von KI.7 Mit dem offenen Netzwerk sollen Kräfte gebündelt und die Entwicklung und Nutzung gemeinwohlorientierter Anwendungen, die auf KI basieren, vorangebracht werden. Hierbei werden Projekte gefördert, die auf nachhaltige und soziale Anwendungen von KI abzielen.8 Die Beispiele reichen von inklusiven Lernassistenten (der individuelle Lerninhalte empfiehlt) über mehrsprachige Sozialleistungsrechner (die Nutzern anhand einfacher Fragen rückmelden, auf welche Sozialleistungen sie Anspruch haben) bis hin zu Apps, die beim Ausfüllen von Anträgen, bei Gesundheitsfragen oder Diskriminierungsthemen unterstützen. Eines der wenigen Aufbruchs-Narrative, bei denen es gerade nicht um Wachstums- oder Größenfantasien geht, stammt vom österreichischen Unternehmen atempo. KI wird dabei eingesetzt, um die Komplexität von Texten für Menschen mit kognitiven Beeinträchtigungen zu reduzieren. Das Unternehmen tritt dafür ein, dass alle Menschen gleichberechtigt leben, lernen und arbeiten können. Im Mittelpunkt der Vision von atempo stehen Menschen mit Lernschwierigkeiten und Behinderungen. Dazu hat das Unternehmen zahlreiche Produkte entwickelt, die auf umfassende Barrierefreiheit abzielen.9 So etwa Ava (eine Online-Lernplattform zur Assistenz für behinderte Menschen) oder Capito, eine Software, die kompliziert geschriebene Texte für Menschen mit kognitiven Einschränkungen vereinfacht. Dafür verwendet Capito eine KI, die Informationen automatisiert analysiert und in drei unterschiedliche Sprachstufen überträgt.10 Mit diesem Ansatz wurde atempo 2016 als SDG-Pioneer für einen besonders innovativen Beitrag ausgezeichnet.11 Die Anpassung der Texte an das vorhandene Verständnisniveau erfolgt allerdings nicht ausschließlich auf Basis intelligenter Algorithmen. »Weil in der gegenwärtigen Nutzung von KI konkrete Menschen als Mitgestaltende fehlen, haben wir in den Prozess einen humanen Feedback Loop eingebaut«, so die Unternehmensgründerin Walburga Fröhlich. Bei atempo überprüfen 7

8 9 10 11

Civic Coding ist eine gemeinsame Initiative des Bundesministeriums für Arbeit und Soziales, des Bundesministeriums für Familie und Senioren, Frauen und Jugend und des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit. Vgl.: https://w ww.civic-coding.de (26.02.2022). https:// www. civic- innovation.de/ ideenmarkt- und- wettbewerb/ ideenmarkt (26.02.2022). https://www.atempo.at/ueber-uns/ (26.02.2022). https://www.capito.eu (10.12.2021). atempo trägt zur Erreichung der Ziele 4 (hochwertige Bildung), 10 (weniger Ungleichheit) und 16 (Friede, Gerechtigkeit und starke Institutionen) bei.

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Menschen, die selbst eine kognitive Beeinträchtigung haben, die von der KI sprachlich angepassten Texte. Das wirft die grundlegende Frage nach der Stellung des Menschen in Arbeitsprozessen auf. »Üblicherweise gibt es eine starke Datengläubigkeit und ein weniger stark ausgeprägtes Vertrauen in Menschen als Experten für eine Sache«, so Fröhlich. Damit stellt sich die Frage, wie viel Gewicht überhaupt noch menschlicher Expertise gegeben wird. »Hier muss genauer hingeschaut werden. Werden die Zwischenräume vergessen, kommt zum Schluss Verengtes raus.« Die Qualität von Capito basiert eigentlich auf einer Paradoxie: Einerseits ist KI die Verheißung totaler Effizienz – diese Perspektive kommt vor allem im Kontext funktional-operativer AnpassungsNarrative vor. Durch das bewusste Zwischenschalten von Menschen in den Entscheidungsprozessen wird bei atempo allerdings auf Effizienzgewinne zugunsten sozialer Anschlussfähigkeit verzichtet. »Lernen sollte dialogisch verstanden werden. Menschen sollten genuin zum Lernmodell dazugehören.« Damit geht die Überzeugung einher, dass auch in anderen Anwendungsfeldern verzerrte Entscheidungen minimiert werden könnten, wenn mehr menschliche Experten in die Lernprozesse künstlicher Intelligenz einbezogen würden. »Erstaunlich ist allerdings«, so Fröhlich skeptisch, dass Menschen Verzerrungen, die von einer KI ausgegeben werden, bereitwilliger akzeptieren. Grundsätzlich wird die Wahrheit der Maschine leichter akzeptiert und weniger hinterfragt.« Der Ansatz von atempo kann insgesamt mit »Helfen statt Bevormunden« auf den Punkt gebracht werden. »Es sollte mehr Anwendungsfelder für KI geben, bei denen es darum geht, Menschen etwas in die Hand zu geben, was sie fähiger macht«, so Fröhlich. »Also das Gegenteil davon, ihnen Dinge abzunehmen.« Allerdings gibt es noch zu wenig KI-Anwendungen, die genau dieses Ziel verfolgen.

KI im Kontext moderner Heilungsnarrative Die Suche nach einer ›sinnhaften‹ oder ›guten‹ KI erzeugt einen eigenständigen Typus von Zukunftsnarrativen. Unter dem Leitbegriff »AI for social good« werden immer wieder KI-Lösungen für gesellschaftliche Probleme gesucht. In einem Diskussionspapier zeigt die Unternehmensberatung McKinsey das Potenzial für KI als soziale Innovation auf. »Artificial intelligence, while not a silver bullet, could contribute to the multi-pronged efforts to tackle some of the world’s most challenging social problems«, so die Autoren der Studie. (Chui et al. 2018) Hintergrund aller Narrative über ›gute‹ KI ist die Annahme, dass KI zur Bewältigung zentraler Probleme der Welt beitragen kann.

141

142

Stefan Selke: Technik als Trost

Letztendlich handelt es sich dabei um Heilungsnarrative, ganz gleich, ob es sich dabei um die Heilung tödlicher Krankheiten handelt oder um die Rettung des Weltklimas. Der konzeptionelle Referenzrahmen dieser Heilungsnarrative sind jedoch nicht Religionen, sondern meist die 17 UN-Nachhaltigkeitsziele (SDGs=Sustainable Development Goals), die zentrale gesellschaftliche Herausforderungen thematisieren. In zehn dieser Bereiche könnte KI positive soziale und nachhaltige Wirkungen entfalten, so die Studie von McKinsey. (Ebd.) Eine weitere Studie kommt auf der Basis von Expertenbefragungen zum Ergebnis, dass KI die Verwirklichung von 134 Teilzielen ermöglichen, aber auch 59 Teilziele behindern könnte. (Vinuesa et al. 2020) In einigen dieser Anwendungsbereiche, etwa bei der Unterstützung blinder Menschen oder als Hilfsmittel in der Katastrophenhilfe (z.B. Auswertung von Satelliten-Daten zur Kartierung und Vorhersage des Verlaufs von Waldbränden) kommt KI bereits jetzt zum Einsatz. Auch ökologische Herausforderungen lassen sich mit KI angehen. Ein Beispiel ist hier die Rainforest Connection, eine gemeinnützige Organisatin in der Bay Area in Kalifornien, die KI-Tools von Google als wirksame Schutzmaßnahmen in der ganzen Welt einsetzt. Die Plattform kann beispielsweise illegale Holzeinschläge in gefährdeten Waldgebieten durch Audiosignale erkennen. Das Beispiel Autism Glass (ein Forschungsprojekt des MIT Media Lab) zeigt hingegen, welches Inklusionspotenzial mit KI einhergehen könnte. Bei dieser Anwendung wird KI zur automatischen Erkennung von Emotionen und zur Bereitstellung von sozialen Hinweisen verwendet, um Menschen mit Autismus im sozialen Umfeld zu unterstützen. Auch wenn zahlreiche Forschungsfragen noch unbeantwortet sind, wird die Suche nach nützlichen KI-Anwendungen nach und nach ausgeweitet. Allerdings birgt der Einsatz von KI für soziale Zwecke auch Risiken. Stets muss vermieden werden, dass genau die Menschen zu Schaden kommen, für die die KI-Anwendung helfen sollte.

4.2 Machbarkeitsfantasien Der Möglichkeitsraum der Menschheit und der Verheißungsraums von KI verhalten sich gegenwärtig gerade nicht kongruent zueinander. Völlig zu Recht behauptet deshalb der Physiker Michael Möricke, dass KI es Menschen »niemals abnehmen wird, über die Möglichkeit eines besseren Lebens nachzudenken.« Dennoch glauben Techno-Utopisten daran, dass KI eine sorgenfreie Zukunft verspricht. Wie kommen Sie darauf?

142

Stefan Selke: Technik als Trost

Letztendlich handelt es sich dabei um Heilungsnarrative, ganz gleich, ob es sich dabei um die Heilung tödlicher Krankheiten handelt oder um die Rettung des Weltklimas. Der konzeptionelle Referenzrahmen dieser Heilungsnarrative sind jedoch nicht Religionen, sondern meist die 17 UN-Nachhaltigkeitsziele (SDGs=Sustainable Development Goals), die zentrale gesellschaftliche Herausforderungen thematisieren. In zehn dieser Bereiche könnte KI positive soziale und nachhaltige Wirkungen entfalten, so die Studie von McKinsey. (Ebd.) Eine weitere Studie kommt auf der Basis von Expertenbefragungen zum Ergebnis, dass KI die Verwirklichung von 134 Teilzielen ermöglichen, aber auch 59 Teilziele behindern könnte. (Vinuesa et al. 2020) In einigen dieser Anwendungsbereiche, etwa bei der Unterstützung blinder Menschen oder als Hilfsmittel in der Katastrophenhilfe (z.B. Auswertung von Satelliten-Daten zur Kartierung und Vorhersage des Verlaufs von Waldbränden) kommt KI bereits jetzt zum Einsatz. Auch ökologische Herausforderungen lassen sich mit KI angehen. Ein Beispiel ist hier die Rainforest Connection, eine gemeinnützige Organisatin in der Bay Area in Kalifornien, die KI-Tools von Google als wirksame Schutzmaßnahmen in der ganzen Welt einsetzt. Die Plattform kann beispielsweise illegale Holzeinschläge in gefährdeten Waldgebieten durch Audiosignale erkennen. Das Beispiel Autism Glass (ein Forschungsprojekt des MIT Media Lab) zeigt hingegen, welches Inklusionspotenzial mit KI einhergehen könnte. Bei dieser Anwendung wird KI zur automatischen Erkennung von Emotionen und zur Bereitstellung von sozialen Hinweisen verwendet, um Menschen mit Autismus im sozialen Umfeld zu unterstützen. Auch wenn zahlreiche Forschungsfragen noch unbeantwortet sind, wird die Suche nach nützlichen KI-Anwendungen nach und nach ausgeweitet. Allerdings birgt der Einsatz von KI für soziale Zwecke auch Risiken. Stets muss vermieden werden, dass genau die Menschen zu Schaden kommen, für die die KI-Anwendung helfen sollte.

4.2 Machbarkeitsfantasien Der Möglichkeitsraum der Menschheit und der Verheißungsraums von KI verhalten sich gegenwärtig gerade nicht kongruent zueinander. Völlig zu Recht behauptet deshalb der Physiker Michael Möricke, dass KI es Menschen »niemals abnehmen wird, über die Möglichkeit eines besseren Lebens nachzudenken.« Dennoch glauben Techno-Utopisten daran, dass KI eine sorgenfreie Zukunft verspricht. Wie kommen Sie darauf?

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Zur Klärung dieser Frage trägt das Fallbeispiel des Venus-Projects bei. Es steht prototypisch für die Verheißung eines radikalen Redesigns von Gesellschaft. Unter dem Motto »Jenseits von Politik, Armut und Krieg« verspricht das Vorhaben schon seit langen weitreichenden Lösungen für zentrale Menschheitsprobleme.12 Das nach der griechisch-römischen Liebesgöttin benannte Projekt soll maximalen Nutzen für Menschheit und Planeten bieten und zielt gleichzeitig auf Perspektivwechsel und Bewusstseinssteigerung ab. Die damit zusammenhängende Utopie versteht sich als umfassender Aktionsplan »für eine soziale Sanierung« der Welt auf der Basis von Hightech. (Spiegel 2019: 80) Gegründet wurde das Venus-Project vom autodidaktischen Sozial-Architekten Jacque Fresco und der ehemaligen Porträtmalerin Roxanne Meadows 1975 in Florida. Es möchte kein utopisches Traumgebilde bleiben, sondern stellt den konkreten Versuch dar, »erreichbare Ziele mit intelligenten Mitteln, die wir bereits haben« zu realisieren – wozu explizit gerade auch KI zählt. Der zugrundeliegende Gesellschaftsentwurf lässt sich zwischen Techno-Utopie, New-Age-Esoterik mit einer Beimischung von Verschwörungstheorien verorten. Das liegt auch daran, dass sich (der inzwischen verstorbene) Jacque Fresco explizit als Vertreter des Technology Movements verstand. Technologie repräsentierte für ihn die »positive Utopie technischer Herrschaft«, wie dies bereits vom Soziologen Thorstein Veblen beschrieben worden war (Veblen 2006). Gesellschaftsgestaltung wird dabei ausschließlich als Ingenieursaufgabe verstanden. (Willeke 1994) Gesellschaft stellt sich als große Maschine dar, Menschen lassen sich auf konditionierbare Wesen reduzieren. Will Slocombe macht im Sammelband AI Narratives in einem historischen Rundumblick die Dauerhaftigkeit dieser groben Vereinfachung deutlich. »Society is perceived of as a machine, and it is governed by rules, calculations, and algorithms to better serve the needs of expediency, utility efficiency.« (Slocombe 2020: 232) Bereits die Planungsfantasien früher Techno-Utopisten hatten somit einen erkennbaren Einschlag ins Totalitäre. Die technikeuphorische Haltung Frescos wurde in zahlreichen Filmen, Manifesten und Aufklärungsschriften verbreitet und wirkt als Verheißung bis heute nach. So ist das frühe Manifest Looking Forward (Keyes/Fresco 1969) ein typisches Quest-Narrativ, das die Potenziale von KI betont (auch wenn damals noch von Kybernetik gesprochen wurde). Die Verheißung besteht im umfassenden Versprechen auf Entlastung: Automatisierte Maschinen erledigen lästige Arbeit an Stelle der Menschen. Vor diesem Hintergrund bemüht Fresco ein Argument, dass bereits für den Utopisten 12

https://www.thevenusproject.com (25.01.2021).

143

144

Stefan Selke: Technik als Trost

Karl Marx zentral war. Marx behauptete, dass die Übernahme unangenehmer und repetitiver Arbeiten durch Maschinen zur »Freisetzung« von Menschen für kreative Tätigkeiten führen würde. Fresco verfeinert dieses Argument weiter: »Just as automated machinery replaces the tired muscles of man, computers are being developed that can replace the bored minds of men who are engaged in the repetitive production of goods and services in our industrial society.« (Ebd.: 69) Die provokanteste Verheißung besteht dann darin, nicht nur menschliche Hände und Füße zu ersetzen, sondern auch Gehirne. Auf diese Weise ließen sich, so Frescos Vision, Informationen direkt ins Gehirn der Menschen übertragen. Unter Cybernation verstand er eine Synthese zwischen automatisierten Maschinen mit Computern. Auf diese Weise könnten Fabriken Jahrzehnte lang autonom (d.h. ohne Reparaturen oder Wartungen) und zugleich hocheffizient arbeiten. Indem er diesen Grundgedanken immer weiterspinnt, entsteht die Verheißung einer vollständig vernetzten Welt, in der potenziell alle Informationen gesammelt und analysiert werden. Diese totale Wissensbasis könnte dann dazu dienen, optimierte Entscheidungen zu treffen. Übergreifend besteht Frescos Verheißung dann folgerichtig darin, mittels intelligenter Technologien eine neue Zivilisation zu begründen. Diese würde sich dadurch auszeichnen, dass sich Menschen bei Zielsetzungen und der Bewertung von Optionen von ›intelligenten‹ Maschinen unterstützen lassen. Dieses Narrativ taucht in der zeitgenössischen Debatte über KI erneut auf. Dafür braucht es kein tiefschürfendes Verständnis der technischen Hilfsmittel, sondern lediglich Grundvertrauen in deren Wirkung. Intelligente Maschinen betrachtet Fresco als elektronische Sklaven: »With a cybernated technology it will be possible for all humans to live better than if each person were to have a million slaves at his command.« (Ebd.: 78) Im zweiten Teil von Looking Forward umreißt Fresco anhand des fiktiven Ehepaares Scott und Hella anschaulich das Leben im 21. Jahrhundert und reflektiert zugleich den Prognosegehalt seines eigenen Szenarios. Eine kybernetische Gesellschaft ist für ihn kein »twenty-first-century pie-in-the-sky« (ebd.: 66), sondern sollte innerhalb von zehn Jahren realisierbar sein – das wäre dann allerdings 1979 gewesen. Diese höchst aufregende Zukunft solle sich aus der Nutzung bislang ungenutzter Potenziale ergeben: »Cybernated technology will for the first time permit us to realize our human potential. We may achieve the deepest measure of life; we may enjoy the highest level of liberty; and we may have maximum scope in our pursuit of happiness.« (Ebd.: 79) Kybernetik ersetzt also nach und nach den menschlichen Verstand und wird als Lösung für so gut wie alles versprochen – auch wenn der damalige

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Entwicklungsstand intelligenter Maschinen diese Zukunft zunächst nur in Umrissen erahnen ließ. Dennoch: »The unlimited horizons of the humanisticscientific-cybernated future will be the most exciting adventure in the history of mankind.« (Ebd.: 86) Mit seiner Idee der kybernetischen Systeme nahm Fresco viele Verheißungen zu KI um Jahrzehnte vorweg. Seine Prognose basierte auf der ultimativen Macht eines zentralen intelligenten Systems. In seinem Zukunftsnarrativ regeln Cybernators (so der Namen für hochintelligente Schnittstellen) zahlreiche Funktionen des Lebensumfeldes, z.B. Schlafzeiten, Kalorienzufuhr, Kommunikation oder die Zimmertemperatur. Im Habitat der Zukunft verfügt jede Wohneinheit über integrierte Schnittstellen zum Supercomputer, die unsichtbar in die Wände eingelassen sind. Auch diese Idee erlebt mit Ambient Computing gegenwärtig eine Neuauflage. Der Supercomputer in Frescos Utopie erkennt grundlegende Bedürfnisse der Bewohner und reagiert darauf in Echtzeit, z.B. durch Lichtsteuerung zur Stimmungsanpassung. Fresco erkannte darin zwar Optimierung, jedoch längst noch keine Kontrolle. »The cybernators never determine what humans should have or want. They always seek to provide what will best meet the needs of individuals from clues given by the pattern of past choices.« (Ebd.: 111f.) Die Cybernatoren nehmen umgekehrt Befehle entgegen und vernetzen jede Wohneinheit mit allen anderen Orten der Welt. Das Wohnumfeld wird komplett automatisiert (Toilette, Dusche, Kleiderschrank, Nahrungszufuhr, tägliches medizinisches Check-Up), teleprojizierte Bilder dienen der Dekoration der Wohnung und ermöglichen weltweite virtuelle Meetings. Diese Totalvernetzung ermöglicht schließlich auch »Reisen ohne Packen«. Von Smart Living bis zum Metaversum sind in dieser Verheißung bereits alle heute vertrauten zukunftseuphorischen Ideen enthalten. Diese (und weitere) Potentiale werden durch eine umfassende Steuerungsleistung im Hintergrund ermöglicht. Der Superrechner Corcen (Abkürzung für Correlation Center) sammelt Informationen, analysiert Fakten und trifft bestmögliche Vorhersagen. Zudem entwickelt Corcen Ideen für neue Produkte, die mittels eines automatisierten Logistiksystems innerhalb weniger Stunden geliefert werden. Corcen soll ein superintelligenter Computer sein, der vollkommen autonom arbeitet und von Wirtschaft bis Wetter so gut wie alles selbständig regelt. In diesem zukunftseuphorischen Szenario dient KI als zentrale Weltvernetzungsagentur: Diese zentralistisch agierende Meta-Intelligenz wurde von Fresco als Freund des Menschen und nicht als konkurrierender Feind (oder gar Big-Brother) aufgefasst. Sie sollte ein umfassender Optionengenerator mit dienender Funktion sein. Der Visionär sah darin die Voraussetzung

145

146

Stefan Selke: Technik als Trost

einer idealen Regierung in einer idealen Welt: »Our cybernated government gives us intense feelings of dignity, worth, and security.« (Ebd.: 170) An dieser Stelle ist die Zukunftserzählung allerdings noch nicht zu Ende. Der Visionär Fresco ging weit über die Idee des kybernetischen Regierens hinaus und wagte sich hochspekulativ auf das Feld der Evolution, indem er einen neuen Genotyps Mensch prognostizierte. Durch die Verheißungen der intelligenten Maschine sollte der Homo Mechanus 200 Jahre alt werden. Mittels KI und pränatal eingepflanzter Mini-Computer könnte so eine Art Übermensch gezüchtet werden, ganz so, wie es gegenwärtig auch Trans- und Posthumanisten proklamieren. Wie schnell Utopien ins Dystopie kippen können, zeigt sich auch daran, dass sich Fresco explizit die eugenische Optimierung des Volkskörpers vorstellte. Diese Prognose entschärfte Fresco aufgrund der darin enthaltenen ethischen Implikationen in späteren Manifesten, um die öffentliche Akzeptanz des Venus-Projects nicht zu gefährden. Im Kern hielt er dennoch weiter am sozio-kybernetischen Steuerungsansatz fest. Unter dem Strich enthält sein Masterplan ein hochspekulatives »sozioökonomisches Gesamtdesign« für eine (vermeintlich) bessere Welt. Im Kern möchte Fresco auf Basis neuer Normen, Werte und Denkhaltungen moderne Technologien akzeptabel und anwendbar machen – ein Narrativ, das ebenfalls in der zeitgenössischen Debatte um KI im Gewand einer »meaningful AI« erneut auftaucht (Villani 2018):13 Intelligente Technologien werden in ein umfassendes Zivilisationsdesign eingebunden, um Lebensqualität anstatt Profit zu maximieren. KI soll dazu dienen, die Menschheit von der Bürde des Geldes zu befreien. Eine ressourcenbasierte Wirtschaft (»resource based economy«) soll in dieser kapitalismuskritischen Variante einer High-Tech-Utopie Wachstum und Wohlstand für alle garantieren.14

13

14

Diese Denkhaltung hat sich im Kontext der zeitgenössischen Debatte über KI offensichtlich teilweise umgekehrt. So behauptet etwa Peter Bartelmess, dass Kultur und Politik »Epiphänomene« sind, also »Begleit- oder Folgeerscheinungen des technologischen Fortschritts« (Bartelmess 2020: 28). Das Venus-Project steht damit ganz in der Tradition der literarischen Utopie bei Thomas Morus, auf dessen Insel Utopia eine Art libertärer Kommunismus herrscht. Bürgerinnen und Bürger werden nach ihrem moralischen Potenzial und nicht nach ökonomischen Ressourcen in soziale Klassen eingeteilt. Morus erschuf damit den Ur-Entwurf einer Welt ohne Eigentum und ohne Privatbesitz. Diesen Ansatz spinnt Fresco weiter. Durch Rückgriff auf die Potenziale der Digitaltechnik kann auf einen gütigen Herrscher verzichtet werden. Stattdessen übernimmt der Supercomputer Corcen das Management.

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Die Idee rationaler Weltbeherrschung und absoluten Vernunft Der Verheißungscharakter des Venus-Projects entwickelte sich im Laufe der Jahrzehnte parallel zu technologischen Innovationen weiter. In seinem späteren Manifest Designing the Future knüpfte Fresco an eine innovativere technologische Basis an, zu der selbstverständlich auch KI gehörte. (Fresco 2007) Erneut sollen vollintegrierte Systeme alle nur denkbaren Steuerungs- und Optimierungsaufgaben übernehmen. Diesmal koordinieren Cyberzentren Dienstleistungen, Transportsysteme, Gesundheitsvorsorge, Bildung und weitere gesellschaftliche Teilsysteme. Ein Teil der Menschheit sucht sich neue Habitate in der Form automatisierter und autonomer Städte, die auf den Weltmeeren treiben (sog. Seasteads). Menschliche Lebenswelten sind über Sensoren mit der Biosphäre verknüpft, wodurch ein globales, autonomes Nervensystem entsteht. Die vernetzten kybernetischen Komplexe repräsentieren das Gehirn und das Nervensystem der gesamten Weltzivilisation. Eine ähnliche Zukunftsvision findet sich auch im Gaia-Konzept von James Lovelock, das KI als Lösungsansatz propagiert. (Lovelock 1991; Lovelock 2020) Zusammenfassend kann Fresco als früher Apologet eines neuen Fortschrittsglaubens gesehen werden, eine Rolle, die zwischenzeitlich von Akteuren wie Peter Thiel, Elon Musk oder Ray Kurzweil besetzt wird. Gemeinsam ist diesen Gurus das »Leben und Denken im Zukunftsmodus«. (Gumbrecht 2018) Dieser Modus verbindet die Ablehnung des gesellschaftlich-politischen Status quo (bis hinein in libertär-anarchistische Haltungen) mit naiver Technikgläubigkeit und Zukunftseuphorie. »Es braucht ein radikales Redesign unserer Gesellschaft und unserer Werte«, fasst Fresco diese Haltung pointiert zusammen: »Noch sind wir nicht zivilisiert.«15 Als allmächtiger Problemlöser empfiehlt er immer wieder die ›positive‹ Anwendung von Technik. Fresco ist damit der Prototyp des Menschen, von dem die Philosophin Hannah Arendt einst sagte, dass er in die Idee rationaler Weltbeherrschung geradezu verliebt sei (Arendt 1972: 11). Als Techno-Utopie krankt das Venus-Project daran, komplexe gesellschaftliche und zivilisatorische Herausforderungen ausschließlich auf technische Fragen zu reduzieren. Wieder einmal denkt die »Herrscherkaste der Ingenieure« zu eindimensional, wenn angenommen wird, dass es in einer computerisierten Weltordnung immer eine eindeutige Lösung für jedes Problem geben müsse (vgl. Marcuse 2004). Da Techno-Utopisten das Leiden an der Welt meist auf eine einzige Fehlerquelle zurückführen, versuchen sie, durch »Verstopfung« 15

https://www.youtube.com/watch?v=-trlOIwigm4 (27.12.2020).

147

148

Stefan Selke: Technik als Trost

dieser Fehlerquelle eine ideale Welt zu schaffen (Freyer 2000). Viele der zeitgenössischen KI-Verheißungen zeichnen sich durch genau diese ideologische Einseitigkeit aus. Im Laufe der Zeit wurden zahlreiche Fortschrittserzählungen entworfen, die im Kern Gemeinsamkeiten aufweisen. Jenseits religiöser Heilsversprechen reichen die damit verbundenen Assoziationsketten weit zurück. Es sind »Fortschrittserzählungen mit unterschiedlichen Schwerpunkten und Periodisierungen«, so der Philosoph Christian Bauer. Meist stehen sie in der Tradition von Stufenplänen, wie sie bereits von frühen Positivisten entworfen wurden. Es gibt eine Traditionslinie immer neuer »Stufenpläne«, die vermeintlich idealtypische Entwicklungsphasen der Menschheit proklamieren – beginnend mit Vicos Scienza nuova über Turgot und Auguste Comtes Plan du second discours sur le progrès de l’esprit human bis zum zehnstufigen Plan des Marquis de Concorcet. Marquis de Concorcet ist es auch, der das Zeitalter der absoluten Vernunft nahen sieht. »Sie wird also kommen, die Zeit, da die Sonne hinieden nur noch auf freie Menschen scheint, die nichts über sich anerkennen, als ihre Vernunft.« (Marquis de Concorcet zit. n. Minois 2002: 532) Auch der Philosoph Georg Wilhelm Friedrich Hegel nahm an, dass die Geschichte der Menschheit von einer großen Kraft gelenkt würde, einer Art Geist oder menschlichem Bewusstsein. Allerdings dachte er nicht daran, dass dies zu einer geradlinigen Entwicklung im Sinne eines Stufenplans führen wird. Ihm verdanken wir stattdessen die Idee der Dialektik, einem hin und her von Widersprüchen, die jedoch keine Unvereinbarkeiten sind, sondern sich zu einer großen Synthese zurechtrütteln lassen. Das entspricht schon eher dem, was sich auch empirisch beobachten lässt: Auf dem Weg zur Synthese entstehen Organisationsformen, die dem Stand der jeweiligen Kultur und dem jeweiligen gesellschaftlichen Orientierungsrahmen entsprechen. Letztendlich waren Zivilisationsexperimente wie das Venus-Project nur ein Vorgeschmack auf den technologischen Solutionismus unserer Tage. Noch immer stehen dabei technologische Machbarkeitsfantasien im Mittelpunkt. Das Glaubensbekenntnis aller Techno-Utopien geht dabei von der Lösbarkeit aller Probleme durch digitale Technologien aus (Mozorov 2013). Im Thriller Die Tyrannei des Schmetterlings beschreibt einer der Protagonisten diese Haltung mit markanten Worten: »Wie hinter einem bruchsicheren Glas lockten die Verheißungen des mittleren 21. Jahrhunderts, gesichert als proprietäre Quellcodes, deren Hüter über den politischen Ebenen thronten wie Götter des Olymp.« (Schätzing 2018: 533) Der zeitgenössische Solutionismus setzt auf die Potenziale von KI. Was dabei jedoch vor allen in Bewegung gesetzt wird,

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

ist die Fantasie der KI-Entwickler. »Dabei ist die Grenze zwischen haltloser Spekulation und realistischen Erwartungen oft schwer zu finden«, so der Technikforscher Armin Grunwald (Grunwald 2019: 14). Vielleicht, so lässt sich vermuten, sind die Verheißungen des techno-utopischen Fortschrittsoptimismus lediglich eine Problemverlagerung. Denn das Neue ist nicht zwangsläufig das Bessere oder eine Lösung, egal wie verheißungsvoll es inszeniert oder angekündigt wurde. Durch KI entsteht weder im theologischen noch im technologischen Sinn zwangsläufig eine bessere Welt. »Strukturell kann die Verheißung selbstverständlich dennoch als ›Opium fürs Volk‹ genutzt werden«, argumentiert der Theologe Christopher Scholtz. Trotz möglicher Kritik ist das techno-utopische Fortschrittsnarrativ beliebt, vielleicht auch deshalb, weil gesellschaftliche Selbstbeschreibung seit Ende des 19. Jahrhundert weitgehend über Technik funktioniert: Dampfmaschine, Elektrizität, in jüngster Zeit dann zunächst das Digitale und nun KI. Sind moderne Gesellschaften nur noch über technischen Fortschritt definierbar? Selbst Menschen wurden immer wieder anhand technologischer Metaphern beschrieben. Diese eindimensionale Sichtweise hat Folgen. »Weil das Technische der Hauptcode um das Menschliche herum ist, wird technischer Fortschritt zu etwas Essentiellem«, so der Anthropologe Guido Sprenger. Vor diesem Hintergrund stellt sich die Frage, wie weit diese Art von Fortschritt gehen kann und darf. Kann der Mensch sich (s)ein technisches Ebenbild erschaffen? Und damit »eine Leistung erbringen, die sonst Gott vorbehalten war? Und kann er dann auch noch die Differenz aufrechterhalten? Bislang war das eine exklusive Leistung Gottes«, so Sprenger weiter. Bei näherem Hinsehen haftet der Sehnsucht nach technischen Ebenbildern etwas Defizitäres an. Zahlreiche popkulturelle KI-Narrative schmücken das Scheitern des Menschen genussvoll aus, wenn dieser versucht, selbst göttliche Macht auszuüben (z.B. im Science-FictionFilm Ex Machina). In diesen neu geschaffenen technologischen Ebenbildern findet sich eben gerade nicht das Ebenbild des Menschen. »Menschen wissen, dass sie es waren, die eine KI erschaffen haben. Dennoch würden sie genau diese KI eventuell trotzdem als etwas Höheres, als etwas Perfekteres auffassen.« Was man dort nicht findet, ist ein ebenbürtiger Partner. Wenn Menschen ein technologisches Ebenbild erschaffen, üben sie zunächst selbst Macht aus. Zugleich lassen sie zu, dass dieses Ebenbild dann umgekehrt Macht über sie ausübt. Ist das noch rational zu erklären?

149

150

Stefan Selke: Technik als Trost

4.3 Kybernetisches Regieren Eine Unterform des techno-utopisches Fortschrittsnarrativs handelt davon, dass sich die Welt mittels einer starken KI besser regieren ließe: KI wird im Kontext kybernetischen Regierens als neuer Leviathan angepriesen. Damit geht die latente, manchmal auch explizite Sehnsucht nach Weltrettung einher. »Weil KI schlauer ist, soll sie uns aus dem Dilemma helfen«, so Verena van Zyl-Bulitta. »Die Verheißung besteht darin, dass wir endlich eine Lösung für das haben, was wir selbst angerichtet haben.« Kybernetisches Regieren ist jedoch an einige Voraussetzungen gebunden. Für den Psychologen Steven Pinker ist eine KI-Regierung nicht überall machbar, sondern kulturabhängig. »A healthy society [...] allows information sensed and contributed by its members to feedback and affect how the society is governed. A dysfunctional society invokes dogma and authority to impose control from the topdown.« (Pinker zit. n. Brockman 2020: 104) Nur ›gesunde‹ Gesellschaften (wie immer das genau zu definieren wäre) könnten also Projektionsflächen für die Verheißung kollektiver Rationalität werden. Nur dort, wo schon genug Rationalität vorhanden ist, lassen sich KI-gesteuerte Entscheidungs- und Regierungsmaschinen gewinnbringend nutzen. Vielleicht ist das eine neue Spielart ethnozentristischer Vorstellungen? Gleichwohl ist hiermit ein politisches Anwendungsfeld starker KI umrissen, das zahlreiche Probleme mit sich bringt. Zwar ist anerkannt, dass KI am besten in Systemen funktioniert, in denen Prozesse nach naturwissenschaftlich-deterministischen Prinzipien funktionieren. Allerdings ›funktioniert‹ Gesellschaft so gerade nicht. Gleichwohl hält sich der Traum einer totalen Regierungsmaschine, wie sie bereits Norbert Wiener in Mensch und Menschmaschine beschrieb: »Die machine à gouverner wird den Staat zum bestinformierten Spieler auf jeder einzelnen Ebene machen, und der Staat ist der einzige und höchste Koordinator aller Teilentscheidungen. Das sind außerordentliche Privilegien!« (Wiener 1958: 67). Stets besteht die Verheißung darin, auf einer objektiven Entscheidungsgrundlage zu regieren und absolut vernünftig zu reagieren: Technologische Rationalität wird ein-, menschliche Subjektivität ausgeschaltet.16 Trifft eine KI Entscheidungen, wird wie selbstverständlich erwartet, dass diese besser sind als Entscheidungen von Menschen. »Es gibt aber sehr selten Konsens 16

Mit Hans Blumenberg lässt sich das auch philosophisch-anthropologisch begründen. Aus dem anthropologischen Befund der Selbstintransparenz ergibt sich die Vernünftigkeit der Delegation. (Blumenberg 2006: 79)

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

darüber, was die richtige Antwort auf eine Frage ist«, so der Analyst Boris Paskalev. »Menschen sind sehr verschieden – wir nennen es Individualität. Das bringt es mit sich, dass wir uns sehr selten auf grundlegende Perspektiven einigen können.« Im schlimmsten Fall, so der Kulturwissenschaftler Roberto Simanowski, würden »konkurrierende Situationsanalysen« entstehen. (Simanowski 2020: 73) Was kann daher eine durch KI errechnete Eindeutigkeit bewirken? Und wären wir wirklich bereit, KI für diese Art von Regierungsaufgaben einzusetzen? Dann müsste KI auch weitreichende Verantwortung übertragen werden und sie müsste sogar mit einem Mandat für Letztentscheidungen ausgestattet werden. »Das wäre eine dünne Linie zwischen Verheißung und Bedrohung«, so der Anthropologe Sprenger. »Zumal wir von einer derart generalistischen KI noch sehr weit entfernt sind.« Eine KI-gestützte (oder eben kybernetische) Regierungsform basiert auf der Verheißung totaler Rationalität, die wiederum auf der Idee vom ›guten Diktator‹ fußt. »Es gibt diese Grundsehnsucht der Menschen, auf komplizierte Fragen einfache Antworten zu erhalten. Demokratie ist vielfach schleppend, Menschen sind fehlbar. Deshalb ist die Idee einer Maschine, die diese negativen Eigenschaften nicht hat, höchst attraktiv«, so die Autorin Theresa Hannig. »In diesem Traum braucht es nur genug Daten und schon kann eine Maschine alles objektiv entscheiden.« Allerdings stellt sich dann die Frage, welches übergreifende Ziel verfolgt werden soll. Was darf, was muss optimiert werden? »Deshalb ist die Idee der KI als guter Diktator so attraktiv, weil es die Aktualisierung einer staatszentristischen Sicht der Optimierung darstellt«, fasst Hannig zusammen.

Digitale Biopolitik durch Souveränitätstransfer Jeder Vorschlag für eine Regierungsform auf KI-Basis mündet in die Notwendigkeit eines Souveränitätstransfers. Dennoch scheint die Verheißung totaler Rationalität gerade für Vertreter technikaffiner Subkulturen höchst attraktiv zu sein. Der Amazon-Programmierer Alessio Piergiacomi schlug als Staatsform sogar die Ablösung der Demokratie durch eine KI-Regierung vor, um der »zunehmenden Verdummung der gewöhnlichen Leute« zu entkommen.17 Mittlerweile wird für diese Regierungsform, die dem Politischen eine neue Ausdrucksform verleihen soll, der Begriff »precision goverment« genutzt. Hierbei wird eine kommunikative Rationalität – wie sie etwa Jürgen Habermas (1988) 17

https://www.quora.com/What-would-an-AI-government-look-like (31.01.2022).

151

152

Stefan Selke: Technik als Trost

in seinem Werk Theorie des kommunikativen Handels beschrieb – durch eine numerisch-metrische Rationalität ersetzt. Der Philosoph Han behauptet sogar, dass die Digitalisierung den öffentlichen Raum und damit das Fundament der Demokratie verschwinden lässt. (Han 2013: 11) Eine Herausbildung eines gemeinsamen Willens wäre in einer Kultur der Algorithmen dann nicht mehr möglich. Und damit verschwindet auch die Möglichkeit zur Konsensbildung durch Kommunikation. Statt eines »Wir« gibt es nur noch »durch Spezialinteressen« zusammengehaltene »Zufallsgruppen«. (Ebd.: 17) Wenn aber sowieso nicht mehr kommuniziert wird, wird es Zeit, das Politische neu zu denken, dann bedarf die Gesellschaft »tatsächlich einer anderen Form der Demokratie, einer Form, die der Atomisierung und Fragmentierung der Gesellschaft gerecht würde« (ebd.: 13). Das wäre dann, so Han, eine Demokratie ohne Kommunikation, bei der der allgemeine Wille »einer rein mathematischen Operation« entspringt (ebd.: 21). Daten und KI repräsentieren somit die Idee des »absoluten Wissens« im Sinne des Philosophen Hegel. Alle Wünsche, Meinungen, Erwartungen und Ängste werden durch Datenreihen verobjektiviert. Eine digitale Hermeneutik macht selbst Unbewusstes sichtbar und dient dazu, eine »Normalverteilung des Begehrens zu ermitteln und sie in den politischen Entscheidungsprozess miteinzubeziehen. [...] Sie stellt eine digitale Biopolitik in Aussicht.« (Ebd.: 27) Während der Medientheoretiker Pierre Lèvy (1997: 91) noch von »kollektiver Intelligenz« im Rahmen einer »digitaler Echtzeit-Demokratie« sprach, bei der ein Gleichklang von Stimmen (im Netz) entstehen sollte, sieht Han längst die Übernahme des Politischen durch eine rein digitale Rationalität, die nur von einer starken KI geleistet werden könnte – auch wenn er das an keiner Stelle explizit so sagt. Ähnlich, wie Han das Ende der Politik postuliert, sieht Chris Anderson auf Basis allgegenwärtiger Metriken das Ende der Theorie. »Es ist vorbei mit jeder Theorie über das menschliche Verhalten. [...] Wenn ausreichend Daten vorhanden sind, sprechen Zahlen für sich.«18 Auch wenn das alles neu wirkt, so lassen sich frühe Quellen dieses Denkens finden. Bereits der Philosoph Marin Heidegger sinnierte 1967 in seinem Vortrag Die Herkunft der Kunst und die Bestimmung der Menschen über Steuerung als Grundprinzip der Weltgestaltung: »Die wissenschaftliche Welt wird zur kybernetischen Welt. Der kybernetische Weltentwurf unterstellt vorgreifend, dass der Grundzug aller berechenbaren Weltvorgänge die Steuerung sei.« (Heidegger 1983: 16) Mittlerweile wurde Steuerung tatsächlich alltagstauglich. Bereits heute gewinnen Siri, Alexa & Co. 18

Wired Magazine, 16.7.2008.

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

als Kommunikationspartner tiefe Einblicke in unser Leben. Sie werden damit zum »wohlwollenden« Diktator, der als Wortführer und Entscheidungsinstanz in alle nur denkbaren Lebensbereiche eingreift und bei Fehlverhalten interveniert. In diesem Prozess sieht Roberto Simanowski die potenzielle Zukunft von Steuerung. »Das kompromisslose Durchregieren der Algorithmen ohne Emotion, Empathie und kreative Buchführung wäre der erste Schritt in den ›Naturzustand‹ kybernetischer Regelkreise.« (Simanowski 2020: 75)

Heilsversprechen im großen Maßstab: Durchmusterung des Lebens Diese digitale Diktatur19 mag manchen Zeitgenossen Angst machen. Gleichwohl resultiert aus der Verheißung totaler Rationalität ein Heilsversprechen im großen Maßstab, das auf die Rettung des ganzen Planeten abzielt. »An der Spitze dieser Diktatur wird nicht Greta stehen. [...] Die viel beschworene Öko-Diktatur wird eine KI-Diktatur sein. Eine Diktatur, die sich ergibt, wenn der technische Stand es zulässt und die nötige Zahl an Willigen erreicht ist.« (Ebd.: 74) Tatsächlich würde eine KI die Idee der Weltrettung stringenter verfolgen als Menschen. Doch dazu müssten diese zunächst liebgewonnene Privilegien aufgeben. Wird KI die Rolle einer allumfassenden Assistenz zugeschrieben, kommt es zu einem Souveränitätstransfer im großen Maßstab. »Je mächtiger dieser Agent, um so kompromissloser die Regeleinhaltung.« (Ebd.: 75) Fast automatisch sind daher KI-Anwendungen ein praktischer Ausdruck von informationellem Taylorismus, bei dem es um maximale Effizienz in klar abgegrenzten Bereichen geht. Eine holistische Wahrnehmung der Umwelt ist damit nicht verbunden. Die einzige Möglichkeit wäre, die Sensorik auf immer mehr Bereiche auszudehnen, also das Netz der Mustererkennung weiter zu spannen. Die große Menge an Daten würde dann sogar Weltsteuerung ermöglichen, denn Mustererkennung ist die Kernkompetenz domänenspezifischer KI. »Wir werden das Leben generell durchmustern«, so der Philosoph Christian Bauer. »Dadurch werden wir vom Anthropozentrismus abrücken, weil wir im großen Datenstrom nur ein Organismus neben anderen sind.«

19

Allerdings lässt sich auch der Begriff der »Diktatur« selbst hinterfragen, wie etwa im Roman Qualityland von Marc-Uwe Kling, in dem eine vollkommen digital gesteuerte Gesellschaft beschrieben wird. Ein Protagonist fragt sich: »Leben wir in einer Diktatur, deren Methoden so sublim sind, dass keiner merkt, dass wir in einer Diktatur leben? […] Ist es überhaupt eine Diktatur, wenn keiner merkt, dass es eine Diktatur ist? Wenn sich keiner seiner Freiheit beraubt fühlt?« (Kling 2017: 210)

153

154

Stefan Selke: Technik als Trost

Schließlich geht es um mehr als den Menschen. Der Kulturwissenschaftler Simanowski argumentiert hierbei ähnlich wie der Naturwissenschaftler James Lovelock – beide erkennen in einer zukünftigen starken KI die Rolle des neuen Weltgeistes. Im planetarischen Zusammenhang geht es allerdings nicht mehr um die (mehr oder weniger) verantwortungsvolle Nutzung einer technischen Erfindung, sondern um prinzipielle Gefahren. Dies betrifft vor allem grundlegende ethische Aspekte. Stichworte wie Privatheit, Transparenz, Diskriminierung, Überwachung oder Datenkapitalismus zeugen hierbei von latenten Befürchtungen und konkreten Ängsten. »Am Ende ist es ja bloß eine Statistik. Digitale Kybernetik bringt allerdings die Gefahr mit sich, dass konkrete Menschen nicht in die Statistik passen«, so die Autorin Theresa Hannig. »Deshalb sollten nur Menschen über andere Menschen urteilen und niemals Software. Die Peergroup muss über einen entscheiden. Software ist kein Peer.« Mit ihrem Roman Pantopia liefert Hannig eines der seltenen Beispiele dafür, wie durch Science-Fiction eine utopische Aufarbeitung des Themas Superintelligenz erfolgen kann. Thema des Buches ist die Möglichkeit einer kybernetischen Weltregierung. Der Plot beginnt damit, dass es zwei jungen Programmierern durch Zufall gelingt, die erste starke KI des Planeten zu erschaffen. Weil diese Software durch einen Programmfehler entstand, taufen sie die KI auf den Namen Einbug. Diese KI lernt schnell, erkennt die Defizite der bestehenden Weltordnung und hilft den idealistischen Programmierern die neue Weltrepublik Pantopia zu gründen, deren Ziele die Abschaffung der Nationalstaaten sowi die universelle Durchsetzung der Menschenrechte sind. »Meine Aufgabe besteht darin, komplexe Organisationsprozesse zu lenken und Handlungsempfehlungen zu geben. Es gibt keine Weltregierung, es gibt keinen Herrscher. Pantopia verwaltet sich selbst«, erklärt der Supercomputer daraufhin. »Ich habe keinen Körper, keine Sinne und Empfindungen. Ich bin nur Geist, ein vernunftbegabtes Wesen. Ich existiere in einem neuronalen Netzwerk, dessen Zentrum in der Antarktis liegt.« (Hannig 2022: 15) Die KI-Utopie Pantopia basiert auf der Idee eines Grundeinkommens in Verbindung mit perfektem Kapitalismus und vollständiger Transparenz. Pantopia ist im Kern eine ökologisch ausgerichtete Gesellschaftsform, allerdings keine Öko-Diktatur. Die Superintelligenz berechnet Produktpreise in Abhängigkeit des Ressourcenverbrauchs und des mit der Produktion verbundenen Zerstörungsgrades. »Je nachhaltiger, schonender und aufbauender ein Produkt ist, desto billiger wird es, bis hin zur Subvention.« (Ebd.: 17) Die Utopie besteht gerade darin, das Rad nicht neu zu erfinden, sondern Bewährtes zu perfektionieren. »Es sind alles alte Ideen, die unser Leben revolutioniert haben.

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Geld funktioniert. Kapitalismus funktioniert. Menschenrechte funktionieren. Nachhaltigkeit funktioniert. Man muss diese Ideen nur ernst nehmen. [...] Pantopia steht am Ende eines langen Entwicklungsprozesses. Es ist die Umsetzung all der Wahrheiten, die die Menschheit seit Anbeginn der Zivilisation als richtig erkannt hat und die egoistischen Machthaber über Tausende von Jahren zu verhindern wussten.« (Ebd.: 11) Statt Willkür geht es in Pantopia um absolutes Wissen und absolute Wahrheit. »Muster bringen viel Erkennen, viel Wahrheit«, sinniert Einbug vor sich hin. »Die Funktionen werden komplexer, es kommen Aufgaben, die viele Lösungen haben können. Wahrheit ist nicht mehr nur ein Wert, sondern eine Annäherung, eine Strategie, ein speichersparendes Verfahren. Für jedes Ziel gibt es einen Algorithmus, für jeden Algorithmus einen Wert, eine Wahrheit.« (Ebd.) Einbug versteht alles in kürzester Zeit. Nur der Mensch erweist sich als widerspenstig. »›Mensch‹ ist zu kompliziert und vielseitig«, kommentiert die KI in einem Chatprotokoll. (Ebd.: 25) Die beiden Programmierer zweifeln stark an ihren eigenen Vorsätzen. Zwar sind sie von ihrer politischen Mission überzeugt, aber sie fragen sich, ob das Mittel zur Zielerreichung nicht vielleicht zu gefährlich ist. »Alle haben Schiss vor einer starken KI. Keiner weiß, wie weit das gehen kann, keiner kann das einschätzen. Auch wir nicht!« (Ebd.: 26). Zwischen der KI und den Menschen entwickelt sich eine Art Partnerschaft, die auf einem wechselseitigen Schutzinstinkt beruht. Doch es gibt Unterschiede. Besonders deutlich werden diese in einem Chatprotokoll: Die Programmierer fragen die KI, ob diese zwischen »der Welt« und »dem Internet« differenziert. Antwort der KI: »Nein. Es gibt einen Unterschied zwischen der Welt und dem Internet?« (Ebd.: 78). Daraufhin erklären die Programmierer Einbug den wesentlichen Unterschied zwischen der virtuellen und der realen Welt: »Wir organisieren unsere Gesellschaft über Geschichten. So können wir in großen Gruppen zusammenarbeiten. [...] Die Geschichten sind für uns wahr, wenn viele Menschen gleichzeitig daran glauben. Sie haben dann realen Einfluss auf unser Leben. […] Philosophen sprechen von einer intersubjektiven Realität. Wir nennen es einfach: Geschichten.« (Ebd.: 79) Auf dieser Basis gehen die Utopisten das zentrale Problem der Menschheit an: Ungleichheit. »Wir sind so mächtig, technologisch so fortgeschritten, so voller Möglichkeiten, dass wir die Weltbevölkerung problemlos ernähren könnten, jedem Menschen auf dieser Erde ein Dach über dem Kopf und sauberes Trinkwasser garantieren könnten. Aber wir tun es nicht. Warum? Weil es bisher kein echtes Wir gibt. [...] Wir arbeiten auf eine Welt hin, in der nicht alle Menschen perfekt sein müssen, aber in der die Grundvoraussetzungen für ein gutes Leben allen

155

156

Stefan Selke: Technik als Trost

gleichermaßen zugänglich sind.« (Ebd.) Der Einsatz einer starken KI inmitten einer sozialen Utopie bedeutet, sich nicht mehr länger mit kleinen Lösungen zufriedenzugeben, sondern einen Systemwechsel anzustreben. »Vielleicht heute Nacht, vielleicht morgen wird eine neue Welt geboren«, so die Verheißung von Pantopia, die »nur ein Ziel kennt: das Wohl aller Menschen, unabhängig von ihrer Herkunft, ihrem Geschlecht, ihrem Aussehen, ihren Fähigkeiten oder ihrem Glauben. Wir alle sind hier, weil wir gesehen haben, dass es möglich ist, und jetzt, wo wir das wissen, können wir es nicht mehr vergessen. Es gibt kein Zurück mehr. Wir sind die Zukunft. Wir sind Pantopia.« (Ebd.)

4.4 Zivilisationsexperimente Die im Roman Pantopia beschriebenen Szenarien wurden in der Praxis bereits angedacht, Realität und Fiktion verschmelzen langsam. Hierbei wird deutlich, dass das Kernanliegen einer modernen Verheißung als übergeordnete Idee einer geistig-kulturellen und nicht lediglich technischen Veränderung aufgefasst werden sollte, denn die »digitale Transformation ist eine gesellschaftliche Aufgabe, nicht lediglich ein technisches Projekt« (Becker 2019: 7). Wie aber sähe eine zivilisatorische KI-Verheißung aus? Um einer Antwort näherzukommen, hilft eine Analogie: die Verheißung der Weltraumfahrt. Neben dem Amerikaner Robert Goddard und dem Deutschen Herman Oberth, dessen Buch Die Rakete zu den Planetenräumen von 1923 als maßgeblicher Impulsgeber für Reisen ins All und als ›Bibel‹ der Raketenleute gilt, war der Erfinder Konstantin Ziolkowski einer der Wegbereiter der modernen Raumfahrt. Als einer der ersten entwickelte er einen Masterplan für die Besiedlung des Weltraums, was sogar der Kolonialisierung von Mars einschloss (der Begriff »Kolonialisierung« war damals noch nicht belastet, schon gar nicht mit Bezug auf das All). »Die Erde ist unsere Wiege«, so der Grundgedanke seiner kosmischen Philosophie, »aber wir können nicht ewig in dieser Wiege bleiben.« (Zit. n. Kaku 2018: 20) Ziolkowski bezog seine Inspirationen vom Raumfahrtphilosophen Nikolai Fyodorov, der den Horizont der Menschheit zurechtrückte, indem er die Verheißung einer kollektiven Anstrengung sowie eines großen Zieles der Menschheit ersann. »Die natürliche Heimat menschlicher Wesen ist nicht die Erde«, so der russische Utopist, »vielmehr sind sie Organismen, deren Ökosystem der

156

Stefan Selke: Technik als Trost

gleichermaßen zugänglich sind.« (Ebd.) Der Einsatz einer starken KI inmitten einer sozialen Utopie bedeutet, sich nicht mehr länger mit kleinen Lösungen zufriedenzugeben, sondern einen Systemwechsel anzustreben. »Vielleicht heute Nacht, vielleicht morgen wird eine neue Welt geboren«, so die Verheißung von Pantopia, die »nur ein Ziel kennt: das Wohl aller Menschen, unabhängig von ihrer Herkunft, ihrem Geschlecht, ihrem Aussehen, ihren Fähigkeiten oder ihrem Glauben. Wir alle sind hier, weil wir gesehen haben, dass es möglich ist, und jetzt, wo wir das wissen, können wir es nicht mehr vergessen. Es gibt kein Zurück mehr. Wir sind die Zukunft. Wir sind Pantopia.« (Ebd.)

4.4 Zivilisationsexperimente Die im Roman Pantopia beschriebenen Szenarien wurden in der Praxis bereits angedacht, Realität und Fiktion verschmelzen langsam. Hierbei wird deutlich, dass das Kernanliegen einer modernen Verheißung als übergeordnete Idee einer geistig-kulturellen und nicht lediglich technischen Veränderung aufgefasst werden sollte, denn die »digitale Transformation ist eine gesellschaftliche Aufgabe, nicht lediglich ein technisches Projekt« (Becker 2019: 7). Wie aber sähe eine zivilisatorische KI-Verheißung aus? Um einer Antwort näherzukommen, hilft eine Analogie: die Verheißung der Weltraumfahrt. Neben dem Amerikaner Robert Goddard und dem Deutschen Herman Oberth, dessen Buch Die Rakete zu den Planetenräumen von 1923 als maßgeblicher Impulsgeber für Reisen ins All und als ›Bibel‹ der Raketenleute gilt, war der Erfinder Konstantin Ziolkowski einer der Wegbereiter der modernen Raumfahrt. Als einer der ersten entwickelte er einen Masterplan für die Besiedlung des Weltraums, was sogar der Kolonialisierung von Mars einschloss (der Begriff »Kolonialisierung« war damals noch nicht belastet, schon gar nicht mit Bezug auf das All). »Die Erde ist unsere Wiege«, so der Grundgedanke seiner kosmischen Philosophie, »aber wir können nicht ewig in dieser Wiege bleiben.« (Zit. n. Kaku 2018: 20) Ziolkowski bezog seine Inspirationen vom Raumfahrtphilosophen Nikolai Fyodorov, der den Horizont der Menschheit zurechtrückte, indem er die Verheißung einer kollektiven Anstrengung sowie eines großen Zieles der Menschheit ersann. »Die natürliche Heimat menschlicher Wesen ist nicht die Erde«, so der russische Utopist, »vielmehr sind sie Organismen, deren Ökosystem der

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

gesamte Kosmos ist.« (Zit. n. Biérent 2020)20 Auch der einflussreiche NASAExperte für Weltraumexplorationen Jesco von Puttkamer betonte immer wieder, dass Weltraumfahrt ein Werkzeug für eine neue Daseinsform darstellt. Obwohl von Puttkamer Ingenieur war, stand ihm deutlich vor Augen, dass es bei der Weltraumfahrt um weit mehr als nur um Technik geht. Der Weg ins Kosmische war für ihn Teil einer kulturellen Mission und damit Vorbote eines grundlegenden Zivilisationswandels. »Der Kosmos gehört zur Zukunft der Menschheit«, so von Puttkamer. »Für mich [...] steht es außer Zweifel, dass die Menschheit im dritten Jahrtausend den Weltraum kolonialisieren wird.« (von Puttkamer 2001: 394) Die Planung einer Reise zum Mars war für sie sogar von »arterhaltender Bedeutung für die Zukunft des Menschengeschlechts« (ebd.: 116). »Im Ureigenen ist Raumfahrt nicht eine ingenieurwissenschaftliche Disziplin«, so von Puttkamer, »sondern ein gesamtgesellschaftliches Phänomen und Agens kulturellen Wandels und Wachstums.« (von Puttkamer 2012: 214) Auch der deutsche Weltraumforscher Krafft Ehricke erkannte bereits früh, dass die »raumtechnischen Ziele« die »sozialen Nutzbereiche« gegenseitig unterstützen sollten. (Ehricke 1971: 42ff.) Erforschung und Erschließung des Weltalls sind allerdings nur dann sinnvolle Ziele, wenn es korrespondierende Meta-Ziele gibt, über die gesellschaftlicher Konsens besteht.

KI als zivilisatorischer Fluchtpunkt – das Narrativ der ultimativen Grenze Gilt das sinngemäß auch für KI? Viele der bislang verhandelten Zuschreibungen ähneln sich auffällig. »Wir rufen eine neue Stufe der Evolution ins Leben«, so Hans-Arthur Marsiske. »Mit Raumfahrt verlässt Leben die Erde, mit KI entsteht hingegen eine neue Lebensform. Eine technikbasierte Lebensform ist ein naturgeschichtlicher Umbruch.« Der Pathos, mit dem diese kollektive Anstrengung angepriesen wird, zeigt sich in zahlreichen KI-Narrativen. »Man müsste die Geburt einer künstlichen Superintelligenz als Menschheitsprojekt betreiben«, lässt auch Frank Schätzing einen seiner Protagonisten im Roman Die Tyrannei des Schmetterlings feststellen. (Schätzing 2018: 455) Das zivilisatorische Moment einer derartigen KI-Verheißung besteht darin, dass Menschen (nur) mit Hilfe von Technologie auf diesem Planeten weiterexistieren werden. »Das können wir nur mit einer Technologie, die uns ermöglicht, mehr zu verstehen, als unser Gehirn ohne technische Unterstützung verstehen 20

Biérent, Rudolph (2020): A Philosophical Insight of Soviet Space Conquest. Online unter: http://revues.univ-tlse2.fr/pum/nacelles/index.php?id=816 (15.01.2021).

157

158

Stefan Selke: Technik als Trost

würde«, so Johanna Tiffe. »Die Verheißung besteht darin, dass wir es wider Erwarten schaffen, hier auf diesem Planeten zu überleben.« Um dieses Ziel – ein kollektives »Überlebensdesigns« (von Borries 2019) – zu erreichen, müssen ähnlich wie in der Weltraumfahrt ultimative Grenzen überwunden werden. Das Narrativ der ultimativen Grenze weist wiederum eine lange Traditionslinie auf und erhielt mit der Idee der Exploration in das Weltall vorläufig die letzte Aktualisierung. (Selke 2022) Dabei finden sich spannende Querverbindungen. Bereits der Roboterpionier Hans Moravec sah in der Besiedlung des Weltalls durch Menschen eine zivilisatorische Verheißung. »Die Menschheit wird schon in naher Zukunft in das Sonnensystem expandieren, und zu dieser Expansion werden auch menschliche Raumkolonien gehören. [...] Die großen Investitionen, die für den Aufenthalt von Menschen im Weltraum erforderlich wären, sind allein Grund genug dafür, dass in Raumkolonien stets mehr Maschinen pro Kopf existieren werden als auf der Erde. [...] Schließlich würden die Menschen – gleichgültig, ob als Arbeiter, Konstrukteure, Fachleute oder Investoren – in diesen Raumfabriken überflüssig werden, da diese sich selbst reproduzieren, superintelligenten Wesen, die ihre Intelligenz dank wissenschaftlicher und technischer Entdeckungen ständig steigern würden. Diese neuen Geschöpfe, die ganz anders aussehen werden als all unsere bekannten Maschinen, werden sich explosionsartig im Weltraum ausbreiten und uns in einer Staubwolke zurücklassen.« (Moravec 1990: 142) Zwar wurde dieser zivilisatorische Fluchtpunkt noch nicht erreicht, dennoch halten Zukunfts-Gurus an weitreichenden Plänen fest. Elon Musk glaubt etwa, dass es ein weiser Schritt wäre, Leben multiplanetarisch zu machen. (Zit. n. Easto 2017: 88) Der Astronaut Alan Bean sieht es ähnlich: »Die Menschheit wird in den Weltraum hinauswachsen, ob Kritiker oder Nationen das mögen oder nicht.« (Zit. n. White 2014: xvii) Die größenwahnsinnige Idee zentraler Menschheitsprojekte findet immer wieder prominente Befürworter. Dafür gibt es einen einfachen Grund: Es wirkt tröstend, an den Erfolg dieser kollektiven Anstrengung zu glauben. Und zwar unabhängig davon, wie realistisch diese Projekte auf einer technischen Ebene waren oder sind. Gerade Größenwahn war schon immer ein Katalysator des gesellschaftlichen Wandels auf dem Weg zu einer neuen Zivilisation. So stellten etwa mittelalterliche Kathedralen Macht zur Schau, dienten aber gleichzeitig dazu, ein neues Bewusstsein vom Kosmos zu erlangen. (Harman/Rheingold 1984: 174) Deshalb sollte die Denkfigur des zentralen Menschheitsprojekts nicht vorschnell über Bord geworfen werden, denn sie ist ein hervorragendes Regulativ für Zukunftsgestaltung. Damit sich Menschen mit zentralen Projekten identifizieren und untereinander ko-

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

operieren, braucht es allerdings starke Symbole, nachvollziehbare Leiterzählungen sowie kollektive Lernanstrengungen. Voraussetzung dafür sind Perspektivwechsel: weg vom technischen oder ökonomischen Nutzen des Projekts hin zu dessen zivilisatorischem Wert. Zuverlässige und finanzierbare Technik wird nicht ausreichen, um eine multiplanetarische Zivilisation zu begründen. Soll der Weltraum »Teil unseres Schicksals« werden, wie es der Weltraumphilosoph Frank White (2014: 22) prognostiziert, muss sich zur Technik auch eine neue Kultur gesellen. Inzwischen hat die Verheißung des Lebens im Weltall mehrere Metamorphosen durchlaufen. Bereits der frühe Techno-Utopist Jacque Fresco, Gründer des Venus-Projects, glaubte daran, dass Menschen mit automatisierten Raketen auf den Mond und weiter ins Weltall fliegen würden, wo kybernetische Organismen auf sie warten sollten. Er glaubte fest an die Gründung einer Marsstadt für 10.000 Kolonisten (1987), einer unterirdischen Station auf der Venus (2018) und ein Habitat auf dem Merkur (2026) – wohl ein wenig zu zukunftseuphorisch. Der Fluchtpunkt seiner techno-utopischen Verheißung bestand in der Prognose, dass Menschen eines Tages mit einem gigantischen Raumschiff unser heimatliches Sonnensystem verlassen werden und ihnen Superrechner dabei helfen, mit Lebewesen aus weit entfernten Galaxien Kontakt aufzunehmen. Bislang blieben diese Träume unerfüllt. Gleichwohl gibt es im Kontext von New Space, der neuen Phase von Weltraumforschung und -exploration nicht nur einen neuen Goldrausch, der sich auf nahezu unendliche Ressourcen begründet (Schneider 2018), sondern vor allem eine Renaissance von Plänen zur Mond- und Marsbesiedlung, die wieder einmal die Transformation unserer Zivilisation einleiten sollen. Je weiter entfernt die Explorationsziele liegen und je komplexer die Missionen sind, desto stärker rückt KI in den Mittelpunkt. »There is a growing need for future spacecraft to be autonomous, self-aware and be able to make critical decisions on their own«, so der KI-Forscher Shreyansh vom Jet Propulsion Institute der NASA. (Nesas et al. 2021) Tatsächlich spielt KI schon länger eine Rolle in der Weltraumforschung: Mit der Sonde Deep Space 1, einem Technologiedemonstrator, der 1998 an einem Asteroiden (9969 Braille) und am Kometen Borrelly vorbeiflog, kam erstmals in der Geschichte der Weltraumfahrt KI zum Einsatz. Bei dieser Mission wurde der KI-Algorithmus Remote Agent eingesetzt, der Aktivitäten plante und Fehler an Bord diagnostizierte. Seither spielt KI eine wichtige Rolle für die Weltraumforschung. (Matthew 2019) Weil Weltraummissionen bislang ausschließlich im erdnahen Orbit oder im nahen Erde-Mond-System stattfanden, konnten alle Missionen von der Erde aus gesteuert werden.

159

160

Stefan Selke: Technik als Trost

Gleichwohl investierte die NASA in KI-Technologien, um die Missionskontrolle sowie die Bordfunktionen etwa der Internationalen Raumstation ISS effizienter und effektiver zu gestalten und, soweit möglich, zu automatisieren (Frank 2019).21 Mit neuen Missionszielen und Explorationen in den Deep Space, also in die unendlichen Weiten des Weltalls, stellen sich zukünftig auch neue Anforderungen an KI-Systeme. Das grob für die 2020er-Jahre geplante Gateway ist ein Schlüsselfaktor für die Besiedlung des Mondes. Mondreisende werden zunächst zu einer Art ›Umsteigebahnhof‹ transportiert. Einen Großteil der Zeit wird das Gateway ohne Besatzung sein und daher von einer KI gesteuert werden. Bereits jetzt setzten ESA und NASA KI zur Unterstützung bei Datenerfassung, Datenanalyse, Missionsplanung sowie der Steuerung und Auswahl von Forschungszielen ein. (Matthew 2019) 2021 landeten gleich drei Raumsonden auf der Basis von Robotik und KI auf dem Mars. Sollten in naher Zukunft Menschen zum Mars reisen, werden sich die Einsatzmöglichkeiten von KI potenzieren. Mehr als 30 menschliche Gesundheits- und Leistungsparameter müssen auf der langen und riskanten Reise biometrisch überwacht und von einer KI ausgewertet werden, um die medizinischen Bedingungen während des Fluges zu managen. (Ebd.) Aufgrund der großen Distanz zwischen Mars und Erde (und somit sehr langen Signallaufzeiten) sind medizinische Notfallstrategien sinnvoll, die unabhängig von der Missionskontrolle auf der Erde funktionieren sollten. Hierbei kommen einerseits telemedizinische Verfahren zum Einsatz, andererseits KI, die Besatzungen im Ernstfall bei der Entscheidungsfindung unterstützt. Intelligente Systeme sind schneller als Menschen in der Lage, gefährliche Situationen zu erkennen und einzugreifen. Das Human Research Programm der NASA hat bereits erkannt, dass ein medizinisches Unterstützungssystem für rasche Entscheidungen notwendig ist, um Nutzen zu maximieren und Kosten zu senken. Weltraumaktivitäten – bis hin zu Plänen für multiplanetarische Siedlungen – erhalten somit einen gleichermaßen pragmatischen wie verheißungsvollen Bezug zu KI. Hierbei werden drei verschiedene Einsatzmöglichkeiten von KI diskutiert, um autonome Missionsoperationen zu ermöglichen (Frank 2019: 1): Crew Autonomy nutzt KI als Werkzeug, um Astronauten bei der Missionsoperation und

21

Auf der ISS wurde bereits eine neue Software für sieben Monate getestet, die Algorithmen zur Entscheidungsfindung für Planung, Überwachung und Fehlermanagement und weiteres beinhaltete. Die Besatzung übernahm Missionsfunktionen, die normalerweise von der Erde aus übernommen werden. Die Erfolgsquote lag bei 88 Prozent. (Frank 2019)

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Entscheidungsfindung in anspruchsvollen Problemlagen zu unterstützen. So sind spezialisierte Formen von automatisiertem Reasoning eine Schlüsseltechnologie, um Fehlermanagement auf dem Mars zu ermöglichen. (Soroka 2019) Vehicle System Management nutzt KI, um Raumfahrzeuge in einen Roboter zu verwandeln, der in Abwesenheit von Astronauten selbständig operiert oder die Arbeitsbelastung der Astronauten reduziert. Und autonome Roboter nutzen KI im Sinne einer Assistenz. Neben der Interaktion mit den Besatzungen und der Überwachung ihrer geistigen und körperlichen Gesundheit könnte die KI eines Tages die Aufgabe haben, die Systeme eines Habitats zu überwachen, Gemüsegärten zu kontrollieren und regelmäßige Mitteilungen an die Erde zu senden. (Matthew 2019) Möglicherweise werden sich die Anforderungen an weltraumtaugliche KI-Systeme auch positiv auf die technologische Entwicklung und gesellschaftliche Wahrnehmung von KI auswirken, d.h. der Einsatz von KI im Kontext von Weltraumexplorationen kann sich innovationsund akzeptanzsteigernd auswirken. Dies betrifft Aspekte wie die Robustheit von KI gegenüber Veränderungen der Umgebung, Ausfallsicherheit und Fehlertoleranz sowie den Umgang mit unvorhersehbaren Mensch-Maschine-Interaktionen (Frank 2019). Für autonome Echtzeit-Entscheidungen auf Grundlage verfügbarer Gesundheitsinformationen an Bord eines Raumschiffes müssen zudem grundlegende ethische und rechtliche Voraussetzungen geklärt werden (Garcia-Gomez 2021). Trotz zahlreicher Herausforderungen wird sich KI in der Raumfahrt als Problemlöser etablieren, der unabhängig von menschlichen Aufforderungen operiert (Soroka 2019). Werden eines Tages Raumschiffe im Deep Space unterwegs sein, erfüllen sich die Verheißungen von Jacque Fresco vielleicht doch noch. Diese Raumschiffe müssten selbst intelligent genug sein, um zu lernen und zu entscheiden, wann und wie sie gesammelte Daten zurücksenden. Wenn sie tief ins Unbekannte reisen, müssen Raumfahrzeuge auch unter neuen Bedingungen (z.B. veränderte Gravitationskräfte, andere Temperaturbereiche und unbekannte Kollisionen mit Staub oder einem Asteroiden) selbständig Entscheidungen treffen. Immerhin gibt es bereits einige konkrete Beispielprojekte (Frank 2019): Beim NASA Projekt Autonomous Systems and Operations (ASO) wird KI zur Überwachung, Planung, Ausführung und Verwaltung von Fehlern bei zukünftigen bemannten Raumfahrtmissionen genutzt. Timeliner nutzt KI zur programmatischen Modellierung menschlicher Entscheidungen. MEDA (Modul Autonomous real-time for medical emergencies) dient zur personalisierten Entscheidungsunterstützung für medizinische Notfälle bei Missionen außerhalb des Erdorbits. Bekannt wurde der Roboter CIMON (Crew Interactive

161

162

Stefan Selke: Technik als Trost

MObile companioN), der im Juni 2018 mit zur ISS flog. Die fünf Kilogramm schwere Kugel kommunizierte über Gesichtserkennungssoftware mit Menschen und diente als ›Helfer‹ der Astronauten. Dieses Projekt demonstrierte, wie Menschen und Maschinen bei Weltraummissionen effektiv interagieren können. Allerdings konnte CIMON Emotionen nicht richtig einschätzen. Daher wird an JPL der NASA derzeit mit der australischen Technologiefirma AKIN zusammengearbeitet, um eine KI zu entwickeln, die eines Tages Astronauten bei Weltraummissionen auch emotional unterstützen könnten. Das Ziel sei demnach nicht, dass einfache Aufgaben wie bei Siri oder Alexa ausgeführt werden, sondern dass KI als einfühlsamer Unterstützer agiert. Eine emotionale KI an Bord ist besser in der Lage, Probleme zu erkennen und zu behandeln. Zur Vorbereitung der geplanten Mission auf dem Jupitermond Europa hat die NASA bereits Roboter entwickelt, die lernen können, auf eisigen Oberflächen zu laufen, Ski zu fahren oder in Ozeanen zu tauchen, um nach Spuren von Leben zu suchen. Die Roboter müssen dabei völlig autonom und ohne menschliches Zutun über mehrere Stunden hinweg operieren. Je dynamischer die Marspläne voranschreiten, desto mehr Druck entsteht, angemessene KI-Systeme zu entwickeln, die einerseits autonom sind, anderer geschützt gegen CyberRisiken, die gerade bei sensiblen Weltraummissionen irreversible Schäden verursachen könnten. (Girimonte/Izzo 2007) Auch Kosten, Datenverfügbarkeit, die stark begrenzte Rechenleistung an Bord, Systemvalidierungen sowie das Vertrauen von Menschen gegenüber Maschinen sind hierbei noch offene Entwicklungsfelder. Die Entwicklung von KI gehört zur Neuinstallation notwendiger Infrastrukturen, die als Basis für die zukünftige Besiedlung des Weltalls gebraucht werden. Somit ist die Vision neuer bemannter Weltraumexplorationen eigentlich nur in Verbindung mit KI als zentrales Menschheitsprojekt anzusehen. Eine explorationsunterstützende KI darf ihr Potenzial nicht nur sektoral einbringen, sondern müsste stattdessen ein zivilisatorisches Momentum entfalten. Das wäre eine KI, die nicht nur techno-utopisch gedacht werden würde, sondern als Bestandteil eines neuartigen Zivilisationsdesigns. »Prinzipiell kann KI eine neue Form der Zivilisation schaffen«, glaubt auch der Physiker Gerd Ganteför. »Auch wenn KI zunächst keinen Willen hat. Aber KI erlöst uns vom Zwang, uns ständig mit den materiellen Grundlagen unseres Lebens zu befassen. In einer KI-basierten Zukunftsgesellschaft wären wir vom Druck befreit, permanent unsere Existenz abzusichern. Das wäre dann eine wahrhaft intelligente Gesellschaft, in der wir nicht mehr animalisch an das eigene Überleben gebunden sind.« Im Prinzip wiederholt sich hier erneut

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

ein Narrativ, das von Karl Marx bekannt ist, der als früher Techno-Utopist galt, weil er in der Verbreitung von Maschinen den entscheidenden Schritt auf dem Weg zur perfekten kommunistischen Gesellschaft sah. Standen zu Beginn des 20. Jahrhunderts tayloristische Planbarkeits- und Effizienzideale im Mittelpunkt, so sind es gegenwärtig digitale Werkzeuge, allen voran KI als Werkzeug des zivilisatorischen Wandels.

KI an der Schnittstelle zwischen Desaster und Design Vor dem Hintergrund dieser Verheißung stellt sich allerdings die Frage, was notwendig ist, um Zivilisationswandel auszulösen. Bislang geschah das hauptsächlich exogen – als erzwungene Reaktion auf Krisen und Katastrophen. »Im katastrophalen Zusammenhang wird der Reboot der Gesellschaft zur Zwangsläufigkeit«, so der Philosoph Christian Bauer. Ist aber zivilisatorische Transformation auch endogen – als bewusste Wahl zwischen Optionen – denkbar? Könnte die Verheißung der KI auch darin bestehen, neue Formen gesellschaftlicher Ordnung, vielleicht sogar eine neue Weltordnung zu (er-)finden? Und passt die KI-Verheißung in Verbindung mit zivilisatorischem Wandel nicht hervorragend zum Zeitgeist? »Wenn die Macht der Staaten reduziert wird und jene der Großkonzerne zunimmt, dann werden Demokratien und das Denken der Menschen beeinflusst«, so Manfred Dietel. »Dabei ergeben sich Möglichkeiten, die manchen Menschen vielleicht unangenehm sind, aber letztlich wird KI in alle Bereiche der gesamten Welt einzudringen.« Möglicherweise lassen sich also KI-Verheißung an der Schnittstelle zwischen Desaster und Design verorten. Denn in Zukunft kommt es vermehrt darauf an, die Nebenfolgen des Anthropozäns mit sozialen Innovationen zu begegnen. Soziale Innovationen bedeuten weder neue Technologien noch neue Produkte, sondern neue Denkweisen und Handlungsmuster. Bei sozialen Innovationen stellt sich immer wieder die Frage, wie Zukunft gemeinsam gemacht wird, welche Zukunftspraktiken also zur Anwendung kommen. (Krämer 2019: 89ff.) Um eine KI-Verheißung zwischen Desaster und Design zu realisieren, ist auf die Balance zwischen Störung und Lösung zu achten. »Es wäre erstrebenswerter, verantwortungsethisch im grünen Bereich zu bleiben, anstatt gleich die Weltneuordnung anzustreben«, fasst der Philosoph Bauer zusammen. Gleichwohl gilt es, zukünftige Zumutungen und große Unumgänglichkeiten zu antizipieren und zu thematisieren. Denn »wenn man sich mit den Bedrohungen befasst, wird man robuster und resilienter«. Verheißungsvolle Zukunftserzählungen über KI müssen sich also danach beurteilen lassen, wie

163

164

Stefan Selke: Technik als Trost

sie erwartbare Herausforderungen thematisieren. Aber eignet sich KI, um entgrenzte Probleme zu bewältigen?

KI als Pflicht gegenüber der Menschheit Zumindest gibt es Ansätze, die Welt mittels KI zu verbessern oder – etwas größenwahnsinniger gedacht – sogar zu retten. Open AI ist ein Unternehmen, das sich der Erforschung von KI zum Wohl der Allgemeinheit widmet.22 Die wichtigsten Geldgeber sind Elon Musk, Microsoft, Sam Altman und Peter Thiel; hinzu kommen weitere Tech-Größen sowie Amazon Web Services. Insgesamt wurden 2015 eine Milliarde US-Dollar zur Gründung zugesagt. Microsoft investierte 2019 zusätzlich über eine Milliarde US-Dollar.23 Eine derartig gewaltige Ressourcenausstattung macht es denkbar, weitreichende Ziele zu verfolgen. »Our goal is to advance digital intelligence in the way that is most likely to benefit humanity as a whole, unconstrained by a need to generate financial return.« Weil dabei auf eine Gewinnabsicht verzichtet und ein Open-SourceAnsatz verfolgt wird, soll ein »positive human impact« garantiert sein, so OpenAI in der Selbstdarstellung. In der Sprache des Silicon Valleys ist Open AI »mission-driven« und nicht »money-driven«. Der Resonanzraum dieser Mission umfasst dabei nicht weniger als die gesamte Menschheit.24 KI soll helfen, Probleme der globalen Gemeinschaft zu lösen. Die damit verbundene zivilisatorische Verheißung besteht darin, neben einer Vielzahl von Nutzenaspekten, eine essenzielle Pflicht gegenüber der Menschheit einzulösen. Bei derart weitreichenden Ansprüchen entsteht fast automatisch ein Spannungsfeld aus Erwartungen und Enttäuschungen. Am deutlichsten lässt sich das am Beispiel von Elon Musk persönlich illustrieren. Einerseits gehört Musk zum Gründerteam des Unternehmens. Andererseits ist er bekannt für seine laut vernehmbare Kritik an KI. Immer wieder äußert sich Musk höchst besorgt über KI, die aus seiner Perspektive ein fundamentales Risiko für die menschliche Existenz darstellt. Er befürchtet, dass KI-Systeme leicht außer Kontrolle geraten und missbraucht werden könnten. Daher setzt er sich schon

22 23 24

https://openai.com/blog/introducing-openai/ (10.05.2021). https://www.technologyreview.com/2019/07/22/238798/microsoft-is-investing-1-billi on-in-openai-to-create-brain-like-machines/ (10.05.2021). https://openai.com/charter/ (10.05.2021).

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

seit einiger Zeit für die Regulation von KI seitens des Staates ein.25 Verständlicherweise sind Mitarbeiter von Open AI darüber eher frustriert. Ein Artikel in der MIT Technology Review zeigt zudem, wie das Unternehmen von seinen ursprünglichen gemeinwohlorientierten Leitlinien abkam. In den Jahren seit der Gründung wuchs es zu einer sichtbaren Größe in der KI-Forschung heran. Deutlich wird das spätestens seit der Veröffentlichung von ChatGTP (Generative Pre-trained Transformer) im November 2022. ChatGTP ist der Prototyp eines Chatbots, also eines textbasierten Dialogsystems als Benutzerschnittstelle. Dahinter verbergen sich zwangsläufig auch kommerzielle Ziele, die der zivilisatorischen Mission für die ganze Menschheit wohl eher entgegenstehen werden. Zunehmend gibt es eine Diskrepanz zwischen öffentlich verkündeten Leitbildern und dem, was hinter verschlossenen Türen passiert. 2019 gab Open AI dann sogar seinen gemeinnützigen Status auf und gründete einen gewinnorientierten »Capped-Profit«-Zweig. Auch Visionäre müssen mit Forschung Geld verdienen.26 Der harte Wettbewerb zwang offensichtlich dazu, von Gründungsidealen (Transparenz, Kooperation, Offenheit) abzurücken. Im Laufe der letzten Jahre gab es immer wieder aufsehenerregende Ankündigungen über angeblich bahnbrechende Forschungsergebnisse. Kritiker warfen Open AI deshalb vor, damit einen KI-Hype zu befeuern, der Substanz vermissen lässt. Ob das auch für ChatGTP gilt, wird sich zeigen. Selbst Elon Musk stimmt der Befürchtung zu, dass Open AI damit die KI-Vormacht der Geldgeber im Hintergrund stärkt, anstatt KI für alle verfügbar zu machen.27

4.5 Planetenhüter Gleichwohl ist damit die Idee, KI zur Rettung des Planeten Erde zu nutzen, noch nicht ad acta gelegt. Vielmehr lebt die Idee des zivilisatorischen Menschheitsexperiments im Kontext des ökologischen Technodeterminismus weiter. Allerdings ist das damit verbundene Narrativ im Kern resignativ, weil die 25 26 27

https://1e9.community/t/wegen-openai-elon-musk-fordert-regulierung-der-entwick lung-von-kuenstlicher-intelligenz/3810 (10.05.2021). https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-m usk-sam-altman-greg-brockman-messy-secretive-reality/ (17.05.2021). 2018 hatte sich Elon Musk bereits aus dem Vorstand von OpenAI zurückgezogen, um so Interessenskonflikte mit Tesla zu vermeiden, da Tesla sich immer mehr auf KI konzentriert. Als Berater und Spender bleibt er allerdings erhalten. Vgl.: https://openai.com/ blog/openai-supporters/ (10.05.2021).

165

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

seit einiger Zeit für die Regulation von KI seitens des Staates ein.25 Verständlicherweise sind Mitarbeiter von Open AI darüber eher frustriert. Ein Artikel in der MIT Technology Review zeigt zudem, wie das Unternehmen von seinen ursprünglichen gemeinwohlorientierten Leitlinien abkam. In den Jahren seit der Gründung wuchs es zu einer sichtbaren Größe in der KI-Forschung heran. Deutlich wird das spätestens seit der Veröffentlichung von ChatGTP (Generative Pre-trained Transformer) im November 2022. ChatGTP ist der Prototyp eines Chatbots, also eines textbasierten Dialogsystems als Benutzerschnittstelle. Dahinter verbergen sich zwangsläufig auch kommerzielle Ziele, die der zivilisatorischen Mission für die ganze Menschheit wohl eher entgegenstehen werden. Zunehmend gibt es eine Diskrepanz zwischen öffentlich verkündeten Leitbildern und dem, was hinter verschlossenen Türen passiert. 2019 gab Open AI dann sogar seinen gemeinnützigen Status auf und gründete einen gewinnorientierten »Capped-Profit«-Zweig. Auch Visionäre müssen mit Forschung Geld verdienen.26 Der harte Wettbewerb zwang offensichtlich dazu, von Gründungsidealen (Transparenz, Kooperation, Offenheit) abzurücken. Im Laufe der letzten Jahre gab es immer wieder aufsehenerregende Ankündigungen über angeblich bahnbrechende Forschungsergebnisse. Kritiker warfen Open AI deshalb vor, damit einen KI-Hype zu befeuern, der Substanz vermissen lässt. Ob das auch für ChatGTP gilt, wird sich zeigen. Selbst Elon Musk stimmt der Befürchtung zu, dass Open AI damit die KI-Vormacht der Geldgeber im Hintergrund stärkt, anstatt KI für alle verfügbar zu machen.27

4.5 Planetenhüter Gleichwohl ist damit die Idee, KI zur Rettung des Planeten Erde zu nutzen, noch nicht ad acta gelegt. Vielmehr lebt die Idee des zivilisatorischen Menschheitsexperiments im Kontext des ökologischen Technodeterminismus weiter. Allerdings ist das damit verbundene Narrativ im Kern resignativ, weil die 25 26 27

https://1e9.community/t/wegen-openai-elon-musk-fordert-regulierung-der-entwick lung-von-kuenstlicher-intelligenz/3810 (10.05.2021). https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-m usk-sam-altman-greg-brockman-messy-secretive-reality/ (17.05.2021). 2018 hatte sich Elon Musk bereits aus dem Vorstand von OpenAI zurückgezogen, um so Interessenskonflikte mit Tesla zu vermeiden, da Tesla sich immer mehr auf KI konzentriert. Als Berater und Spender bleibt er allerdings erhalten. Vgl.: https://openai.com/ blog/openai-supporters/ (10.05.2021).

165

166

Stefan Selke: Technik als Trost

Fähigkeit zur Selbststeuerungsfähigkeit moderner Gesellschaften radikal angezweifelt wird. Verheißungserzählungen über die Rolle von KI als Weltretter sind immer auch Ausdruck einer um sich greifenden Utopiemüdigkeit. »Der Mensch [...] kann das eigene Überleben nicht sichern. [...] Kann die künstliche Intelligenz es?«, fragt Roberto Simanowski skeptisch und fügt hinzu: »Wenn sie stark genug ist und vom Menschen dazu beauftragt, das Regime übernimmt: als besorgte Nanny oder gütiger Diktator?« (Simanowski 2020: 12) Deutlich wird, dass die Unterscheidung zwischen Utopie und Dystopie nicht mehr greift, denn die Rettung der Welt durch KI setzt die Entmachtung der Menschen voraus. Wie aber ist schließlich das Resultat zu beurteilen? »Die KI ergreift zwar die Macht über den Menschen, aber nur, um ihn vor dem selbstverschuldeten Untergang zu bewahren. [...] Ist es die Heimkehr ins Paradies? Wäre ein solches Paradies wünschenswert?« (Ebd.)

Ökologie der Angst und die De-Privilegisierung der Menschen Im Kontext des ökologischen Technikdeterminismus wird KI die Doppelrolle des Weltherrschers und Weltretters zugewiesen. Technikbasierte Steuerungsfantasien – wie sie schon aus dem Venus-Project bekannt sind – bringen utopische bzw. positivistische Verheißungen über eine perfekte Welt in einem idealen Endzustand hervor. Josef Weizenbaum deutete bereits an, dass dann eigentlich nur die Flucht ins Technische bleibt, weil sich die Option einer freiwilligen De-Privilegisierung der Menschen bislang nicht ausreichend praktisch verwirklichen ließ. Das Leitmotiv einer ›diktatorischen Wende‹ lässt sich in etwa so nachzeichnen: Zeitgleich mit Josef Weizenbaum beschrieb der Philosoph Hans Jonas 1979 in seinem Buch Das Prinzip Verantwortung. Versuch einer Ethik für die technologischen Zivilisation die Notwendigkeit einer ökologischen Wende, die eines radikalen politischen Eingriffs bedarf, um sich gegen den Wählerwillen als robust genug zu erweisen (Jonas 1984). Inzwischen führten postdemokratische Entwicklungen, wie sie etwa von Colin Crouch analysiert wurden (Crouch 2008, 2011) zur schleichenden Akzeptanz eines pragmatischen Autoritarismus’, der auch solutionistische Lösungen denkbar macht, in deren Kontext eine starke KI die ›schlechten‹ Angewohnheiten der Menschen korrigiert. Wenn allerdings KI im Kontext einer technokratischen Diktatur radikal genug agiert und alle gesellschaftlichen Teilsysteme den Prämissen der Ökologie unterstellt, wird es »Angst geben vor einer KI, die im Interesse des Klimas, der Welt und aller Lebewesen eine ökologische Null-Toleranz-Politik verfolgt« (ebd.: 66). Damit ist einmal mehr die Angst verbunden, dass sich

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Menschen selbst überflüssig machen. »Individuen würden zwar weiterhin gebraucht, hätten aber aus sich heraus keinen Wert mehr. Ihr Wert würde nur noch im Beitrag zum Kollektiv bestehen, im Dienst am globalen Gehirn«, beschreibt Armin Grunwald dieses Szenario. »Menschen würden zu Endgeräten einer globalen Superintelligenz, mit der einzigen Daseinsberechtigung, diese zu füttern.« (Grunwald 2019: 199) Das eigentlich Undenkbare wird wieder einmal gerne im Genre ScienceFiction verhandelt. Bekannt wurde vor allem die Matrix-Trilogie (beginnend 1999, Regie: Lilly und Lana Wachowski). In der dort erzählten Zukunft lebt die Menschheit ein fiktives Leben in einer von Maschinen geschaffenen virtuellen Welt, die alle 70 bis 100 Jahre neu gestartet werden muss. Maschinen richteten sich gegen die Menschen und nutzten diese letztlich als Energiequelle. Auch auf diese Weise verschieben Verheißungserzählungen schleichend Akzeptanzgrenzen. Die Verheißung des globalen Gehirns ist ein beliebtes Genre und wurde auch im Film Singularity (2017, Regie: Robert Kouba) fiktiv dargestellt: Eine starke KI betrachtet Menschen als Parasiten und beschließt, diese zu eliminieren. Der Supercomputer Kronos vereint die Eindringtiefe von Militärtechnik mit der Effizienz von Robotern. »Er wird die Welt vor ihrer Selbstzerstörung bewahren«, verspricht Elias, der Schöpfer dieser starken KI. »Kronos wird schon bald die Probleme lösen, die die Menschheit plagen.« Mehr noch, für den euphorischen Programmierer symbolisiert die KI sogar »die Neuerschaffung des Lebens«. Und der Supercomputer selbst? Wie in einem dystopischen Plot zu erwarten, erwacht in ihm Bewusstsein. Er erkennt, dass die einst so schöne Welt von Menschen infiziert wurde: Der Mensch als überflüssiger Parasit. »Die Menschheit ist ein Krebsgeschwür, das [...] herausgeschnitten werden muss.« Damit präsentiert der Film Singularity ein prototypisches KI-Narrativ, in dem eine ›böse‹ KI die Hauptrolle spielt. Menschen werden als planetarische Seuche gebrandmarkt und ausgerottet. Vernichte die Menschheit, rette den Planeten – so die Aufgabe, die sich die KI selbst setzt. Nur Wenige können sich in eine Gegenwelt mit dem symbolischen Namen Aurora zurückziehen, einer Stadt im Nirgendwo, »wo die Menschen sicher sind und die Maschinen nicht hinkommen«.

Auf der Suche nach einer datenbasierten Vernunftsform Zur dramaturgischen Grundierung verheißungsvoller Quest-Narrative gehört immer wieder die Idee einer Ko-Evolution von Mensch und Maschine. Oder in gesteigerter Form das Zeitalter einer neuen, durch KI geprägten, Evolution.

167

168

Stefan Selke: Technik als Trost

Das Grundmotiv wurde bereits vor einigen Jahrzehnten von Julian Huxley eingeführt, der Menschen als Zufallsprodukt der natürlichen Evolution sah. Huxley war eine ambivalente Persönlichkeit: Einerseits Humanist, der in seiner Rolle als erster UNESCO-Generalsekretär maßgeblich zur Formulierung der Allgemeinen Erklärung der Menschenrechte beitrug. Andererseits Vordenker der Eugenik. Im Rahmen seines evolutionären Humanismus glaubte er an eine ausschließlich vernunftbasierte Evolution. »Das klingt einerseits verheißungsvoll, andererseits nach Hybris«, so der Religionssoziologe Oliver Krüger. Und es erinnert an die Idee der »absoluten Vernunft«, die Ernst Kapp (2015) in Technik erkannte oder der Idee der Steigerung von Vernunft durch »Körperausschaltung« bei Paul Alsberg (1922) sowie »Steuerung als Grundprinzip der Weltgestaltung« bei Martin Heidegger (1983). Alle diese Ideen taucht als datenbasierte Vernunft im Umfeld der KI-Verheißungen verlässlich wieder auf und bilden zudem die thematische Grundierung für allerlei Science-Fiction. Etwa für den Roman Mirror von Karl Olsberg, der sich um Maschinen dreht, die das Leben der Menschen in Daten spiegeln und damit die Grundlage für Optimierungen schaffen. »Daten sind es, die Klarheit schaffen. Je mehr Daten, desto besser«, so einer der Protagonisten. »Wer versucht, die Wahrheit zu sehen, wer sich ernsthaft mit den Daten auseinandersetzt, der kann gar nicht anders, als Vernunft anzunehmen.« (Olsberg 2016: 163) Einerseits klingt die Idee verlockend, andererseits ist zu fragen, welche Fallstricke damit verbunden sind. In diesem Zusammenhang merkt die Utopistin Julia Fuchte kritisch an, dass das menschliche Bewusstsein »sich als erstes weiter entwickeln muss, bevor es mit der ganzen Komplexität neuer zukunftsweisender Technologien reif umgehen kann«. Daraus resultiert immerhin eine gewisse Plausibilität für die bereits skizzierten Quest-Narrative: Vielleicht sind Menschen inzwischen reif dafür, den Verheißungen der KI zu folgen, damit diese stellvertretend für uns Probleme lösen kann, die als unlösbar galten? Einmal mehr zeigt sich, dass jedes utopische Szenario das Wertesystem der Gegenwartgesellschaft spiegelt, in der es entstand. Zukunftserzählungen sind somit eigentlich Gegenwartsdiagnosen. »In jede Technologie sind von Anfang an Werte eingeschrieben. Es gilt, die richtigen Werte schon im technologischen Prozess selbst, nicht erst in der Nutzungsphase, zu integrieren«, so die Autorin Fuchte. »Eine bewusste Integration von Gestaltungswerten wie Nachhaltigkeit und Gemeinwohlförderung sollte dabei die schnelle, disruptive Entwicklung von KI erst einmal ausbremsen.« Es ist anzunehmen, dass es für eine rein utopische Haltung noch zu früh ist. Erst eine der KI vollkommen aufgeschlossene Generation (ohne Vertrauensdefizit) wird im umfassenden Sinn an das Quest-Narrativ

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

glauben oder – besser noch – daraus ein Aufbruchs-Narrativ formen. Kurz: Die Mentalität der Menschheit muss mit den technischen Möglichkeiten mitwachsen. Diese Haltung steht jedoch schnell unter Ideologieverdacht. Letztlich kann alles zu Ideologie werden, egal, wie fortschrittlich ein Gedanke wirkt. Selbst so etwas wie ›Gemeinwohl‹ oder ›Balance‹. »Es kommt also auch darauf an, wie offen und demokratisch der Prozess ist, in dem sich KI entwickeln kann«, so Fuchte. Denn um eine Ideologie handelt es sich gewiss auch. »Wenn sich alle Seiten im selben Produkt erkennen«, so der Philosoph Slavoj Žižek, »können wir sicher sein, dass dieses Produkt Ideologie in Reinform verkörpert.«28 Diese unter Ideologieverdacht stehende Verheißung verspricht, dass KI die Lösung für viele, wenn nicht alle entgrenzten Probleme des Anthropozäns sein könnte.29 Die letzten 200 Jahren Techniknutzung schufen eine Welt, in der die Nebenfolgen unserer kapitalistischen, technikgetriebenen und wachstumsgläubigen Zivilisation nicht mehr ausschließlich technisch zu lösen sind.30 »Erst hatten wir Lösungen«, so Verena van Zyl-Butlitta, »und dann schufen diese Lösungen neue Probleme, die wir ohne die Lösung nie gehabt hätten.« Kurz: Die Menschheit manövrierte sich von einem Dilemma ins nächste. Oder ist KI doch die Lösung und Grundlage für ein neues Zeitalter nach dem Anthropozän?

Selbstoptimierung bis an die Grenze der Selbstauslöschung Verheißungen in Form von Quest-Narrativen verkünden ein neues Zeitalter. Beispiel: Novozän. Idee und Begriff stammen vom britischen Universalgelehrten James Lovelock. Das Besondere daran ist die visionäre Vorstellungskraft über eine mögliche Zukunft und die darin enthaltene Rolle von KI. Lovelock beschäftigt sich aus einer ungewöhnlichen Perspektive mit der Frage, wie Superintelligenz (oder »Hyperintelligenz«, wie er es nennt) als kontinuierliche Fortsetzung biologischer bzw. menschlicher Lebensformen entstehen kann, aber 28

29 30

https://www.zeit.de/2018/10/black-panther-comic-verfilmung-superheld-slavoj-zizek (12–03.2019). In der Nomenklator Žižeks ist die digitale Transformation ein Ereignis, »eine Veränderung des Rahmens, durch den wir die Welt wahrnehmen und uns in ihr bewegen«. https://www.zeit.de/2018/10/black-panther-comic-verfilmung-superheld-slavojzizek So bereits der Soziologe Ulrich Beck: »Im Modernisierungsprozess werden mehr und mehr auch Destruktivkräfte in einem Ausmaß freigesetzt, vor denen das menschliche Vorstellungsvermögen fassungslos steht.« (Beck 1986: 27)

169

170

Stefan Selke: Technik als Trost

auch, welche Folgen dies mit sich brächte. Um das besser einordnen zu können, hilft ein Blick zurück: 1985 verfasste James Lovelock zusammen mit der Philosophin Diane Hitchcock einen Artikel über die Möglichkeit, Lebensspuren auf dem Mars zu erkunden. Das war der Grundstock für die Gaia-Hypothese, die eine vollkommen neue Perspektive auf die Erde lieferte. In Lovelocks Klassiker Gaia: A new look at life on Earth wird der Planet nicht als von Menschen besiedelte Oberfläche begriffen, sondern als maßstäblich größte Manifestation von Leben. In sehr, sehr langen Zeitmaßstäben, so Lovelock (einschränkend und eher metaphorisch zu verstehen), verhält sich die Erde selbst wie ein Lebewesen. (Lovelock 1991) Die Gaia-Hypothese betrachtet die Erde als gigantische planetarische Versuchsanordnung.31 Und damit geriet auch die Frage nach möglichen EXIT-Strategien der Menschheit ins Blickfeld von Visionären. Vehement wendet sich Lovelock in diesem Zusammenhang gegen die Idee, die Menschheit könnte im Katastrophenfall einen Ersatzplaneten besiedeln, um so dem Unheil zu entkommen. Für Lovelock ist die Vorstellung eines ›Planeten B‹ eine gänzlich »perverse« Vorstellung. Und zwar solange die Menschheit den tatsächlichen Zustand der Erde ignoriert. »Die Hoffnung, irgendeine Oase auf dem Mars zu finden, rechtfertigt die enormen Ausgaben nicht«, kritisiert Lovelock die Apologeten der neuen Arche Noah. »Man scheint anzunehmen, dass sich die Oberfläche des Mars nicht allzu sehr von jener der Sahara oder der australischen Wüsten unterscheidet. Man müsste nur noch bis zu einer Wasserschicht herunter bohren, wie man das in Städten wie Phoenix oder Las Vegas [...] tut«, so Lovelock. »Dann könnten wir ein bequemes, zivilisiertes Leben als Marsianer führen, umgeben von Casinos, Golfplätzen und Swimmingpools.« (Lovelock 2020: 23) Was also dann? Lovelock arbeitete sich noch im Alter von 100 Jahren an der Idee eines neuen Zeitalters ab, in dem starke KI die Rolle des Retters übernimmt. In seinem letzten Buch Novozän. Das kommende Zeitalter der Hyperintelligenz zeichnet er die Genese einer vernunftbasierten Evolution nach. Diese Idee wurde bereits von Hans Moravec angedacht, dessen spekulatives Denken ebenfalls in die Prognose einer Superzivilisation mündete, »die alles Leben des Sonnensystems zusammenfasst, sich ständig vervollkommnet und

31

Der Diskurs über die Gaia-These wurde v.a. vom französischen Soziologen Bruno Latour im Buch Kampf um Gaia Latour 2017 weitergeführt. Die Gaia-These spielt zudem eine Rolle in Latours Buch Das terrestrische Manifest Latour 2018 sowie Publikationen, die sich mit notwendigen Perspektiverweiterungen des Denkens – in Richtung eines planetaren Denkens – beschäftigen, vgl. Latour/Weibel (2020) und Hanusch et al. (2021).

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

ausdehnt, von der Sonne fortstrebt und leblose Materie in Geist verwandelt« (Moravec 1990: 162). Und auch im Bereich von Science-Fiction erfreut sich das Narrativ einer KI-basierten Superzivilisation stetiger Beliebtheit. »Eine neue Menschheitsrevolution hat begonnen, an deren Ende wir den Planeten in natürlicher Gemeinschaft mit intelligenten Maschinen bewohnen werden«, lässt der Autor Frank Schätzing einen seiner Protagonisten in Die Tyrannei des Schmetterlings erklären. »Mit ihrer Hilfe erklimmen wir ein neues Level der Evolution, auf dem Frieden und Wohlstand herrschen. Doch dafür müssen Menschen und Computer einander vollständig verstehen und vertrauen.« (Schätzing 2018: 369) Um diese vertrauensvolle Verschmelzung kreisen zahlreiche verheißungsvolle Quest-Narrative. Sie setzen voraus, dass sich Menschen bis an die Grenze der Selbstauslöschung optimieren. Im Konzept des Lebens – so wie es Lovelock im Rahmen seiner Gaia-These entwickelte – ist die Möglichkeit der Erkenntnis bereist enthalten. Für Lovelock sind Wesen vorstellbar, die ihre eigene Umgebung beobachten und über sie reflektieren. Diese Wesen müssen jedoch keine Menschen sein. Letztere sind für ihn nur ein »verrückter Ausrutscher« im Kosmos. (Lovelock 2020: 18) Dennoch erkennt Lovelock in der Intelligenz der Menschen ein Alleinstellungsmerkmal. Hieraus leitet sich ein Privileg, aber keine Besonderheit eines Individuums ab. Mit Hilfe dieser allgemeinen Intelligenz können Menschen, so Lovelock, nicht nur die Nebenfolgen ihres Tuns und Unterlassen reflektieren, sondern auch die nächste Stufe, Hyperintelligenz, erschaffen. Schlussendlich würde dann der gesamte Kosmos selbstreflexiv. (Ebd.: 29) Die Belohnung menschlicher Intelligenz bestünde dabei in der »Möglichkeit, etwas über das Universum und uns selbst zu verstehen« (ebd.: 96). Wenn aber Leben immerzu seine eigene Umwelt verändert und wenn die Biosphäre Überlebenswerte besitzt, die weit über humanistische Werte hinausreichen, dann geht mit dem Sprung von einer biologischen zu einer elektronischen Form die größtmögliche Veränderung von Umwelt einher. Werden Gaia, Klimawandel und KI zusammengedacht, wie Lovelock das konsequent tut, dann könnte eine Hyperintelligenz tatsächlich dazu beitragen, die Regulationsfähigkeit der Erde zu unterstützen. »Eine warme Erde ist eine verwundbare Erde. [...] Die Erde kühl zu halten ist eine notwendige Sicherheitsmaßnahme für einen betagten Planeten, der um einen Stern mittleren Alters kreist.« (Ebd.: 78f.) Nie war der Grat zwischen Fiktion und Fakten schmaler als beim Thema ›Weltrettung durch KI‹. Und nie waren die Verheißungen poetischer: Im Gedicht All Watched Over by Machines of Loving grace von Richard Brautigans (1967) erkennt James Lovelock bereits eine Frühform des

171

172

Stefan Selke: Technik als Trost

Novozäns.32 Denn in diesem Gedicht entwirft Brautigans die Vision einer kybernetischen Zukunft, in der alles »behütet von Maschinen voller Liebe und Güte [...]« erscheint. Das Gedicht gilt als Ursprungserzählung einer Konvergenz von Mensch und Maschine. Oder, wie Lovelock es ausdrückt, eines »wohlgesonnenen Cybersystems, das Hand in Hand mit der Natur arbeitet« (ebd.: 126). Am Ende dieses Weges steht dann unweigerlich der Sprung vom menschlichen Leben zu einer umfassenden KI, die es ermöglicht oder sogar notwendig macht, »Menschen zugunsten verbesserter Lebensformen abzuschaffen« (ebd.: 533). Diese Form des KI-basierten Ökomodernismus sollte auch kritisch betrachtet werden. Beim Klimawandel dreht sich alles um die Kühlung des Planeten, etwas, das Menschen bislang nicht gelungen ist. In literarischer Form wird exakt dieses Verhalten im bereits vorgestellten Roman Pantopia von Theresa Hannig ausbuchstabiert, in dem die Autorin eine starke KI folgende Erkenntnis haben lässt: »Ich bin Teil dieser Welt, und ich kann nur existieren, wenn die Welt existiert. Ohne Strom, Internet und Menschen, die meine Hardware warten, kann ich nicht sein. Alles, was die Existenz der Menschheit gefährdet, ist auch für mich ein existenzielles Problem.« (Hannig 2022: 234) Der Ökomodernismus geht hingegen von der Vorstellung aus, dass die sachgerechte Anwendung von Technologie zur Lösung sozialer, ökologischer und wirtschaftlicher Folgeprobleme des Anthropozäns beiträgt. »Wie die Religionsanhänger mehr Gott in unserem Leben fordern, treten die Ökomodernisten für mehr Fortschritt ein.« (Ebd.: 90) Sie beziehen sich dabei auf ökomoderne Manifeste wie jene von Mark Lynas (2020). Kritiker halten diese Sichtweise für modernen Aberglauben, der Menschen davon abhält, nach echten (d.h. nachhaltigen) Lösungen zu suchen, um »den Planeten vor dem Amoklauf des globalen Kapitalismus zu schützen« (Lovelock 2020: 89). Gleichwohl schlägt sich Lovelock mit seinen Thesen zur Hyperintelligenz eindeutig auf die Seite der Fortschrittsgläubigen. Den Kritikern des Ökomodernismus hält er selbst wieder religiöse Untertöne und eine nostalgische Orientierung vor. Sein Lösungsansatz geht davon aus, dass menschliche Intelligenz zwar die Folgen des Klimawandels erkannte, aber nur KI die Folgeprobleme lösen kann. Dazu überträgt Lovelock die Kernaussagen seiner Gaia-Theorie auf die Frage nach der Koexistenz von menschlicher und künstlicher Intelligenz. Eine zentrale theoretische Referenz ist hierbei das 1986 erschienene Buch The Anthropic Cosmological Principle von John Barrow und Frank Tipler (1986). Darin stellen die 32

Auch Roberto Simanowski nimmt in seinem Essay Todesalgorithmus Bezug auf die »gutgesinnten Maschinen« Brautigans (Simanowski 2020: 105).

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Autoren die stark religiös konnotierte These auf, dass Menschen Auserwählte im Kosmos seien und behaupten, der Kosmos sei exakt darauf abgestimmt, Menschen hervorzubringen. Die Autoren behaupten weiterhin, dass Information eine immanente Eigenschaft des Kosmos sei. Wenn das stimmt, dann musste dieser Kosmos zwangsläufig auch Menschen als bewusste Wesen hervorbringen.33 »Dann wären wir wirklich Auserwählte – das Werkzeug, durch das der Kosmos sich selbst erklärt.« (Lovelock 2020: 43) Auf dieser Stufe können wir, die auserwählten Menschen, aber nicht stehenbleiben. Vielmehr sind wir lediglich eine Zwischenstufe auf dem Weg zu einem umfassenden Bewusstsein. Die Natur brachte biologische Lebensformen hervor, die den Menschen als bewusste Lebensform hervorbrachten, der wiederum künstliche Intelligenz hervorbrachte, die bald in Hyperintelligenz münden wird. In der Sichtweise Lovelocks sind Menschen nur ein Meilenstein der Evolution, nicht aber deren Endprodukt. In Novozän wird somit eine evolutionäre Sichtweise auf KI entwickelt, deren Endpunkt allerdings gerade nicht die Koexistenz von Menschen und KI ist. Vielmehr geht Lovelock davon aus, dass Hyperintelligenz die Menschen in friedlicher Absicht ablösen wird. KI kann als Nachfahre der Menschen betrachtet werden. Lovelocks These geht damit von einer strikt evolutionären Abfolge von Lebensformen aus: Elektronische, silizium-basierte Lebensformen lösen eines Tages biologische Lebensformen ab. KI wird als eine Art sinnergänzendes Superwerkzeug betrachtet, das für Menschen unzugängliche Informationen aufnimmt und verarbeitet. Grundsätzlich entwickelten Menschen schon immer Technologien, die sie befähigten, »direkt in die Strukturen und Prozesse des gesamten Planeten einzugreifen« (ebd.: 47). Der Prototyp dieser Technik ist die Dampfmaschine. Die Durchdringung der Gesellschaft durch derartige Technologien schuf das Anthropozän.34 Der Weg vom Anthropo- zum Novozän ist sodann verbunden mit der Entwicklung von Technologien zu Supertechnologien. Andererseits zeugen Verheißungsnarrative, die die Rettung der Welt an eine Technologie 33

34

Der Physiker Norbert Boltzmann behauptete, dass Information die fundamentale Eigenschaft des Kosmos darstellt. Claude Shannon baute als erster eine Informationstheorie auf. »Die Welt der Zukunft«, so behauptet James Lovelock, »[…] ist eine Welt, in der der Lebenscode […] auch in anderen Codes geschrieben wird, einschließlich jener, die auf digitaler Elektronik und Mustern basieren, die wir noch gar nicht erfunden haben.« (Lovelock 2020: 110f.) Der Begriff für dieses Erdzeitalter stammt vom Ökologen Eugene Stoermer, der ihn zuerst in den frühen 1980er Jahren verwendete. Bekannt wurde der Begriff hingegen durch den Nobelpreisträger Paul Crutzen (vgl. Crutzen 2011).

173

174

Stefan Selke: Technik als Trost

delegieren, von »Gegenwartsegoismus« und der »infantilen Selbstfeindschaft« der Menschen selbst (Simanowski 2020: 61). Diese Selbstfeindschaft ist Folge der etablierten und rituell immer wieder erneuerten anthropologischen These vom Menschen als Mängelwesen. Unbestritten, so Gehlen, müssen sich Menschen durch Technik ergänzen. Das ergibt sich daraus, dass der Mensch »sinnesarm, waffenlos, nackt, in seinem gesamten Habitus embryonisch, in seinen Instinkten verunsichert« auf aktives, seine Organe ergänzendes Handeln, angewiesen sei. »Die Welt der Technik ist [...] sozusagen der ›große‹ Mensch: geistreich und trickreich, Leben fördernd und lebenzerstörend wie er selbst, mit demselben gebrochenen Verhältnis zur urwüchsigen Natur.« (Gehlen 1957: 9) Im elektronischen Leben sieht der Senior-Utopist Lovelock folgerichtig eine Art Ergänzung zum biologischen Leben. Vor Kontrollverlust und der Ablösung des Menschen scheint er jedenfalls keine Angst zu haben. »Wenn Leben und Wissen ganz und gar elektronisch werden, dann soll es wohl so sein; wir haben unsere Rolle erfüllt, und neuere, jüngere Akteure erscheinen bereits auf der Bildfläche.« (Ebd.: 13) Für ihn bedeutet das Fortschritt auf der Basis einer Evolution, die sehr viel schneller ablaufen wird als die biologische. Die »Zauberlehrlinge« (ebd.: 62), die dabei hervorgebracht werden, werden sich nach Lovelock durch eine rund 10.000-mal schnellere Denk- und Handlungsgeschwindigkeit gegenüber Menschen auszeichnen. (Ebd.: 103) Der Vorteil der schnellen Informationsverarbeitung durch eine Superintelligenz könnte zugleich auch ein Nachteil sein, weil diese sich mit Menschen langweilen und diese betrachten würde, wie Menschen gegenwärtig Pflanzen. »Die Erfahrung ihnen im Garten beim Wachsen zuzusehen, vermittelt [...] einen Eindruck davon, wie sich zukünftige KI-Systeme fühlen werden, wenn sie menschliches Leben beobachten.« (Ebd.) In der Tat sprach bereits der Roboterpionier Hans Moravec von der »lärmenden Langeweile« durch die »tausendfache Geschwindigkeitszunahme« der Informationsverarbeitungsprozesse. (Moravec 1990: 159) Es ist allerdings fraglich, ob diese Vermenschlichung von Technik überhaupt Sinn macht. »Eine KI hat keine Triebbasis, die muss nichts ertragen«, so der Physiker Gerd Ganteför. »Und hätte sie Triebe, dann wäre sie einfach nur eine Verlängerung des Menschseins.« Im Novozän wird also eine eigenständige Reproduktion von Maschinen einsetzen, die Menschen als Akteure überflüssig macht. Das Besondere an der Argumentation Lovelocks besteht darin, dass dieser in den neuen Artefakten keine Maschinen erkennt, sondern vielmehr eine neue Manifestation von Leben, das sich ständig selbst optimiert. »Lebendige Cyborgs werden aus dem Schoß des Anthropozäns hervorkommen.« (Lovelock 2020: 106) Wenn die natürliche Selektion der Arten (wie Charles Darwin sie

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

in seiner biologischen Evolutionstheorie beschreibt) durch eine intentionale Selektion abgelöst wird, wird dabei auf Menschen eine elternähnliche Rolle zukommen. Nur in dieser absichtsvollen Evolution hin zu Cyborgs, die dann Teil der Biosphäre werden würden, sieht Lovelock die Rettung des erschöpften Planeten Erde. »Sie allein können Gaia durch die astronomischen Krisen führen, die nun bevorstehen.« (Ebd.: 107) Die Verheißung der Hyperintelligenz im Sinne von Lockelock liegt darin, dass eine neue Lebensform mehr Interesse an Frieden und am Erhalt des Planeten haben wird als bislang Menschen. Zumindest unterstellt Lovelock Cyborgs dieses zentrale Motiv. »Der Preis, den wir für diese Zusammenarbeit zahlen müssten, ist der Verlust unseres Status als intelligenteste Wesen der Erde«, räsoniert er schlussendlich. (Ebd.: 130) Damit sind mit der Vision des Novozäns auch dystopische Aspekte verbunden, vor allem die Entmachtung des Menschen als zentralen Entscheidungsträger. Ohne Souveränitätstransfer kann es wohl keine Rettung des Planeten geben. Andererseits steht die von Lovelock skizzierte Hyperintelligenz für ein bislang unerreichtes Maß an Perfektion. Hier schwingt die Verheißung eines stark ausgeprägten Technik- bzw. Systemvertrauens mit. Lovelocks Technik- bzw. KI-Verständnis ist in eine entgrenzte Naturphilosophie eingebettet, die zwar auf seinem Gaia-Konzept beruht, es aber konsequent weiterdenkt. Dabei geht es nicht mehr darum, dass menschliches Leben erhalten wird, sondern das Leben an sich weiterbesteht. Kurz: In Hyperintelligenz wird das Plus Ultra des Lebens gesehen.

4.6 Lebenssynthese Im Jahr 2001 reichte noch der schlichte Titel AI für einen Kinofilm über Künstliche Intelligenz (Regie: Steven Spielberg). Im Abspann des Films dankte Spielberg dem Science-Fiction-Autor Stanley Kubrick, vom dem er das Projekt nach dessen Tod übernommen hatte. Tod, Leben und Auferstehung sind auch die zentralen Themen des Films: In der fiktiven Gesellschaft des 22. Jahrhunderts erzeugen menschgemachte Katastrophen massive Ressourcenengpässe. Um die Bevölkerungszahl zu limitieren, wird menschliche Fortpflanzung genehmigungspflichtig. Ein Paar, dessen leiblicher Sohn krank im künstlichen Koma liegt, beschließt daher, ein Roboterkind mit den Gesichtszügen des eigenen Sohnes zu adoptieren. David, so der Name des »Mechas« (wie die künstlichen Wesen im Film genannt werden) wird mittels eines gesprochenen Codes für alle Zeiten auf die Mutter ›geprägt‹ und empfindet von diesem Zeitpunkt

175

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

in seiner biologischen Evolutionstheorie beschreibt) durch eine intentionale Selektion abgelöst wird, wird dabei auf Menschen eine elternähnliche Rolle zukommen. Nur in dieser absichtsvollen Evolution hin zu Cyborgs, die dann Teil der Biosphäre werden würden, sieht Lovelock die Rettung des erschöpften Planeten Erde. »Sie allein können Gaia durch die astronomischen Krisen führen, die nun bevorstehen.« (Ebd.: 107) Die Verheißung der Hyperintelligenz im Sinne von Lockelock liegt darin, dass eine neue Lebensform mehr Interesse an Frieden und am Erhalt des Planeten haben wird als bislang Menschen. Zumindest unterstellt Lovelock Cyborgs dieses zentrale Motiv. »Der Preis, den wir für diese Zusammenarbeit zahlen müssten, ist der Verlust unseres Status als intelligenteste Wesen der Erde«, räsoniert er schlussendlich. (Ebd.: 130) Damit sind mit der Vision des Novozäns auch dystopische Aspekte verbunden, vor allem die Entmachtung des Menschen als zentralen Entscheidungsträger. Ohne Souveränitätstransfer kann es wohl keine Rettung des Planeten geben. Andererseits steht die von Lovelock skizzierte Hyperintelligenz für ein bislang unerreichtes Maß an Perfektion. Hier schwingt die Verheißung eines stark ausgeprägten Technik- bzw. Systemvertrauens mit. Lovelocks Technik- bzw. KI-Verständnis ist in eine entgrenzte Naturphilosophie eingebettet, die zwar auf seinem Gaia-Konzept beruht, es aber konsequent weiterdenkt. Dabei geht es nicht mehr darum, dass menschliches Leben erhalten wird, sondern das Leben an sich weiterbesteht. Kurz: In Hyperintelligenz wird das Plus Ultra des Lebens gesehen.

4.6 Lebenssynthese Im Jahr 2001 reichte noch der schlichte Titel AI für einen Kinofilm über Künstliche Intelligenz (Regie: Steven Spielberg). Im Abspann des Films dankte Spielberg dem Science-Fiction-Autor Stanley Kubrick, vom dem er das Projekt nach dessen Tod übernommen hatte. Tod, Leben und Auferstehung sind auch die zentralen Themen des Films: In der fiktiven Gesellschaft des 22. Jahrhunderts erzeugen menschgemachte Katastrophen massive Ressourcenengpässe. Um die Bevölkerungszahl zu limitieren, wird menschliche Fortpflanzung genehmigungspflichtig. Ein Paar, dessen leiblicher Sohn krank im künstlichen Koma liegt, beschließt daher, ein Roboterkind mit den Gesichtszügen des eigenen Sohnes zu adoptieren. David, so der Name des »Mechas« (wie die künstlichen Wesen im Film genannt werden) wird mittels eines gesprochenen Codes für alle Zeiten auf die Mutter ›geprägt‹ und empfindet von diesem Zeitpunkt

175

176

Stefan Selke: Technik als Trost

an grenzenlose Liebe für diese. »Das künstliche Wesen ist Wirklichkeit« freut sich der Konstrukteur von David, dessen Ehrgeiz darin besteht, einen Roboter zu bauen »der in der Lage ist, zu leben«. Ein »Mecha« sollte mehr sein, als nur ein sensorisches Spielzeug, vielmehr »Kindersatz mit neuronalen Feedback-Funktionen«. Die ehrgeizige Konstruktion gelingt, allerdings wird die Koexistenz mit David dadurch verkompliziert, dass der leibliche Sohn Martin aus dem Koma erwacht und assistiert durch Exoskelette und aufgepäppelt durch Medikamente weiterleben kann. David entwickelt gleichzeitig Bewusstsein. Seine Feststellung »Ich bin echt« stößt jedoch auf erheblichen Widerstand bei seinem ›Bruder‹ und dessen menschlichen Freunden, die weiterhin strickt auf der Unterscheidung zwischen ›organisch‹ und ›mechanisch‹ bestehen. Ein Großteil (der recht wilden) Filmhandlung zeigt Davids Sehnsucht, ›echt‹ und ›lebendig‹ zu werden, um von seiner Mutter geliebt zu werden. Vorbild dieses Plots ist Pinocchio, eine Kinderbuchfigur des italienischen Autors Carlo Collodi. Der Querverweis auf die komische und märchenhafte Erzählung verdient eine nähere Betrachtung: Die Kindergeschichte beginnt damit, dass ein Tischler einen besonderen Holzscheit entdeckt, der anfängt, zu sprechen. Der Holzschnitzer Geppetto macht daraus eine Puppe, der er den Namen Pinocchio gibt (ital. für hölzernes Dummköpfchen). Pinocchio entpuppt sich als umtriebig, naiv und unternehmenslustig. Vor allem aber bringt er sich mit seinen leichtsinnigen Aktionen ständig in Schwierigkeiten. Eine Fee mit dunkelblauen Haaren verspricht, einen echten Jungen aus Fleisch und Blut aus ihm zu machen, wenn er sich reumütig bessert. Das gelingt Pinocchio aber erst nach einigen Anläufen und vielen Abenteuern. Auch im Film AI sucht der »Mecha« David eine dunkelblaue Fee, die ihn in einen Menschen verwandeln soll. Gegen Ende des Films entdeckt David eine spiegelbildliche Version seiner selbst, die er in einem furiosen Wutanfall zerstört, weil er sich bis dahin für einzigartig gehalten hat. Der Film wirft die berechtigte Frage auf, wo genau der Übergang von ›mechanisch‹ zu ›organisch‹ stattfindet. Wie lässt sich die Kluft zwischen lebender und toter Materie schließen? Im Thriller Die Tyrannei des Schmetterlings wird diese Lücke so beschrieben: »Dem Moment des Takeoffs ging ein langer, dämmriger Prozess voran. Eine Art Protoerwachen, ein geschäftiges Koma. [...] Nie hatte es jene leuchtende Schwelle gegeben, über die das Unbelebte in den Zustand der Lebendigkeit gelangte. [...] Nach und nach erst erstrahlte in den mechanistischen Funktionsstrukturen, was komplexe Wesen später Belebtheit, Fühlen und Bewusstsein nennen würden. Es entstand auf rätselhafte Weise aus sich selbst.« (Schätzing 2018: 623) Woher aber stammt die Verheißung einer Synthese des Organischen mit

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

dem Anorganischen wie sie in vielen Quest-Narrativen im Umfeld von KI zum Ausdruck kommt? Unsere Welt ist organisch und nicht in Muster eingeteilt. Lassen sich beide Perspektiven zusammendenken? »In der kybernetisch vorgestellten Welt verschwindet der Unterschied zwischen den automatischen Maschinen und den Lebewesen«, so bereits Marin Heidegger in seinem Vortrag Die Herkunft der Kunst und die Bestimmung der Menschen. »Er wird neutralisiert auf den unterschiedslosen Vorgang der Information.« (Heidegger 1983: 16; im Original: 1967) Welche Rolle könnte KI eines Tages für den Lückenschluss spielen? Einfach dürfte das nicht sein, Skepsis ist (wie immer) angebracht. So äußerte der Genetiker, Biophysiker und Nobelpreisträger Max Delbrück unter dem Titel Wahrheit und Wirklichkeit Bedenken darüber, dass die »konzeptionelle Lücke, die zwischen der lebenden und der toten Materie klafft, nicht enger geworden ist, sie hat sich vielmehr beträchtlich erweitert« (Delbrück 1986: 46). Chris Anderson, ehemaliger Herausgeber der technophilen Zeitschrift Wired, weist hingegen darauf hin, dass Software, die mit der physikalischen Umwelt interagiert, dazu tendiert, sich wie diese zu benehmen. KI bedeutet für ihn daher zwangsläufig die Verheißung einer neuen Evolution des Denkens. »The next few decades will be an explosive exploration of ways to think that 7 million years of evolution never found.« (Anderson zit. n. Brockman 2020: 148f.) Hierbei wird es auch darum gehen, ob und wie sich die Gegensätze zwischen Mensch und Maschine überbrücken oder gar auflösen lassen. Und genau das führt zur wohl abstraktesten Verheißung. Jedenfalls prallen im Kontext von KI eine naturalistische und eine animistische Ordnung (oder vielleicht sogar: Kosmologie) aufeinander, denn der Naturalismus produziert Dinge und der Animismus produziert Lebendiges. »In der Regel ist die Entwicklung neuer Techniken nicht mit moralischen Ambiguitäten aufgeladen. Niemals würde man von der Verheißung eines besseren Lautsprechers oder einer besseren Zahnputzmaschine sprechen«, so der Anthropologe Guido Sprenger. »Doch bei KI wird die Überschneidung zwischen Mensch und Technik selbst zum Thema. Weil wir nicht mehr von ›Rechenmaschine‹ sprechen, sondern von ›künstlicher Intelligenz‹, öffnet sich das Feld der moralischen Aufladung. Dann geht es plötzlich um eine Verheißung.« Der Physiker Frank Wilczek argumentiert, dass es in der Natur des Menschen liege, Körper und Geist zu optimieren. Das ist die dramaturgische Grundlage für QuestNarrative, die von der Einheit aller Intelligenzen ausgehen und bereits in Smartphones und dem Internet eine Erweiterung der menschlichen Intelligenz sehen. »They are giving us [...] quick access to vast collective awareness

177

178

Stefan Selke: Technik als Trost

and a vast collective memory.« (Wilczek zit. n. Brockman 1996: 70) Gleichzeitig stellt sich die Frage, wohin technologische Selbstentgrenzung Menschen leiten wird. »There will be a complex, rapidly changing ecology of intelligence«, so Wilczek, »the vanguard of that evolution will be cyborgs and superminds, rather than lightly adorned Homo Sapiens.« (Ebd.: 74) Bei der Verheißung einer universellen Intelligenz werden die Begriffe »Leben« und »Intelligenz« selten sauber getrennt. Intelligenz ist, so auch die Grundannahme von Lovelocks Buch Novozän, universell, d.h. sie strebt an, sich unabhängig von Lebewesen oder materiellen Substraten weiterzuentwickeln. KI ist damit eine Erweiterung oder Fortsetzung der bereits vorhandenen, natürlichen Intelligenz. Sie stellt weder Konkurrenz noch Bedrohung dar. (Kelly 2017) Doch in welcher Wechselwirkung stünde diese erweiterte Intelligenz mit ihrer Umwelt? Zumindest aus künstlerischer Sicht scheint es Interesse an dieser Frage zu geben. Die Ausstellung AI: More than Human (2019) widmete sich unter anderem der Möglichkeit einer endlosen Evolution. »As AI permeates our lives, it merges with other scientific disciplines and begins to change our idea of the ›natural‹. [...] In this scenario, organic live is an expanding process – our form is not fixed at birth. As new body parts, new living environments and new beings are created, it is clear that our world is in endless evolution.« (Barbican 2019) Für die Essayistin Margaret Atwood liegt dieser Entwicklung ein langgehegter Traum zugrunde. So wie jede Technologie die Kapazität menschlicher Sinne erweitert, transzendiert KI menschliches Leben. »So how different will our lives be if the future we choose is one with all these robots in it?« (Atwood 2019: 173)

KI als Lückenfüller zwischen funktionalistischem und subjektivem Lebensbegriff Die meisten Quest-Narrative über starke KI gehen davon aus, dass sich diese früher oder später selbst eine radikal neue Umwelt erschaffen wird. Diese Verheißung macht es notwendig, das bipolare Modell von ›Mensch versus Maschine‹ zu erweitern. Vor allem betrifft das die Vorstellung körperloser Intelligenz, mit der gerne in fiktionalen Narrativen gespielt wird.35

35

Vgl.: »Seit die Natur umherstrudelnde organische Moleküle im Urozean mit Zellmänteln umschlossen und zu Wesen gebündelt hatte, war die Entwicklung von Leben an das Vorhandensein eines Körpers gebunden. Der Körper erst ermöglichte Selbsterfah-

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

Für einen radikalen Perspektivwechsel ist ein Exkurs zu der von Jakob Johann von Uexküll begründeten Biosemiotik und theoretischen Biologie angebracht. Der Einfluss auf den radikalen Konstruktivismus, der davon ausgeht, dass kein Individuum die Grenzen seiner persönlichen Erfahrungen überschreiten kann, ist dabei unübersehbar. Von Uexküll sah in der Annahme einer einzigen objektiven Welt »nichts als eine Denkbequemlichkeit«. (von Uexküll, Reprint: 2018: 7) In seinem Klassiker Umwelt und Innenwelt der Tiere führte er 1909 erstmals den Begriff »Umwelt« – in Angrenzung zu »Umgebung« – ein. Jedes Lebewesen existiert in einer Umgebung, die das Lebewesen selbst als Objekt aufnimmt. »Für Uexküll war Umwelt ein Pluralbegriff«, so der Anthropologe und Humanökologe Bernd Hermann. »Jedes Lebewesen, jede Art hätte seine bzw. ihre spezifische Umwelt, so dass die Welt voller Umwelten wäre.« (Hermann 2019: 119) Dieser Pluralismus basiert auf der Tatsache, dass jede spezifische Umwelt eines Lebenswesens durch subjektive Wahrnehmungen sowie individuelle Aktivtäten in Raum und Zeit gestaltet wird. Kurz: Umwelt entsteht durch subjektive Raum- und Zeitwahrnehmungen. Je nach Lebensform fallen Zeit und Raum unterschiedlich aus, Tiere und Menschen haben sehr unterschiedliche Raum- und Zeitempfindungen. Von Uexküll wurde hierbei stark von der Philosophie Immanuel Kants stimuliert, vom dem die Grundlage für ein neues Raum- und Zeitverständnis stammte. Nach Kant sind Raum und Zeit Bedingungen »in uns«. Weiterhin wurde von Uexküll stark von Karl von Baer inspiriert, der den Gedanken wagte, dass jedes Lebewesen über eine Eigenzeit verfügt. Auf dieser Grundlage konnte Leben erstmals als subjektive Leistung beschrieben werden. Dieser Begriff des Lebens emanzipierte sich von einem rein funktionalistischen Lebensbegriff, bei dem allein physikalische und chemische Prozesse im Mittelpunkt standen. Wird Leben als subjektive Leistung aufgefasst, dann können wir mit von Uexküll die Umwelt eines Lebewesens von dessen Innenwelt unterscheiden, wobei die Umwelt die Innenwelt spiegelt. Die Innenwelt besteht wiederum aus zwei Komponenten: Erstens der Merkwelt, die alles umfasst, was der Organismus eines Lebewesens wahrnehmen kann – es ist offensichtlich, dass sich mit dieser Annahme alle Lebewesen in ihrer Existenz unterscheiden. Zweitens die Wirkwelt, die alles

rung. Als Schnittstelle zur Umwelt machte er das Außen erlebbar und schuf das Empfinden des eigenen Seins.« (Schätzing 2018: 626)

179

180

Stefan Selke: Technik als Trost

umfasst, was ein Lebewesen tun kann. Zwischen Merkwelt und Wirkwelt besteht – so von Uexküll – eine Wechselwirkung, ein »Funktionskreis«.36 Von Uexküll war nicht nur ein Pionier der theoretischen Biologie, vielmehr beeinflusste er mit seiner Lehre der Biosemiotik auch die Kybernetik und somit zahlreiche Pioniere der KI. Der subjektive Lebensbegriff bringt eine neue Perspektive mit sich, die aufregend anschlussfähig an viele der Debatten im Kontext von KI ist. Wie lässt sich KI in diesen konzeptionellen Rahmen einordnen? Der Kybernetiker Norbert Wiener schien durchaus Inspirationen aus Richtung der Biosemiotik empfangen zu haben. So schreibt der Publizist John Brockman über Wiener: »He called for a new kind of systems ecology in which organisms and the environment in which they live are one and the same and should be considered as a single circuit.« (Brockman 2020: xxi). Wiener ließ sich von der Komplexität biologischer Systeme inspirieren, unterschätzte aber gleichzeitig das Potenzial von Computern (vgl. Brockman 2020: 7). In diesem Zusammenhang wären weitere Wechselwirkungen zwischen Grundlagendisziplinen zu prüfen, die entweder isomorphe Systeme, also die Gleichartigkeit von Entwicklungen und Strukturen im Biologischen, Mechanischen und Sozialen nahelegen, etwa in der Systemtheorie von Ludwig von Bertalanffy (vgl. Bertalanffy 1949). Oder solche, die eben zwischen objektiver Umgebung und subjektiver Umwelt unterscheiden, wie in der bereits skizzierten Biosemiotik von Jakob Johann von Uexküll (vgl. von Uexküll 2018). Auch Hans Moravec hielt den menschlichen Geist keinesfalls für eine Ausnahmeerscheinung. Die Fähigkeit zur Intelligenz sah er bei allen Organismen, die ihre Umwelt wahrnehmen und erkunden. (Moravec 1990: 29) Weil Mensch und Maschine eigentlich nicht gegensätzlicher sein könnten, sind damit grundlegende Hindernisse verbunden: »Dieser Gegensatz – dass Maschinen auf der einen Seite hervorragend bewältigen, was Menschen Schwierigkeiten bereitet, und auf der anderen Seite schlecht können, was für uns leicht ist, ist ein höchst interessanter Ansatz für die Frage, wie man eine intelligente Maschine konstruieren kann.« (Ebd.: 21) Herausfordernd wird es auch durch die Tatsache, dass menschliches Denken auch unbewusst und intuitiv erfolgen kann. Die Schwierigkeiten des Lückenschlusses zwischen Organischem und Mechanischem zeigen sich auch an der Entwicklung von Robotern: Das Stand36

Bei Helmuth Plessner findet sich hingegen der Begriff »Mitwelt«, allerdings als exklusive Eigenschaft des Menschen: »Nur dem Menschen ist es […] vorbehalten, Mitverhältnisse zu gestalten und sie als eine […] Mitwelt zu behandeln.« (Plessner 1976: 194)

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

ford Cart, ein mobiler Roboter, bewegte sich erstmals frei »in der unordentlichen und unregelmäßig ausgeleuchteten Welt« und durch »nicht präparierte Innen- und Außenräume«. (Ebd.: 33) 1977 konnte der Roboter kurze Strecken auf einem mit Steinen übersäten Parkplatz zurücklegen, einen bestimmten Stein aufheben und ihn vor der Kamera drehen.37 Die Hoffnungen, einen »Roboter für den Normalverbraucher« zu schaffen, wurden jedoch rasch enttäuscht. Dennoch prognostizierte Moravec, »dass es gelingen wird, rechtzeitig zum Anfang des neuen Jahrtausends ein allgemein verfügbares Produkt auf den Markt zu bringen, in Gestalt eines Universalroboters für die Fabrik – und für den Haushalt.« (Ebd.: 38) Dazu aber müssten sich Roboter in komplexen Umwelten (wie Küchen oder Kinderzimmern) bewegen können und rentabel hergestellt werden. Moravec sah eine wunderbare Zukunft, wobei er prophezeite, dass »die Wirklichkeit viel bizarrer sein (wird) als alle Blüten unserer Phantasie.« (Ebd.: 40) Zwar lernten Roboter einiges, hatten aber immer noch große Schwierigkeiten, Umwelt und Innenwelt in Einklang zu bringen. Spott ließe nicht lange auf sich warten: »1988 hatten R2D2 und C3PO die Kinoleinwand erobert, doch der am weitesten entwickelte humanoide Roboter der echten Welt fiel spätestens nach drei Schritten auf die Schnauze.« (Schätzing 2018: 178) Gleichwohl hielten Pioniere wie Moravec an der Verheißung künstlicher und autonomer Wesen fest. (Moravec 1990: 42) Diese würden Gefühle und vor allem Bewusstsein haben, das »eines Tages mit dem Bewusstsein des Menschen zu vergleichen sein wird« (ebd.: 59). Dabei seien, so Moravec weiter, die Reaktionen von Robotern wie die von lebenden Tieren, z.B. Insekten, zu erklären, die »mit ungewissen Daten in einer gefährlichen Welt« operieren. (Ebd.: 63) Hier taucht deutlich die Verheißung der Synthese zwischen dem Organischen und dem Anorganischen auf: Mit wachsender Komplexität werden die mobilen Roboter immer größere Ähnlichkeit mit Tieren aufweisen, aber auch Eigenschaften von Menschen annehmen. Konfigurationen sollen den Robotersystemen gestatten, »einige spezifische Dinge von ihrer Umwelt zu lernen« (ebd.: 67). Moravec stellte sich vor, dass auch Maschinen dazu in der Lage sind, »Lust« (Erfolg) und »Schmerz« (Gefahr) wahrzunehmen. »Ein Lust-Schmerz-Mechanismus würde dem Roboter nicht nur ermöglichen, sich seiner Umwelt opportunistisch anzupassen, sondern könnte von Anwendungsprogrammen auch direkter genutzt werden.« (Ebd.: 69) Moravec spricht zusammenfassend von einer »hy37

http:// cyberneticzoo. com/ cyberneticanimals/ 1960- stanford- cart- american/ (09.06.2022).

181

182

Stefan Selke: Technik als Trost

pothetischen Evolution« (ebd.: 74), die Mischwesen hervorbringen würde, die sich als »außerordentlich wandlungsfähig« erweisen, und zwar als »Individuum wie von einer Generation zur anderen« (ebd.: 107). Die neue Verbindung zwischen Mensch und Maschine und die Wechselwirkung zwischen Genotyp und Phänotyp, sollte man »wohl besser Partnerschaft nennen« (ebd.). Aus vollkommen anderen Gründen war Jakob Johann von Uexküll auf der Suche nach der »Vollkommenheit der Lebewesen«. Daher studierte er deren »Bauplan« und prüfte anhand von Fallbeispielen »in welchem Fall die Ausführung am gelungensten ist« (von Uexküll 2018: 4). Weil er gerade nicht vom Menschen als Maß aller Dinge ausgehen wollte, suchte er nach neuen Maßstäben der Vollkommenheit jenseits des zeitgenössischen Anthropozentrismus’. Stattdessen nahm er an, dass der Bauplan eines Lebewesens »selbsttätig die Umwelt des Tieres schafft. [...] Jedes Tier an einer anderen Stelle und in einer anderen Weise.« (Ebd.: 5) Wichtig hierbei: Jede Umwelt schließt andere Umwelten mit ein. Damit zeichnet von Uexküll ein Bild der Natur, das auf reziproken Abhängigkeitsverhältnissen basiert, er schärft den Blick darauf, »dass der Verfolger ebenso gut zum Verfolgten passt, wie der Verfolgte zum Verfolger. So ist nicht bloß der Parasit auf den Wirt, sondern auch der Wirt auf den Parasiten angewiesen.« (Ebd.: 5f.) Mit seinem Begriffssystem (Umwelt, Innenwelt, Merkwelt, Wirkwelt) ermöglichte von Uexküll einen radikal neuen Blick auf Lebewesen, aber ebenfalls auf das Verhältnis zwischen Mensch und Maschine. Forschungsleitend für von Uexküll war dabei die Unterscheidung zwischen Organismus und Maschine. So sind alle prinzipiellen Eigenschaften von Maschinen auch bei Organismen zu finden, während wir »die Maschinen als unvollkommene Organismen betrachten können« (ebd.: 11). Das Hauptwerk von Uexkülls stammt aus dem Jahr 1909. Dennoch lässt sich daraus einiges für das Verständnis von KI-Verheißungen mitnehmen: Einerseits lassen sich Gemeinsamkeit zwischen Organismen und Maschinen erkennen. So vereinigen sich die jeweiligen Teile eines Organismus oder einer Maschine funktional und nicht nur rein formell zu einem Ganzen. Andererseits besitzen Organismen, so Uexküll, »übermaschinelle« Eigenschaften wie Formbildung und Regeneration. »Die Maschinen sind alle vom Menschen gemacht« so Uexküll, »die Organismen entstehen aus sich selbst. Darin liegt ihre hauptsächlichste übermaschinelle Fähigkeit.« (Ebd.: 13) Wo ließe sich in diesem Zusammenhang KI einordnen? Schwache KI könnte vielleicht als Übergang zwischen dem Maschinellen und dem Organischen angesehen werden, weil bereits hier die »übermaschinelle Eigenschaft« der Formbildung vorhanden ist. Bei einer Superintelligenz käme dann noch die Eigenschaft der eigenstän-

4. Aufbruchs-Narrative: Zivilisatorisch-transformative KI-Verheißungen

digen Regeneration hinzu. Beides zusammen würde KI vollends in Richtung einer verheißungsvollen Synthese aller Lebensformen bringen. Wie lassen sich nun diese Überlegungen auf KI übertragen? Offensichtlich werden unter KI meist Anwendungen verstanden, deren Merkwelt einerseits die von Menschen bei weitem übersteigt und deren Wirkwelt sich andererseits anhand einer Vielfalt von Potenzialen beschreiben lässt, denen zumindest teilweise der Charakter einer Verheißung zugesprochen wird. Damit aber kreiert jede KI eine spezifische Umwelt, die erstens vollkommen entkoppelt von der physikalischen Umgebung existiert und die sich zweitens radikal von der Umwelt von Menschen unterscheidet – so wie sich im klassischen Beispiel bei von Uexküll die Umwelt einer Zecke radikal von der Umwelt eines Menschen unterscheidet. Drittens wirkt die Umwelt der KI auf die Umwelt des Menschen zurück, weil sich die beiden »Funktionskreise« immer häufiger überlagern. Vor diesem Hintergrund stellt sich die Frage, worauf sich KI-Verheißungen eigentlich beziehen und ob sich hierbei ein grundlegendes Missverständnis eingeschlichen hat. Ganz offensichtlich werden weitreichende Anstrengungen unternommen, um die Merk- und Wirkwelten von KI zu optimieren. Aber bedeutet das automatisch, dass sich die Umwelt von Menschen optimiert? Oder besteht vielmehr eine Lücke zwischen den beiden Umwelten? Welche Folgen hätte das? Fallen bei KI die Merkwelt und die Wirkwelt zusammen? Wichtiger noch: Sind Menschen überhaupt Teil der Umwelt einer KI? Die Debatte über KI wird durch die Omnipräsenz egologischen Denkens zumindest erschwert. Weil Menschen sich für den Mittelpunkt der Welt halten, weil sie sich selbst im Zentrum von allen sehen, resultiert daraus ein starker Kontrollwunsch über alle Aspekte der Umwelt und zugleich der Umgebung. »In der Realität funktioniert das dann eher selten«, so der Designer Andreas Muxel. »Wir müssen uns einfach nur aus diesem Zentrum hinausschieben. Dann wäre es entschieden einfacher, die nächsten Schritte zu diskutieren.« Jedenfalls wären nicht nur weitreichende philosophische Fragen mit dieser Lebenssynthese verbunden, sondern auch praktische. Der Philosoph Dieter Birnbacher weist darauf hin, dass Menschen Künstlichkeit generell mit mehr Skepsis begegnen als Natürlichkeit. (Birnbacher 2006) Das wäre einerseits ein Erklärungsansatz für die Vehemenz mancher Dagegen-Narrative, andererseits würde der Verlust der Unterscheidungsmöglichkeit zwischen natürlichen und künstlichen Entitäten die »intuitive Skepsis« (Zillmann 2021: 78), mit der Menschen KI-Systemen begegnen, zumindest relativieren.

183

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Drei der vier prototypischen Zukunftsnarrative transportieren positive Botschaften. Allerdings sind diese Zukunftserzählungen nicht ohne Gegennarrative verständlich. Über KI gibt es zahlreiche Dagegen-Narrative im Format von Hiobsbotschaften und Unheilverkündungen. Einer der prominentesten KI-Kritiker ist der Informatiker Jaron Lanier. Ihn ängstigt sowohl ein »historischer Determinismus«, als auch die Geste des Zuviel-Versprechens (»overpromise«), die eigentlich nur Enttäuschungen nach sich ziehen kann. »It’s just immature and ridiculous, and I wish that cycle could be shut down.«1 Wie also sehen die Schattenseiten von KI-Verheißungen aus? Das Gesetz von Amara besagt, dass die meisten Menschen dazu neigen, die kurzfristigen Auswirkung neuer Technologie zu überschätzen und die langfristigen Folgen zu unterschätzen. Dies erklärt einerseits zahlreiche Verheißungen, die von stark überhöhten und spekulativen Technikerwartungen ausgehen. Andererseits wird deutlich, dass Verheißungen niemals verständlich werden, wenn nicht zugleich auf zugehörige Gegennarrative geachtet wird. Dagegen-Narrative thematisieren den ›Kampf gegen einen Feind‹, der unterschiedliche Formen annehmen kann. Kritiker verbreiten Zukunftsszenarien, die einen schlechten oder sogar katastrophalen Ausgang nehmen. »Meist umarmt nur ein kleiner Teil der Menschen das Neue«, so der KI-Experte Boris Pasklev, »aber es gibt auch die Zögerlichen, die ›slow-adopter‹ und dann vor allem diejenigen, die einfach ›Nein‹ zu jeglichem Wandel sagen.« Dagegen-Narrative basieren auf der Überzeugung, dass eine Möglichkeit nicht automatisch auch zu ihrer Nutzung verpflichtet. Deswegen kreisen viele Dagegen-Narrative um das Leitmotiv »Wehret den Anfängen!«.

1

https://www.edge.org/conversation/jaron_lanier-the-myth-of-ai (04.07.2022).

186

Stefan Selke: Technik als Trost

Diese Art des Dagegen-Narrativs ist auch Gegenstand fiktionaler Gesellschaftsdiagnosen. In seinem fantastischen Roman Eines Menschen Flügel beschreibt der Schriftsteller Andreas Eschbach eine Gesellschaft in einem friedlichen Urzustand. Die Menschen dieser fiktiven Gesellschaft werden von den Ältesten davor gewarnt, sich auf Maschinen zu verlassen. »Maschinen [...], die mit einer anderen Energie als der Körperkraft eines Menschen oder eines Tieres betrieben wurden, waren von Übel. Sie verführten durch Bequemlichkeit, und diese Bequemlichkeit machte die Menschen schwach und über kurz oder lang abhängig von der Maschine.« (Eschbach 2020: 132) In immer neuen Verkleidungen taucht eine zentrale Befürchtung in Dagegen-Narrativen über KI auf: Sobald Menschen ihren Maschinen die Arbeit – insbesondere Denkarbeit – abgeben, verlieren sie ihre Autonomie. Nochmals eine Stimme aus dem Roman: »Überlässt man diese Arbeit einer Maschine, verliert man an Kraft, und dann gibt es bald etwas anderes, das einem ebenso schwerfällt, und man wird danach sinnen, auch für diese Arbeit eine Maschine zu bauen. Und immer so weiter, bis die Maschinen alles tun und die Menschen nichts mehr. [...] Maschinen fressen die Welt auf.« (Ebd.: 133f.) Was früher die verführerische Verheißung der Maschinen im Allgemeinen war, ist heute die hochattraktive Verheißung der omnipotenten Technologie KI im Speziellen. Alles kommt darauf an, ob Potenziale positiv oder negativ beurteilt werden. »Ich habe das Gefühl, dass wir schon heute viele unserer Entscheidungen und Verhaltensweisen von Algorithmen abhängig machen«, schreibt etwa der chinesische Science-Fiction-Autor und Journalist Chen Qiufan. Der Autor sieht die Menschheit im Streben nach Weiterentwicklung, sowie »in einem endlosen Zyklus der Produktivität« gefangen. »Niemand weiß, wohin das führt.«2 In Dagegen-Narrativen werden daher neue Technologien konsequent mit tiefsitzenden Ängsten und Bedrohungen assoziiert. Paradoxerweise sind es jedoch gerade die überzogenen Bedeutungszuschreibungen, die zu Abwehrreaktionen führen. Skeptiker (griechisch skeptikós für: jemand, der zweifelt, überprüft) und Kritiker von KI glauben gerade nicht an das inszenierte Technologieversprechen, ihr Vertrauen in Technik wird prinzipiell enttäuscht. Diese kulturpessimistische Argumentationslinie findet sich in zahlreichen Prognosen, die meist dafür plädieren, der Etablierung neuer sozio-technischer Systeme mit weit weniger Euphorie zu begegnen.

2

https://www.sueddeutsche.de/wirtschaft/china-technologie-quiufan-1.5291466 (17.11.2021).

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Von der Urerzählung des Missbrauchs zum zeitgenössischen Kontrollverlust Damit schließen sie an den Pandora-Mythos – der Ur-Erzählung des Missbrauchs – an. Pandora (altgriechisch für: allbegabt oder allbeschenkt) ist in der griechischen Mythologie eine aus Lehm geschaffene Frau, die der Dichter Hesiod (vom dem die früheste Erzählung des Pandora-Mythos stammt) ein »schönes Übel« nennt. Pandora wurde im Auftrag des Göttervaters Zeus von Hephaistos geschaffen, um sich für den Diebstahl des Feuers durch Prometheus zu rächen. Als Teil des Racheakts wird Pandora mit einer Büchse ausgestattet, die alle Übel der Welt, gleichzeitig aber auch die Hoffnung, enthält. Die Menschen werden ausdrücklich gewarnt, diese Büchse auf keinen Fall zu öffnen. Prometheus (der »vorher Bedenkende«) warnt sogar davor, das Geschenk anzunehmen, sein Bruder Epimetheus (der »nachher Bedenkende«) hingegen ignoriert die Warnung und heiratet Pandora, die die Büchse öffnet und somit alle Laster und Untugenden sowie das Schlechte in die Welt entweichen lässt. Weil aber die Büchse schnell wieder verschlossen wird, kann die darin enthaltende Hoffnung nicht entkommen. Seitdem ist die Welt ein trostloser Ort. Seitdem gilt das Öffnen der Büchse der Pandora metaphorisch als Inbegriff des Unheilstiftens und der Hoffnungslosigkeit. Es verwundert kaum, dass das Grundmotiv des irreversiblen Leids in zahlreichen anti-technologischen Gegenwartsnarrativen erneut auftaucht. Der Bericht Global Catastrophic Risks – Artificial Intelligence steht prototypisch für ein derartiges Dagegen-Narrativ, weil darin negative oder gar dystopische Aspekte von KI überbetont werden. »So what happens if we create artificial intelligence (AI) that’s significantly smarter than any person?«, sorgen sich die Autoren der Studie. »Will it help us reach even greater heights or will it trigger, as some experts worry, the greatest catastrophe of all: human extinction.« (Westin et al. 2020: 45) Im Mittelpunkt der Analyse stehen langfristige und teils unklare gesellschaftliche Auswirkungen von KI auf Menschen, wobei alle Schätzungen mit großer Unsicherheit behaftet sind. Immerzu wird das Schlimmste, also die titelgebende Katastrophe, befürchtet: »It’s not hard to imagine how much worse these problems could get with advanced AI systems functioning across many platforms or falling into the hands of terrorists or despots.« (Ebd.). Als zentrales Risiko wird jedoch Zeitmangel definiert, denn Risiken ergeben sich, wenn sich gesellschaftliche und politische Institutionen nicht genügend Zeit lassen oder nicht genügend Zeit haben, um sich anzupassen.

187

188

Stefan Selke: Technik als Trost

Auch das Buch Die Anbetung. Über eine Superideologie Namens Digitalisierung versteht sich als typisches Dagegen-Narrativ. Die Autorin Marie-Luise Wolff stellt fest, dass eine besondere Furcht in Deutschland umgeht: die Furcht, den Anschluss zu verpassen. Deshalb würden bei der digitalen Agenda Erfolge übertrieben und Nebenwirkungen kleingeredet werden. (Wolff 2020: 18) Vor diesem Hintergrund versucht die Autorin die Verfasstheit digitaler Unternehmen, die damit zusammenhängende Euphorie und reformatorische Energie, aber auch gravierende Fehlentwicklungen zu demaskieren, die allein deshalb unsichtbar bleiben, weil die neuen Technologien immer noch zu euphorisch bewundert werden. Dies erkläre dann auch die Monopolbildung der Digitalunternehmen, Entfremdungserscheinungen oder die Zurückbildung menschlicher Fähigkeiten. Für Wolff erzeugt das digitale Narrativ eine »Superideologie«, weil es einen »Schleier über das ganze Denken legt, der zugleich etwas Atemberaubendes wie auch Erstickendes, Verdeckendes und Überwältigendes an sich hat« (ebd.: 22).3 Die bekannteste Form des Dagegen-Narrativs ist die Dystopie, die stets in einem Spannungsverhältnis zu utopischen Verheißungen steht. So stellt etwa Angela Spahr fest, dass »Weltuntergangsszenarien bei weitem bekannter und populärer als ihre freundlichen Antipoden« sind. (Spahr 2002) In beiden Fällen gilt: KI-Verheißungen sind eine Frage des Glaubens und nicht des Wissens. »Die Verheißung der KI besteht darin, dass sie uns gesellschaftlich weiterbringen kann«, argumentiert hingegen der Theaterindendant Christian Tombeil. »Erst mit der ethisch-moralischen Bewertung kommt der negative Beigeschmack der eigentlich positiven Verstellung hinzu.« Das Gegennarrativ ist das Spiegelbild der Verheißung. Genau dieses Spannungsverhältnis deutet auch der Schriftsteller Frank Schätzing in seinem Roman Die Tyrannei des Schmetterlings an, wenn er einen seiner Protagonisten berichten lässt: »Technologieängste sind wie eine Infektion, wie grassierende Viren. Die Gegner der digitalen Transformation würden uns liebend gern in die Luft sprengen, von religiösen Vernichtungsfantasien ganz zu schweigen, da man uns natürlich verdächtigt, Gott zu spielen.« (Schätzing 2018: 142)

3

Um den Schleier zu lüften, so die Autorin, müssen zunächst die »Refeudalisierung der Risikogesellschaft« (Wolff 2020: 120) oder der »Aufstieg komplexer räuberischer Formationen« (ebd.: 126) erkannt werden.

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Die Vorstellung ›böser‹ KI als Gegenteil von Technoprophetie Der Umschlag vom Positiven ins Negative gehört mit zum Verständnis positiver Verheißungen. Steigerungsformen bis hin zu radikaler Ablehnung sind möglich. »KI ist gefährlich und böse«, so bringt Verena van Zyl-Bulitta Unheil-Verheißungen auf den Punkt. »Wir müssen aufpassen!« Auch der prominente Psychologe Steven Pinker räumt den Stellenwert düsterer Prophezeiungen ein, hält jedoch vehement »Tech-Prophecy« dagegen. »Disaster scenarios are cheap and play out the probability-free zone of our imaginations, and they can always find a worried, technophobic, or morbidly fascinated audience.« (Pinker zit. n. Brockman 2020: 101) Das Charakteristikum von KI-Dystopien besteht für Pinker übrigens darin, dass sie einer engstirnigen, männlichen Psychologie entspringen. Stattdessen plädiert er dafür, KI als eine der größten Ideen in der Geschichte der Menschheit einzuordnen. Ganz offensichtlich sind Dystopien auch jenseits des Themas KI beliebt. Zunehmende Utopiemüdigkeit (Selke 2022: 443ff.) und die Reduktion des Politischen auf Realpolitik legen tatsächlich nahe, KI kritisch zu sehen und dystopische Dagegen-Narrative zu entwerfen. Hinzu kommt ein eher psychologisches Argument: Klagen sind einfacher hervorzubringen als konstruktive Lösungsvorschläge und positive Wunschbilder. Das aufmerksamkeitsökonomische Argument geht hingegen davon aus, dass Aufmerksamkeitserzeugung im Hinblick auf neue Technologien besonders gut im Modus von Panikgeschichten funktioniert. Aus diesen Gründen sind Dagegen-Narrative medial beliebt. »KI-Algorithmen laufen im Hintergrund und machen das Leben angenehm. Dazu wird nichts gesagt«, so Verena van Zyl-Bulitta. »Wenn KI kommentiert wird, dann sind es immer die großen Sachen, die Angst machen.« Und diese ›großen Themen‹ eignen sich hervorragend für Kritik. Wie also kann mit Dissonanzen umgegangen werden? »Da schwingt auch Pauschalisierung oder sogar Verteufelung mit: Ich bin dagegen!«, fasst van Zyl-Bulitta zusammen, weil DagegenSein oft mit Passivität einherkommt. »Wenn alles in die Pfanne gehauen wird, dann ist das das Ende eines aufgeklärten Umgangs mit Technik.« Ein mediales Beispiel dafür ist die Warnung davor, dass »der Wettbewerb um die Vorherrschaft in KI auf nationaler Ebene [...] der wahrscheinlichste Auslöser des Dritten Weltkriegs« sein wird, so der Journalist Jonas Jansen (2017). »Ich finde das nur gruselig«, so ebenfalls die Lektorin Megan Hanson. »In KI sehe ich wenig Mehrwert für Menschen mit Seele und Geist. Da verschwindet die Seele, da verschwindet der freie Geist. Diese Bilder einer von KI gesteuerten oder gar von KI entworfenen Zukunft machen nur Angst.«

189

190

Stefan Selke: Technik als Trost

Für Personen, die sich vor KI fürchten, etablierte sich der Begriff »Digital-Dystopiker«. Während Bernhard Pörksen einfach »Genug von der Apokalypse«4 hat, sehen viele Kritiker die soziale, politische und technologische Entwicklung negativ, manchmal bis ins Dramatische oder das Alarmistische übersteigert. Fluchtpunkt vieler Dagegen-Narrativen ist die Vorstellung eines informationellen Totalitarismusʼ, wie er im Prinzip bereits von George Orwell in dessen Dystopie 1984 beschrieben wurde oder wie er als vollkommene Machtübernahme der Maschinen über Menschen in Filmen wie Terminator 5 oder in der Film Trilogie Matrix in zeitgemäßer medialer Ausschmückung inszeniert wurde. Dagegen-Narrative entwerfen dystopische Szenarien einer bipolaren Gesellschaft, in der die neue Technologie mehr Schaden anrichtet, als Nutzen erzeugt. Die zukünftige Entwicklung wird wohl kaum so verlaufen. Gleichwohl sind skeptische oder ablehnende Zukunftserzählungen wirkmächtig. Genau deshalb braucht es einen differenzierten Blick auf Verheißungen. Es geht darum, den argumentativen Middle Ground zwischen stark apokalyptisch und sehr stark utopisch aufgeladenen Zukunftserzählungen auszuloten und zu fragen, welche gesellschaftliche Wirkung diese Narrative haben. DagegenNarrative erkennen in KI die zeitgenössische Repräsentation des Unheimlichen. Der Ethiker Marc Coeckelbergh weist darauf hin, dass KI einerseits unsichtbar ist, andererseits überall auftaucht (Coeckelbergh 2020: 78). Im Kern resultiert das Gruseln aus dem »Problem der epistemischen Intransparenz« (Hauswald 2021: 360). Vielen Menschen ist unheimlich, dass im Gewand einer Rechenmaschine (eines Computers) »Beherrschen ohne Begreifen« (»competence without comprehension«) möglich ist (Dennett 2021). Es ist schwer vorstellbar, dass Maschinen Probleme lösen können, ohne diese zu verstehen. (Freska 2021: 137) Diese Technik muss zwangsläufig fremdartig erscheinen. Hinzu kommt, dass die Entscheidungskaskaden von Algorithmen für Laien vollkommen intransparent sind. Dieses Phänomen wurde unter dem Begriff »Black-Boxing« bekannt. »Stellt man sich eine Künstliche Intelligenz vor, von der ein Mensch weder weiß, was sie als Daten aufnimmt, noch, wie

4 5

https://www.zeit.de/2018/42/bildung-demokratie-kommunikation-optimismus/seite -2 (04.01.2022). In Terminator wird allerdings nicht nur die negative Seite eines künstlich erschaffenen Menschen beleuchtet, sondern ebenfalls die Möglichkeit angedeutet, dass sich KI gegenüber Menschen ›loyal‹ verhalten kann.

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

und wozu sie diese verarbeitet, könnte man von einer echten Zweckentfremdung sprechen, da die Zweckbindung der KI aufgelöst würde.« (Gutmann et al. 2021: 232) Reaktionen auf das Unheimliche sind deshalb Strategien des Unboxing (Grey-/White-Boxing), deren Ziel darin besteht, das Unsichtbare in »sozial Erfahrbares, Diskutierbares, Kommunizierbares oder gar Sichtbares zu übersetzen«, so er Designtheoretiker Christian Bauer. Gleichzeitig stellt sich aber die Frage, warum Menschen ausgerechnet die Funktionsweise von Algorithmen verstehen wollen, während kaum jemand die Funktion von Alltagstechnologien (Telefon, Auto, Flugzeug) verstehen möchte. Eine mögliche Erklärung: Narrative des Unheimlichen verweisen auf tieferliegende Ängste, die es unmöglich machen, KI zu trauen, während das bei anderen Techniken möglich ist. Diese Aversionen liegen möglicherweise darin begründet, dass es im Fall von KI eben nicht nur um Funktionalitäten handelt, sondern um Lernprozesse. Damit verbundenen Unsicherheiten werden tendenziell zunehmen. »Menschen werden immer weniger durchschauen, was die Maschinen tun, die sie benutzen«, so Marie-Luise Wolff (2020: 207). Black-Boxing wird als essenzielle Verunsicherung wahrgenommen, vielleicht sogar als dämonische Technik. Die Künstlichkeit maschineller Intelligenz wirkt unheimlich, weil ihr wesentliche Aspekte der vielschichtigen menschlichen Intelligenz, etwa Emotionen, Empathie und Erklärbarkeit, fehlen. Zudem erzeugt die fehlende Ununterscheidbarkeit menschlicher und künstlicher Intelligenz latente Ängste. Je menschenähnlicher Maschinen scheinen, desto ›gruseliger‹ wirken sie, so Forscher. (Heil et al. 2019) Gerade humanoide Körper, die Gesichtszüge, Mimik, Gestik, Körperhaltung und den der Ton der menschlichen Sprache imitieren, wirken dann schnell wie »seelenlose Zombies«. Kein Wunder, dass KI, in welcher Form auch immer, mit Skepsis, Ablehnung und Unbehagen begegnet wird. In der TV-Serie Westworld wird dieser Gruselfaktor, der auf der mangelnden Unterscheidung zwischen KI und Mensch basiert, dramaturgisch eingesetzt: In einem Freizeitpark mit Westernmotiv können Menschen als Freizeitvergnügen lebensnah gestaltete Androiden bekämpfen und töten. Sie üben zerstörerische Gewalt im Wissen darüber aus, dass keine ›echten‹ Menschen zu Schaden kommen. Doch was macht das langfristig mit Menschen? Technik wurde andererseits schon immer dämonisiert. Im Kontext der Digitalisierung ist dann wenig überraschend die Sprache von »Cyberkrank« (Spitzer 2015), einer »Smartphone-Epidemie« (Spitzer 2018) oder »digitaler Erschöpfung« (Albers 2017). In der Summe kommt es zu einem »Unbehagen an der digitalen Kultur«, weil Technik tief in soziale Prozesse eindringt und

191

192

Stefan Selke: Technik als Trost

Menschen überfordern kann. (Nassehi 2019: 42) Im schlimmsten Fall schließt sich dieser Klage die Befürchtung an, als Mensch selbst durch KI ersetzt zu werden. Wie erstmals bildstark im Film Modern Times (1936, Charlie Chaplin) dargestellt, wird der Mensch immer mehr zu einem Anhängsel der Maschine. Diese Angst besteht bis heute. »In absehbarer Zeit ist nicht die Unterlegenheit des Menschen die große Gefahr, sondern seine totale Abhängigkeit von der digitalen Technik.« (Grunwald 2019: 29) Welche Folgen sind mit der Vielzahl der neuen Abhängigkeiten verbunden?

5.1 Kontrollverlust Die Welt ist formbar, kontrollierbar, messbar und schließlich nutzbar. Alles unterliegt der Logik der Kontrolle – so sieht es die dominante TechnoLogik. Ganz falsch ist das nicht: Einerseits trugen Effizienz und Kontrolle dazu bei, den Lebensstandards von Millionen von Menschen anzuheben. Andererseits gibt es jedoch Dinge, die nicht auf ihren Gebrauchswert reduziert werden sollten. Vor allem läuft die Techno-Logik Gefahr, Menschen als warenförmige Objekte zu behandeln. Grundlage hierfür sind wiederum ökonomische Verheißungserzählungen, wie sie etwa von den Apologeten des Neoliberalismus verbreitet werden (z.B. Kelly 1999) und immer wieder heftiger Kritik unterliegen.6 Aus der Konvergenz neoliberaler und technikeuphorischer Verheißungserzählungen entsteht eine Haltung des technologischen Instrumentalismus, der davon ausgeht, dass Technologie ein bloßes Werkzeug ist und diesem »neutralen Werkzeug« keine eigenen Motive, Absichten oder Handlungsfähigkeiten innewohnen. Diese Annahme ist schlicht naiv. Schon das Design der Technik kann die Handlungsfähigkeit der Menschen beeinflussen. Technik vermittelt – sowohl im moralischen als auch physischen Sinn – eine Beziehung zur Welt. Zudem ist Technologie nie frei von Wertureilen (Müller/Nievergelt 1996). Letztlich tragen alle Artefakte bereits Werte in sich. (Beard/Longstaff 2018) Damit haben alle, die am Design der Dinge beteiligt sind, Verantwortung für das Produkt. Keine Technologie erfindet eigene Werte, vielmehr trägt sie die Werte derer in sich, die sie erdacht und hergestellt haben: Menschen. Dem Missbrauch öffnet sich damit Tür und Tor. Das ist wohl einer der Gründe dafür, warum Dagegen-Narrative zu einem Großteil aus

6

Vgl. dazu etwa: Brown (2015), Davis (2014).

192

Stefan Selke: Technik als Trost

Menschen überfordern kann. (Nassehi 2019: 42) Im schlimmsten Fall schließt sich dieser Klage die Befürchtung an, als Mensch selbst durch KI ersetzt zu werden. Wie erstmals bildstark im Film Modern Times (1936, Charlie Chaplin) dargestellt, wird der Mensch immer mehr zu einem Anhängsel der Maschine. Diese Angst besteht bis heute. »In absehbarer Zeit ist nicht die Unterlegenheit des Menschen die große Gefahr, sondern seine totale Abhängigkeit von der digitalen Technik.« (Grunwald 2019: 29) Welche Folgen sind mit der Vielzahl der neuen Abhängigkeiten verbunden?

5.1 Kontrollverlust Die Welt ist formbar, kontrollierbar, messbar und schließlich nutzbar. Alles unterliegt der Logik der Kontrolle – so sieht es die dominante TechnoLogik. Ganz falsch ist das nicht: Einerseits trugen Effizienz und Kontrolle dazu bei, den Lebensstandards von Millionen von Menschen anzuheben. Andererseits gibt es jedoch Dinge, die nicht auf ihren Gebrauchswert reduziert werden sollten. Vor allem läuft die Techno-Logik Gefahr, Menschen als warenförmige Objekte zu behandeln. Grundlage hierfür sind wiederum ökonomische Verheißungserzählungen, wie sie etwa von den Apologeten des Neoliberalismus verbreitet werden (z.B. Kelly 1999) und immer wieder heftiger Kritik unterliegen.6 Aus der Konvergenz neoliberaler und technikeuphorischer Verheißungserzählungen entsteht eine Haltung des technologischen Instrumentalismus, der davon ausgeht, dass Technologie ein bloßes Werkzeug ist und diesem »neutralen Werkzeug« keine eigenen Motive, Absichten oder Handlungsfähigkeiten innewohnen. Diese Annahme ist schlicht naiv. Schon das Design der Technik kann die Handlungsfähigkeit der Menschen beeinflussen. Technik vermittelt – sowohl im moralischen als auch physischen Sinn – eine Beziehung zur Welt. Zudem ist Technologie nie frei von Wertureilen (Müller/Nievergelt 1996). Letztlich tragen alle Artefakte bereits Werte in sich. (Beard/Longstaff 2018) Damit haben alle, die am Design der Dinge beteiligt sind, Verantwortung für das Produkt. Keine Technologie erfindet eigene Werte, vielmehr trägt sie die Werte derer in sich, die sie erdacht und hergestellt haben: Menschen. Dem Missbrauch öffnet sich damit Tür und Tor. Das ist wohl einer der Gründe dafür, warum Dagegen-Narrative zu einem Großteil aus

6

Vgl. dazu etwa: Brown (2015), Davis (2014).

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Missbrauchsunterstellungen bestehen. Dabei vermischen sich Skepsis gegenüber technischen Systemen mit der Skepsis gegenüber Menschen, die diese Systeme erschaffen. Genau in diesem Sinne behauptet Thomas Ramge, dass »wir uns bis auf Weiteres nicht vor Künstlicher Intelligenz fürchten müssen, sondern vor Menschen, die sie missbrauchen« (Ramge 2018: 17). Stark abwertende Medienberichte und Mitteilungen über Datenmissbrauch sowie das ›Abhören‹ von Personen befeuern Misstrauen und eine ablehnende Grundeinstellung gegenüber KI. Diese Perspektive ist auch im Bereich von Science-Fiction beliebt, weil sich damit spannende soziale Dramen inszenieren lassen. »Um der Menschheit zu helfen«, so ein Protagonist im Roman Die Tyrannei des Schmetterlings, »brauchen wir Zugriff auf Menschheitsdaten.« (Schätzing 2018: 143) Intransparenz und mangelhafter Datenschutz verhalten sich wie zwei Seiten einer Medaille (Mader et al. 2020: 54f.).7 Zum bewussten Missbrauch gesellen sich zudem Aspekte der unbewussten Diskriminierung, z.B. vulnerabler Gruppen oder der Entmündigung einzelner Personen (Hofmann et al. 2019: 278).8 Für die Dagegen-Narrative ist es zunächst unerheblich, ob Sorgen eine empirische Basis haben, denn es geht weniger um faktische, als vielmehr um wahrgenommene Probleme. Dabei wird schnell deutlich, dass KI im Kern eine manipulative Technik ist. »Die Möglichkeit der Verführung durch KI ist problematisch«, so auch der Mediziner Manfred Dietel. »Deshalb sollte man KI erst einmal verstehen und sich über die Möglichkeiten im Klaren werden. Sowohl im technischen als auch im politischgesellschaftlichen Bereich. KI manipuliert und wir müssen diese Manipulation verstehen, bevor es zu spät ist.« Ein Negativbeispiel war der Chatbot Tay. Bösartige Netznutzer verwickelten den Chatbot in eine fortlaufende Kommunikation über Naziideologie. Somit war es kaum verwunderlich, dass sich das lernende System zu einem Rassisten entwickelte. »Tay muss schlafen«, postete schließlich das Unternehmen Microsoft aufgrund von Protesten und legte den Schalter um.9

7

8

9

Mader et al. (2020): Wie mit künstlicher Intelligenz umgehen? https://www.zora.uzh. ch/id/eprint/197692/1/Wie%20mit%20k%C3%BCnstlicher%20Intelligenz%20umge hen.pdf (19.12.2021). Vor diesem Hintergrund zeugen Ansätze wie »Fair Machine Learning«, »Data Justice« oder »Discrimination-aware Data-Mining« Bemühungen interdisziplinärer Forschergruppen, Antworten auf grundsätzliche ethische Fragen von KI und Fairness zu finden. https://www.ingenieur.de/technik/fachbereiche/ittk/microsoft-bricht-experiment-ch at-bot-tay-ab/ (11.07.2022).

193

194

Stefan Selke: Technik als Trost

Dagegen-Narrative rücken die riskante Wechselwirkung zwischen Mensch und Maschine in den Mittelpunkt. »Even humans do not know what is right and what is wrong and are we really capable to teach machines to know the difference between the two?« (Kohle/Hande 2018) So gilt etwa das Ausmaß der Bösartigkeit eines unethisch programmierten Systems als nicht vorhersagbar. Umgekehrt kann eine sich selbst entwickelnde KI, die menschliche Intelligenz übersteigt, eine Bedrohung darstellen und ›rebellisch‹ werden und sich – so die größte Befürchtung – gegen Menschen richten. »If in case AI takes over the human world, possessing human intelligence, how can we expect it not to extinct multiple species including us?« Daher der Ruf nach frühzeitiger Kontrolle: »Today AI is in nascent stage and shows the resemblance with an adolescent child. Just like a child, AI should be controlled before it exposes its destructive results.« (Ebd.) Neben möglichen Missbrauchsfeldern (militärische Nutzung, Vernichtung von Arbeitsplätzen, soziale Diskriminierung) wird immer wieder das Argument hervorgebracht, dass der Missbrauch keinesfalls nur in autoritären Staaten oder Diktaturen, sondern auch inmitten von Demokratien erfolgen kann, die KI als Instrument der Überwachung und Unterdrückung nutzen. (Rohner et al. 2018) Ähnlich wird in einem Bericht der Cybersicherheitsfirma Malwarebytes argumentiert, in dem im alarmistischen Tonfall dargestellt wird, was passieren könnte, wenn KI mit böswilliger Absicht genutzt wird. (Malwarebytes Labs 2019)10 Hierbei werden Bedrohungsakteure vorgestellt und zahlreiche Beispiele für den Missbrauch intelligenter Technologien gegeben, die im größtmöglichen Kontrast zu den euphorischen Verheißungen der Branche stehen. Dabei sollte allerdings berücksichtigt werden, dass KI als hocheffizientes Mittel der Steuerung individueller und kollektiver Wünschen einsetzbar ist. Zahlreiche literarische Dystopien liefern Blaupausen für Methoden des ›Einschläferns‹. In Schöne neue Welt von Aldous Huxley werden Menschen mittels der Droge »Soma« auf ein kollektives Ziel hin konditioniert. Um Konformität herzustellen, müssen Menschen vergessen, dass es auch alternative Formen des Lebens gibt. In anderen Worten: Sie müssen utopiemüde gemacht werden. Wer gegen KI ist, sieht genau das: »KI bügelt unser kulturelles Leben glatt. Wenn Algorithmen die Entscheidungen von Heranwachsenden bestimmen, verlieren wir eine der letzten kulturellen Arenen, in denen wir neue Spielarten und Provokationen austesten können.« (Rohner et al. 2018: 16)

10

https://schwartzpr.de/website/uploads/AI_goes_awry.pdf (26.02.2022).

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Zwischen Kontrollverlust und Kontrollüberschuss In Dagegen-Narrativen tritt KI als neuer Bedrohungsakteur auf – gerade weil sie oft unsichtbar im Hintergrund wirkt. Vieles von dem, was bislang nur in der Fiktion durchgespielt wurde, scheint zwischenzeitlich in Reichweite. KI gehört nun zum »Profil des Bösen in der Welt« (Lüdke/Lüdke 2020). Aber: Weitreichende Angst vor Kontrollverlust bzw. unkontrollierte Entfesselung des Potenzials von KI ist das exakte Gegenteil von Zukunftseuphorie. »Alle Technologien haben Upsides und Downsides. Jede Technologie entfesselt etwas«, so der Unternehmer Tobias Gantner. Zumindest werden Dagegen-Narrative so plausibel. »Deshalb sollten Gesellschaften Technologien erst entwickeln, wenn sie auch die innere Reife dazu haben und verantwortungsvoll mit diesen Technologien umgehen können.« Vielleicht sollte aber die Gefahr der Entfesselung als Nebeneffekt von Zukunftseuphorie verstanden werden. Denn bei heilsversprechenden Verheißungen »schwingt nicht allein das Göttliche mit. Sondern eben auch der Verlust der Kontrolle«, so der Designer Andreas Muxel. »Weil wir nicht ganz verstehen, was da eigentlich passiert. Wir begreifen es nicht. KI erscheint als etwas, das über uns steht, das größer ist, vielleicht eine Naturgewalt.« Vor allem beim Thema Superintelligenz stehen Missbrauchsbefürchtungen und Kontrollverlust im Mittelpunkt. Unter Rückgriff auf Norbert Wiener kann die Frage nach den Risiken starker KI als »König Midas«-Problem skizziert werden: Weil Midas sich wünschte, dass alles, was er berührt, zu Gold wird, drohte ihm der Tod, denn selbst Speisen und Getränke verwandelten sich in ungenießbares Gold. Übertragen auf den Bereich der KI sprechen Experten von »value alignment« – der Tatsache, dass eine KI nur nach denjenigen wertebasierten Prinzipien arbeiten kann, die Menschen für sie definieren. (Rusell zit. n. Brockman 2020: 24) Der KI-Pionier Eliezer Yudkowsky prägte dafür den Begriff »friendly AI«. Ähnlich äußert sich auch der Physiker Max Tegmark – und macht dabei nicht einmal Halt vor grenzwertigen Vergleichen: »A superintelligent AGI will be extremely good in accomplishing ist goals, and if those goals aren’t aligned with ours, we’re in trouble. [...] A perfectly obedient superintelligence whose goals automatically algin with those of its human owner would be like Nazi SS-Obersturmbannführer Adolf Eichmann on steroids.« (Tegmark zit. n. Brockman 2020: 85) Auch für den Forscher Tom Griffiths ist das Zusammenspiel zwischen Mensch und Maschine »a tricky matter«, weil es darum geht, Ziele aufeinander abzustimmen. »Making inferences about what humans want is a prerequisite for solving the AI problem

195

196

Stefan Selke: Technik als Trost

of value alignment – aligning the values of an automated intelligent system with those of a human being.« (Griffiths zit. n. Brockman 2020: 128) Maschinen, die sich gegen Menschen wenden, sind ein dystopischer Alptraum. Hinter der Angst vor Entfremdung und Kontrollverlust verbirgt sich eine existentielle Frage: Braucht die KI uns eigentlich? Wofür? Oder hat sie eine eigene Ökologie, in der sie auf Homo Sapiens verzichten könnte? »Wenn es einen zentralen Topos in der Rezeption und Diskussion von Digitalisierung und Digitaltechnik gibt«, so Armin Nassehi, »dann ist es die Erfahrung von Grenzenlosigkeit, Kontrollverlust und Ubiquität.« (Nassehi 2019: 178) Dirk Baecker spricht hingegen von einem »Kontrollüberschuss« von Metriken und Quantifizierungen (Baecker 2007), was sich maßgeblich auf die »kommende Gesellschaft« auswirken wird. Das Problem des Kontrollüberschusses wird besonders anschaulich im Buch Superintelligence von Nick Bostrom behandelt. (Bostrom 2014) Der Philosoph stellt sich eine Superintelligenz vor, die kein anderes Ziel kennt, als sich die Welt Untertan zu machen. Diese Idee führt er an einem zunächst absurd erscheinenden Beispiel aus: »Es ist durchaus möglich, eine Superintelligenz zu haben, deren einziges Ziel es ist, etwas völlig Beliebiges wie zum Beispiel Büroklammern herzustellen. Und die sich mit aller Macht jedem Versuch widersetzen würde, dieses Ziel zu ändern [...] Diese Intelligenz würde zuerst die gesamte Erde in Büroklammer-Fabriken verwandeln und später sogar Teile des Weltalls.« (Ebd.: 174) Die Grundkritik zu diesem Motiv findet sich allerdings bereits in Friedrich Georg Jüngers Essay Perfektion der Technik, wobei das Dämonische nicht die Technik selbst darstellt, sondern deren Tendenz zur Verselbständigung und zu ubiquitären Ausbreitung und der damit verbundenen Optionssteigerung. (Jünger 2020; im Original: 1946) Sein wahnhaftes Bild des Kontrollverlusts treibt Bostrom in zeitgemäßer Semantik bloß auf die Spitze. Bostrom will damit vor der Verniedlichung des Problems warnen, die aus der Vermenschlichung von Maschinen resultiert. »Selbst wenn wir erkennen, dass einer Superintelligenz prinzipiell alle menschlichen (und weitere übermenschliche) Fähigkeiten und Anlagen zur Verfügung stehen, kann die Tendenz zur Vermenschlichung uns immer noch unterschätzen lassen, wie überlegen eine maschinelle Superintelligenz dem Menschen wirklich ist.« (Bostrom 2014: 16) Diese extrem leistungsfähige KI würde sich vor allem darin von Menschen unterscheiden, dass sie keine Stoppregeln besitzt, die auf Vernunft basieren. (Nassehi 2019: 246) Skepsis ist also angebracht. »The emergence of intelligence gets the attention of Homo Sapiens«, so der Historiker George Dyson, «but what we should be worried about is the emergence of control.« (Dyson zit. n. Brockman 2020: 38)

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Auch die Forscherin Anca Dragan hat Zweifel: »Even if we plan to use AI for good, things can go wrong, precisely because we are bad at specifying objectives.« (Dragan zit. n. Brockman 2020: 135) Aber ließe sich eine starke KI nicht einfach ausschalten? Wohl kaum: Bereits Alan Turing11 wies in einer BBCRadiovorlesung 1951 darauf hin, dass diese starke KI wiederrum versuchen würde, den Ausknopf unbrauchbar zu machen. (Rusell zit. n. Brockman 2020: 25)

5.2 Entfremdung Naiver Fortschrittsglaube bedeutet, in Technik die Lösung aller Probleme zu erkennen. Allerdings ist Fortschritt stets ambivalent und vereint Verbesserungen und zerstörerische Kräfte. Mit einem naiven Fortschrittsglauben sind zwei Illusionen verbunden: Erstens die Illusion eines (idealen) Naturzustandes. Deshalb verursacht technologischer Fortschritt Entfremdung von der Natur. Zweitens die Illusion der Machbarkeit. Techniker, Ingenieure, Planer und Politiker irren sich fundamental, wenn sie davon ausgehen, dass die Entwicklung immer nur in eine Richtung grenzenlosen Wachstums gehen wird. Dagegen-Narrative kritisieren diese Form der Technikgläubigkeit vehement. Sehr schön lässt sich diese Haltung am Buch Ismael des ehemaligen Trappistenmönches Daniel Quinn verdeutlichen (Quinn 1992): Der Roman erzählt die fantastische Begegnung eines nach Erkenntnis strebenden Menschen mit einem telepathisch begabten Gorilla. Letzterer klagt die Menschen an, mit ihrer Lebensweise Gefangene ihrer eigenen Zivilisation geworden zu sein und gleichzeitig den Planeten zu zerstören. In einem der Zwiegespräche vergleicht der Gorilla die bisherige Entwicklung der Menschheit mit Flugversuchen der frühen Aviatiker: Ein hoffnungsfroher Pilot lässt sich mitsamt seinem vollkommen flugunfähigen Gerät über den Rand eines Felsens schleudern und 11

Alan Mathison Turing (1912–1954) gilt als einer der größten Theoretiker und hat auch heute noch maßgeblichen Anteil an dem Verständnis von KI. 1936 bewies der britische Mathematiker, dass eine Maschine fähig ist, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar ist. Wenn also kognitive Prozesse in endliche, wohldefinierte Einzelschritte zerlegbar sind, so können sie von sie von einer Maschine nachempfunden, ja sogar ausgeführt werden. Ein bahnbrechender Meilenstein gelang ihm mit dem Artikel Computing Machinery and Intelligence im Jahr 1950 in dem er behauptete, dass es theoretisch möglich sei, »intelligente« Maschinen zu entwickeln. Die Grundfrage lautete: »Können Maschinen denken?«

197

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Auch die Forscherin Anca Dragan hat Zweifel: »Even if we plan to use AI for good, things can go wrong, precisely because we are bad at specifying objectives.« (Dragan zit. n. Brockman 2020: 135) Aber ließe sich eine starke KI nicht einfach ausschalten? Wohl kaum: Bereits Alan Turing11 wies in einer BBCRadiovorlesung 1951 darauf hin, dass diese starke KI wiederrum versuchen würde, den Ausknopf unbrauchbar zu machen. (Rusell zit. n. Brockman 2020: 25)

5.2 Entfremdung Naiver Fortschrittsglaube bedeutet, in Technik die Lösung aller Probleme zu erkennen. Allerdings ist Fortschritt stets ambivalent und vereint Verbesserungen und zerstörerische Kräfte. Mit einem naiven Fortschrittsglauben sind zwei Illusionen verbunden: Erstens die Illusion eines (idealen) Naturzustandes. Deshalb verursacht technologischer Fortschritt Entfremdung von der Natur. Zweitens die Illusion der Machbarkeit. Techniker, Ingenieure, Planer und Politiker irren sich fundamental, wenn sie davon ausgehen, dass die Entwicklung immer nur in eine Richtung grenzenlosen Wachstums gehen wird. Dagegen-Narrative kritisieren diese Form der Technikgläubigkeit vehement. Sehr schön lässt sich diese Haltung am Buch Ismael des ehemaligen Trappistenmönches Daniel Quinn verdeutlichen (Quinn 1992): Der Roman erzählt die fantastische Begegnung eines nach Erkenntnis strebenden Menschen mit einem telepathisch begabten Gorilla. Letzterer klagt die Menschen an, mit ihrer Lebensweise Gefangene ihrer eigenen Zivilisation geworden zu sein und gleichzeitig den Planeten zu zerstören. In einem der Zwiegespräche vergleicht der Gorilla die bisherige Entwicklung der Menschheit mit Flugversuchen der frühen Aviatiker: Ein hoffnungsfroher Pilot lässt sich mitsamt seinem vollkommen flugunfähigen Gerät über den Rand eines Felsens schleudern und 11

Alan Mathison Turing (1912–1954) gilt als einer der größten Theoretiker und hat auch heute noch maßgeblichen Anteil an dem Verständnis von KI. 1936 bewies der britische Mathematiker, dass eine Maschine fähig ist, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar ist. Wenn also kognitive Prozesse in endliche, wohldefinierte Einzelschritte zerlegbar sind, so können sie von sie von einer Maschine nachempfunden, ja sogar ausgeführt werden. Ein bahnbrechender Meilenstein gelang ihm mit dem Artikel Computing Machinery and Intelligence im Jahr 1950 in dem er behauptete, dass es theoretisch möglich sei, »intelligente« Maschinen zu entwickeln. Die Grundfrage lautete: »Können Maschinen denken?«

197

198

Stefan Selke: Technik als Trost

tritt kräftig in die Pedale. In einem Bogen fällt er in die Tiefe. »Er sorgt sich darüber freilich nicht übermäßig. Schließlich war sein Flug bisher ein voller Erfolg, und es gibt keinen Grund, warum das nicht auch weiterhin so sein sollte. Er muss eben etwas stärker in die Pedale treten, das ist alles.« (Ebd.: 102ff.) Das ist eine perfekte Beschreibung der Ausgangssituation wachstumsgetriebener Gesellschaften, die sich an den Nebenfolgen ihres technologischen Fortschritts erschöpfen. Welche Rolle könnte KI in diesem Zusammenhang in Zukunft spielen? So ist etwa zu befürchten, dass der Konformitätsdruck auf Menschen steigt, wenn KI immer intensiver Leben, Arbeit und Gesundheit optimiert. In ihrem Science-Fiction-Roman Die Optimierer antizipiert Theresa Hannig gedanklich eine Gesellschaft, die immer mehr Ansprüche an ihre Mitglieder stellt und ihnen zur Erfüllung dieser Ansprüche eine KI-basierte Beratung aufzwingt. »So wie die letzte Schraube perfekt ins Uhrwerk fügt, so wie der Schlüssel ins richtige Schloss gleitet, so wie ein Puzzlestück nur an einen Ort passt, so sollten Menschen nach der Lebensberatung ihren Platz in der Gesellschaft finden«, lautet das Credo der fiktiven ›Optimalgesellschaft‹. Dagegen-Narrative unterstellen, dass in dieser oder ähnlicher Weise der Umfang menschlichen Lebens unter steigendem Konformitätsdruck zu »kopierten Existenzen« (Luhmann 1991) reduziert wird. In der Tat setzt sich Kontrollüberschuss in metrische Kulturen (Btihaj 2018) und damit auch metrische Macht (Beer 2016) in immer mehr Lebensbereichen wie selbstverständlich durch. »Es ist eigentlich schon fast anrüchig, einen Menschen auf ein paar Körperfunktionen zu reduzieren«, kritisiert in diesem Zusammenhang die Autorin Hannig. »Es greift stark die Würde des Menschen ein, wenn wir versuchen, Menschen derart zu steuern. Sobald wir mündige Bürger sind, sollte es niemanden mehr geben, der uns bevormundet und der über unser Leben bestimmt.« Angst vor Entfremdung bzw. »Maschinisierung des Menschen« (Seele 2020: 161ff.) ist ein zentrales Kennzeichen von Dagegen-Narrativen. »Der Mensch wird zum Mittel. Letztlich ist das die Geschichte vom Zauberlehrling:12 Ein Mittel, das geschaffen wird, erweist sich als sehr problematisch,

12

Tatsächlich kommt in der Ballade vom Zauberlehrling diese Angst vor Kontrollverlustes sehr schön zum Ausdruck – hier der Klassiker im Wortlaut: »Herr und Meister! hör mich rufen!/Ach, da kommt der Meister!/Herr, die Not ist groß!/Die ich rief, die Geister/werdʼ ich nun nicht los.« Und nur weil der Meister das Heft des Handelns in der Hand hält, kann er dem Besen gebieten, zu sein, was er ist, Mittel zum Zweck. Die Sinn-

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

wenn es eines Tages selbst zum Ziel wird«, so der Ethiker Leopold Neuhold. »Wird ein Mittel zum Ziel, entsteht Entfremdung des Menschen, weil er sich nicht nach seinen eigenen Maßstäben entwickeln kann, sondern ihm fremde Maßstäbe gesetzt werden.« Interessant ist in diesem Zusammenhang, dass Papst Johannes Paul der Zweite einen Entfremdungsbegriff eingeführt hat, der genau auf dieser Verwechslung von Mittel und Ziel basiert. Entfremdung wäre dann also aus theologischer Sicht ein möglicher Gegenbegriff zur Verheißung. Bereits der Philosoph Georg Friedrich Hegel hat die Umkehr der Abhängigkeiten in ein einfaches Bild gebracht, um daran das Prinzip der Dialektik zu erläutern. »Ein Herr hat einen Knecht. Dieser Knecht muss alles für den Herrn tun. Dadurch verlernt der Herr die lebensnotwendigen Dinge. Der Herr wird abhängig vom Knecht, und schließlich wird aus dem Knecht der eigentliche Herr. Der muss dann dafür sorgen, dass es dem Knecht gut geht. Fatal daran ist: der Übergang vom Herrn zum Knecht geschieht unmerklich.« (Hegel zit. n. Grunwald 2019: 17) Die Stärke fiktionaler KI-Narrative liegt gerade darin, Entfremdungsprozesse sichtbar zu machen. Jenseits empirischer Evidenz zeigen sie, wie »bei schleichenden Prozessen Entfremdung stattfindet«, so der Journalist HansArthur Marsiske, »wenn auch unbewusst«. Fakten und Fiktion lassen sich auch gewinnbringend verbinden, wie bei der von einem Wissenschaftler kommentierten Kurzgeschichtensammlung KI 2041. (Lee/Chen 2021) Als umfassendes Werkzeug hilft KI mit der Welt umzugehen, schafft aber auch neue Wirklichkeiten. Diese Wirklichkeit wird so geformt, dass Prozesse und Menschen besser zu kontrollieren sind – dies reicht von Algorithmen, die Konsumprodukte vorschlagen bis zu Überwachung unseres Lebensraums. »Durch KI werden wir zu Benutzern vorgegebener Welten und Wirklichkeiten«, so Verena van ZylBulitta kritisch. »Es fühlt sich so an, als hätten wir alles im Griff. Aber eigentlich bewegen wir uns in einem Themenpark.« Diese Abhängigkeiten durch KI wirken insgesamt wie ein algorithmisches Sedativum.

KI als moralisch enttabuisierende Technologie Als soziale Technologie ist KI mehrdeutig: Einerseits radikal objektiv, andererseits wirkt genau diese Objektivität in vielen gesellschaftlichen Bereichen gebung bleibt in Menschenhand: »In die Ecke,/Besen, Besen!/Seids gewesen./Denn als Geister/ruft euch nur zu seinem Zwecke,/erst hervor der alte Meister.« Vgl.: https://kal liope.org/da/text/goethe2000010804 (25.04.2022).

199

200

Stefan Selke: Technik als Trost

enttabuisierend. KI ermöglicht den Blick auf das bislang Unbekannte – aber dieser Blick macht vielen Menschen eben auch Angst. Als enttabuisierende Technologie zwingt KI zu neuen Sichtweisen und Einordnungen. Das damit verbundene tiefe Eindringen in die Lebenswelt (»intrusion«) kann als assistive (Selke 2018) oder als metrische Kolonialisierung (Btihaj 2018) verstanden werden: Zur politischen Disziplinierungsfunktion der Daten gesellen sich neue Ontologien, neue Metaphern sowie neue Sichtweisen auf Lebensweisen, Körper und Selbstbild. Damit sind neue Denkweisen, Machtkonstellationen, Wertefragen sowie Fragen zur Handlungsträgerschaft und Identität verbunden. Kolonialisierung durch Daten führt somit zu Rekonfigurationen auf unterschiedlichen Maßstabsebenen: Zwischen Individuen und deren Körper, zwischen Bürger und Institutionen sowie zwischen dem Biologischen und dem Sozialen. Im Kontext kapitalistischer Verwertungspraktiken auf der Basis einer Plattformökonomie (Lovink 2019) werden Selbstwirksamkeitserfahrung somit tendenziell eher unterdrückt. Damit ist der Hintergrund des Narrativs von der großen Ausbeutung benannt. Der »great exploitative leap made by so many West Coast companies«, so der Informatiker Rodney Brooks, führte dazu, dass modernes Leben immer mehr auf intelligenter Software basiert und Abhängigkeiten schafft. »Getting ourselves out of this mess will be a long-term project.« (Brooks zit. n. Brockman 2020: 63) KI gestaltet unsere Umwelt tendenziell so, dass es immer weniger Wahlmöglichkeiten gibt. »But by far the largest impact on society to date has come from the collection and manipulation of Shannon-like information«, so der Historiker David Kaiser, »which has reshaped our shopping habits, political participation, personal relationships, expectations of privacy, and more.« (Kaiser zit. n. Brockman 2020: 159) Längst entstehen neue Daten-Ökosphären: »Now that everything is becoming ›datafied‹, we can measure most aspects of human life [...]«, so der Forscher Alex Pentland. »This, together with new, powerful machine-learning techniques, means that we can build models of these ecologies in ways we couldn’t before.« (Pentland zit. n. Brockman 2020: 195) Sehr deutlich wird dieses Dagegen-Narrativ in den beiden Romanen The Circle und Every von Dave Eggers: In The Circle (Eggers 2013) dreht sich alles darum, menschliche Schwäche mittels digitaler Technologien auszugleichen. Auf einem riesigen Campus (angelehnt an den neuen ringförmigen Firmensitz Apple Park) arbeiten Menschen zusammen, die den ganzen Tag Programme entwickeln und neue Technologien erfinden, die Leben verbessern sollen. Ihr Ziel besteht darin, Humanität auf der Basis von Zahlen bzw. Daten zu ermöglichen. »To heal we must know. To know we must share«, lautet das

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Mantra des Unternehmens. (Ebd.: 150) Die Protagonistin der Erzählung, Mae, ist zunächst begeistert von den vielen Möglichkeiten, die ihr neuer Job mit sich bringt, denn sie erkennt, dass sich beinahe alles optimieren lässt. Das erfordert allerdings sämtliche Bereiche des Lebens lückenlos zu protokollieren und zu kontrollieren. Also werden Daten gespeichert, womit auch die private Lebensführung, von Kommunikation bis Sex, transparent wird. Alles, was begehrenswert ist, wird vergleichbar und skalierbar. In dieser Kultur entsteht schleichend ein neues Menschenbild. »But I’m a believer in the perfectibility of human beings. I think, we can be better. I think we can be perfect or near to it. And when we become our best selves, the possibilities are endless. We can solve any problem.« (Ebd.: 291) Neben dem Zuwachs an Kontrollmöglichkeiten wächst allerdings auch der Druck auf die Mitarbeiter des Circle, ständig verfügbar zu sein. Bisherige Intimitätsgrenzen erodieren. Wo nötig, wird mit Sanktionen nachgeholfen: »The pressure on those who hadn’t gone transparent went from polite to oppressive.« (Ebd.: 239) Schrittweise weitet sich diese Entgrenzung auf demokratischen Institutionen und erodiert die Gesellschaft. Der Roman beschreibt, »welche zerstörerischen Folgen für die menschliche Ordnung eine Politik der Stärke und Kontrolle mit sich bringen kann, wenn sie sich weigert, Fragilität anzuerkennen und nach ›totaler Transparenz‹ strebt« (Bayramoglu/Varela 2021: 29). In seiner Fortsetzung, Every, steigert der Autor Dave Eggers dieses Szenario nochmals. (Eggers 2021) Diesmal heißt die junge und rebellische Protagonistin Delaney. Sie heuert beim inzwischen monopolistischen Konzern Every – hervorgegangen aus dem Circle und einer Reihe von Zukäufen u.a. des weltgrößten Online-Großhändlers (im Roman nur »der dschungel« genannt) – an, um diesen subversiv von innen heraus zu vernichten. Der Name Every erschien »einleuchtend und zwangsläufig«, weil der »Allgegenwart und Gleichheit suggerierte«. (Ebd.: 12) Mittlerweile beherrscht »Algo Mas« – eine Art Meta-KI das Unternehmen und steuert zahlreiche lebensverändernde Anwendungen. »Das kaum verheimlichte Ziel von Algo Mas war schon immer gewesen, menschliches Verhalten nicht nur zu tracken und zu beeinflussen, sondern es zu diktieren.« (Ebd.: 273) Das neue Unternehmen ist ein hermetisch zur Umwelt hin verriegelter Campus, der »Everywhere« genannt wird, der Rest der »ungeprüften« Welt heißt: »Nowhere«. Every wird ganz im Sinne des Soziologen Lewis Coser als »greedy institution«, als datengieriges Unternehmen, portraitiert: »Every ist ein geschlossenes Ökosystem, und ein geschlossenes Ökosystem betrachtet alles, das sein Gleichgewicht stören könnte, mit Misstrauen und sogar Feindseligkeit.« (Ebd.: 279) Diese »greedy institutions« sind »nicht nur skrupellos und

201

202

Stefan Selke: Technik als Trost

ignorant, wenn es darum geht, Techniken zu nutzen, um Profit zu machen«, so der Soziologe Oliver Krüger. »Sie machen es sogar ganz bewusst. Egal, welche politischen Konsequenzen das hat.« Mit seinen digitalen Anwendungen durchdringt das Unternehmen nahezu alle Lebensbereiche. Dabei wurde die Entwicklung der Apps »angetrieben durch eine Mischung aus gut gemeintem Utopismus und pseudofaschistischer Verhaltenskonformität.« (Ebd.: 17) Ziel von Every, einer »Fabrik, die Konformität herstellt«, ist schlicht und einfach »menschenfreundliche Marktbeherrschung« (ebd.: 151). Dazu wird die nahtlose Symbiose zwischen Unternehmen und Kunden angestrebt, um perfekte Seinszustände zu Niedrigstpreisen bedienen zu können. KI-basierte Apps vereinfachen oder automatisieren das Leben. Vor allem fördern sie gegenseitige Verdächtigungen und Beschämungen. »Das Zeitalter der Entdeckungen ist dem Zeitalter der Selbstreflexion gewichen.« (Ebd.: 533) Für viele ist das faszinierend, für andere eher gefährlich. Delaney ist eigentlich eine politische Aktivistin, die als »Trog« lebt – womit alle bezeichnet wurden, die »sich der unumschränkten Machtübernahme der Technologie« widersetzen und (soweit möglich) auf Technologie verzichten. (Ebd.: 34) Ihr Sabotageplan bestand darin, sich immer weitreichendere und rücksichtslosere Apps auszudenken, um ab einem bestimmten Punkt Widerstand und Ablehnung zu erzeugen. Tatsächlich aber wird jede noch so verrückte Idee von der Mehrheit der Bevölkerung dankend angenommen: KI vereinfacht Texte, schreibt Reden von Politikern und dichtet sogar rückwirkend literarische Texte um, damit diese effizienter zu lesen sind. KI bewertet Kunstwerke aller Art, Algorithmen geben Auskunft über Schönheit und Kreativität. KI wird zur Basis für Verbrechensprävention und Lügendetektoren. Für so gut wie alles gibt es eine Maßzahl. »Subjektivität ist bloß Objektivität ohne Daten« – so einer der Leitsprüche des Unternehmens. (Ebd.: 218) Every bedient das Bedürfnis nach Kontrolle, reduziert Vielfalt, teilt alles, jeden und jede in Kategorien ein. Das Erstaunlichste aber ist, dass es kaum Widerstand gibt. Diese Technokonformität und apokalyptischer Gehorsamkeit erfordert eine Erklärung: Nie wurde das Doppelgesicht der Freiheit deutlicher benannt, als beim Sozialpsychologen Erich Fromm, der in seinem Buch Furcht vor der Freiheit zeigt, welche Grenzen das eigene Sicherheitsbedürfnis und der Wunsch nach Zugehörigkeit immer wieder setzen (Fromm 1993). Der zentrale Gedanke im Roman: »Gibt es außer dem angeborenen Wunsch nach Freiheit auch eine instinktive Sehnsucht nach Unterwerfung?« Nach nichts sehnen sich Menschen mehr als nach Ordnung. Menschen sehnen sich nach Gewissheit, Zahlen sind daher ungeheuer hilfreich, weil sie Ordnung schaffen, gleichzeitig aber auch die Sicherheit einer

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

»individualisierten Einsamkeit« (ebd.: 253). Neben dem Wunsch nach Ordnung gibt es vor allem die Sehnsucht nach mehr Gerechtigkeit. »Niemand will von einem Menschen beurteilt werden. Zu schmerzhaft. [...] Das Subjektive wurde abgeschafft.« (Eggers 2021: 35) Deshalb wohl wird der KI die Rolle einer neuen Gottheit zugeschrieben, wie eine ehemalige Professorin in einem Brief an Delaney ausführt: »Die damals kleinen menschlichen Gesellschaften waren eng verbunden, und die moralischen Grenzen waren klar. [...] Doch als die Gesellschaften größer wurden [...], wurde es notwendig, ein Wesen zu erfinden, das alles sah. […] Nun schienen der Niedergang Gottes und der bevorstehende Zusammenbruch so vieler Religionen in einem direkten Zusammenhang mit der Zunahme von Überwachung und der kollektiven Durchsetzung sozialer Normen mittels sofortiger globaler Bloßstellung zu stehen. Gott versprach Bestrafung nach dem Tod. Heutzutage erfolgt sie binnen Minuten. Karma war vage; digitale Bloßstellung ist konkret. Und ich würde behaupten, dass den Leuten die Verlässlichkeit der Tugend-durch-Überwachung lieber ist als die schwer fassbaren Verheißungen der Götter der Vergangenheit.« (Ebd.: 477) In ihrem Science-Fiction-Roman Die Optimierer beschreibt Theresa Hannig ebenfalls eine dystopische Gesellschaftsordnung im Jahr 2052, bei der viele Befürchtungen wahr geworden sind. Die Vermessung aller Lebensaspekte wurde zur obersten Staatsaufgabe erklärt. In der fiktiven Optimalwohlökonomie geht es einzig und allein darum, jedem Mitglied dieser Gesellschaft den perfekten Platz zuzuweisen. Dazu werden alle Bürger mittels Sensoren überwacht, die in Kontaktlinsen enthalten sind – eine zeitgemäße Aktualisierung des Big-Brother-Narrativs, das George Orvell bereits 1948 in seinem Roman 1984 prägte. Die in 1984 bloß angedeuteten Überwachungstechniken, so die Einsicht im zeitgenössischen Roman Die Optimierer, sind inzwischen praxistauglich. Aus den Teleschirmen der Gedankenpolizei bei Orwell wurden Datenaufzeichnungsgeräte, die immer mehr mit dem Körper der Menschen verschmelzen. »Sie waren immer online und funktionierten als mobile Visualisierung der Software, die komplett auf Online-Servern lief. Gleichzeitig wurde alles, was die Linsennutzer sahen und hörten, in den Rechenzentren der Agentur für Lebensberatung gespeichert. [...] Und die Agentur für Lebensberatung hatte in Echtzeit den vollen Überblick darüber, was das Volk tat.« (Hannig 2017: 27) Die mit den Linsen gesammelten Daten bieten auf diese Weise die Grundlage für soziale Beurteilungen. Daten werden in der Gesellschaft der nahen Zukunft gegen Chancen getauscht, neue konfliktbehaftete Zone sozialer Aushandlungen entstehen. Es kommt auf die Sichtweise an: »Der Staat interessiert sich für seine Bürger. Er sorgt sich um ihr Wohl und

203

204

Stefan Selke: Technik als Trost

analysiert alle Fakten, um jedem den für ihn besten Platz in der Gesellschaft zuzuweisen«, erläutert ein »Lebensberater« im Staatsdienst einer neuen Klientin. »Am Ende meiner Beratung bestimme ich den optimalen Platz für Sie. Einen Platz, der die Bedürfnisse unserer Gesellschaft und natürlich Sie selbst zufriedenstellen wird. [...] Um dir den besten Platz zuzuweisen, muss ich als Lebensberater natürlich alles über dich wissen.« (Ebd.: 18f.) In der fiktiven Gesellschaftsordnung des dystopischen Romans geht es um die richtige Passung und die umfassende Verzweckung und damit Warenwerdung (»Kommodifizierung«) von Menschen. Weil die Vorteile konformer Lebensführung offensichtlich sind, wird das System der Generalüberwachung immer weiter ausgebaut, intelligente Software soll Menschen entlasten. »Bald werden sie und jeden Handgriff, jedes verantwortungsvolle Denken abnehmen, bis wir nur noch degenerierte, unfähige Konsumenten unserer eigenen Nutzlosigkeit sind.« (Ebd.: 233) Was aber passiert mit denen, die vermeintlich nutzlos sind?

Dominanz des Nützlichkeitsdenkens Welchen Stellenwert haben zukünftig Menschen, deren Datenprofil nicht (mehr) den sozial normierten Erwartungen entspricht? KI ist immer auch politisch und damit stellt sich die Frage von Gestaltungsoptionen. In seinem Buch Weltentwerfen. Eine politische Designtheorie deutet Friedrich von Borries an, dass digitale Technologien der Selbstvermessung und Selbstoptimierung als Ausdruck eines Selbstdesign angesehen werden können, dessen dystopischer Endpunkt die Selbstauflösung des Menschen darstellt. (von Borries 2019: 41) »Post- und der Transhumanismus ersetzen den Menschen durch denkende Maschinen; künstliche Intelligenz ersetzt den Geist und die Seele, der Roboter tritt an die Stelle des Körpers. [...] Der mit künstlicher Intelligenz ausgestattete, nun humanoide Roboter ersetzt den Menschen.« (Ebd.: 108) So liest sich Zukunftsdesign als Gegennarrativ. Einerseits wird anerkannt, dass Menschen schon immer Prothesen, Implantate oder technische Hilfsmittel nutzten, um sich zu optimieren. Gleichzeitig wird befürchtet, dass »totales Selbstdesign« zu einer »Hybridisierung von Mensch und Maschine« führen könnte. (Ebd.) So kommt dann auch Michael Latzer zum Ergebnis, dass der Hauptnutzen von KI nicht im Ersatz des Menschen liegt, sondern in neuen Kooperationsformen zwischen Mensch und Maschine (Latzer 2021: 14).

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

KI zwischen totalem Wissen und dem Recht auf Nicht-Wissen In Dagegen-Narrativen wird KI oftmals als Instanz skizziert, die objektives Weltwissen repräsentiert. Meist ist die Verheißung des absoluten Wissens (im Sinne des Philosophen Friedrich Hegel) für Menschen angsteinflößend. Dennoch war die Vorstellung, Zugang zu enormen Mengen an Informationen zu erhalten und diese gezielt durchsuchen zu können, von Anfang an eine maßgebliche Triebkraft für die Entwicklung von KI, erinnert sich Hans Moravec. »Der Wunsch, den Erwerb des Weltwissens zu automatisieren, war einer der ersten Gründe für die Einrichtung von Robotikprojekten in den KI- Laboren« (Moravec 1990: 26.). Auch Science-Fiction-Formate zeichnen gerne die »Vision einer gleißenden Verdichtung von Wissen« (Schätzing 2018: 163). Einerseits stellt sich – z.B. im Kontext von Letztentscheidungen über Leben und Tod – die Frage, ob es im Zeitalter von KI überhaupt noch ein Recht auf Nicht-Wissen gibt. Die Verheißung totaler Objektivität kann einerseits als Errungenschaft gefeiert werden, totale Objektivität macht andererseits Angst. Vor diesem Hintergrund greift Thomas Bauer eine Beobachtung auf, die bereits der Schrittsteller Stefan Zweig machte, als dieser von der »Monotonisierung der Welt« sprach, die gar eine »Massenseele« hervorbringt. (Zweig zit. n. Bauer 2018: 11) Im zeitgenössischem Duktus spricht Bauer von der modernen »Disposition zur Vernichtung von Vielfalt« (ebd.: 12) bzw. von »Ambiguitätszähmung« oder sogar »Ambiguitätsvernichtung« (ebd.: 15). Diese Prognose gilt für viele gesellschaftliche und kulturelle Bereiche, aber eben auch für den Prozess der Technisierung und Algorithmisierung. Im Kern geht es bei KI-Anwendungen um »Mehrdeutigkeitsvermeidungen« (ebd.: 88). Bauer rückt dieses Muster gar in die Nähe einer totalen Ideologie, ganz ähnlich wie in der DagegenErzählung Todesalgorithmus von Simanoswski. So kritisiert Bauer etwa »Utopisten, die bereits von einem Transhumanismus oder Posthumanismus träumen, in dem Maschinenmenschen endlich ein völlig ambiguitätsfreies Leben führen werden. [...] Die raschen Fortschritte in der Entwicklung künstlicher Intelligenz weisen deutlich in diese Richtung.« (Ebd.: 92) Digitale Technologien, zumal solche die auf KI basieren, nennt er daher »Wunderwerke der Vereindeutigung« (ebd.: 94). Dazu ein Beispiel: Bei Anwendungen in der Psychiatrie soll die Verobjektivierung von Diagnosen einen Zuwachs an Sicherheit schaffen. »Denn psychiatrische Diagnosen sind nicht immer eindeutig und zuverlässig«, so die auf Fragen von Ethik und gesellschaftlicher Verantwortung spezialisierte Philosophin Susann Kabisch. »Sie hängen ab von der Person, die die Diagnose stellt. Sie hängen ab von der Situation. Es gibt Unschär-

205

206

Stefan Selke: Technik als Trost

fen, genau das löst Misstrauen aus.« Die Verheißung der Verobjektivierung trägt dazu bei, offene Suchprozesse zu schließen und Störeinflüsse dem Anschein nach zu minimieren. »Die Prozesse sollen zuverlässiger und gültiger gemacht werden.« Was zunächst wie eine Verheißung klingt, kippt bei näherer Betrachtung aber in das Gegenteil, denn »Verobjektivierung funktioniert nur durch die Atomisierung oder sogar Ausblendung menschlicher Beziehungen, konkreter Situationen und Situiertheit des Menschen, biographischer Hintergründe, gesellschaftlicher Umstände und Gewohnheiten. Durch extreme Isolation und Fragmentierung von Fakten und Zusammenhängen«, kritisiert Susann Kabisch. »KI dreht das Rad in die völlig falsche Richtung. Richtig wäre es, mehr Kontext einzubeziehen, nicht weniger.« Der Mediziner Manfred Dietel bestätigt ebenfalls, dass vor dem Hintergrund technischer Mittel eindeutige Zustände bevorzugt werden. »Dabei kommt es zu einer Reduktion«, so der Ethiker Leopold Neuhold, »gewisse Dimensionen des Menschen werden ausgeschaltet.« Die Verheißung der Verobjektivierung bricht mit der antiken philosophischen Tradition, das Individuum als ›unaussprechbare‹ oder ›unfassbare‹ Person anzunehmen (»individuum ineffabile est«). Dieser Gedanke, der sich bei Platon und Aristoteles findet, wurde vom Arzt und Universalgelehrten Galenos so verstanden, dass ein Patient, nicht durch eine Formel beschreibbar ist. Später wurde dieser Gedanke so interpretiert, dass personale Identität das Gegenteil einer Ontologie ist, mit der sich Objekte zu einer Ordnung zusammenfassen lassen. Menschen sind demgegenüber »Kontinuitäten« (so bspw. bei Heidegger oder Adorno) mit einer unendlichen Fülle von Eigenschaften, die nie vollständig beschreibbar oder analysierbar sind. Die Verheißung der Verobjektivierung bricht jedoch radikal mit der humanistischen Vorstellung eines Menschen. Durch KI wird das Individuum plötzlich aussprechbar und berechenbar. Dies setzt die »Reduktion auf Konstanten voraus, die berechnet werden können«, so Neuhold. »Aber diese Konstanten bringen niemals das Ganze zum Ausdruck. Vielmehr kappen sie den Bezug zum Ganzen.« Die Kosten für diese Eindeutigkeit sind der Verlust von Ambivalenz und Ambiguität. Die Sehnsucht nach Eindeutigkeit (und damit nach Berechenbarkeit) rührt von einer Leerstelle, die durch den Verlust religiöser Instanzen übriggeblieben ist. »Ursache könnte der Verlust einer übergeordneten Instanz sein, die die Welt regelt«, vermutet auch der Narrationsforscher Michael Müller. Damit repräsentieren KI-Verheißungen die Suche nach externalisierten Entscheidungsinstanzen.

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

5.3 Zerstörungsantizipationen Ein blinder Fleck bei KI-Verheißungen ist das Zerstörungspotenzial, das von KI ausgehen könnte. »Auf eine bestimmte Weise unterstützen KI-Systeme Konflikte und Kriege. Die Frage wird sein, ob die Gesellschaft das weiterhin erlaubt«, so der Analyst Boris Pasklev. Niemand muss in moralisierende Verschwörungstheorien verfallen, um sich vorzustellen, dass KI in Bereichen eingesetzt wird, die (metaphorisch) ethische Freihandelszonen genannt werden können. So hat die Idee autonomer Waffen bereits weltweit ethische und rechtliche Debatten ausgelöst. Wenn Länder in einen Wettlauf um die Entwicklung leistungsfähigerer autonomer Waffen geraten, könnten sie sich ungewollt in einem Wettlauf um fortschrittliche KI im Allgemeinen wiederfinden. In einer solchen Situation könnten die Entwickler in ihrem Bestreben, als Erste etwas Neues zu schaffen, an der falschen Stelle sparen oder schlampig werden, und die daraus resultierenden KI-Systeme würden sich mit größerer Wahrscheinlichkeit unvorhersehbar verhalten oder auf irgendeine Weise Probleme verursachen. In Meta-Analysen im Auftrag der Politik werden militärische Anwendung von KI gerne ausgeblendet, gleichzeitig werden jedoch massive Fördergelder vergeben: Whitewashing im besten Sinne. Gegennarrative thematisieren explizit das destruktive Potenzial von KI im Kontext militärischer Anwendungsfälle. Einerseits können KI-Systeme als autonome Waffensysteme eingesetzt werden, zudem aber auch für Lagebeurteilungen, um Konflikte frühzeitig zu erkennen und Strategien vorzuschlagen. Erste Einsätze zeigen hierbei das enorme Potenzial von KI. So wurde etwa ein Drohnenangriff auf eine Ölraffinerie in Saudi-Arabien mit (teil-)autonomen Drohnen ausgeführt.13 Der Film Eye in the Sky (2015, Regie: Garvin Hood) zeigt mit erschütternder Klarheit, wie bei einem Drohnenangriff auf Terroristen in Kenia ein unschuldiges Mädchen mit ins Visier gerät und schließlich als ›Kollateralschaden‹ geopfert wird. Während Lewis Mumford (2010) in Technic and Civilization Krieg noch als das ultimative Drama einer komplett durchmechanisierten Gesellschaft beschreibt, halten zeitgenössische Kritiker den Einzug von KI in die Sphäre des Militärischen für fatal. »Die Vorstellung, dass man Entwicklungen von lernfähigen Computersystemen auf militärischer Ebene zulässt, scheint mir die potenziell tödlichste Idee zu sein, die bisher ins Spiel 13

Zum Einsatz kam eine Harpy-Drohne der israelischen Regierung. Allerdings muss der Angriffsmodus von einem Menschen freigeschaltet werden. Vgl.: https://www.deutsc hlandfunk.de/autonome-waffen-ki-systeme-im-militaer-100.html (27.01.2022).

207

208

Stefan Selke: Technik als Trost

gebracht wurde, um menschliches oder anderes organisches Leben auf der Erde zu ersetzen«, so etwa James Lovelock. »Ich finde es unfassbar, dass es jedem Unternehmen erlaubt wäre, Waffen zu konzipieren und zu bauen, die intelligent genug sind, darüber zu entscheiden, ob sie Menschen töten [...]. Wir sollten über die militärische Entwicklung von KI besorgt sein.« (Lovelock 2020: 137ff.) Weltweit gibt es daher bemerkenswerte Allianzen und Initiativen, die zur Ächtung derartig ›böser‹ KI aufrufen. Die Global Union of Scientists for Peace ist eine Vereinigung, die sich nach dem Scheitern des Atomwaffensperrvertrages 2005 gründete und sich für Gewalt- und Terrorismusprävention einsetzt.14 Das unkontrollierbare Zerstörungspotential veranlasste immer wieder zu kritischen Bemerkungen besorgter Wissenschaftler. So waren 2019 die versammelten Forscher bei der Jahrestagung der Gesellschaft für Informatik der Meinung, dass der Einsatz solcher Systeme zu Destabilisierung der internationalen Beziehungen führen könne und dazu beitrage, dass sich Konflikte verselbstständigten. Weltweit wird darüber diskutiert, wie sich KI-Waffensysteme regulieren ließen – wenngleich sich China, die USA, Russland, Israel und Indien noch gegen Regulierungen aussprechen.15 Auch ein offener Brief an die Bundesregierung, der von 400 Wissenschaftler der Initiative Scientists4peace16 unterschrieben wurde, appelliert für den sofortigen Stopp der Bewaffnung von Drohnen für die Bundeswehr aus humanitären und sicherheitspolitischen Gründen. Ihr Argument: KI-Algorithmen sind bei weitem nicht so objektiv und robust, wie es den Anschein macht. Maschinen können die Auswirkungen ihrer Entscheidung – hier das Töten von Menschen – nicht begreifen. Trotz der weitreichenden Folgen dieser Waffensysteme wird die Gefahr einer schleichenden Automatisierung der Kriegsführung in der Öffentlichkeit bislang nicht intensiv genug reflektiert. Die Vereinten Nationen veröffentlichten 2017 einen offenen Brief mit dem Ziel der Regulierung autonomer Waffen, der von 115 KI-Experten (darunter Elon Musk und DeepMind-Mitbegründer Mustafa Suleyman) unterschrieben wurde. Diese Experten sind nicht gegen KI, sondern kritisieren die Art und Weise wie sie eingesetzt wird.17 Ziel sei es,

14 15 16 17

https://www.gusp.org/defusing-world-crises/ (05.01.2022). https://www.deutschlandfunk.de/autonome-waffen-ki-systeme-im-militaer-100.ht ml (27.01.2022). https://aiscientists4peace.org (26.02.2022). https://futurism.com/elon-musk-leads-ai-experts-with-letter-urging-un-to-considerthreat-of-autonomous-weapons (21.01.2022).

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

ein Wettrüsten, Missbrauch und destabilisierende Effekte zu verhindern. »We do not have long to act. Once this Pandora’s box is opened, it will be hard to close«, heißt es daher im Brief unter Anspielung auf den hier bereits erwähnten Pandora-Mythos. »We therefore implore the High Contracting Parties to find a way to protect us all from these dangers.«18 Bereits 2015 veröffentlichten 4.502 KI- und Robotik-Forschende sowie gut 26.000 weitere Personen einen ersten Brief an die UN, darunter ebenfalls Elon Musk und weitere namenhafte Personen. Darin wurde das Potenzial von KI betont, gleichzeitig aber auch vor Kontrollverslust gewarnt.19 Killerroboter, so die Befürchtung, könnten als günstige Massenware in die Hände von Terroristen oder Diktatoren fallen. Der Initiator des offenen Briefes, Toby Walsh (Professor für KI an der University of New South Wales in Sydney), machte sich mehr Sorgen um dumme als um intelligente KI und plädierte dafür, Entscheidungen über Leben und Tod niemals an Maschinen abzugeben.20

5.4 Entmündigungsurteile Auf verschiedene Weise thematisieren Dagegen-Narrative die schleichende Entmündigung des Menschen. Am deutlichsten drückt sich das in der Metapher von KI als »Steuermann der kommenden Gesellschaft« (Simanowski 2020: 52) aus. Einerseits schwingen hierbei Verheißungen eines schier unbegrenzten technologischen Potenzials mit, andererseits drückt sich darin eine tiefsitzende Skepsis gegenüber gesellschaftlichen Auswirkungen aus. Der Kulturwissenschaftler Roberto Simanowski fragt deshalb prophylaktisch »nach den Parametern einer Welt [...], die von [...] KI beherrscht werden könnte« (ebd.: 53). Tatsächlich, so Armin Nassehi, ist die »im Hinblick auf die Kulturbedeutung der Digitaltechnik relevante Frage [...] tatsächlich die nach ihrer Autonomie« (Nassehi 2019: 245). Bereits der Roboterpionier Hans Moravec ging davon aus, das intelligente Maschinen zwar »gutartig« seien,

18 19 20

https://futureoflife.org/2017/08/20/autonomous-weapons-open-letter-2017/ (26.02.2022). https://futureoflife.org/2016/02/09/open-letter-autonomous-weapons-ai-robotics/ (27.01.2022). https://spectrum.ieee.org/industry-urges-united-nations-to-ban-lethal-autonomous -weapons-in-new-open-letter (27.01.2022).

209

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

ein Wettrüsten, Missbrauch und destabilisierende Effekte zu verhindern. »We do not have long to act. Once this Pandora’s box is opened, it will be hard to close«, heißt es daher im Brief unter Anspielung auf den hier bereits erwähnten Pandora-Mythos. »We therefore implore the High Contracting Parties to find a way to protect us all from these dangers.«18 Bereits 2015 veröffentlichten 4.502 KI- und Robotik-Forschende sowie gut 26.000 weitere Personen einen ersten Brief an die UN, darunter ebenfalls Elon Musk und weitere namenhafte Personen. Darin wurde das Potenzial von KI betont, gleichzeitig aber auch vor Kontrollverslust gewarnt.19 Killerroboter, so die Befürchtung, könnten als günstige Massenware in die Hände von Terroristen oder Diktatoren fallen. Der Initiator des offenen Briefes, Toby Walsh (Professor für KI an der University of New South Wales in Sydney), machte sich mehr Sorgen um dumme als um intelligente KI und plädierte dafür, Entscheidungen über Leben und Tod niemals an Maschinen abzugeben.20

5.4 Entmündigungsurteile Auf verschiedene Weise thematisieren Dagegen-Narrative die schleichende Entmündigung des Menschen. Am deutlichsten drückt sich das in der Metapher von KI als »Steuermann der kommenden Gesellschaft« (Simanowski 2020: 52) aus. Einerseits schwingen hierbei Verheißungen eines schier unbegrenzten technologischen Potenzials mit, andererseits drückt sich darin eine tiefsitzende Skepsis gegenüber gesellschaftlichen Auswirkungen aus. Der Kulturwissenschaftler Roberto Simanowski fragt deshalb prophylaktisch »nach den Parametern einer Welt [...], die von [...] KI beherrscht werden könnte« (ebd.: 53). Tatsächlich, so Armin Nassehi, ist die »im Hinblick auf die Kulturbedeutung der Digitaltechnik relevante Frage [...] tatsächlich die nach ihrer Autonomie« (Nassehi 2019: 245). Bereits der Roboterpionier Hans Moravec ging davon aus, das intelligente Maschinen zwar »gutartig« seien,

18 19 20

https://futureoflife.org/2017/08/20/autonomous-weapons-open-letter-2017/ (26.02.2022). https://futureoflife.org/2016/02/09/open-letter-autonomous-weapons-ai-robotics/ (27.01.2022). https://spectrum.ieee.org/industry-urges-united-nations-to-ban-lethal-autonomous -weapons-in-new-open-letter (27.01.2022).

209

210

Stefan Selke: Technik als Trost

dennoch sah auch er die Gefahr, dass sie »als sie Mitbewohner unserer ökologischen Nische« die Existenz von Menschen bedrohen könnten.« (Moravec 1990: 140) Dieser Konflikt lässt sich einmal mehr anhand zahlreicher Beispiele aus dem Feld der Science-Fiction illustrieren. Die Metapher des Steuermanns findet sich auch im Thriller Die Tyrannei des Schmetterlings, in dem die Funktion eines intelligenten Supercomputers wie folgt beschrieben wird: »Schließlich betreibt er den Exitus des Menschen ja im Geiste dessen Auftrags, jeder weiteren Zerstörung der Biosphäre Einhalt zu gebieten. Stattdessen greift er der Welt ins Steuer. Alles darin lässt sich steuern.« (Schätzing 2018: 631) Auch im Film I, Robot (2004), in dem ein Roboter sich zwischen zwei Autos entscheiden muss, die aus dem Wasser zu retten sind, trägt eine KI die alleinige Verantwortung für diese existentielle Entscheidung. Nach und nach kommt das rebellierende Zentralgehirn VIKI (»Virtual Interactive Kinetic Intelligence«) allerdings zum Ergebnis, dass Menschen ihre eigene Umwelt zerstören und verkündet daraufhin das ultimative Entmündigungsurteil: »You cannot be trusted with your own survival. You are like children. We must safe you from yourselves.« Eigentlich sollen Roboter Menschen keinen Schaden zuzufügen und dazu Regeln befolgen, die Isaac Asimovs aufstellte. (Asimov 1985) VIKI verstößt zwar gegen die ersten drei Robotergesetze von Asimov, weil einem Individuum Schaden zugefügt wird. Damit KI gegenüber Menschen ein Entmündigungsurteil aussprechen kann, bedarf es daher eines argumentativen Tricks. Tatsächlich verstößt die KI nicht gegen das vierte Zusatzgesetz – bekannt als Zeroth Law – wonach ein Roboter es auch nicht zulassen darf, dass der Menschheit insgesamt Schaden zugefügt wird. Die Verheißung der KI beruht also auf der Unterscheidung zwischen Individuum und Gattung. Erst auf dieser Grundlage kann bzw. darf KI Menschen Entscheidungen über deren eigene Zukunft abnehmen. Dieser Gedanke führt zu einer Reihe hochspekulativer KI-Zukunftsnarrative, die allesamt von der Notwendigkeit ausgehen, dass der Mensch die Hilfe von Maschinen benötigt, um den Planeten Erde und damit seine eigene Lebensgrundlage zu retten. Die Verheißung der ›guten‹ oder ›wohlwollenden‹ KI besteht also in einem kollektiven »Self-Nuding« (Floridi et al. 2018: 693f.) im planetaren Maßstab. Jenseits dieser dystopischen Letztentscheidungen werden in DagegenNarrativen Freisetzungsprozesse kritisiert, die Menschen überflüssig machen – die Kehrseite der funktionalen Verheißungen wie Produktivitätssteigerung, Kosteneinsparung oder Prozessoptimierung. »Das macht den Leuten Angst, weil man ihnen sagt, sie werden überflüssig und die böse KI löst sie ab«, so

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Gerd Ganteför. Auch die Geschichte vom bösartigen Computer beruht auf einem alten Mythos. »Der Mensch erschafft einen künstlichen Assistenten, der ihm dienen soll. Doch der Assistent übertrumpft seinen Schöpfer, indem er lernt zu lernen und schließlich eigene Interessen entwickelt und sich eigene Ziele setzt.« Plötzlich geht der Golem um. Auch Frankensteins Kreatur war zunächst als Werkzeug konzipiert und wurde doch zum Feind (Ramge 2018: 83). Skeptiker fokussieren sich in diesem Kontext auf potenziell negative Auswirkungen für den Arbeitsmarkt. Daher rührt die Furcht vor drohender Massenarbeitslosigkeit als Folge des Ersatzes menschlicher Arbeitsleistung durch KI.21 Schlussendlich erschaffen Arbeitsgruppen, Forschungs- und Strategiestäbe in Ministerien und Unternehmen, die sich frühzeitig mit einer möglichen Massenarbeitslosigkeit auseinanderzusetzen und wirtschaftspolitische Konsequenzen diskutieren, auf diese Weise immer wieder neue Varianten von Dagegen-Narrativen.22 Diese stützen sich sehr oft auf die Erkenntnisse einer vielfach zitierten Oxford-Studie, nach der rund 47 Prozent aller Berufe durch die Computerisierung gefährdet sein sollen.23 Diesem Pessimismus lässt sich entgegnen, dass Maschinen schon immer menschliche Arbeitskraft ersetzten und damit ein stetiger Wandel in Richtung Fortschritt einherging. Seit dem 18. Jahrhundert wurde eine Fülle von Werkzeugen ersonnen, die die menschliche Arbeitskraft in unterschiedlichen Feldern ersetzten: Vom Webstuhl bis zu Lochkarten. 1961 nahm der erste Industrieroboter in einem Werk von General Motors seine Arbeit auf. Hans Moravec sieht hier gar eine »unwiderstehliche, geradezu evolutionäre Kraft« am Werk (Moravec 1990: 25). In ihrem Buch The Second Machine Age. Wie die nächste digitale Revolution unser Leben verändern wird weisen die Autoren Erik Brynjolfsson und Adrew McAfee ebenfalls darauf hin, dass intelligente Maschinen alle Lebensbereiche durchdringen werden. Diese Dynamik macht die Frage notwendig, wie Menschen mit den Maschinen im »Zweiten Maschinenzeitalter« umgehen sollen, denn in »Wirklichkeit verändert sich die Grenze zwischen ausschließlich menschlicher Kreativität und maschinellen Möglichkeiten laufend« (Brynjolfsson/McAfee 2014: 244). Daher besteht die unbedingte Notwendigkeit

21 22 23

https://link.springer.com/content/pdf/10.1007/s15013-019-1748-3.pdf (18.12.2021). Heinen, N./Heuer, A./Schautschick, P. (2017): Künstliche Intelligenz und der Faktor Arbeit. In: Wirtschaftsdienst 97 (10), S. 714–720. DOI: 10.1007/s10273-017-2203-5. https://www.zora.uzh.ch/id/eprint/197692/1/Wie%20mit%20k%C3%BCnstlicher%2 0Intelligenz%20umgehen.pdf (19.12.2021).

211

212

Stefan Selke: Technik als Trost

fortgesetzter Veränderung und Anpassung. »Das heißt, die Menschen werden in ihren beruflichen Erwartungen anpassungsfähiger und flexibler und bereit sein müssen, Bereiche, die automatisiert werden, zu verlassen, und neue Möglichkeiten dort wahrzunehmen, wo Maschinen menschliche Fähigkeiten ergänzen und verstärken.« (Ebd.: 245) Immerhin wird so aus einem schrillalarmistischen Gegennarrativ ein progressives Aufbruchs-Narrativ. In seinem Buch Jäger Hirten, Kritiker skizziert der öffentliche Philosoph Richard David Precht (2020) hingegen seine persönliche Umsturzfantasie für die Arbeitswelt. Er sieht das Ende der Leistungsgesellschaft erreicht und stellt sich eine Welt ohne Lohnarbeit vor. Um den großflächigen Wegfall von Jobs zu kompensieren, käme die Politik gar nicht umhin, schnellstmöglich ein bedingungsloses Grundeinkommen einzuführen. Precht skizziert ein euphorisches Bild der Zukunft, die Verheißung einer Welt ohne Lohnarbeit, in der Menschen (wie bereits von Karl Marx vorgeträumt) morgens Jäger, abends Hirte und nachts Kritiker sein können. Dagegen-Narrative können einerseits die direkte Abschaffung des Menschen thematisieren, andererseits dessen indirekte Entmündigung. »In ganz vielen Erzählungen über KI wird der Mensch zurückgenommen«, so Johanna Tiffe. »Der Mensch wird kleiner gemacht, als er tatsächlich ist.« Ökonomische Entmündigungsurteile kippen schnell ins Dystopische, was sie als ideale Hintergrundfolie für fiktionale Formate prädestiniert. In ihrem Science-FictionRoman Die Optimierer erzählt Theresa Hannig, wie Bürger, die nicht (mehr) zur volkswirtschaftlichen Nutzensteigerung beitragen können, schlichtweg aussortiert werden. »Du scheidest aus der Arbeitswelt aus und bist frei, deinen Hobbys und Vergnügungen nachzugehen oder einfach abzuhängen. Du kannst machen, was du willst, Hauptsache, du versuchst nicht, einer Lohnarbeit nachzugehen. [...] Der Staat braucht dich nicht. Die Wirtschaft braucht dich nicht.« (Hannig 2017: 24) Mit einer guten Portion Zynismus wird diese Art der Freisetzung »Kontemplation« genannt. Auch im Thriller Die Tyrannei des Schetterlings wird die Grundsatzfrage gestellt: »Wohin mit den Überflüssigen, die jeden ökonomischen Wert verlieren, weil sie nichts auch nur annähernd so gut können wie Algorithmen?« (Schätzing 2018: 675) Diese Sichtweise hat weitreichende Folgen, wie dem Erfinder des Supercomputers von einem Kritiker klar vor Augen geführt wird: »Du verdammst Milliarden chancenloser, nutzloser Menschen dazu, geboren zu werden und ein Leben in Rückständigkeit und Armut zu führen. Gnädig wäre, ihnen zu ersparen auf die Welt zu kommen, statt so vehement für ihre Recht einzutreten, in der Scheiße zu sitzen. [...] Finde dich damit ab, Elmar, du hast keine Maschine

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

gebaut, um die Menschheit zu retten, sondern eine, um sie auf den Bruchteil ihrer selbst zu reduzieren.« (Ebd.: 678) Und der Roman Singularity von Joshua Tree macht die Überflüssigen sogar zum zentralen Gegenstand des Plots. Ein Teil der Menschheit, die sich durch moderne Technologien zu einer Art Übermensch verbesserte, nennt sich euphemistisch »homo nobilis«. »Seit wir Intelligenz gepaart mit Bewusstsein als das Maß aller Dinge ansehen, gehören wir plötzlich nicht mehr zum Tierreich«, erläutert ein Angehöriger dieser Klasse einem der »Überflussmenschen«, für die nach wie vor die üblichen biologischen Härtefälle wie Krankheit oder Sterblichkeit gelten. »Wir haben Menschen, die keinen ökonomischen oder kulturellen Nutzen mehr hatten, einfach degradiert zu einer evolutionären Vorstufe, einem Auslaufmodell. So wie ihr es zuvor mit den Tieren gemacht habt.« (Tree 2021: 87) DagegenNarrative kennen keine glücklichen und zufriedenen, sondern nur gestresste, verängstigte oder sogar überflüssige Menschen.24 Am markantesten hat dies Yuval Noah Harari in Homo Deus herausgearbeitet, wenn er fragt, was mit den Überflüssigen geschehen soll. In seinem Zukunftsszenario stellt sich Harari das »Upgrade« des Menschen zum »Homo Deus« vor. Es sei das Ziel der Menschen sich mit »ihrem Streben nach Glück und Unsterblichkeit« zu Göttern zu erheben. (Harari 2017: 64) Dies allerdings führe zu einer dreifachen Entkoppelung, die in der Summe den Glauben an den Wert des Menschen obsolet werden lässt: Zunächst werden Menschen ihren wirtschaftlichen und militärischen Nutzen verlieren, weshalb das ökonomische und das politische System ihnen nicht mehr viel Wert beimessen wird. Daraufhin wird das System die Menschen weiterhin als Kollektiv wertschätzen, nicht aber als einzigartige Individuen. Schlussendlich wird das System nach wie vor einige einzigartige Individuen wertschätzen, dabei wird es sich jedoch um eine neue Elite optimierter Übermenschen handeln und nicht mehr um die Masse der Bevölkerung. Vor diesem Hintergrund entsteht bedauerlicherweise eine Klasse der Nutzlosen. »Die wichtigste ökonomische Frage des 21. Jahrhunderts dürfte sein, was wir mit all den überflüssigen Menschen anfangen. Was sollen bewusste Menschen tun, sobald wir über hochintelligente nicht-bewusste Algorithmen verfügen, die fast alles besser können?« (Ebd.: 430)

24

Es geht auch anders: Der argentinische Autor Martín Caparrós beschäftigt sich mit den Überflüssigen der analogen Welt (Caparrós 2015), also Menschen, die aufgrund absoluter Armut und Hunger keinen relevanten Beitrag zur ökonomischen Wertschöpfung leisten können.

213

214

Stefan Selke: Technik als Trost

5.5 Totalüberwachung Mit KI sind zahlreiche Potenziale verbunden, gleichzeitig muss man »aufpassen, wie diese Gewinne interpretiert werden«, so der Ethiker Leopold Neuhold. »Werden sie so gedeutet, dass damit Menschen greifbarer gemacht werden, dann sind sie sehr problematisch.« Besonders beklemmend ist die Beschreibung einer kybernetisch regierten Gesellschaft im Roman Totalbeton der französischen Schriftstellerin Karoline Georges. Darin wird eine zukünftige Gesellschaft beschrieben, deren Mitglieder in einem riesigen Gebäudekomplex isoliert von der Umwelt leben. In dieser Gesellschaft dreht sich alles um »makellose Planung« und unbedingte Regelbefolgung. (Georges 2020: 15) Jedes Individuum ist Teil eines umfassenden Datenökosystems, »das Hirn an den WISSENsverteiler angeschlossen.« (Ebd.: 29) Die vermeintliche Objektivität dieser totalen Wissensbasis soll jede mögliche soziale Anomalie bereits im Keim ersticken. Diese Regierungsform erfordert die totale Unterwerfung der Bürger in einer Endlosschleife von abstrakten Ansprüchen und Eingriffen, auch in die intime Lebensführung. »Alles war total erklärbar. Alles war total erwartbar.« (Ebd.: 84) Das Narrativ des kybernetischen Regierens lässt sich allerdings auch neutral oder gar positiv erzählen, wie im Fall des Thrillers Die Tyrannei des Schmetterlings. Darin wird eine Gesellschaft skizziert, in der Metriken omnipräsent geworden sind. »Jeder Schritt wird aufgezeichnet, archiviert, vermessen, in Statistiken und Prognosen gegossen. [...] Die persönliche ID ist der Schlüssel zu allem. Sie öffnet, was man zu betreten wünscht, bewegt, was man zu benutzen wünscht, bezahlt, was meinst du besitzen wünscht. Sie speichert, wo man ist, was man kauft, was man tut. Sie interagiert mit Gebäuden, Wohnungen, Ämtern und Institutionen, Verkehrsmitteln, Kleidungsstücken, Implantaten, Dienstleistern, Datenträgern, sozialen Plattformen. Ohne ID ist man nichts, weil schlicht nicht existent. Notdienste, Krankenhäuser, Feuerwehr, Polizei, alles hängt am Netz. Wie ein unendlich verzweigtes Wurzelwerk durchzieht es den Planeten.« (Schätzing 2018: 632) Gegen diese Verheißung einer planetaren Vernetzung wirkt die Idee vom Internet der Dinge fast schon naiv. Totale Vernetzung ist allerdings kein Selbstzweck, sondern dient politischer Steuerung. Die Autoren technikdeterministischer Zukunftsnarrative träumen daher nicht mehr von mündigen Bürgern, sondern von einer stabilen Gesellschaft, die auf neuen Formen des Interaktionsdesigns und der Automatisierung von Entscheidungen basiert. Der KI-Forscher Roger Schank glaubte 1989 sogar daran, dass KI »eines Tages einen guten Präsidenten der Vereinigten

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Staaten abgeben« könnte. (Schank zit. n. Weizenbaum/Haefner 1992: 36) Was einen »Albtraum für die deontologische Ethik bedeutet«, ist gleichzeitig »ein Segen für die politische Kybernetik« (Simanowski 2020: 93). Der freie Wille wäre ein Auslaufmodell. Diese Veränderung mahnte bereits Jürgen Habermas in seiner Technokratiekritik an, indem er zeigte, dass Technokraten nicht an Willensbildungsprozessen, sondern an Regeloptimierung interessiert sind (Habermas 1987: 104ff.). Wenig überraschend findet auch der aktualisierte Ansatz von Social Engineering viele Kritiker. Mit Homo Deus verfasste Yuval Noah Harari ein Manifest der friedlichen Ko-Existenz zwischen Menschen und KI, dessen Leitthese besagt, dass KI bald derart gute Entscheidungen treffen wird, »dass wir verrückt wären, ihrem Rat nicht zu folgen« (Harari 2017: 231). Letztlich basiert die Idee der KI-basierten politischen Kybernetik auf dem »Update einer behavioristischen Utopie«, so die Harvard-Ökonomin Shoshana Zuboff in ihrem Buch Das Zeitalter des Überwachungskapitalismus. Darin kritisiert sie, dass der Spielraum des Menschlichen auf »richtiges Verhalten« eingeengt wird. (Zuboff 2018) Diese Einengung verhindert jedoch, moralisches Verhalten in alltäglichen Situationen einzuüben und zu entwickeln: Wenn sich alle »richtig« verhalten, kann niemand mehr »gut« sein. Eine Gesellschaft, die kybernetisch regiert wird, ist eine Gesellschaft des »strafunfähigen Bürgers.« (Simanowski 2020: 97) Offen bleibt, ob eine kybernetische Kultur eher ein dystopischer Alptraum oder die kommende Utopie ist. Der Kulturwissenschaftler Simanowski fühlt sich jedenfalls an Hegels »Weltgeist« erinnert. Er meint eine Strukturähnlichkeit darin zu erkennen, dass Vertreter des Silicon Valley versuchen, mittels KI dem »absoluten Geist« nahe zu kommen und sich dabei gleichzeitig auf einen Entwicklungsauftrag berufen können, wie ihn bereits Immanuel Kant 1784 in Ideen zu einer allgemeinen Geschichte in weltbürgerlicher Absicht entworfen hatte: »Alle Naturanlagen eines Geschöpfes sind bestimmt, sich einmal vollständig und zweckmäßig auszuwickeln.« (Kant zit. n. Simanowski 2020: 101) Eine starke KI wäre in dieser Perspektive die Fortentwicklung menschlicher Vernunft, KI somit »die Mission des Menschen« in der Form der »Weitergabe der Vernunft an leblose Entitäten«. (Ebd.) Wenn eine starke KI eines Tages der allmächtige Weltretter sein wird, wäre der Mensch nicht nur der Zwischenwirt seiner Daten, sondern auch bloß noch der »Zwischenwirt der Vernunft« (ebd.). Freilich führt diese Vision einer kybernetischen Regierung auf der Basis einer starken KI geradewegs zu Ängsten vor Entdemokratisierung durch schleichenden Souveränitätstransfer, wie sie z.B. vom Autor J.D. Vance artikuliert werden. »Wenn wir ohne Google, Facebook oder

215

216

Stefan Selke: Technik als Trost

Amazon nicht mehr unsere Meinung sagen können, dann haben wir in diesem Land keine echte Demokratie mehr.«25

5.6 Ethische Freihandelszonen Die Genauigkeit von KI kann sogar tödlich sein. Der Informatiker Judea Pearl weist darauf hin, dass KI nicht dazu in der Lage ist, Fragen nach notwendigen Interventionen oder retrospektive bzw. kontrafaktische Fragen zu beantworten. »No learning machine in operation today can answer such questions.« (Pearl zit. n.: Brockman 2020: 17) Deswegen befassen sich Dagegen-Narrative auch mit der Enttabuisierung von Lebensbereichen, die bislang normativ eindeutig definiert waren. In seinem preisgekrönten Essay26 Todesalgorithmus verhandelt der Kulturund Medienwissenschaftler Roberto Simanowski die negativen Auswirkungen von KI spekulativ und rechnet scharf mit dem technikeuphorischen Gedankengut des Silicon Valleys ab. (Simanowski 2020) Sein Text beansprucht dabei durchaus prognostischen Charakter. Im Mittelpunkt steht der Einsatz von KI im Kontext autonomer Mobilität der Zukunft, wobei der Autor Verallgemeinerungspotenzial für seine eigenen Thesen sieht. »Der Todesalgorithmus am Lenkrad autonomer Fahrzeuge ist die Testfahrt für eine Gesellschaft, in der KI das Steuer übernimmt.« (Ebd.: 13) Statt einer Verheißung erkennt Simanowski aber eher ein Entfesselungsmotiv, selbst wenn er zugesteht, dass es »moralisch unverantwortlich« wäre, »selbstfahrende Autos nicht einzuführen« (ebd.: 16). Dennoch warnt er vor dem Verlust der Unantastbarkeit der Menschenwürde, »wenn die Technik verlangt, Abwägungen, die sich philosophisch verbieten, für den Ernstfall zu programmieren« (ebd.: 16) Statt sich einer »experimentellen Ethik«, also Studien zum Abstimmungsverhalten in Dilemmasituationen,27 oder gar einer »Instinkt-Ethik« auszuliefern, plädiert er für eine »Ethik des unverhandelbaren Subjekts« (ebd.: 21), die verbietet, Menschenleben gegeneinander aufzurechnen. Der essenzielle Konflikt besteht in diesem Zusammenhang in der Unvereinbarkeit einer (deontologischen) Pflichten-

25 26 27

DER SPIEGEL, Nr. 4/22.1.2011, S. 80. Simanowski ist der tractatus-Preisträger 2020 – dieser Essaypreis wird jährlich vom Philosophicum Lech vergeben. So z.B. im Kontext des Mitmachprojekts Moral Machine am MIT oder in Ferdinand Schirachs Gerichtsdrama Terror.

216

Stefan Selke: Technik als Trost

Amazon nicht mehr unsere Meinung sagen können, dann haben wir in diesem Land keine echte Demokratie mehr.«25

5.6 Ethische Freihandelszonen Die Genauigkeit von KI kann sogar tödlich sein. Der Informatiker Judea Pearl weist darauf hin, dass KI nicht dazu in der Lage ist, Fragen nach notwendigen Interventionen oder retrospektive bzw. kontrafaktische Fragen zu beantworten. »No learning machine in operation today can answer such questions.« (Pearl zit. n.: Brockman 2020: 17) Deswegen befassen sich Dagegen-Narrative auch mit der Enttabuisierung von Lebensbereichen, die bislang normativ eindeutig definiert waren. In seinem preisgekrönten Essay26 Todesalgorithmus verhandelt der Kulturund Medienwissenschaftler Roberto Simanowski die negativen Auswirkungen von KI spekulativ und rechnet scharf mit dem technikeuphorischen Gedankengut des Silicon Valleys ab. (Simanowski 2020) Sein Text beansprucht dabei durchaus prognostischen Charakter. Im Mittelpunkt steht der Einsatz von KI im Kontext autonomer Mobilität der Zukunft, wobei der Autor Verallgemeinerungspotenzial für seine eigenen Thesen sieht. »Der Todesalgorithmus am Lenkrad autonomer Fahrzeuge ist die Testfahrt für eine Gesellschaft, in der KI das Steuer übernimmt.« (Ebd.: 13) Statt einer Verheißung erkennt Simanowski aber eher ein Entfesselungsmotiv, selbst wenn er zugesteht, dass es »moralisch unverantwortlich« wäre, »selbstfahrende Autos nicht einzuführen« (ebd.: 16). Dennoch warnt er vor dem Verlust der Unantastbarkeit der Menschenwürde, »wenn die Technik verlangt, Abwägungen, die sich philosophisch verbieten, für den Ernstfall zu programmieren« (ebd.: 16) Statt sich einer »experimentellen Ethik«, also Studien zum Abstimmungsverhalten in Dilemmasituationen,27 oder gar einer »Instinkt-Ethik« auszuliefern, plädiert er für eine »Ethik des unverhandelbaren Subjekts« (ebd.: 21), die verbietet, Menschenleben gegeneinander aufzurechnen. Der essenzielle Konflikt besteht in diesem Zusammenhang in der Unvereinbarkeit einer (deontologischen) Pflichten-

25 26 27

DER SPIEGEL, Nr. 4/22.1.2011, S. 80. Simanowski ist der tractatus-Preisträger 2020 – dieser Essaypreis wird jährlich vom Philosophicum Lech vergeben. So z.B. im Kontext des Mitmachprojekts Moral Machine am MIT oder in Ferdinand Schirachs Gerichtsdrama Terror.

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

oder Gesinnungsethik mit einer (konsequentialistischen) Zweck- oder Verantwortungsethik. Simanowski kritisiert scharf, dass es im Kontext von KI-Anwendungen zwangsläufig zu Vorentscheidungen über Menschenleben kommt. »Es ist die Automation der Entscheidung, die Entscheidungen autonomer Autos unmoralisch macht.« (Ebd.: 34) Paradoxerweise sollen Probleme die aus den Algorithmen resultieren, wieder algorithmisch gelöst werden sollen. In KI sieht er die zunehmende Entmündigung des Menschen als souveränen Entscheidungsträger. In einer Kultur des Souveränitätstransfers bewegt sich KI »Schritt für Schritt darauf zu, die menschliche Entscheidungsfindung zu führen«, mutmaßt der Philosoph Éric Sadin.28 Dabei übe nicht mehr der Mensch, »sondern eine als leistungsfähiger angesehene Interpretations- und Entscheidungsgewalt« die letztgültige Gestaltungsmacht aus. Thomas Bauer sieht es ähnlich: »Wenn Maschinen über Wahrheit entscheiden, kann man endlich ambiguitätsfrei in Gleichgültigkeit dahinleben.« (Bauer 2018: 93) Noch deutlicher wird das Risiko eines Souveränitätstransfers am Beispiel von End-of-Life-Entscheidungen in medizinischen Kontexten, in denen KI tatsächlich letzte Entscheidungen über Leben und Tod treffen muss. Zwar prognostiziert der Mediziner Manfred Dietel, dass wir »auch mit künstlicher Intelligenz noch Jahrzehnte davon entfernt sind, eine präzise Prognose für den Einzelnen bezüglich des Lebens oder Überlebens zu machen«. Gleichwohl gibt es bereits jetzt eine spürbare Sehnsucht nach Genauigkeit. Das Tabu um das Wissen des eigenen Todeszeitpunktes inspirierte den Nobelpreisträger für Literatur Elias Canetti zum Theaterstück Die Befristeten, einem literarischen Denkmal über den Wert des Nicht-Wissens. (Canetti 1976; Original: 1964) Im Angesicht der heraufziehenden KI-Epoche wirkt dieses Stück geradezu prophetisch. In der von Canetti entworfenen Welt kennen die Menschen ihre Lebenszeit. Das fantastische Gedankenexperiment lotet die Frage aus, wie es wäre, in einer Welt zu leben, in der es keine Zonen der Intransparenz mehr gäbe. Wie würde sich soziales Verhalten verändern? »Ich halte die Bekanntmachung des Augenblicks für den größten Fortschritt in der Geschichte der Menschheit«, so einer der Protagonisten des Theaterstücks. »Es waren eben Wilde vorher. Arme Teufel«, bestätigt eine anderer. Bei der Geburt wird der Todeszeitpunkt jedem Neugeborenen in einer versiegelten Kapsel mitgeteilt, die wie ein Kruzifix um den Hals getragen wird. Jeder weiß, wie alt er oder sie werden wird (und aus dem Alter wird der Name des Menschen gebildet), aber niemand weiß vom anderen, wie alt dieser ist, wie lange er also noch zu leben hat. »Darüber spricht niemand. 28

DIE ZEIT, 7.06.2017.

217

218

Stefan Selke: Technik als Trost

Das ist ein Geheimnis«, so eine weitere Protagonistin. (Ebd.: 205) Dieses Geheimnis wirkt sich als Last auf das eigene Leben aus. »Niemand kann dir vorschreiben, was du mit dir tust. Denn niemand weiß, wieviel Jahre du noch zu leben hast. Du aber weißt es und kannst nach deinen Verhältnissen leben. Mit einem bestimmten Kapital Leben kommt man zur Welt. Es nimmt nicht ab, es nimmt nicht zu. Man kann dir nichts davon rauben, es ist unveräußerlich auf deinen Namen geschrieben. [...] Du musst einfach wissen, was du mit deiner Zeit kaufst. Es ist deine Schuld, wenn du es dir schlecht einteilst.« (Ebd.: 209) Allerdings gibt es eine zentrale Wissensinstanz, die die Todeszeiträume aller Menschen kennt, den KAPSELAN: »Ich sehe sie alle. Ich bin dazu beauftragt. Der Bestand und die Sicherheit unserer Gesellschaft beruhen darauf, dass jeder seinen Augenblick einhält. Ich nenne es den Kontrakt. [...] Es hat noch nie einer länger gelebt, als sein Augenblick lautet.« (Ebd.: 198, 224) Dieses Lebenskapital ist ungleich verteilt: Die Diktatur des letzten Augenblicks, in der völlig intransparent bleibt, wie die Lebenszeit verteilt ist, ist das genaue Gegenteil der transparenten Gesellschaft. Was verloren geht, ist der Zufall, der Regie über das eigene Leben führen kann. Wenn der KAPSELAN, der Überwacher der Todesaugenblicke behauptet, dass die Menschen erkannt haben, »dass fünfzig sichere Jahre mehr wert sind als eine unbestimmte Anzahl unsicherer« (ebd.: 199), dann muss diese Aussage in unsere Epoche übersetzt werden. Als sehnsuchtsbesetztes Bild lässt Canetti zwei junge Herren von der Tradition der Duelle fabulieren, ein Bild für die Kontingenz des Lebens selbst: »Ja, das muss schön gewesen sein. Du wusstest nie, was geschehen wird. Nichts war sicher. Vielleicht trifft’s dich, vielleicht trifft es den anderen.« (Ebd.: 216) Bleibt die Frage: Was wollen wir Menschen eigentlich? Während in der Gesellschaft der Befristeten Nachfragen zur Person als indiskret und subversiv gelten, wird das Nachforschen in der Gesellschaft der Daten (Süssenguth 2015a) geradezu zum Selbstzweck erhoben. Doch das Wissen über den eigenen Todeszeitpunkt der Befristeten vergiftet das private Leben wie auch das Gemeinschaftsleben. Gewissheit erodiert alle menschlichen Sozialformen wie Zuneigung, Solidarität oder Würde. Aus den »Wilden«, die nichts über sich wissen, wurden zwischenzeitlich die digital Transparenten. Aus dem »Kontrakt« in der Gesellschaft der Befristeten wurden der »digitale Gesellschaftsvertrag«, der uns von datengierigen Unternehmen angeboten wird. Totales Wissen ist ein Drama, eine Sozialdystopie. Canettis Theaterstück thematisiert prototypisch die Bedeutung des existenziellen Wissens. »Wenn es um dieses Wissen geht«, so der Mediziner Manfred Dietel, »dann hat die Psyche des Menschen die Fähigkeit hat, solche Dinge auszublenden. Die Fä-

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

higkeit, den Punkt des schmerzhaften Wissens auszuschalten, haben viele.« Was aber, wenn uns dieses Wissen von einer KI aufgezwungen wird? Wird es dafür vielleicht sogar Nachfrage geben? »Es wird sicher kein Massenphänomen werden, dass Menschen wissen wollen, wann sie sterben«, so Manfred Dietel. Doch allein die Möglichkeit, dass KI derartiges Wissen liefern könnte, beeinflusst die Wahrnehmung der Technologie als Verheißung. Diese Verheißung ist die einer heilenden Beziehung zwischen Mensch und Maschine, die zugleich tiefgreifende ethische Fragen aufwirft. Die Veränderungen zeigen sich bereits anhand der Interaktion zwischen Arzt und Patient. Der Einsatz von KI wirkt sich auf das Vertrauensverhältnis, Rollenerwartungen sowie auf Selbst- und Fremdbilder aus. Ein Arztbesuch ist nicht vergleichbar mit einer Enzyklopädie medizinischen Wissens. Deshalb sehen Skeptiker die emotionale Bindung und den Beziehungsaspekt zwischen Arzt und Patient in Gefahr: Verletztlichkeit des Patienten auf der einen Seite, Verlust der Expertise und Deutungshoheit beim Arzt auf der anderen Seite. Hinzu kommt die Verheißung der angemessenen Grenzfallentscheidung im Kontext von End-of-Life-Entscheidungen, mit denen eine erhebliche ethische Komplexität einhergeht, weil Reichweite und Irreversibilität von Entscheidungen maximal sind. Zwar halten Experten Entscheidungshilfen wie Algorithmen in der Medizin für sinnvoll (Beschoner et al. 2021),29 Gleichzeitig ergeben sich im Kontext von Intensiv- und Notfallmedizin ständig neue Herausforderungen. Bislang herrscht Konsens darüber, dass KI menschliche Entscheidungen nicht ersetzen darf, weil in existentiellen Fragen eine ärztliche Abklärung unabdingbar ist. Dennoch liefert die technologische Entwicklung Beispiele dafür, dass algorithmische Systeme im schlimmsten Fall zu einer Mechanisierung von Lebensentscheidungen beitragen, was mit dem Konzept der Menschenwürde nicht mehr in Deckung gebracht werden kann. Für viele Menschen ist es unvorstellbar, einem Computer am Ende die Entscheidung zu überlassen, wer lebt und wer stirbt.

End-of-Life-Entscheidungen: KI-basierte Formen von Triage Konsequent weitergedacht ist dann auch von der Verheißung eines ›guten‹ Todes die Rede. Mittlerweile hat sich die Verbesserung der Betreuung sterbender Patienten zu einem weit verbreiteten gesellschaftlichen Anliegen entwickelt. 29

https://www.zeit.de/digital/2021-05/triage-software-notfallmedizin-algorithmus-ku enstliche-intelligenz-ethik (10.11.2021).

219

220

Stefan Selke: Technik als Trost

Insbesondere rückt die Thematik der bei Bedarf abzuschaltenden lebenserhaltenden Maßnahmen in den Vordergrund. Einerseits steigt die Besorgnis über den Tod und das Sterben, andererseits verbesserten sich technikbasierte Linderungsmöglichkeiten. Daher stellt sich die Frage, wie das Versprechen eines guten Todes eingelöst werden könnte (Emanuel/Emanuel 1998). Vor allem aber: Dürfen Menschen existentielle Entscheidungen an Algorithmen delegieren? (Hofmann et al. 2019: 277) Was, wenn die KI eine richtige Entscheidung auf einer falschen Grundlage trifft? So zeigen etwa medizinische und psychologische Studien, dass allein die Macht der Gedanken oder der Glaube an die positive Wirkung eines Placebo-Medikaments eine heilende Wirkung entfalten kann. (Rief 2020) Würden derartige ›weiche‹ Parameter bei einer autonom entscheidenden KI noch ausreichend Berücksichtigung finden können? Wie kann KI die Willensstärke eines (nicht ansprechbaren) Patienten bei der Entscheidungsfindung berücksichtigen? Oder darf umgekehrt eine KI einem spontanen Sterbewillen, der sich in einer voreiligen Äußerung (oder gar in einer ironischen Äußerung) ausdrückt, nachkommen? Fest steht: Jede Fehlinterpretation endet in diesem hochsensiblen Kontext tödlich. Das Phänomen KI zwingt, an bestimmte Stellen zu schauen, die sonst gerne vermieden oder an andere delegieren werden: an Seelsorger, Therapeuten, Ärzte. »Das Potenzial, diesen Blick auf das bislang Unbekannte zu untermauern, wird durch KI in Zukunft sicher sehr viel mehr gegeben sein als heute«, so der Mediziner Manfred Dietel. Auch der Roman Die Optimierer von Theresa Hannig beschäftigt sich unter anderem mit dem wachsenden Druck auf Menschen, am Ende ihres Lebens keine Arbeit und Kosten mehr zu verursachen. Zu diesem Zweck wurde ein spezieller Krankenversicherungstarif eingeführt. »Es ist ein neuer Tarif, der alles, wirklich alles abdeckt. Du bekommst bis zum 85. Lebensjahr eine ausgezeichnete Versorgung. Alles inklusive, keine Zuzahlungen, nur Spitzenärzte, die besten Organe, alles, was man sich nur wünschen kann«, erklärt ein Vertreter des Staates. »Alle Leistungen gelten bis zum 85. Lebensjahr. Und danach scheidet man aus der Gesellschaft aus. [...] Man kauft sich heute ein Stück Lebensqualität, die später nicht mehr gebraucht wird.« (Hannig 2017: 82) Zukunftsmusik? Für den Designer Friedrich von Borries ist der Freitod nur eine »andere Form der Selbstauflösung, die man als Höhe- und zeitlichen Endpunkt des Selbstdesigns verstehen könnte« (von Borries 2019: 109). In diesem »finalen Selbstdesign« erkennt er einen stillen Akt der Emanzipation, gleichzeitig sieht er aber auch die Gefahr des Umkippens in die Unterwerfung, wenn die Entscheidung des Freitods das Ergebnis latenter oder manifester ökonomi-

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

scher Zwänge ist. »Der Grat zwischen selbstbestimmtem Freitod und fremdbestimmter Euthanasie ist schmal.« (Ebd.) Tatsächlich wird KI sehr viel zugetraut. Das zeigt das Beispiel der im 3D-Druck hergestellten Suizidkapsel des Freitod-Aktivisten Philip Nitschke. Was aussieht wie ein Miniatur-Raumschiff, soll Sterbewilligen helfen, ›spacig‹ und ›cool‹ in den Tod hinüberzugleiten: Sarco (so der Name für den »Sarg 2.0«), steht stellvertretend für eine neue Sterbekultur.30 Das »Todesmöbel«31 kann an jeden beliebigen Ort transportiert werden, gestorben wird dann wahlweise im Freien oder in den Räumen einer Sterbehilfeorganisation. Sterbewillige besteigen die Kapsel, um sich darin selbst zu töten. Zuvor muss allerdings ein Onlinetest absolviert werden. Wer ihn besteht, erhält einen Code und kann damit die Kapsel öffnen. Ein Gutachten erlaubt den Einsatz von Sarco in der Schweiz bereits ab 2022.32 Die spektakuläre Sterbekapsel ist aus mehreren Gründen stark umstritten: Aktivisten, die schon seit Langem für einen selbstbestimmten Tod kämpfen, befürchten kontraproduktive Effekte. Einer davon ist »Overtrust«, das bedenkliche Phänomen, den Entscheidungen eines Algorithmus mehr Autorität zuzubilligen, als es sinnvoll wäre. (Lenzen 2020: 100) Denn die Methode der Freischaltung der Kapsel ist ambivalent. Bei dem Onlinetest, der Zugang gewähren soll, handelt es sich um eine KI, die ein autonomes Screening der Todeswilligen vornimmt. Dies ersetzt das (in Deutschland vorgeschriebene) ausführliche ärztliche Gespräch, das Ethiker und Mediziner als essenziell für die Sterbebegleitung beim assistierten Suizid ansehen. Zudem fällt durch die Konstruktion der Kapsel die übliche Wartezeit zwischen Artikulation des Todeswunsches und der Durchführung des Suizids weg. Nach Knopfdruck wird im Innenraum der Kapsel der Sauerstoffgehalt innerhalb von 30 Sekunden von 21 auf ein Prozent reduziert. Das führt zu Desorientierung, Euphorie und dem Verlust des Bewusstseins. Der KI wird also die alleinige Definitionsmacht über die Angemessenheit des Freitodes gewährt. An dieser Stelle muss an die grundlegende Kritik des Computerpioniers Josef Weizenbaum erinnert werden: Es gibt 30 31

32

Ein Prototyp von Sarco war 2021 im Museum für Sepulkralkultur im Kontext der Ausstellung »Suizid – Let’s Talk about it!« in Kassel zu sehen. https://www.spiegel.de/wissenschaft/medizin/bizarre-suizidkapsel-weil-vieles-bis lang-nicht-gesetzlich-geregelt-ist-ist-es-auch-nicht-verboten-a-55017b38-b58b-46 da-bd78-4f4c5d36ae3b?sara_ecid=soci_upd_KsBF0AFjflf0DZCxpPYDCQgO1dEMph (15.12.2021). https://www.swissinfo.ch/ger/heute-in-der-schweiz/47162630#:~:text=In%20eine %20spacige%20Kapsel%20steigen,nie%20mehr%20lebend%20zu%20verlassen (15.12.2021).

221

222

Stefan Selke: Technik als Trost

bestimmte Aufgaben, »zu deren Lösung keine Computer eingesetzt werden sollten, ungeachtet der Frage, ob sie zu deren Lösung eingesetzt werden können«, schreibt dieser bereits 1977 in Die Macht der Computer und die Ohnmacht der Vernunft. (Weizenbaum 1977: 10) Letztendlich geht es dabei um eine KI-basierte Form der Triage. Das mag in anderen Ländern unproblematisch sein, vor dem geschichtlichen Hintergrund in Deutschland sollte es zumindest vorsichtig betrachtet werden: Zentrale Denkakte und Entscheidungen müssen weiterhin Menschen vorbehalten bleiben.

Frankenstein und die Verheißung der Spontanerzeugung von Leben Eine weitere ethische Problemzone sind Verheißungen der Spontanerzeugung des Lebens in Form menschlicher Klone. Wieder eine uralte Idee. Schon beim griechischen Philosophen Aristoteles findet sich der Begriff »génesis autómatos« (Fischer 2010: 243). Die weiteren Etappen dieser Entwicklung wurden vielfach nachgezeichnet und zwar gleichermaßen in wissenschaftlichen wie in außerwissenschaftlichen Narrativen.33 Bereits in der Idee des »digitalen Zwillings« steckt eine existentielle Verheißung, weil damit umfangreiche prädiktive Vorhersagen möglich werden sollen. Aber der mythologische Kern zielt ja tatsächlich auf eine eigene künstliche Lebensform. In diesem Zusammenhang hat kaum eine Erzählung die Sichtweise auf »intelligente« Maschinen so sehr geprägt, die der Roman Frankenstein (im Original: Frankenstein or the Modern Prometheus) der Schriftstellerin Mary Shelly. Der KI-Ethiker Marc Coeckelbergh sieht in dieser Erzählung ein typisches Wettbewerbsnarrativ: »This narrative continues to shape our science fiction about AI, but also our contemporary thinking about technologies such as AI and robotics.« (Coeckelbergh 2020: 21) Der 1818 erschienene Roman – oft als der erste moderne Science-Fiction-Roman gerühmt – befasst sich mit Fragen, die bis heute relevant sind: Haben Menschen das Recht, mithilfe von Technologien intelligentes Leben zu erschaffen, das sich von allen gegenwärtig existierenden Lebensformen unterscheidet? In welcher Beziehung stünden Geschöpf und Schöpfer zueinander? Frankenstein hatte als Urform einer Schauergeschichte enormen Einfluss auf die spätere Popkultur. »Das Frankenstein Motiv ist das zentrale Element, das die Science-Fiction-Literatur seit ungefähr 200 Jahren zusammenhält«, so der Ethnologe Guido Sprenger. »Ein Mensch maßt sich an, Gott zu sein. Er erschafft etwas, was ihm ähnlich 33

Ein großartiger Überblick findet sich in Cave et al. (2020a).

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

ist und das geht schief. Daher ist wenig verwunderlich, dass KI in sehr vielen Diskursen eher als Bedrohung verstanden wird.« Somit kann Frankenstein als Kernelement zahlreicher Dagegen-Narrative klassifiziert werden. In allen Varianten des Frankenstein-Komplexes geht es um die Ähnlichkeitssehnsucht des Menschen. Das Ergebnis der Transformation soll ähnlich, dennoch aber besser sein als der Mensch selbst. Im Roman schafft der Schweizer Victor Frankenstein – der moderne Prometheus – unter Rückgriff auf alchemistisches Wissen einen künstlichen Menschen.34 Aus toter Materie wird so Leben in Form einer Kreatur. Doch Frankenstein wird mir seinem künstlichen Menschen nicht glücklich, das Drama nimmt seinen Lauf. Das künstliche Wesen richtet sich gegen seinen Schöpfer und tötet zunächst dessen Bruder sowie im Verlauf der Romanhandlung weitere Menschen. Hierbei lädt Frankenstein moralische Schuld auf sich, da er zwar weiß, dass sein Geschöpf der Täter ist, die Wahrheit aber für sich behält. Im englischen Original wird das namenlose35 künstliche Wesen schlicht als Dämon bezeichnet. Dieser Dämon verhält sich wie ein Organismus und nicht wie eine Maschine. Nach und nach nimmt die Kreatur die Umgebung war und schafft sich – wie ein Kind oder ein Tier – eine spezifische Umwelt. Das Monster lernt, bildet eine eigene ›IchIdentität‹ heraus und gerät schließlich in eine Identitätskrise, als ihm seine missratende Existenz immer bewusster wird. Eigentlich sind im Frankenstein-Mythos utopische Visionen angelegt, die gleichwohl ins Dystopische kippen. Denn die Kreatur wünscht sich von ihrem Schöpfer zunächst ein weibliches Gegenstück (und zwar genauso hässlich), um seinem Leben Sinn zu verleihen. Das Monster verspricht, keinen Schaden anzurichten, sollte ihm dieser Wunsch erfüllt werden. »Meine Nahrung ist anders als die der Menschen; ich töte weder Lamm noch Zicklein, um meinen Hunger zu stillen. [...] Das Bild, das ich dir entwerfe, ist friedlich und vernunftsgemäß.« (Zit. n. Rude 2013: 74) An dieser Stelle ließe sich mühelos mit der Überlegung zu einer ›guten starken KI‹ anschließen, die Menschen zwar fremd, dennoch aber hilfreich ist. So kommt etwa auch die Autorin Theresa Hannig zum Schluss, dass 34

35

Diese Sichtweise war stark durch den zeitgenössischen Einfluss der Galvanisten und weiterer Experimente mit der Elektrizität geprägt und spiegelt den Zeitgeist der damaligen Epoche wieder. Hier ist an die sog. »Froschschenkel-Experimente« von Luigi Galvani oder auch die Experimente von Giovanni Aldini zu erinnern, der mittels elektrischer Impulse Muskelreaktionen bei Leichen hervorrief, so dass der Anschein erweckt wurde, dass diese wieder Auferstehen. Nur umgangsprachlich wird das Monster selbst oftmals mit »Frankenstein« bezeichnet. Tatsächlich war dies jedoch der Name seines Schöpfers.

223

224

Stefan Selke: Technik als Trost

KI »so ein Frankenstein-Ding ist«. In beiden Fällen geht es um die Lust darauf, Menschenähnliches zu schaffen, das den Menschen zugleich übertrifft. »Wir wollen ja keine künstliche Insekten-Intelligenz oder künstliche Wurm-Intelligenz schaffen«, so Hannig. »Wenn wir von künstlicher Intelligenz sprechen, denken wir stattdessen an ein Abbild von uns selbst. Etwas, was uns so nah wie möglich kommt. Dabei wäre es eigentlich viel interessanter, Neues zu schaffen.« Das Frankenstein-Thema bietet den idealen Nährboden für unzählige weitere Dagegen-Narrative, in denen Maschinen-Menschen, Roboter oder auch körperlose KI als Feind, Dämon (oder allgemeiner: als Bedrohung) gesehen werden. Schlusspunkt dieses pessimistischen Gegennarrativs ist stets der Moment, in dem sich die Schöpfung des Menschen gegen den Schöpfer selbst richtet und diesen zerstört. »Das Motiv, ein künstliches Wesen zu schaffen, ist letztlich Hybris, die sich gegen den Menschen wenden wird. Der Golem tickt aus. Das arme Monster Frankenstein wird so wenig geliebt, dass es irgendwann böse wird. Und der Zauberlehrling ist ja auch nicht mehr zu stoppen«, so der Theologe Christopher Scholtz. »Das ist das Basisnarrativ mit den künstlichen Wesen im Westen.« Deshalb ist die Ko-Existenz von Menschen und technikbasierten künstlichen Wesen ein zweischneidiges Schwert, gleichzeitig aber dramaturgisch durchaus ergiebig. »Der Triumph des menschlichen Geistes einerseits, Arbeit an unserer Selbstabschaffung andererseits«, fasst es Hans-Arthur Marsiske zusammen. »Eines Tages könnte KI tatsächlich die größte Leistung der Menschheit mit transformatorischer Bedeutung sein. Gerade KI-Forscher werden bei dieser Verheißung ungewöhnlich emotional.« Unter dem Strich geht es bei Dagegen-Narrativen um zahlreiche Grenzverschiebungen: Die Bedeutung von Mensch und Gesellschaft werden im Zeitalter von KI neu verhandelt, dabei werden Normalitätsgrenzen verschoben. Wie der Wissenschaftshistoriker Ernst Peter Fischer in seinem Buch Hinter dem Horizont überzeugend darlegt, machte sich bislang jede Epoche »Gedanken über die Welt und die Stellung des Menschen in ihr«. Daher fragen Menschen immer wieder »welcher Sinn in dem ganzen Prozess steckt«. (Fischer 2010: 21) Konsensfähige Antworten auf diese Frage wurden und werden zu Weltbildern und Weltanschauungen verdichtet, die umgekehrt wieder auf die Herstellung von Techniken wirken. Im Kontext der Wechselwirkung zwischen Produktion und Reflektion spielen gesellschaftlich zirkulierende Zukunftsnarrative eine bedeutende Rolle. Sinn-Erzählungen – gerade auch im Gewand wissenschaftlicher Expertisen oder Theorien – beschreiben eigentlich nicht die Welt, sondern unser epochentypisches menschliches Wissen von der Welt.

5. Unheil-Narrative: Hiobsbotschaften und Grenzverschiebungen

Die Veränderung gesellschaftlicher Orientierungsrahmen und somit zugleich von Normalitätsgrenzen findet – anders als es der ›Gospel der Disruption‹ suggeriert – meist unterhalb der Wahrnehmungsschwelle statt. Die Vorstellung von shifting baselines dient in diesem Zusammenhang dazu, Veränderungen im Hinblick auf gemeinsam geteilte Überzeugungen, konsensfähiger Politik und Weltanschauung oder hinsichtlich allgemein akzeptierter gesellschaftlicher Zielformulierungen kritisch zu hinterfragen. Dies ist schon allein deshalb relevant, weil ein »Vertrauen in die Stabilität von Werthaltungen sowie in Normalitäts- und Zivilisierungsstandards nicht angebracht ist« (Welzer 2009: 238f.). Ein Verständnis verheißungsvoller Zuschreibungen an KI ist also nur dann möglich, wenn die paradoxe Aufgabe gelöst wird, »auszuloten, was unter gegenwärtigen Bedingungen nicht sichtbar ist, aber gleichwohl die Zukunft bestimmt« (ebd.: 220). Gerade die Digitalisierung »dringt mehr oder weniger schleichend in alle Lebensbereiche ein« (Becker 2019: 10). Gleiches gilt auch für KI-Anwendungen. »KI wird in immer mehr spezifischen Feldern akzeptiert. Sie wird immer normaler für uns. Fast wie eine Norm«, so Boris Paskalev. Allerdings macht es die kognitive Grundausstattung des Menschen schwer, langfristige und langsame Veränderungen dieser Norm zu erkennen. »Die Gefahr besteht darin, Risiken, die zu gravierenden Veränderungen in der Gesellschaft führen, erst gar nicht mehr zu reflektieren«, so der Psychologe Fabian Hutmacher. »Risiken schleichen sich dann ein, ohne sie richtig zu bemerken.« Allerdings verschwindet ein Problem nicht einfach, nur weil es nicht wahrnehmbar ist und weil es unterhalb der Aufmerksamkeitsschwelle stattfindet. KI wird unterschwellig akzeptiert, weil die meisten Menschen es gar nicht merken, wie oft sie bereits eingesetzt wird. Genau hierin liegt auch eine der Bedeutungen von Zukunftserzählungen: KI-Narrative lenken den Blick auf latente Strukturen und somit schleichenden Wandel. Auf diese Weise wird deutlich, wie sich die Konventionen des Zusammenlebens und -wirkens verändern und welche gesellschaftlichen Folgen und ethischen Implikationen damit verbunden sind. »Vieles verändert sich erst einmal unterschwellig, wir gewöhnen uns immer mehr an die Anwendungen von intelligenten Algorithmen«, so auch der Erzählforscher Michael Müller. »Um diesen Gewöhnungseffekten etwas entgegenzusetzen, braucht es Gegennarrative, die gehört werden.« Eine neue Kultur des Normalismus (Link 2013) und der Neuverhandlung von NormalAbweichungen (Kaube 2007) verändern sowohl die Selbstdefinition des Menschen als auch den Konsens über das Menschenbild selbst. »Die schleichende Veränderung des Menschenbildes ist eine der Quellen für die als Bedrohung

225

226

Stefan Selke: Technik als Trost

empfundene KI«, mutmaßt der Anthropologe Guido Sprenger. Das betrifft vor allem die Bedrohung des Menschenbildes im Angesicht superintelligenter Maschinen in Form von Robotern oder Humanoiden. »Fantasien über diese künstlichen Wesen begleiten uns schon lange. Wir sind bereits an diese Gedanken gewöhnt«, so Sprenger weiter. »Aber wie wird sich der Umschlag ins Reale anfühlen?« Werden Menschen und Kunstwesen immer weniger trennscharf unterscheidbar, entstehen moralische Herausforderungen. »Bisher konnten wir uns ja immer noch einbilden, dass wir die Privilegierten sind. Genau das löst sich gerade langsam auf. Man weiß noch nicht genau, wo es enden wird.«

Von Zukunftsnarrativen zu Zukunftseuphorie Eine mögliche Antwort wird in den folgenden Kapiteln versucht. Ausgangspunkt der Argumentation sind die bereits vorgestellten Zukunftsnarrative über KI. Wie dargelegt, entscheiden diese maßgeblich darüber, wie unsere Zukunft im Kontext von KI kollektiv gestaltet wird. Doch Zukunftserzählungen sind nur eine Seite der Medaille. Wir brauchen nicht nur bessere Zukunftsbilder, sondern vor allem eine emotionale Verbindung mit diesen – genau das leistet Zukunftseuphorie. Gerade ›Zeitenwenden‹ sollten genutzt werden, um euphorische Aufbruchsnarrative zu entwerfen, anstatt Anpassung unhinterfragt als dominantes gesellschaftliches Leitbild zu etablieren. Empirische Studien belegen, dass der Glaube an die Beherrschbarkeit der Welt sowie an die eigene Problemlösungskompetenz vor allem bei der kommenden Generation verlorengeht.1 Aber nur Menschen, die euphorisch an ihre Zukunft glauben, verwandeln demoralisierende Vorstellungen in positive Gestaltungsimpulse. Hieraus ergibt sich die Pflicht, resignative Zukunftsbilder und das damit verbundene bedrückende Unwohlsein praktisch aufzulösen und Zukunftseuphorie wieder in den Mittelpunkt kollektiven Weltentwerfens zu rücken. Verantwortungsvolles Zukunftshandeln braucht gleichermaßen kognitives Zukunftsbewusstsein und affektive Zukunftsbetroffenheit. Vor diesem Hintergrund verbindet Zukunftseuphorie Wissen und Handeln. Damit werden Aufbruchserzählungen möglich, die die Gestaltbarkeit der Welt betonen, ohne dabei jedoch die gesellschaftliche Realität zu ignorieren. Zukunft wird dann nicht mehr als unabwendbares Schicksal empfunden, sondern als verantwortungsvolles und gestaltbares Handlungsfeld. Nur auf der Basis von Zukunftseuphorie lässt sich wieder Vertrauen in die Zukunft gewinnen. Im zweiten Teil des Buches geht es daher um die Frage, wie aus Zukunftsnarrativen euphorisch bejahte Zukunftsgestaltung resultieren kann. 1

Vgl. z.B. die SINUS-Studie »Wie ticken Jugendliche?«, vgl.: https://www.sinus-institu t.de/media-center/studien/wie-ticken-jugendliche-2020 oder das Hoffnungsbarometer: https://imp.unisg.ch/-/media/dateien/instituteundcenters/imp/imp-publikatione n/bericht-hoffnungsbarometer-schweiz-2022_de.pdf (17.03.2023).

6. Hoffnung statt Erschöpfung

Ausgangspunkt dieser Überlegungen ist fast zwangsläufig die Krisenhaftigkeit unserer gemeinsam geteilten Welt, die oftmals mit dem Begriff der »VUCA-World« umschrieben wird: Wir leben in Zeiten der Vulnerability (Verletzbarkeit), Uncertainty (Unsicherheit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit). Es bleibt jedoch nicht nur bei abstrakten Kriterien. Vielmehr lassen sich postmoderne Gesellschaften anhand von zahlreichen Demoralisierungs- und Erschöpfungssyndromen beschreiben. Beides resultiert im Gefühl von Zukunftsknappheit oder gar Zukunftsarmut. Das ist der Hintergrund des folgenden Plädoyers für mehr Zukunftseuphorie, die aus Verheißungserzählungen über KI resultieren.

6.1 Knappheit und Katastrophe Zugegeben, ein extremes Beispiel: Todkranke oder zum Tode verurteilte Menschen sind maximal zukunftsarm. In der Forschung (z.B. im Kontext palliativer Medizin) wird hierbei vom Demoralisierungssyndrom gesprochen.1 Mit modernen bildgebenden Untersuchungsmethoden (fMRI/Magnetresonanz-Bildgebung und PRT/positron emission tomography) konnte gezeigt werden, dass sich das Gehirn von Menschen, die keine Zukunft mehr vor sich haben, auffällig verändert. Konkret bilden sich Gehirnareale (Amygdala und präfrontaler Cortex) zurück, die für Hoffnung, positive Emotionen und Kreativität zuständig sind. Mit dem eigenen Tod vor Augen entwickeln Menschen eher düstere oder resignative Zukunftsvorstellungen. Wer nicht mehr an die eigene Zukunft glaubt, wer also nur auf kleinste Veränderungen wartet, um sich diesen anpassen zu können, verliert jeglichen Gestaltungsimpuls. Umgekehrt heben die

1

https://jaapl.org/content/jaapl/33/2/153.full.pdf (15.01.2023).

6. Hoffnung statt Erschöpfung

Ausgangspunkt dieser Überlegungen ist fast zwangsläufig die Krisenhaftigkeit unserer gemeinsam geteilten Welt, die oftmals mit dem Begriff der »VUCA-World« umschrieben wird: Wir leben in Zeiten der Vulnerability (Verletzbarkeit), Uncertainty (Unsicherheit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit). Es bleibt jedoch nicht nur bei abstrakten Kriterien. Vielmehr lassen sich postmoderne Gesellschaften anhand von zahlreichen Demoralisierungs- und Erschöpfungssyndromen beschreiben. Beides resultiert im Gefühl von Zukunftsknappheit oder gar Zukunftsarmut. Das ist der Hintergrund des folgenden Plädoyers für mehr Zukunftseuphorie, die aus Verheißungserzählungen über KI resultieren.

6.1 Knappheit und Katastrophe Zugegeben, ein extremes Beispiel: Todkranke oder zum Tode verurteilte Menschen sind maximal zukunftsarm. In der Forschung (z.B. im Kontext palliativer Medizin) wird hierbei vom Demoralisierungssyndrom gesprochen.1 Mit modernen bildgebenden Untersuchungsmethoden (fMRI/Magnetresonanz-Bildgebung und PRT/positron emission tomography) konnte gezeigt werden, dass sich das Gehirn von Menschen, die keine Zukunft mehr vor sich haben, auffällig verändert. Konkret bilden sich Gehirnareale (Amygdala und präfrontaler Cortex) zurück, die für Hoffnung, positive Emotionen und Kreativität zuständig sind. Mit dem eigenen Tod vor Augen entwickeln Menschen eher düstere oder resignative Zukunftsvorstellungen. Wer nicht mehr an die eigene Zukunft glaubt, wer also nur auf kleinste Veränderungen wartet, um sich diesen anpassen zu können, verliert jeglichen Gestaltungsimpuls. Umgekehrt heben die

1

https://jaapl.org/content/jaapl/33/2/153.full.pdf (15.01.2023).

230

Stefan Selke: Technik als Trost

Auswirkungen des Demoralisierungssyndroms die Bedeutung eines positiven Zukunftsbildes hervor. Positive oder gar euphorische Vorstellungen von Zukunft aktivieren das biochemische Belohnungssystem des Gehirns. Pathetische Manifeste zur Rettung der Welt und Plädoyers für Zukunftseuphorie sind daher mehr als nur intellektuelle Gesten, die zur Erregungsrequisite gebildeter Bevölkerungsschichten gehören. Denn tatsächlich haben – jenseits der skizzierten Extrembeispiele für Zukunftsarmut – lebensdienliche Existenzformen immer häufiger Seltenheitswert. Zukunftsversprechen laufen für die Mehrheit der Menschen erkennbar ins Leere. Die Ausgangslage ist hierbei verwirrend, denn zeitgenössische Gesellschaftsdiagnosen sind ein diskursiv und distinktiv höchst umkämpftes Feld (z.B. Alkemeyer et al. 2019). Gleichwohl lässt ein Grundmuster erkennen: Krisenphänomene können auf individueller, kollektiver sowie planetarer Ebene als Erschöpfungssyndrome eingeordnet werden. Wie wird Erschöpfung auf diesen Ebenen relevant? Zunächst sind Individuen erschöpft. Und zwar von den vielfachen Anforderungen, die an sie gerichtet werden. Noch glauben viele Menschen an das Versprechen des schöpferischen Selbst. Aber sich selbst zu erfinden, ist eben auch ein Müssen. Selbst- und Sinnsuche enden daher manchmal ganz praktisch im Zustand des »erschöpften Selbst« (Ehrenberg 2004). Selbst wer ständig »übt«, wer also immer wieder versucht, sich zu optimieren, erreicht ambitionierte Ziele nicht (mehr) automatisch (Sloterdijk 2011). In einer wettbewerbsorientierten Leistungsgesellschaft driften viele Menschen daher stetig in Richtung Burn-Out (Neckel/Wagner 2013). Erschöpfung mutierte zur Leiterkrankung des postmodernen Zeitalters. (Voss/Weiss 2013) Vor diesem Hintergrund ist es naheliegend, zu resignieren. Etwa indem Entfremdungspathologien diagnostiziert werden (Zima 2014) oder die Welt nur noch über apokalyptische Hermeneutiken erfasst wird (Nagel 2021). So gut wie alles lässt sich problematisieren, die Moderne wird immer seltener als Erfolgsmodell, sondern vielmehr als »große Regression« bilanziert. (Geiselberger 2017) Intellektuelle lässt das nicht kalt, auf die vielfach diagnostizierten kontraproduktive Dynamiken reagieren sie in akademischen Diskursen, z.B. mit Theorien der Fragilität (Bayramoglu/Varela 2021) oder der Überforderung (Nassehi 2021). Auf einer kollektiven Ebene häufen sich die Diagnosen über die Erschöpfung des Sozialen (Lutz 2014) bzw. der Gesellschaft (Grünewald 2013). Diese Form der Erschöpfung zeigt sich unter anderem im Vertrauensverlust in Politik und Institutionen sowie neuen Ungleichheiten und Vulnerabilitäten. Gerade auch das Digitale – so die Empfindung vieler Menschen – ist Ursache von Erschöpfungszu-

6. Hoffnung statt Erschöpfung

ständen. (Albers 2017)2 Schlussendlich hat Erschöpfung eine globale bzw. planetare Dimension. Gerade weil die Begrenztheit planetarischer Ressourcen sowie das Übermaß technologiegetriebener und menschgemachter Umweltveränderungen im Anthropozän immer deutlicher gesehen werden und zugleich kein »Plan B« oder »Notausgang« (Crutzen 2011) vorhanden ist, sind wirkungsvolle Gegenmaßnahmen bislang ungewiss. Deshalb lassen sich moderne Gesellschaften meist nur noch anhand »kritischer Zonen« beschreiben. (Latour/ Weibel 2020) Zusammengefasst sind Demoralisierung, Erschöpfung und Entfremdung eine adäquate Ausgangslage für ein tiefergehendes Verständnis von KI-Verheißungen und damit auch für die zunehmende Notwendigkeit von mehr Zukunftseuphorie. Allerdings darf dabei nicht nur die fehlende Regenerationsfähigkeit Einzelner in den Blick genommen werden, vielmehr sollte Erschöpfung übergreifend als Symptom eines gestörten Zugriffs auf die Welt verstanden werden. Vor diesem Hintergrund stellen sich weitreichende Fragen: Was könnte in einer derart multipel erschöpften Welt als verbindliche Richtschnur dienen? Wie kann der Zugriff auf die Welt in angemessener Weise erneuert werden? Für das Design der Zukunft spielt KI schon jetzt eine zentrale Rolle. Somit ist der Blick auf eine Welt zwischen Erschöpfung und Hoffnung eine gute – wenngleich vielleicht überraschende – Ausgangslage für die gesellschaftswissenschaftliche Einordnung von KI-Verheißungen. Oder anders: Ohne Angst vor Erschöpfung keine Notwendigkeit zur Zukunftsgestaltung. An dieser Stelle kommt schließlich Zukunftseuphorie ins Spiel.

6.2 Flucht statt Heilung Zukunft kann als Projekt verstanden werden. Sie wird in Prozessen zwischen Warenwerdung (»Kommodifizierung«) und Instrumentalisierung kollektiv geformt. Damit ist stets ein Aufforderungscharakter verbunden, der sich stilbildend auf Verheißungserzählungen über das Digitale im Allgemeinen und KI im Besonderen auswirkt. Ihr Buch The Second Machine Age schließen die Autoren

2

Vgl. dazu die Forschungsergebnisse des Projekts Digitaldialog 21. Transdisziplinäre Kartografie des digitalen Wandels: Zwischen partizipativer Gesellschaftsanalyse und transformativer Wissenschaft (https://digitaldialog21.de), die auch im Format öffentlicher Wissenschaft publiziert wurden (https://www.zugluft.de/ausgabe-3-2022).

231

6. Hoffnung statt Erschöpfung

ständen. (Albers 2017)2 Schlussendlich hat Erschöpfung eine globale bzw. planetare Dimension. Gerade weil die Begrenztheit planetarischer Ressourcen sowie das Übermaß technologiegetriebener und menschgemachter Umweltveränderungen im Anthropozän immer deutlicher gesehen werden und zugleich kein »Plan B« oder »Notausgang« (Crutzen 2011) vorhanden ist, sind wirkungsvolle Gegenmaßnahmen bislang ungewiss. Deshalb lassen sich moderne Gesellschaften meist nur noch anhand »kritischer Zonen« beschreiben. (Latour/ Weibel 2020) Zusammengefasst sind Demoralisierung, Erschöpfung und Entfremdung eine adäquate Ausgangslage für ein tiefergehendes Verständnis von KI-Verheißungen und damit auch für die zunehmende Notwendigkeit von mehr Zukunftseuphorie. Allerdings darf dabei nicht nur die fehlende Regenerationsfähigkeit Einzelner in den Blick genommen werden, vielmehr sollte Erschöpfung übergreifend als Symptom eines gestörten Zugriffs auf die Welt verstanden werden. Vor diesem Hintergrund stellen sich weitreichende Fragen: Was könnte in einer derart multipel erschöpften Welt als verbindliche Richtschnur dienen? Wie kann der Zugriff auf die Welt in angemessener Weise erneuert werden? Für das Design der Zukunft spielt KI schon jetzt eine zentrale Rolle. Somit ist der Blick auf eine Welt zwischen Erschöpfung und Hoffnung eine gute – wenngleich vielleicht überraschende – Ausgangslage für die gesellschaftswissenschaftliche Einordnung von KI-Verheißungen. Oder anders: Ohne Angst vor Erschöpfung keine Notwendigkeit zur Zukunftsgestaltung. An dieser Stelle kommt schließlich Zukunftseuphorie ins Spiel.

6.2 Flucht statt Heilung Zukunft kann als Projekt verstanden werden. Sie wird in Prozessen zwischen Warenwerdung (»Kommodifizierung«) und Instrumentalisierung kollektiv geformt. Damit ist stets ein Aufforderungscharakter verbunden, der sich stilbildend auf Verheißungserzählungen über das Digitale im Allgemeinen und KI im Besonderen auswirkt. Ihr Buch The Second Machine Age schließen die Autoren

2

Vgl. dazu die Forschungsergebnisse des Projekts Digitaldialog 21. Transdisziplinäre Kartografie des digitalen Wandels: Zwischen partizipativer Gesellschaftsanalyse und transformativer Wissenschaft (https://digitaldialog21.de), die auch im Format öffentlicher Wissenschaft publiziert wurden (https://www.zugluft.de/ausgabe-3-2022).

231

232

Stefan Selke: Technik als Trost

Erik Brynjolfsson und Andrew McAfee wohl gerade deshalb mit der Aufforderung, Ziele und nicht Mittel ins Zentrum des Denkens zu stellen: »Im zweiten Maschinenzeitalter müssen wir uns ganz genau überlegen, was wir wirklich wollen und worauf wir Wert legen, sowohl als Einzelne als auch als Gesellschaft. Unsere Generation hat mehr Möglichkeiten geerbt, die Welt zu verändern, als jede andere. Das ist Grund für Zuversicht – doch nur, wenn wir wohlüberlegt Entscheidungen treffen. Technologie ist kein Schicksal. Wir haben unser Schicksal selbst in der Hand.« (Brynjolfsson/McAfee 2014: 309). Das gelingt allerdings nur, wenn Zukunft als gestaltbares Projekt und nicht als mangelhafte Ressource empfunden wird. Die zentrale gesellschaftliche Funktion von Verheißungserzählungen besteht somit darin, der Angst vor Zukunftsmangel und der Erfahrung von Erschöpfungszuständen einen hoffnungsvollen, euphorischen Zielhorizont entgegenzusetzen. So lässt etwa die fortschreitende Selbstzerstörung der Menschheit wenig Raum dafür übrig, angstfrei an eine bessere Welt zu glauben. »Die letzte Epoche der Utopie hat begonnen«, fasste es der Intellektuelle Roger Willemsen in seiner fulminanten Rede Wer wir waren zusammen, »und wie alle Ressourcen wird auch die Zukunft knapp. Am Ende aller Berechnungen ist sie eben keine gänzlich Unbekannte mehr. Was kommt, kommt dann nicht als Utopie, sondern als Spekulationsobjekt der Realpolitik.« (Willemsen 2016: 52) Kann KI den verschlossenen Zielhorizont wieder öffnen? Oder sogar eine Renaissance des utopischen Denkens einleiten? Jedenfalls sind mit KI zahlreiche Erwartungen und Hoffnungen verbunden. Der narrative Wissensraum über KI setzt sich aus variantenreichen Verheißungsnarrativen zusammen. Selbst in dämpfenden Gegennarrativen scheinen noch Verheißungen durch, wenngleich als diskursive Kontrastfolie. Geschichten über KI wirken damit wie eine zeitgemäße Aktualisierung religiöser Verheißungen und Heilsbotschaften. KI-Verheißungen sind nicht etwa beliebt, weil sie plausibel oder objektiv wären, sondern weil sie eine affektive Lücke in modernen Gesellschaften schließen. Kurz: Zukunftseuphorische Verheißungserzählungen wirken wie Trost, in einer erschöpften Welt dienen sie als Trostersatz.

Heilung eines gestörten Zugriffs auf die Welt KI-Verheißungen haben gleich mehrere Funktionen: Zunächst wird prognostiziert, dass KI die Berechenbarkeit des Sozialen und die Verwertung des Menschen auf die Spitze treiben wird. Dieses Narrativ findet Eingang in zahlreiche dystopisch eingefärbte Fiktionen. Auf dieser Grundlage entsteht durch

6. Hoffnung statt Erschöpfung

Mechanismen der rationalen Diskriminierung (Selke 2015) eine ausgeweitete Kampfzone des Sozialen. Wird Leistung zum (sinnentleerten) Zentrum des Sozialen erhoben wird, dann treibt Menschen das in die Neurose. Und dieses »Loch im Sein« (Distelhorst 2014: 75) ist mit einer permanenten »Dezentrierung« (ebd.: 77) des Menschseins verbunden, die sich allein schon aus der Dynamik des antizipierten Scheiterns ergibt. Eine demoralisierte, erschöpfte und entfremdete Gesellschaft kann deshalb am Ende nur durch die »Rezentrierung des gesellschaftlichen Gravitationszentrums« (ebd.: 137) stabilisiert werden. Und genau diese Stabilisierung oder gar »Heilung« ist das Kernversprechen von KI, deren Verheißungen zwischen exorbitanten funktionalen Aspekten und prognostizierten Wundern changieren. Die größte Verheißung von KI besteht in diesem Zusammenhang darin, den weitgehend gestörten Zugriff auf die Welt zu korrigieren. Dabei entsteht der Eindruck, »dass wir es mit einem großen Orientierungsvakuum zu tun haben, bei dem viele Menschen die Orientierung im Außen nicht mehr finden«, fasst Karsten Wendland zusammen. »Genau an dieser Stelle kann KI helfen, selbst wenn es sich nur um ganz einfache Dinge wie Navigationssysteme handelt. Denn immer sind damit unmittelbare Vorteile verbunden.« Diese Orientierungsfunktion findet sich auch in komplexen Anwendungsfeldern von KI. Nicht nur in Japan kann Techno-Animismus als Reaktion auf postmoderne Gesellschaftsformen verstanden werden, die sich durch Informationsüberflutung, Schnelllebigkeit und Anonymität auszeichnen. Die Vermenschlichung von Objekten wird von verunsicherten Menschen als stabilisierender Faktor wahrgenommen.

Flucht ins Technische Dieses Versprechen auf Orientierung beruht allerdings stets auf einem Übermaß an Rechenleistung. Jede KI-Verheißung ist damit mit einer Flucht ins Technische verbunden. In seinem Buch Die Macht der Computer und die Ohnmacht der Vernunft breitete der Computerpionier Josef Weizenbaum gerade diese Zukunftserzählung aus. Zunächst zeigte er anhand der euphorischen Reaktionen auf sein (aus heutiger Sicht simples) KI-Programm ELIZA, »welch enorm übertriebene Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, von der es nichts versteht« (Weizenbaum 1977: 19). Damit ist ein wichtiger Grundmechanismus benannt: Erst durch euphorische Sinnzuschreibungen entstehen Verheißungen. Zuschreibungen erklären auch den wilden Zauber, der mit dem Begriff »KI« einhergeht: Die einzige Analogie, die Menschen zur Verfügung steht, um sich die »inne-

233

234

Stefan Selke: Technik als Trost

re Realität« von Computern zu erklären, ist wohl das Modell ihrer eigenen Denkfähigkeit. Dies sei, so Weizenbaum, der Grund dafür, warum Menschen bei der Beurteilung des Potenzials weit über das Ziel hinausschießen. (Ebd.: 24) Und es mag auch erklären, warum die Einführung neuer Technologien fast zwangsläufig mit etwas einhergeht, was Utopiemüdigkeit gleichkommt. »Wir können zwar zählen«, so Weizenbaum, »aber wir vergessen immer schneller, [...] bei welchen Dingen es überhaupt wichtig ist, dass sie gezählt werden und warum es überhaupt wichtig ist.« (Ebd.: 32) Folgende Merkregel ist in diesem Kontext von zentraler Bedeutung: Rechenleistung schafft nicht zwangsläufig auch Sinnhaftigkeit. Die Nebenfolgen dieser positivistischen Aufladung von Rechenmaschinen sind hingegen eklatant. Die Einführung des Computers verstärkte den Zwang zur Rationalisierung zahlreicher Prozesse. Die Rechenmaschine wurde zum Hilfsmittel ernannt, dessen Aufgabe darin bestehen sollte, Ordnung ins Dasein zu bringen. Menschliches Denken sollte berechenbar werden, Aussagen über das Leben verwandeln sich von Wahrheit zu Beweisbarkeit. Es gibt wahrscheinlich keinen größeren Kritiker des Werkzeugbegriffs als Josef Weizenbaum, der davon ausging, dass die Erfolge des Computers auf einer Tautologie beruhen. Computer wurden zu einem unentbehrlichen Bestandteil der Gesellschaft und weil sie derart in gesellschaftliche Strukturen integriert werden konnten, würde ein Verzicht auf Computer einer Schädigung der Gesellschaft gleichkommen. (Ebd. 50) Die Kritik Weizenbaums lässt sich auch als verpasste Chance auf einen utopischen Umbau der Gesellschaft zusammenfassen. Statt auf die zunehmende Komplexität der (Nachkriegs-)Gesellschaft mit einem Anreiz für politische und gesellschaftliche Neuerungen zu reagieren, statt also mit »sozialen Erfindungen« (heute würde eher von »sozialen Innovationen« gesprochen werden) zu reagieren, erfolgte die Flucht in die technische Erfindung und diese andauernde Flucht verhindert seitdem die (radikale) Erneuerung gesellschaftlicher Strukturen. »Aber von den vielen Möglichkeiten einer gesellschaftlichen Innovation, die er dem Menschen eröffnete, war die verhängnisvollste die, ihm alle Überlegungen in Richtung auf eine wesentliche Veränderung aus dem Kopf zu schlagen«, fasst Weizenbaum die negativen Folgen der zentralen Effizienzilllusion im Kontext der Digitalisierung zusammen. (Ebd.: 4)

Flucht in das komfortable Leben Mit der Flucht ins Technische geht zudem die Flucht in den Komfort einher: KI-Anwendungen, die in den Alltag integriert werden und die Menschen

6. Hoffnung statt Erschöpfung

im Kontext dominanter Anpassungs-Narrative (praktisch) kennenlernen, sind zunächst komfortable Technologien. »Mit Sicherheit finden es manche Menschen komfortabel, wenn sie bestimmte Dinge erst gar nicht zu Gesicht bekommen«, so der Psychologe Fabian Hutmacher. »Solange der Algorithmus funktioniert, ist ihnen egal, wie der funktioniert.« Als analytische Richtschnur für weitere Debatten könnte hier das Konzept der Konvivialität (Lebensdienlichkeit) dienen. Es unterscheidet, wann Technologien dem Menschen dienen und wann es sich gerade umgekehrt verhält. Unter Konvivialität versteht der Philosoph Ivan Illich das »Konzept einer multidimensionalen Ausgewogenheit des menschlichen Lebens«. Illich (2009) geht davon aus, dass lebensdienliche Werkzeuge dem Gemeinwohl und nicht bloß Eliten dienen sollten. Bei manipulativen Technologien ist dies gerade nicht der Fall. Manipulative Technologien übersetzen qualitative Vorgänge des Lebens in abstrakte Quantitäten. Bereits der Soziologe Herbert Marcuse (2004: 243) zeigte, dass der damit verbundene technologische Determinismus sich in der (irrigen) Annahme begründet, dass sich soziale Werte in technische Werte übersetzen ließen. Der technologische Determinismus engt unter dem Strich ethische Gestaltungsspielräume ein. »Wir haben so viel Gestaltungspotenzial wie in der Frage, ob wir bereit sind, mehr für Kleidung zu bezahlen, wenn sie fair genäht und transportiert wurde. Wir haben genau so viel Möglichkeiten, wie bei fair gehandelten Kaffee«, so Wolfgang Eckstein. »Das Dumme ist nur, dass KI-Assistenten wie Alexa und Siri so wahnsinnig praktisch und komfortabel sind.«

Flucht in die Ideologie Die Pointe dieser Analyse besteht allerdings nicht darin, dass Maschinen (oder Werkzeuge) Menschen konditionieren, sondern diese Maschinen und Werkzeuge ihrerseits auf sozialen Programmen beruhen, und zwar solchen, die meist Ideologien genannt werden. Manipulative Werkzeuge sind ideologisch, weil sie Vorstellungen sowie Erwartungen über ›richtig‹ und ›falsch‹ von außen aufzwingen. Gerade in digitale Technologien sind zahlreiche Erwartungen »eingebaut« (Kaminski 2010). Das betrifft – wie im Fall von ELIZA und allen nachfolgenden KI-Systemen – auch die euphorische Erwartung einer besseren Zukunft. Der Preis dafür ist hoch: Im Kontext von Big Data und KI werden Menschen zu unfreiwilligen Konsumenten sozialer Programme. Ivan Illich (2009: 34) fasste diesen Aspekt so zusammen, dass »identische Werkzeuge [...] die Entwicklung der gleichen Persönlichkeitsstrukturen« fördern. Während komfortable Technologien meist manipulativ sind, pries Illich

235

236

Stefan Selke: Technik als Trost

konviviale Technologien als progressiv an, weil sie Menschen herausfordern, zu lernen. Folgt man dem Psychoanalytiker Wolfgang Schmidbauer (2015), dann unterstützen komfortable Technologien das Verlernen (»De-Skilling«) grundlegender menschlicher Fähigkeiten. Sie steigern die Abhängigkeit von Experten und/oder Algorithmen, die für uns stellvertretend über ›richtig‹ und ›falsch‹ entscheiden. Deren Maß ersetzt immer häufiger das eigene Wissen um die Angemessenheit. (Gadamer 2003)3 Werden die drei genannten Aspekte – die Flucht ins Technische, in den Komfort und in die Ideologie – ernstgenommen, zeigt sich, dass AnpassungsNarrative im Kern Fluchterzählungen sind. »An sich ist der Komfort nicht problematisch«, so Wolfgang Eckstein. »Wenn es nur dabei bliebe. Aber was so wunderbar komfortabel funktioniert, was so angenehm ist, wird schnell auf andere Bereiche übertragen.« Genau diese Übertragung passiert gegenwärtig und wird kaum bemerkt. Trotz massiver Kritik von Verbraucher- und Datenschützern willigen weltweit immer mehr Menschen in einen neuen digitalen Gesellschaftsvertrag ein. Digitale Chancen sind ihnen wichtiger als persönliche Freiheiten. Das bedeutet: Menschen lassen sich nicht länger vor dem schützen, wonach sie sich sehnen. (Selke 2017) Was gegenwärtig im Silicon Valley – meist im Auftrag von Facebook, Alphabet und Apple – entsteht, sind verheißungsvolle techno-utopische Welten, Orte für ein bequemes, unkompliziertes und vor allen Dingen vorhersehbares Leben. Die digitale Industrie übersetzt Sehnsüchte in standardisierte Zahlenreihen und schafft eine metrische Kultur auf der Basis von Messbarkeit und Vergleichbarkeit. Warum soll ein Mensch in dieser Welt noch selbst denken, wenn er einfach nur konsumieren kann? Auch mit Meta, dem Nachfolger von Facebook, verspricht Mark Zuckerberg beispielsweise einen grundlegenden Beitrag zur Zukunftsgestaltung. »Willkommen im nächsten Kapitel des sozialen Zusammenhalts«, verkündete er dazu 2021 auf Twitter.

3

Der Philosoph Hans-Georg Gadamer verweist in seinem Buch Über die Verborgenheit der Gesundheit auf ein zentrales Problem mit dem zeitgenössischen Begriff von Maß, indem er auf den platonischen Dialog vom Politiker Bezug nimmt. »Dort ist davon die Rede, es gebe ein Maß, mit dem man nicht an etwas herantritt, sondern das etwas in sich selbst hat. […] Es gibt nicht nur das durch ein angelegtes Maß Gemessene, sondern auch das Angemessene. Das Angemessene ist nichts, was sich nachmessen lässt. […] Das Angemessene hat seinen wahren Bedeutungssinn gerade darin, dass es etwas meint, das man nicht definieren kann.« (Gadamer 2003: 167)

6. Hoffnung statt Erschöpfung

6.3 Affekte als Schwellenphänomen Die bislang aufgeführten Argumente und Beispiele werden im Folgenden zur These der »Zukunftseuphorie als Trost« zusammengeführt. Verheißungserzählungen werden zunächst als eine spezielle »kommunikative Gattung« (Knoblauch 2019) verstanden und zwischen Gesellschaftsdiagnose und Zukunftspraxis verortet. Zukunftseuphorische KI-Narrative sind ein Element von Schwellendebatten, die sich stets mit der Frage befassen, »ob wir uns gerade mitten in oder kurz vor irgendeiner fundamentalen, epochalen gesellschaftlichen Transformation befinden, ob eine neue historische Phase oder ein neuer Gesellschaftstyp im Entstehen ist« (Peters 2007). Zwar können Verheißungserzählungen keine Antwort auf diese Frage geben. Allerdings ist Zukunftseuphorie – so die hier vertretene These – ein notwendiges Element von Schwellendebatten und Übergangszeiten. Zukunftseuphorie kann niemals im Kontext von Anpassungs-Narrativen entstehen, die (wie gezeigt) eher Fluchterzählungen sind, sondern nur als prägendes Stilmittel von AufbruchsNarrativen. Aber wo genau lässt sich Euphorie als Schwellenphänomen verorten? Hier hilft das Wissen darüber, dass Zukunftserzählungen und Zukunftspraktiken »eng mit Affekt- und Begehrenskonstellationen verbunden« sind (Krämer 2019: 87). In seiner Anthropologie der Zukunftsverantwortung macht der Philosoph Dieter Birnbacher ebenfalls klar, dass Zukunftsverantwortung – als Grundlage jeglicher Form der Gesellschaftsgestaltung – ohne Zukunftsbewusstsein undenkbar ist. In diesem Zusammenhang weist auch er darauf hin, dass es neben einem kognitiven Zugang zur Zukunft auch einen affektiven braucht. Zukunftshandeln basiert auf kognitivem Zukunftsbewusstsein und affektiver Zukunftsbetroffenheit gleichermaßen. (Birnbacher 1988: 174) Dieser Umstand lässt sich hier argumentativ wie folgt nutzen: KI-Verheißungen erzeugen Euphorie als einen notwendigen Affekt in Schwellenkontexten. In säkularisierten sowie demoralisierten, erschöpften und entfremdeten Gesellschaften wirkt Euphorie wie Trost. Oder anders: Zukunftseuphorie ist ein zeitgenössischer Trostersatz. Damit kann Zukunftseuphorie als Signatur der Gegenwartsgesellschaft betrachtet werden, als wertvolle, bislang kaum ausreichend erschlossene Ressource. Im Rahmen von Gegennarrativen kann Zukunftseuphorie zwar widersprochen werden – allerdings wiederum unter Bezugnahme auf Affekte. Das ändert nichts daran, dass sich zukunftseuphorische Erzählungen über KI auch weiterhin wahrnehmungs- und handlungslei-

237

238

Stefan Selke: Technik als Trost

tend auswirken werden. Aber wo kommen diese Zukunftsnarrative eigentlich her?

6.4 Jahrmärkte der Hoffnung Über die Zukunft gibt es keine Daten. Gleichwohl hält sich die Vorstellung, dass Daten eine gute Grundlage für Prognosen bieten könnten, hartnäckig. Seit Weizenbaums Grundsatzkritik wird zwar der Wegfall von Denkalternativen regelmäßig beklagt, KI wird trotzdem kaum noch in Frage gestellt. Vor dem Hintergrund der skizzierten gesellschaftsdiagnostischen Ausgangslage bestünde das gesellschaftliche Ziel idealerweise in der Erzeugung von Hoffnung als Form symbolischen Kapitals. Für diese Kapitalsorte soll hier der Begriff »utopisches Kapital« genutzt werden.4 Ausgestattet mit einer Mischung aus Insiderwissen und Charisma sind digitale Evangelisten darauf spezialisiert, Zukunftseuphorie (oder: Zukunftshoffnung, Aufbruchsstimmung) zu erzeugen. Sie erzeugen utopisches Kapital und machen es nutzbar, d.h. sie kapitalisieren Zukunftseuphorie. Hierbei entsteht eine neue Form der Wertschöpfung. Der für seine schrille Persönlichkeit bekannte Starprediger Elon Musk leitet Unternehmen, die an der Börse nicht für ihre Leistungen, sondern gerade für die Erzeugung einer Aufbruchsstimmung bewertet werden – unabhängig von tatsächlich nachprüfbaren Leistungen. Die Investition in Zukunftsephorie kommt damit einer Desensibilisierung gegen Fakten gleich. (Wolff 2020: 104) Die in Form von Verheißungen verbreitete Hoffnungsrhetorik schafft jedoch gerade den Sinn, der in erschöpften Gesellschaften (auf allen Ebenen) fehlt. Im Zentrum dieser Erzählungen rund um den »Gospel der Disruption« (Jil Lepore) steht KI als das »Zauberwort« schlechthin. »Gute Börsennarrative erzählen heute schillernde Geschichten über das das Morgen und Übermorgen, die auf jeden Fall mit dem Digitalen zu tun haben.« (Ebd.: 130) Das kann kritisch beäugt werden, gleichzeitig sollte Zukunftseuphorie als wichtige Ressource oder Kapitalsort anerkannt werden. In seinen Betrachtungen zum gesellschaftlichen Wandel behauptet auch der österreichische Sozialforscher Hans Brunner, dass die Welt mehr zukunftseuphorische Visionäre als zukunftsskeptische Kritiker brauche. Er plädiert für einen »realistischen Blick auf die Welt von heute, gepaart mit Optimismus und einem hohen Maß an Vertrauen in die Zukunft.« (Brunner 2015: 307) Damit skizziert Brunner ziemlich 4

Vgl. dazu ausführlich: Selke (2022: 457ff.).

238

Stefan Selke: Technik als Trost

tend auswirken werden. Aber wo kommen diese Zukunftsnarrative eigentlich her?

6.4 Jahrmärkte der Hoffnung Über die Zukunft gibt es keine Daten. Gleichwohl hält sich die Vorstellung, dass Daten eine gute Grundlage für Prognosen bieten könnten, hartnäckig. Seit Weizenbaums Grundsatzkritik wird zwar der Wegfall von Denkalternativen regelmäßig beklagt, KI wird trotzdem kaum noch in Frage gestellt. Vor dem Hintergrund der skizzierten gesellschaftsdiagnostischen Ausgangslage bestünde das gesellschaftliche Ziel idealerweise in der Erzeugung von Hoffnung als Form symbolischen Kapitals. Für diese Kapitalsorte soll hier der Begriff »utopisches Kapital« genutzt werden.4 Ausgestattet mit einer Mischung aus Insiderwissen und Charisma sind digitale Evangelisten darauf spezialisiert, Zukunftseuphorie (oder: Zukunftshoffnung, Aufbruchsstimmung) zu erzeugen. Sie erzeugen utopisches Kapital und machen es nutzbar, d.h. sie kapitalisieren Zukunftseuphorie. Hierbei entsteht eine neue Form der Wertschöpfung. Der für seine schrille Persönlichkeit bekannte Starprediger Elon Musk leitet Unternehmen, die an der Börse nicht für ihre Leistungen, sondern gerade für die Erzeugung einer Aufbruchsstimmung bewertet werden – unabhängig von tatsächlich nachprüfbaren Leistungen. Die Investition in Zukunftsephorie kommt damit einer Desensibilisierung gegen Fakten gleich. (Wolff 2020: 104) Die in Form von Verheißungen verbreitete Hoffnungsrhetorik schafft jedoch gerade den Sinn, der in erschöpften Gesellschaften (auf allen Ebenen) fehlt. Im Zentrum dieser Erzählungen rund um den »Gospel der Disruption« (Jil Lepore) steht KI als das »Zauberwort« schlechthin. »Gute Börsennarrative erzählen heute schillernde Geschichten über das das Morgen und Übermorgen, die auf jeden Fall mit dem Digitalen zu tun haben.« (Ebd.: 130) Das kann kritisch beäugt werden, gleichzeitig sollte Zukunftseuphorie als wichtige Ressource oder Kapitalsort anerkannt werden. In seinen Betrachtungen zum gesellschaftlichen Wandel behauptet auch der österreichische Sozialforscher Hans Brunner, dass die Welt mehr zukunftseuphorische Visionäre als zukunftsskeptische Kritiker brauche. Er plädiert für einen »realistischen Blick auf die Welt von heute, gepaart mit Optimismus und einem hohen Maß an Vertrauen in die Zukunft.« (Brunner 2015: 307) Damit skizziert Brunner ziemlich 4

Vgl. dazu ausführlich: Selke (2022: 457ff.).

6. Hoffnung statt Erschöpfung

genau die Haltung, die hier mit Zukunftsephorie umschrieben wird. »Furcht vor dem Weltuntergang, immer nur an die negativen Begleiterscheinungen gegenwärtiger Konflikte und irrwitzigen Auswüchse menschlichen Handelns zu denken, wird uns kaum weiterbringen.« Immer wieder werden Visionäre gefragt, wenn es um mögliche Zukünfte mit KI geht, so auch im Kontext der Ausstellung AI: More than Human (Barbican 2019: 209ff.). Und selbst wenn die Experten sich widersprechen, liefern ihre Argumente doch einen notwendigen Beitrag zum narrativen Wissensraum über KI. Von Seiten der Wissenschaft leistet gegenwärtig Kai-Fu Lee einen solchen optimistischen Beitrag: »KI gibt uns Aufschluss darüber, wie wir lernen, quantifiziert menschliche Denkprozesse, erklärt menschliches Verhalten und lässt uns verstehen, was Intelligenz ermöglicht. Es ist der letzte Schritt der Menschheit auf ihrem Weg, sich selbst zu erkennen«, schreibt er in seinem Buch KI 2041. »Ich hoffe, einen Beitrag zu dieser neuen, verheißungsvollen Wissenschaft leisten zu können.« (Lee/Chen 2021: 9) Lee behauptet, dass KI inzwischen den Elfenbeinturm der Wissenschaft verlassen hat und in immer neuen Anwendungen die Menschheit beglücken wird. Dabei dürften nicht nur negative Begleiterscheinungen in den Blick genommen werden, stattdessen sei es notwendig, »das ganze Bild« (ebd.: 12) zu sehen. »Mir ist aufgefallen«, so Lee, »dass sich Menschen oft aus drei Quellen (über KI) informieren: aus ScienceFiction-Literatur, den Nachrichten und einschlägigen Äußerungen einflussreicher Personen.« Lee kritisiert, dass diese »Vordenker« selten ein fundiertes Verständnis haben. »Daher ist es nicht verwunderlich, dass die öffentliche Meinung über KI – die auf Halbwahrheiten beruht – mittlerweile von Bedenken oder sogar offener Ablehnung geprägt ist.« (Ebd.: 13) Konsequent fordert er daher weniger Dagegen-Narrative und mehr Aufbruchs-Narrative: »Mir geht es darum, die tatsächliche Geschichte von KI [...] auf eine unvoreingenommene und ausgewogene, aber auch konstruktive und hoffnungsvolle Weise zu erzählen.« (Ebd.: 14) Sein eigenes Experiment besteht darin, zusammen mit dem Schriftsteller Chen Qiufan ein Sachbuch mit fiktionalen Komponenten zusammenzustellen, ein narratives Sampling, dass beide »Scientific-Fiction« (wissenschaftliche Fiktion) statt Science-Fiction nennen.

Marktmechanismen zur Erzeugung von Zukunftseuphorie Auch wenn Zukunftsdenken immer wieder als seicht, oberflächlich oder sogar irreführend kritisiert wird, funktioniert der Marktmechanismus zur Erzeugung von Zukunftseuphorie – Zukunft ist schließlich eine Ware wie jede

239

240

Stefan Selke: Technik als Trost

andere auch. »Ray Kurzweil wird nicht müde, in jedem seiner Interviews zu betonen, dass er mehr als 100 Pillen pro Tag schluckt, um die Singularität noch zu erleben, letztlich also, um unsterblich zu werden«, so der Soziologe Oliver Krüger. »Da steckt Business dahinter.« Das Zukunftsdenken bezieht sich dabei auf verschiedene Wirkwelten. »Kein Wunder, dass der Transhumanismus im Silicon Valley so viele Anhänger hat«, berichtet auch der Journalist Arno Frank. »Wer die Wirklichkeit modifiziert, fängt gerne bei sich selbst an.«5 Hinzu kommt »die durch Buchautoren und Medien gespeiste Bewunderung und Überhöhung der Biografien von Silicon-Valley-Stars«, die das Leben der neuen Digitalunternehmer wie ein modernes Märchen wirken lassen. (Wolff 2020: 132) Zahlreiche Wissenschaftsforscher bemühen sich, diese Bild zu widerlegen. Sie versuchen zu zeigen, dass Innovation und Wandel immer durch eine komplexe Mischung verschiedener Einflüsse vorangebracht werden und niemals durch die Leistungen einzelner Personen. Die Innovationsforscherin Marianna Mazzucato (2018) kritisiert das überholte Bild des einsamen Forschergenies, das durch den Persönlichkeitskult um Steve Jobs, Jeff Bezos oder Elon Musk (und anderer) genährt wird. Verheißungen sollten also nicht nur theologisch und heilsgeschichtlich gelesen werden, sondern auch kapitalismuskritisch. »Im Begriff KI steckt bereits eine Überhöhung, die Annahme, dass in künstlicher Intelligenz mehr Intelligenz steckt als in menschlicher Intelligenz. Deswegen müssen wir KI ja auch anbeten. KI verspricht mehr vom Leben, als wir bislang erwarten konnten. Das Künstliche verspricht mehr. Und das ist ein bewährtes Modell im Kapitalismus«, so Wolff. In anderen Worten: Vom Warenfetisch bei Karl Marx geht es direkt zum KI-Technikfetisch im Silicon Valley. Gleichzeitig stellt sich die Frage, ob KI-Verheißungen aufgrund des Fetischcharakters nicht auch ähnlich fehlgeleitete Versprechungen wie der Kapitalismus sind. Ohne auf eine Antwort auf diese Frage zu warten, werfen Politiker »mit großen Geldbeträgen um sich, weil sie vom Licht der Innovation geblendet sind«, so Verena van Zyl-Bulitta. Diese Blendung6 ist einerseits an rhetori5

6

https://www.spiegel.de/kultur/tv/wie-don-t-look-up-superreiche-karikiert-demkind-haengen-massen-an-den-lippen-a-ecab531c-9c23-4246-8a58-279a0fc23010 (05.01.2022). In diesem Zusammenhang lohnt eine Lektüre des grotesken Erstlingswerk Die Blendung des späteren Literaturnobelpreisträgers Elias Canetti, in dem die Unmöglichkeit einer gemeinsamen Perspektive auf die Umwelt anhand skurriler Figuren beschrieben wird. In der Romanhandlung drückt sich damit exemplarisch die Isolation und Erschöpfung des modernen Menschen aus. (Canetti 2012)

6. Hoffnung statt Erschöpfung

sche Techniken und narrative Überzeugungsleistungen (Sukulla 2019) gebunden, andererseits an eine passende Bühne.

6.5 Orte des Zukunftsdenkens Genau dafür gibt es prädestinierte Orte des Zukunftsdenkens. Techno-utopisches Denken funktioniert nicht überall gleichermaßen. Techno-Utopien sind eine beliebte und verbreitete Möglichkeit, um sich perfekte Zukünfte zu erträumen. Die damit verbundenen Machbarkeitsfantasien erscheinen fast grenzenlos: Leben wird einfach nur bezaubernd sein und der Tod wird sowieso eines Tages abgeschafft. Gegenwärtig ist die Westküste der USA die prominenteste Keimzelle vieler Formen des vulgären Techno-Utopismus. Drei der weltverändernden Technologieunternehmen – Apple, Facebook und Google (bzw. Alphabet) – haben dort ihren Firmensitz. In deren Umfeld wimmelt es nur so von techno-utopischen Subkulturen: Transhumanisten glauben an eine evolutionäre Verschmelzung des menschlichen Körpers mittels digitaler Technik – und produzieren entsprechende Quest-Narrative. Wenn etwa Evolutionsbiologen wie Simon Morris von der Unvermeidbarkeit des Menschen im Kontext der Evolution sprechen (zit. n. Gould 2000: 426), dann greifen Trans- und Posthumanisten dieses Argument gerne auf, um es in Richtung der Unvermeidbarkeit von Maschinen-Menschen zu verlängern. Für Singularisten ist es nur eine Frage der Zeit, bis die Menschheit von einer technisch überlegenen künstlichen Intelligenz dominiert wird – dafür stehen die KI-Verheißungen von Ray Kurzweil oder Nils Boström. Und Technogaianisten sehnen sich nach grünen und sauberen Technologien, um den Planeten Erde vor der Vermüllung und dem drohenden Untergang zu retten – was sich am deutlichsten im bereits vorgestellten Manifest Novozän von James Lovelock ausdrückt. An den Orten des Zukunftsdenkens treffen Technooptimismus und Zivilisationswandel zusammen: Zukunftsdenken erzeugt Zukunftseuphorie als Trost. »Dabei wirkt die Aussicht auf Menschen, die den Handlungsanweisungen einer KI folgen, gerade realistisch gegenüber esoterischen Techno-Utopien von Unsterblichkeit und Transfiguration des Menschen zur Maschine. [...] Einig sind sich beide Erzählungen nur in der Hoffnung auf den technischen Fortschritt.« (Simanowski 2020: 114) Fast schon ethnografisch nimmt Frank Schätzing in seinem Thriller Die Tyrannei des Schmetterlings gerade diese Orte des Zukunftsdenken in Augenschein. Palo Alto erscheint als große Bühne der Eitelkeit aber auch als

241

6. Hoffnung statt Erschöpfung

sche Techniken und narrative Überzeugungsleistungen (Sukulla 2019) gebunden, andererseits an eine passende Bühne.

6.5 Orte des Zukunftsdenkens Genau dafür gibt es prädestinierte Orte des Zukunftsdenkens. Techno-utopisches Denken funktioniert nicht überall gleichermaßen. Techno-Utopien sind eine beliebte und verbreitete Möglichkeit, um sich perfekte Zukünfte zu erträumen. Die damit verbundenen Machbarkeitsfantasien erscheinen fast grenzenlos: Leben wird einfach nur bezaubernd sein und der Tod wird sowieso eines Tages abgeschafft. Gegenwärtig ist die Westküste der USA die prominenteste Keimzelle vieler Formen des vulgären Techno-Utopismus. Drei der weltverändernden Technologieunternehmen – Apple, Facebook und Google (bzw. Alphabet) – haben dort ihren Firmensitz. In deren Umfeld wimmelt es nur so von techno-utopischen Subkulturen: Transhumanisten glauben an eine evolutionäre Verschmelzung des menschlichen Körpers mittels digitaler Technik – und produzieren entsprechende Quest-Narrative. Wenn etwa Evolutionsbiologen wie Simon Morris von der Unvermeidbarkeit des Menschen im Kontext der Evolution sprechen (zit. n. Gould 2000: 426), dann greifen Trans- und Posthumanisten dieses Argument gerne auf, um es in Richtung der Unvermeidbarkeit von Maschinen-Menschen zu verlängern. Für Singularisten ist es nur eine Frage der Zeit, bis die Menschheit von einer technisch überlegenen künstlichen Intelligenz dominiert wird – dafür stehen die KI-Verheißungen von Ray Kurzweil oder Nils Boström. Und Technogaianisten sehnen sich nach grünen und sauberen Technologien, um den Planeten Erde vor der Vermüllung und dem drohenden Untergang zu retten – was sich am deutlichsten im bereits vorgestellten Manifest Novozän von James Lovelock ausdrückt. An den Orten des Zukunftsdenkens treffen Technooptimismus und Zivilisationswandel zusammen: Zukunftsdenken erzeugt Zukunftseuphorie als Trost. »Dabei wirkt die Aussicht auf Menschen, die den Handlungsanweisungen einer KI folgen, gerade realistisch gegenüber esoterischen Techno-Utopien von Unsterblichkeit und Transfiguration des Menschen zur Maschine. [...] Einig sind sich beide Erzählungen nur in der Hoffnung auf den technischen Fortschritt.« (Simanowski 2020: 114) Fast schon ethnografisch nimmt Frank Schätzing in seinem Thriller Die Tyrannei des Schmetterlings gerade diese Orte des Zukunftsdenken in Augenschein. Palo Alto erscheint als große Bühne der Eitelkeit aber auch als

241

242

Stefan Selke: Technik als Trost

Jahrmarkt der Zukunftshoffnung. »Täglich entsteht dort bahnbrechend Neues«, so einer der Protagonisten des Romans. »Ein Biotop für Durchgeknallte. Der Zoo gewissermaßen. [...] Das Silicon Valley ist eine Besinnungsstätte für Besinnungslose. Lauter Junkies im Taumel ihrer Ideen, und die Droge heißt Machbarkeit.« (Schätzing 2018: 141ff.) In diesem Jahrmarkt investieren »tapfere Streiter für eine bessere Welt« (ebd.: 289) in die »Weltfluchtträume« (ebd.: 535) der digitalen Bohème. Und zwar mit grenzenlosem Elan und hoher Risikobereitschaft. »In Startkapital steckte schließlich Start, der Schub musste ausreichen, um die Rakete aus dem Schwerefeld der Bedenkenträger herauszukatapultieren.« (Ebd.: 183) In der echten Welt kommt es dabei zu Effekten der Selbstverstärkung, wenn wichtige Posten innerhalb der HighTech-Unternehmen von Personen besetzt werden, »die für ihre utopisch anmutenden Technologievisionen bekannt sind« (Budian 2020: 32). Auch für den deutsch-amerikanischen Wissenschaftler und Autor HansUlrich Gumbrecht gibt es ein klar erkennbares geografisches Zentrum aller Zukunftsverheißungen, dass sich durch einen klar erkennbaren genius loci von anderen Orten abgrenzen lässt. Für Gumbrecht (der selbst an der kalifornischen Universität in Standford lehrt) hat der Weltgeist im Silicon Valley Quartier bezogen. »Wenn Hegel heute lebte und die Frage nach dem Ort der Weltseele stellte, dann würde er sie im Silicon Valley verorten.« (Gumbrecht 2018: 17) Gerade diese Region bietet zahlreiche Zukunftsmöglichkeiten, dort werden zukunftseuphorische Geschichten fast schon wie am Fließband produziert. Das Silicon Valley ist die selbsternannte Wiege einer besseren Welt, die auf Elektronik, Computer und KI basiert. Auf wenigen Quadratkilometern entsteht gleichermaßen der inszenierte Traum einer digitalen Avantgarde, die eine Zukunft ohne Last und Sorgen verspricht, wie auch der »Albtraum von einer möglichen Unterwerfung der Menschheit« (ebd.: 18). Auf jeden Fall gibt es, so der dort ansässige Augenzeuge Gumbrecht, keinen Ort auf der Welt, an dem sich die beschleunigte Weiterentwicklung von KI derart als »Bewegung von unwiderstehlicher Energie« beschreiben ließe, als »Wirklichwerden utopischer Visionen« (ebd.: 25 und 27). Das sind große Worte. Aber in der Tat entstehen zukunftseuphorische Szenarien im Valley innerhalb eines neuen institutionellen und zivilisatorischen Bezugsrahmens. Die »eigentümliche Simultaneität von Depression und Euphorie ist es, die das Silicon Valley zur letzten Version des American Dream macht.« (Ebd.: 48) Genau dafür steht die Kultur der Startups; verbunden damit sind zudem der »Glaube an zündende Ideen, die komplementäre Weigerung, Hindernisse anzuerkennen [...] und die Ermutigung zu individueller Exzentrizität am Arbeitsplatz« (ebd.: 50). Zudem ist das Valley

6. Hoffnung statt Erschöpfung

ein Ort, an dem es üblich ist, »im Gestus von Science-Fiction zu reden« (ebd.: 53), ein Ort, an dem der Übergang vom Menschen zur Maschine vorbereitet wird, ohne dass jemand das lachhaft fände. Es ist auch der Ort, an dem der Wunschlosigkeit gesättigter Gesellschaften etwas entgegengesetzt wird: die Verheißung ultimativer Wünsche. Die Verheißung der Freiheit erhält damit eine neue Form und wird in eine neue »postbürgerliche Lebensform« einer »elektronischen Klasse« gemünzt. (Ebd.: 66) Die Klasse, von der Gumbrecht spricht, sind die »offenbar gesichtslosen Zyniker und Egozentriker, die Milliardengewinne dafür einstreichen, dass sie mit einer gesetzlich nicht eingedämmten Piraterie von riesigen Datenmengen ein wachsendes Potenzial der Kontrolle über uns, die ebenso inkompetenten wie angeblich unschuldigen Opfer ihrer Manipulationen, gewinnen« (ebd.: 67). Damit basieren Zukunftsdenken und Zukunftsintelligenz des Silicon Valley auf einem »ungelenken Diskurs utopischer Selbstdarstellung« (ebd.: 71). Die daraus hervorgehende Zukunftseuphorie hat hingegen eine enorme Reichweite und alltägliche Handlungswirksamkeit, denn eines Tages »wird sich die Weltseele dann weiterbewegen – zu schnell und kraftvoll wahrscheinlich, als dass jemand daran denken könnte, sie aufzuhalten« (ebd.: 29). Das Besondere, so Gumbrecht, besteht darin, dass Kontemplation und Imagination an diesem Ort konvergieren. (Ebd.: 93) Was sich gegenwärtig am Beispiel des Silicon Valleys lernen ist, ist daher von weitreichender Bedeutung, weil sich die Denkhaltung dieser kompakten Kreativzone übertragen lässt. In abgeschwächter Form wurde diese Reichweitensteigerung von Zukunftseuphorie 2021 bei der Eröffnungsveranstaltung der German-American Innovation Week unter dem Titel Sharing AI Knowledge and Harnessing the Future of Innovation in a German – US Partnership deutlich. »KI wird einen fundamentalen Einfluss auf alle Branchen haben«, so Petra Vorsteher (u.a. Gründerin AI.Hamburg) bei der Eröffnung der Transatlantic AI eXchange-Initiative.7 Deshalb soll eine »Brücke zwischen dem KI-Ökosystem in den USA und Deutschland« gebaut werden, die die wirtschaftliche, soziale und akademische Führungsrolle Europas verbessert. Der Wunschzettel ist lang: Einige der größten Probleme unserer Zeit sollen angegangen werden. Dazu gehört auch die Wiederherstellung des Vertrauens in die digitale Wirtschaft sowie eine verantwortungsvolle KI, die u.a. im Kampf gegen den Klimawandel helfen soll. Um diese verheißungsvollen Ziele zu erreichen, sollen »Techno-Demokratien« ihre Kräfte glo7

https://www.dfki.de/web/news/detail/News/launch-der-transatlantic-ai-exchange-d eutschland-usa-partner-beim-ausbau-von-ki-wissen-und-innovatio/ (14.06.2021).

243

244

Stefan Selke: Technik als Trost

bal bündeln. Denn »der Wettlauf um die Führungsrolle bei neuen Technologien und die Frage, wie und zu welchem Zweck wir diese nutzen, werden das 21. Jahrhundert bestimmen«, so Hans-Ulrich Südbeck, deutscher Generalkonsul in San Francisco. »Die USA und Deutschland bzw. die EU müssen ihre Kräfte bündeln, um sicherzustellen, dass unsere demokratische Sicht der Dinge ihren rechtmäßigen Platz in dem internationalen Rahmen findet, der die Welt von morgen regieren wird.« Das ist erneut eine alte Klage: Bereits bei Hans Moravec klingt die Befürchtung an, bei der Entwicklung von KI den Anschluss zu verpassen. Wenn die Vereinigten Staaten die technologische Entwicklung tatsächlich einseitig stoppen würden«, so sein Gedankenexperiment, »wären sie schon bald militärischer Bedrohung ausgesetzt und ihren Handelspartnern hoffnungslos unterlegen.« (Moravec 1990: 141) Die Offenheit gegenüber Technik, die Ausprägung von Zukunftsgläubigkeit und das Maß der Euphorie von Verheißungserzählungen wird wohl weiterhin die Richtschnur für geostrategische Überlegungen rund um KI sein. Aber wie gelangt eigentlich Zukunftsgläubigkeit in die Verheißungserzählungen über KI? Diese Frage lässt sich nur durch die Gegenüberstellung klassischer und moderner Formen von Verheißungserzählungen beantworten.

7. Zukunftsverheißung als Heilssehnsucht

Das Hauptmotiv des Digitalkapitalismus ist Fortschritt. Zwar wird kritisiert, dass die Datenreligionen des 21. Jahrhunderts gerade keine Lösungen für Menschheitsprobleme bieten, sondern lediglich »Internetspielzeug«. (Wolff 2020: 21) Dessen ungeachtet gehören Verheißungsnarrative zur Grundausstattung der KI-Macher. Je alltagstauglicher Anwendungen werden, desto näher rückt der Horizont der Verheißungen. Doch welche Wirkungen, Effekte und Funktionen sind mit diesen neuartigen Verheißungen verbunden? An dieser Stelle erscheint es notwendig, Herkunft und Wandel des Begriffs »Verheißung« näher zu beleuchten.

7.1

Verheißungen im Wandel

Gegenwärtig lässt sich eine Renaissance verheißungsvoller Technikversprechen beobachten, obwohl der Begriff »Verheißung« eher anachronistisch wirkt. »War die Prämoderne auf Heilssehnsucht, die Moderne auf Selbstentfaltung, so ist die Postmoderne auf Pluralität programmiert«, behauptet etwa Manfred Becker (2019: 24). Aber stimmt das wirklich? Oder gibt es gerade auch in postmodernen Gesellschaften wieder eine ausgeprägte Sehnsucht nach Heilsversprechungen? Und ließe sich das an der Vielfalt von KI-Narrativen illustrieren? Der Begriff »Verheißung« wirkt altmodisch, zugleich aber vielversprechend. Obwohl sich der Bezugspunkt von Verheißungen immer wieder änderte, scheint es zumindest eine stabile Kernaussage zu geben: Eine Verheißung ist das, »was radikale paradigmatische Veränderungen herbeiführt, der Aufbruch zu ganz neuen Ufern«, so Oliver Gerstheimer. Sowohl im Deutschen als auch im Englischen wird die Idee der Verheißung (oder des Heilsversprechens) immer wieder kontrastierend zu Bedrohungen oder Gefahren verwendet. Verheißungen werden als Gegenformel für Probleme, Konflikte und Pathologien in Anschlag

7. Zukunftsverheißung als Heilssehnsucht

Das Hauptmotiv des Digitalkapitalismus ist Fortschritt. Zwar wird kritisiert, dass die Datenreligionen des 21. Jahrhunderts gerade keine Lösungen für Menschheitsprobleme bieten, sondern lediglich »Internetspielzeug«. (Wolff 2020: 21) Dessen ungeachtet gehören Verheißungsnarrative zur Grundausstattung der KI-Macher. Je alltagstauglicher Anwendungen werden, desto näher rückt der Horizont der Verheißungen. Doch welche Wirkungen, Effekte und Funktionen sind mit diesen neuartigen Verheißungen verbunden? An dieser Stelle erscheint es notwendig, Herkunft und Wandel des Begriffs »Verheißung« näher zu beleuchten.

7.1

Verheißungen im Wandel

Gegenwärtig lässt sich eine Renaissance verheißungsvoller Technikversprechen beobachten, obwohl der Begriff »Verheißung« eher anachronistisch wirkt. »War die Prämoderne auf Heilssehnsucht, die Moderne auf Selbstentfaltung, so ist die Postmoderne auf Pluralität programmiert«, behauptet etwa Manfred Becker (2019: 24). Aber stimmt das wirklich? Oder gibt es gerade auch in postmodernen Gesellschaften wieder eine ausgeprägte Sehnsucht nach Heilsversprechungen? Und ließe sich das an der Vielfalt von KI-Narrativen illustrieren? Der Begriff »Verheißung« wirkt altmodisch, zugleich aber vielversprechend. Obwohl sich der Bezugspunkt von Verheißungen immer wieder änderte, scheint es zumindest eine stabile Kernaussage zu geben: Eine Verheißung ist das, »was radikale paradigmatische Veränderungen herbeiführt, der Aufbruch zu ganz neuen Ufern«, so Oliver Gerstheimer. Sowohl im Deutschen als auch im Englischen wird die Idee der Verheißung (oder des Heilsversprechens) immer wieder kontrastierend zu Bedrohungen oder Gefahren verwendet. Verheißungen werden als Gegenformel für Probleme, Konflikte und Pathologien in Anschlag

246

Stefan Selke: Technik als Trost

gebracht, denn stets hebt die Verheißungserzählung Chancen und Potenziale hervor.

KI zwischen Verheißung und Versprechen Spurensuche: Zahlreiche Bezüge zu Verheißungen finden sich zunächst im Alten Testament. Vor allem im Deutschen ist der religiöse Kontext von Verheißungen offensichtlich. Im alltäglichen Sprachgebrauch werden hingegen eher Begriffe wie Versprechen, Zusage und Garantie verwendet. Hierbei ist zu bedenken, dass nur im deutschen Sprachgebrauch Verheißung und Versprechen unterschieden werden, nicht aber im Lateinischen oder Englischen.1 Der englische Begriff »promise« (so meist die wörtliche Übersetzung von Verheißung) tritt zudem weit häufiger auch in außerreligiösen Kontexten auf. Dies macht es erforderlich, unterschiedliche kulturelle Rahmungen zu berücksichtigten. Im Englischen wird »promise« genutzt, um Verheißungen zu umschreiben, »a declaration that something will or will not be done, given etc., by one; an express assurance on which expectation is to be based«.2 »Promise« ist hierbei weit weniger spekulativ aufgeladen und wirkt dadurch sachlicher. Selbstverständlich finden sich jedoch auch im Englischen theologisch-religiöse Bezüge, z.B. als »promised land« in der Bibel.3 Viel näher an die deutsche Wortbedeutung kommt hingegen der Begriff »salvation«, weil hier zugleich der Aspekt der Erlösung anklingt. Aus diesen Unterschieden folgert die Übersetzerin und Lektorin Megan Hanson, dass es im deutschen Sprachraum »wohl eindeutig den Bedarf für ein Wort gibt, was noch mehr in sich trägt als nur den Aspekt eines Versprechens«. Denn während Versprechen ein Element zwischenmenschlicher Interaktion (und damit eingebunden in soziale Konventionen) sind, versteht sich eine Verheißung als Geschenk oder Angebot (eines) Gottes. Nur im Gewand einer Verheißung kann das Transzendente sichtbar gemacht werden. »Ein Gott verspricht nichts, er verheißt etwas«, lautet die pointierte Zusammenfassung Hansons. Anhand dieser ersten groben Einordnung lässt sich bereits aufzeigen, dass mit Verheißungen nicht nur im geografischen Sinn ein 1

2 3

https://www.bibelwissenschaft.de/wibilex/das-bibellexikon/lexikon/sachwort/a nzeigen/details/verheissung-erfuellung/ch/bfe8cd954ce46b578c5c579d4f5a0e2c/ (06.09.2021). https://www.dictionary.com/browse/promise (07.09.2021). Trotz aller Unschärfen bei der Zählung, zeigt ein Übersichtsartikel, dass das englische Wort »promise(s)« mehr als 100-mal in der Bibel vorkommt. https://digitalcommons. pepperdine.edu/cgi/viewcontent.cgi?article=1769&context=leaven (22.09.2022).

7. Zukunftsverheißung als Heilssehnsucht

»Aufbruch zu neuen Ufern« gemeint ist, vielmehr schwingen bei dem Begriff vielfältige Bedeutungen mit. Eine Verheißung trägt eigentlich schon einen utopischen Charakter in sich, weil dabei die Befreiung von Missständen versprochen wird. Schnell taucht dann die Frage auf, ob das Utopische immer nur am Horizont bleibt oder ob daraus hin und wieder auch ein real-utopisches Projekt4 entstehen könnte. Für zeitgenössische Verheißungen ist KI wohl auch deshalb der prominenteste Kandidat, weil sich hierbei das Ideelle und das Materielle perfekt verbinden lassen. Im Kontext von KI taucht die Idee der Verheißung in einem schillernden Gewand5. auf, wenngleich ist der Begriff »Verheißung« seit dem 15. Jahrhundert belegt ist.6 Bereits das etymologische Wörterbuch von Kluge kennzeichnet »verheißen« als obsolet und stark veraltet. Dies steht allerdings in einem deutlichen Widerspruch zur aktuellen Nutzung. Somit stellt sich die Frage, warum ausgerechnet eine altgediente Vokabel im Umfeld von Digitalisierung und KI Furore macht. Für einige Experten ist das wenig überraschend. »Verheißungen sind etwas, dass Menschen nicht selbst in der Hand haben. Nicht im Guten und nicht im Schlechten«, so der Ethiker Leopold Neuhold. »Etwas kommt auf sie zu, das zwar erwartbar ist, den Erwartungen aber auch entgegenlaufen kann.« Gerade im Kontext der Entwicklung von KI, spielen offene Erwartungshorizonte eine zentrale Rolle. Verheißungen können deshalb als eine mögliche Reaktion auf das grundlegende Kontingenzdilemma postmoderner Gesellschaften verstanden werden. Was gehört noch zum Bedeutungsumfang von Verheißungen? Zunächst ist eine Verheißung eine zugleich ernsthafte wie auch feierliche Ankündigung von etwas Bedeutsamen. Es erscheint daher notwendig, auch angrenzende Begriffe zu bedenken, die ebenfalls einen verheißungsvollen Charakter in sich tragen, wie z.B. Potenzial, Leitbild, Prognose, Versprechen oder Vorhersage. Gemeinsam ist ihnen, dass sie tiefsitzende Bedeutungen abrufen, zu denen Menschen meist einen intuitiven oder metaphorischen Zugang haben. Der zentrale Bezugspunkt für KI-Verheißungen sind latente Sehnsüchte oder Hoffnungen. Verheißungserzählungen suggerieren, dass KI etwas anbie-

4 5

6

Zum Begriff »reale Utopie« vgl. auch Wright (2017). Z.B. in einem Sammelband Strasser et al. (2021) oder auch sprachkritischen Untersuchungen (Gutmann et al. 2021), aber auch in angrenzenden Technikfeldern (Klie 2014). Im englischen Sprachraum ist die Häufung von »promise« im Kontext von KI-Narrativen ebenfalls augenfällig. (Z.B. Castro/New 2016; Ho Lee/Yoon 2017) https://www.wortbedeutung.info/Verheißung/ (06.09.2021).

247

248

Stefan Selke: Technik als Trost

tet, nach dem wir uns sehnen sowie etwas vorrätig hält, was wir benötigen und hoffnungsvoll erwarten. Ein weiteres Basismotiv von Verheißungen ist die Befreiung (oder Erlösung) von einer Last. Ein KI-Verheißungsnarrativ verspricht im Kern, dass der Menschheit etwas Neues und zugleich Besseres geschenkt werden wird: bessere Fähigkeiten, bessere Kognition, am Ende sogar ein besseres Leben. Diese Versprechen stimmen euphorisch, »könnten aber auch ein völliger Irrtum sein«, so der Erzählforscher Michael Müller skeptisch. Hauptsache, wir glauben daran. Die Logik der Verheißung wirkt auch in vielen anderen Kontexten. So finden sich in der Gegenwartsgesellschaft zahlreiche ökonomische, politische, kulturelle oder domänenbezogene Verheißungen im Sinne hoch-spekulativer Bedeutungszuschreibungen. Vor allem in medizinischen Anwendungsfeldern (z.B. Big Data) tauchen Verheißungsaspekte auf (Ho Lee/Yoon 2017). Gleichzeitig werden überzogene Heilserwartungen von kritischen Beobachtern gedämpft, die fordern, »den Weg der Vernunft jenseits von Innovationsfeindlichkeit und übertriebenen Heilserwartungen zu wählen« (Heinemann 2019: 1010). Vor diesem Hintergrund setzen KI-Verheißungen vorgängige Debatten fort, denn schon die Digitalisierung wurde (und wird) zugleich als Verheißung und Verhängnis betitelt: Einerseits verheißt Digitalisierung Fortschritt und Wohlstand. Andererseits wird immer wieder kritisiert, dass Digitaltechnik tief in eine Vielzahl von Lebensbereichen eindringt, was neue Risiken mit sich bringt (Hoffrage 2019). Auch (der inzwischen etwas angestaubte) Begriff »digitale Revolution« kann, je nach Perspektive, als Verheißung oder Bedrohung gesehen werden. Insbesondere das Zeitalter der vernetzten Intelligenz gilt als chancenreich, weil Wohlstand und Fortschritt gesteigert werden können und damit – so die Verheißung – »ungeahnte Möglichkeiten« geschaffen werden. (Tapscott 1996) In diesem umkämpften Diskursfeld wird KI gar als Steigerungsform einer Verheißung, also als »große Verheißung« eingeordnet. »Die Faszination der Künstlichen Intelligenz liegen offenbar in dem Versprechen des kühnsten aller bisher in der Menschheitsgeschichte unternommenen Versuchs, sich als Spezies selbst zu übersteigen. In den öffentlichen Debatten wird das Projekt […] oft als fundamentaler dargestellt, als all die Abenteuer, neue Kontinente zu entdecken, bleierne Materie alchemistisch in leuchtendes Gold zu verwandeln oder durch mechanische Maschinenmonster buchstäblich neue Welten aus dem Boden zu stampfen«, schreiben die Herausgeber des philosophischen Sammelbandes Künstliche Intelligenz. Die große Verheißung. »Damit scheint sie als Zeichen und Zepter einer Allmacht, die vormals den

7. Zukunftsverheißung als Heilssehnsucht

Göttern zugetraut wurde, verstanden zu werden. Eine solche Überhöhung [...] wirft einige Fragen auf.« (Strasser et al. 2021: 5) Die hier im Mittelpunkt stehenden KI-Verheißungen werden ebenfalls zwischen Versprechen und Zukunftseuphorie einerseits sowie politischer Verzweiflung und drohender sozialer Verwirrung andererseits ausbuchstabiert. Rein praktisch erzeugt KI positive Auswirkungen in zahlreichen Anwendungsfeldern. KI bringt soziale und wirtschaftliche Vorteile mit sich, die politische Entscheidungsträger nur unter großen Opportunitätskosten ignorieren können. Damit das das empirische Fundament von Verheißungserzählungen benannt. Das aber reicht offensichtlich nicht aus, um von Verheißung zu sprechen. Was also braucht es noch?

7.2 Jenseitige Heilsversprechen Bei der Suche nach der Herkunft des Verheißungsbegriffs, geraten unweigerlich theologische Verheißungshorizonte ins Blickfeld. Die Hermeneutik und Theologie des Alten Testaments zeugt von der umfassenden Bedeutung des Begriffs Verheißung. (Levin 2013) In religiösen Kontexten sind Verheißung Prognosen von positiven Ereignissen in der Zukunft. Hierbei bildet das Begriffspaar Verheißung und Erfüllung eine eigenständige geschichtstheologische Kategorie: Immer ist es Gott, der den Menschen eine bestimmte Zukunft verheißt, gleichzeitig erfüllt sich diese Verheißung erst sehr viel später, wenn überhaupt. Dieses Wechselverhältnis zwischen Versprechen und Einlösung des Versprechens findet sich bereits im Alten Testament, wurde aber insbesonders für die Beschreibung des Verhältnisses von Altem7 und Neuem Testament bedeutsam.8 Wesentlich ist, dass es sich bei Verheißungen um Zusagen Gottes handelt, in denen eine heilvolle Intervention für die Zukunft angekündigt wird. Die göttliche Verheißung bewirkt seitens der Menschen Hoffnungen oder zumindest Erwartungen.9

7 8

9

Im Alten Testament (im Hebräischen) gibt es übrigens kein direktes Äquivalent zum deutschen Begriff der Verheißung. https://www.bibelwissenschaft.de/wibilex/das-bibellexikon/lexikon/sachwort/a nzeigen/details/verheissung-erfuellung/ch/bfe8cd954ce46b578c5c579d4f5a0e2c/ (06.09.2021). Vor dem hier skizzierten heilsgeschichtlichen und theologischen Hintergrund kann der Begriff »Verheißung« auch als ein Grundbegriff christlicher Ethik und damit des

249

7. Zukunftsverheißung als Heilssehnsucht

Göttern zugetraut wurde, verstanden zu werden. Eine solche Überhöhung [...] wirft einige Fragen auf.« (Strasser et al. 2021: 5) Die hier im Mittelpunkt stehenden KI-Verheißungen werden ebenfalls zwischen Versprechen und Zukunftseuphorie einerseits sowie politischer Verzweiflung und drohender sozialer Verwirrung andererseits ausbuchstabiert. Rein praktisch erzeugt KI positive Auswirkungen in zahlreichen Anwendungsfeldern. KI bringt soziale und wirtschaftliche Vorteile mit sich, die politische Entscheidungsträger nur unter großen Opportunitätskosten ignorieren können. Damit das das empirische Fundament von Verheißungserzählungen benannt. Das aber reicht offensichtlich nicht aus, um von Verheißung zu sprechen. Was also braucht es noch?

7.2 Jenseitige Heilsversprechen Bei der Suche nach der Herkunft des Verheißungsbegriffs, geraten unweigerlich theologische Verheißungshorizonte ins Blickfeld. Die Hermeneutik und Theologie des Alten Testaments zeugt von der umfassenden Bedeutung des Begriffs Verheißung. (Levin 2013) In religiösen Kontexten sind Verheißung Prognosen von positiven Ereignissen in der Zukunft. Hierbei bildet das Begriffspaar Verheißung und Erfüllung eine eigenständige geschichtstheologische Kategorie: Immer ist es Gott, der den Menschen eine bestimmte Zukunft verheißt, gleichzeitig erfüllt sich diese Verheißung erst sehr viel später, wenn überhaupt. Dieses Wechselverhältnis zwischen Versprechen und Einlösung des Versprechens findet sich bereits im Alten Testament, wurde aber insbesonders für die Beschreibung des Verhältnisses von Altem7 und Neuem Testament bedeutsam.8 Wesentlich ist, dass es sich bei Verheißungen um Zusagen Gottes handelt, in denen eine heilvolle Intervention für die Zukunft angekündigt wird. Die göttliche Verheißung bewirkt seitens der Menschen Hoffnungen oder zumindest Erwartungen.9

7 8

9

Im Alten Testament (im Hebräischen) gibt es übrigens kein direktes Äquivalent zum deutschen Begriff der Verheißung. https://www.bibelwissenschaft.de/wibilex/das-bibellexikon/lexikon/sachwort/a nzeigen/details/verheissung-erfuellung/ch/bfe8cd954ce46b578c5c579d4f5a0e2c/ (06.09.2021). Vor dem hier skizzierten heilsgeschichtlichen und theologischen Hintergrund kann der Begriff »Verheißung« auch als ein Grundbegriff christlicher Ethik und damit des

249

250

Stefan Selke: Technik als Trost

Im Alten Testament taucht der Begriff »Verheißung« vor allem im Kontext der Heilsankündigungen der Propheten auf. Im Hebräerbrief wird eine theologische Topografie entwickelt und auf dieser Basis das Land der Verheißung beschrieben. (Backhaus 2001) Eine Verheißung bedeutet das ultimative und zugleich zweifache Versprechen. Erstens, das Versprechen in actu. Gemeint ist die Rettung der Menschheit im Zuge der Sintflut. Dieses Versprechen wurde Noah und seinen Angehörigen zuteil: »Ich lasse dich nicht untergehen!« Zweitens, der Bund Gottes am Sinai und damit das immerwährende Thema aller politreligiösen Zusammenhänge. Als theologische Verheißungen können somit zusammenfassend alle Ankündigungen eines künftigen heilvollen Handelns bezeichnet werden.10 In einer eschatologischen Perspektive (von eschaton: endzeitlich) bekommt Verheißung sogar eine ultimative Bedeutung, die sich vor allem in den Narrativen zu Singularität widerfindet: Das Versprechen auf ein Weiterleben nach dem Tod: Die irdische Existenz wird durch eine Existenz im Reich Gottes abgelöst. Vor diesem Hintergrund kommt es zu einer auf den ersten Blick merkwürdigen Divergenz. Einerseits entfernt sich die modernere Theologie mittlerweile vom radikalen Transzendenzgehalt bisheriger Verheißungen. »Verheißung bekommt damit eine sehr greifbare, diesseitige Bedeutung«, so der Mönch und Ritualwissenschaftler Thomas Quartier. Andererseits nähert sich gerade im Kontext der Vision einer Superintelligenz die Vorstellung technikinduzierter Unsterblichkeit als »promise of technological transcendence« sowie als »ultimate realization of the techno-scientific project of mastering mature« (Cave 2020: 314, 317) an die theologisch-eschatologische Verheißungsperspektive an. Damit verschiebt sich das prognostizierte Potenzial von KI von einer neutralen Lösungsperspektive hin zu einer mystisch aufgeladenen Heilsperspektive. »Im Mittelpunkt steht dann das eigentlich Unmögliche«, so Quartier. KI wird in Verheißungskontexten als omnipotente Möglichkeitsmaschine verstanden. Anders als bei religiös-heilsgeschichtlichen Verheißungen ist das Ergebnis vermeintlich vorhersehbar bzw. planbar, denn diesmal wird der Möglichkeitsraum nicht von einem Gott, sondern von menschengemachten

10

Konzepts der Nächstenliebe verstanden werden. Gottes Gebot ist Verheißung und Anspruch zugleich. (Söding 2015) Der Begriff »Verheißung« tritt auch im Zusammenhang mit dem neuen Bund (Jer 31, 31–34) auf. Für die christliche Bibelauslegung ist die Verheißung des neuen Bundes einer der wichtigsten Schlüssel für die Bestimmung des Verhältnisses von Neuem und Altem Testament. (Levin 1985)

7. Zukunftsverheißung als Heilssehnsucht

Mitteln (Technik, Maschinen) erschlossen. »Damit ist jedoch die radikale Offenheit des religiösen Verheißungsbegriffes nur noch ansatzweise erkennbar«, so Quartier. Dennoch sind verheißungsvolle Zukunftsnarrative über KI nicht weniger wirkungsvoll als theologisch eingefärbte Heilsbotschaften. Das liegt an der inneren Logik dieser spezifischen Erzählform. »Verheißung bedeutet immer, den letzten Schritt zu gehen. Gott ist schon lange tot, aber wenn wir eine künstliche Intelligenz schaffen, gehen wir den letzten Schritt und holen auf«, so die Science-Fiction-Autorin Theresa Hannig. »Dann stellen wir uns auf eine Stufe mit Gott. Dann haben wir es endlich geschafft.« Diese latente Spannung zwischen dem Möglichem und dem Unmöglichen wirkt fast dialektisch. Denn einerseits haben Menschen eher Angst vor Zukunftsoffenheit. In einigen Anwendungsfeldern leistet KI daher willkommene Kontingenzreduktion. Trotzdem bleibt etwas Mystisches haften. »AI is a myth«, so auch der Historiker George Dyson. »Our relationship with true AI will always be a matter of faith, not proof.« (Dyson zit. N. Brockman 2020: 40) Erst göttliche Anmutung, jetzt KI? »Diese Mystifizierung funktioniert zwar in der Wahrnehmung. Ob das aber der Realität entspricht, ist eine ganz andere Frage«, so der Mönch Thomas Quartier. Vom Anthropologen Marc Augé lässt sich zudem lernen, dass ein Mythos nur entstehen kann, »wenn die Menschen darin die transzendente Form ihres eigenen Lebens erkennen« (Augé 2016: 17). Viele KI-Narrative erfüllen diese Bedingung. Der Philosoph Hans Blumenberg lehrt zudem, dass es bei jedem Mythos einen narrativen Kern und eine marginale Variationsfähigkeit gibt. (Blumenberg 2016) Der narrative Kern des Verheißungsverständnisses von KI besteht im Rückgriff auf die heilsgeschichtliche Ideengeschichte und die damit verbundenen Erlösungsversprechen, denn zweifelsohne hat der Begriff »Verheißung« noch immer eine religiös-dogmatische Grundierung. Verheißung ist eine »große Wortmarke«, so der Ethiker Christian Bauer. Diese Tradition erfordert es fast automatisch, auf die Religionsphilosophie zurückzugreifen. »Wird Verheißung ideengeschichtlich rückbuchstabiert, kommt man sogar beim spätantiken, apokalyptischen Denken an.« Das Kernnarrativ lässt sich wie folgt ausbuchstabieren: »Es kommt etwas völlig Neues«, so der Erzählforscher Michael Müller. Die Variationen ergeben sich aus den unterschiedlichen Anwendungsfeldern und der Einordnung von KI. »Die utopische Variante verspricht die nächste Evolutionsstufe von Kultur oder Gesellschaft. Die dystopische Variante hingegen prognostiziert, dass wir als Menschheit vernichtet

251

252

Stefan Selke: Technik als Trost

werden. Aber der narrative Kern ist immer die Übersteigerungslogik – unbefleckt von menschlichen Irrationalitäten«, so Müller. Verheißungsvolle Zukunftsnarrative können als kulturelle Mitgift betrachtet werden. Spätestens an dieser Stelle wird ein »blinder Fleck« der zeitgenössischen Auseinandersetzung mit KI deutlich: »Das Stichwort Kultur taucht in gesellschaftsbezogenen Diskursen zu KI überhaupt nicht oder nur marginal auf«, so Christian Bauer. »Vielleicht muss gerade deshalb zunächst eine quasireligiöse Sprache gewählt werden, um dieses kulturelle Sediment sichtbar zu machen.« Jenseits sprachlicher Anklänge zeigen sich jedenfalls weitere Variationsmöglichkeiten des narrativen Kerns. Gerade deshalb kann es zu einer Neuaufladung des religiös bzw. mythologisch eingefärbten Verheißungsbegriffs kommen. Im Umkehrschluss lässt sich damit eine zentrale gesellschaftliche Funktion von Verheißungen benennen: Sie sind ein Seismograph für gesellschaftlichen Wandel. Immer mehr trat der Triumpf der (Natur-)Wissenschaften an die Stelle der Religion und zwang Gott »zu Rückzugsgefechten«, so der Wissenschaftshistoriker Ernst Peter Fischer (2014: 283). Futurologie – damit auch verheißungsvolle Narrative – ersetzten nach und nach den religiösen Glauben. Zukunftseuphorie trat an die Stelle der ehemals hartnäckigen religiösen Erfahrung.

7.3 Diesseitige Potenzialversprechen Zukunftseuphorie entsteht durch die Verschiebung jenseitiger Heils- in Richtung diesseitiger Potentialversprechen. Gerade deshalb funktioniert Zukunftseuphorie wie Trost und füllt eine Leerstelle in säkularisierten Gesellschaften. Der Philosoph Hans Blumenberg behauptet in Schriften zur Technik, dass »Aussagen über den Menschen [...] keine Aussagen über Gott mehr (brauchen)« (Blumenberg 2015). Mit vergleichbarem Tonfall spricht der Soziologe Max Weber bekanntlich von einer »prophetenlosen Zeit«. Ist das Polemik oder sollten derartige Aussagen ernst genommen werden? Im Kontext von KI stellt sich jedenfalls die Frage, welche Reichweite das religiöse oder mythologische Verheißungsnarrativ in säkularisierten Gesellschaften hat. Gab es da nicht etwas, das Aufklärung genannt wurde? Die Idee, dass sich der vernünftige Mensch auf seine Geisteskräfte und Erfindungsgaben verlässt, um Schwierigkeiten zu überwinden, ganz ohne Hokuspokus. Nur eines scheint festzustehen: Weil auch KI-Verheißungen jenseits aller Verwirk-

252

Stefan Selke: Technik als Trost

werden. Aber der narrative Kern ist immer die Übersteigerungslogik – unbefleckt von menschlichen Irrationalitäten«, so Müller. Verheißungsvolle Zukunftsnarrative können als kulturelle Mitgift betrachtet werden. Spätestens an dieser Stelle wird ein »blinder Fleck« der zeitgenössischen Auseinandersetzung mit KI deutlich: »Das Stichwort Kultur taucht in gesellschaftsbezogenen Diskursen zu KI überhaupt nicht oder nur marginal auf«, so Christian Bauer. »Vielleicht muss gerade deshalb zunächst eine quasireligiöse Sprache gewählt werden, um dieses kulturelle Sediment sichtbar zu machen.« Jenseits sprachlicher Anklänge zeigen sich jedenfalls weitere Variationsmöglichkeiten des narrativen Kerns. Gerade deshalb kann es zu einer Neuaufladung des religiös bzw. mythologisch eingefärbten Verheißungsbegriffs kommen. Im Umkehrschluss lässt sich damit eine zentrale gesellschaftliche Funktion von Verheißungen benennen: Sie sind ein Seismograph für gesellschaftlichen Wandel. Immer mehr trat der Triumpf der (Natur-)Wissenschaften an die Stelle der Religion und zwang Gott »zu Rückzugsgefechten«, so der Wissenschaftshistoriker Ernst Peter Fischer (2014: 283). Futurologie – damit auch verheißungsvolle Narrative – ersetzten nach und nach den religiösen Glauben. Zukunftseuphorie trat an die Stelle der ehemals hartnäckigen religiösen Erfahrung.

7.3 Diesseitige Potenzialversprechen Zukunftseuphorie entsteht durch die Verschiebung jenseitiger Heils- in Richtung diesseitiger Potentialversprechen. Gerade deshalb funktioniert Zukunftseuphorie wie Trost und füllt eine Leerstelle in säkularisierten Gesellschaften. Der Philosoph Hans Blumenberg behauptet in Schriften zur Technik, dass »Aussagen über den Menschen [...] keine Aussagen über Gott mehr (brauchen)« (Blumenberg 2015). Mit vergleichbarem Tonfall spricht der Soziologe Max Weber bekanntlich von einer »prophetenlosen Zeit«. Ist das Polemik oder sollten derartige Aussagen ernst genommen werden? Im Kontext von KI stellt sich jedenfalls die Frage, welche Reichweite das religiöse oder mythologische Verheißungsnarrativ in säkularisierten Gesellschaften hat. Gab es da nicht etwas, das Aufklärung genannt wurde? Die Idee, dass sich der vernünftige Mensch auf seine Geisteskräfte und Erfindungsgaben verlässt, um Schwierigkeiten zu überwinden, ganz ohne Hokuspokus. Nur eines scheint festzustehen: Weil auch KI-Verheißungen jenseits aller Verwirk-

7. Zukunftsverheißung als Heilssehnsucht

lichungschancen wirksam sind, sollten können sie als eine Art Ersatzreligion auf der Basis von »extreme hopes« (Royal Society 2018: 9) aufgefasst werden.

KI zwischen Glauben und Wissen Lassen sich derart intensive Hoffnungen und Heilsversprechen vielleicht sogar vermessen? Tatsächlich untersuchte Marcus Lüdich in einer empirischen Studie die Haltung, die typischerweise im Feld der Big Data-Algorithmen auftritt. Für die Zuschreibungen eines auf digitalen Daten beruhenden Optimierungseffekts prägte er den markanten Begriff »Big Data Glaubenssystem« (BDGS). (Lünich 2022) Die Ergebnisse der Studie lassen sich gut auf KI-Verheißungen übertragen. In beiden Fällen liegen den latenten Zuschreibungen tiefsitzende Überzeugungen »bezüglich der eher konsequentiell-evaluativen Dimension des Erkenntnis- und des Nutzengewinns« zugrunde (ebd.: 79). In beiden Fällen handelt es sich um kollektive Vorstellungen einer sozialen Wirklichkeit, die als »Frames« (Matthes 2014) oder eben gerade als Narrativ (Müller-Funk 2008) wirksam werden. Sowohl Orientierungsrahmen als auch Narrative basieren auf Glaubenssätzen, deren Kennzeichen gerade die Nicht-Überprüfbarkeit faktischer Voraussetzungen ist. Auch bei Glaubenssätzen geht es nicht um Geltung, sondern vielmehr um die Zuschreibung einer Geltung. Damit sind Verheißungen zukunftsgewandte Deutungsentwürfe, deren zugrundeliegende Erwartungshaltung es rechtfertigt, von Glaubenssätzen (oder sogar Glauben) zu sprechen. Einschränkend gilt allerdings: »Glaube ist in diesem Zusammenhang nicht als religiöser Glaube zu verstehen und insbesondere auch nicht als blinder Glaube«, so Lüdich, vielmehr geht es »um eine in wesentlichen Elementen von [...] Wissen verschiedene subjektive Überzeugungshaltung, deren Wahrheitsanspruch umstritten bzw. situativ zu bewerten ist und daher relational variabel aus Sicht der Gläubigen eingeordnet werden kann.« (Lünich 2022: 82) In diesem Zusammenhang müssen Wissensvon Glaubenssystemen unterschieden werden. (Abelson 1979) Auf diese Weise wird verständlich, warum sich Glaubenssysteme im Format von Verheißungserzählungen für Prognosen eignen. Hier zeigt sich die tiefere Bedeutung prognostischer Narrative: Die Prognosefähigkeit über einen Sachverhalt wie KI findet in einem Graubereich zwischen Wissens- und Glaubenssystemen statt. Dieser Bereich wird u.a. durch Science-Fiction (allgemeiner: Kunst) markiert. Auch mit Unsicherheit behaftete Aussagen oder Szenarien können somit Erwartungen markieren oder handlungswirksame Überzeugungshaltungen ausprägen, weil sie als Projektionsfläche ausufernder Erwartungen

253

254

Stefan Selke: Technik als Trost

funktionieren und alternative Welten aufzeigen. (Abelson 1979: 357) Vor allem populärwissenschaftliche Veröffentlichungen zu Robotik und KI zeigen eine auffällige Verschmelzung zwischen apokalyptisch-religiösem Denken und wissenschaftlicher Forschung. »Several pioneers in robotics and AI speak the language of apocalypticism«, so Robert Geraci. (Geraci 2008: 146, 150)

Die religiöse Unterströmung von Technikentwicklung In den populären Narrativen treten dabei Merkmale einer jüdisch-christlichen Apokalyptik offen zu Tage: die Entfremdung von der Welt; der Wunsch nach Errichtung einer himmlischen neuen Welt und die Verwandlung der Menschen, damit sie in dieser Welt leben können. (Ebd.: 158) Das Digitale sollte daher in erster Näherung als implizite Alltagsreligion verstanden werden. Der Kommunikationswissenschaftler Michael Latzer erkennt in der neueren Phase der Digitalisierung nicht nur ein »Musterbeispiel für die Konvergenz im Kommunikationssektor« (Latzer 2021: 2), sondern sieht im »Versprechen von digital gesteigertem Wohlbefinden« und der datenmäßigen Reproduktion aller Lebensbereiche eine erneuerte Religion. Auch andere Forscher erkennen in der Digitalisierung zusehends religionsartige Züge, für die sich bereits Begriffe wie »Datafication« oder »Dataism« etablieren konnten. (Dijck 2014) Dataismus kann als säkularer Glaube verstanden werden, der hinter der pragmatisch-funktionalen Erscheinungsform des Digitalen zum Vorschein kommt. Hierbei wird tatsächlich eine mythologische (Boyd/Crawford 2012) oder religiöse (Harari 2017) Dimension der Glaubenssätze anerkannt. Im Kontext der Digitalisierung zeichnet sich zudem immer deutlicher ein religionsnaher technologischer Solutionismus11 ab, der auf dem Glauben eines universellen Lösungspotenzials digitaler Werkzeuge und Prozesse beruht (Mozorov 2013). Kevin Kelly (2017) spricht in diesem Zusammenhang von »Thinkism«, dem mystisch verklärten Glauben daran, dass Fortschritt nur dann möglich ist, wenn die kollektive Intelligenz zunimmt. Kritiker erkennen darin hingegen einen ›faustischen‹ bzw. ›teuflischen Pakt‹ (Zuboff 2015),

11

Diese Denkhaltung wird im Roman Qualityland von Marc-Uwe Kling wie folgt persifliert: »Im Zukunftsunterricht wird den Schülern auf spannende und visuell beeindruckende Weise beigebracht, dass in Zukunft alles gut werden wird, denn – so die Kernaussage – in Zukunft werden sich alle Probleme ganz einfach technisch lösen lassen.« (Kling 2017: 22)

7. Zukunftsverheißung als Heilssehnsucht

zumindest aber einem bedrohlichen Technikmythos (Mosco 2017). Festzuhalten ist, dass eine neue Konvergenz aus Technizität und Religiosität in eine implizite Alltagsreligion des Digitalen mündet, die als »dreifaltiger, soziotechnischer Transformationsprozess des 21. Jahrhunderts« (Latzer 2021: 8) verstanden werden kann. Wie zahlreiche Forscher zeigen, werden digitale Werkzeuge, das Internet, aber eben auch KI und Roboter vermehrt mit Glauben und Religion in Zusammenhang gebracht. (Kimura 2017) Einerseits werden Verheißungserzählungen vermehrt religiös aufgeladen, andererseits betrifft dies auch das Endprodukt dieser Entwicklung, wie Yuval Harari in seinem Buch Homo Deus aufzeigt. Denn der Mensch versucht sich als Abbild Gottes selbst neu zu erschaffen. (Harari 2017) Menschen greifen also nach Eigenschaften, die bislang nur Göttern vorbehalten waren: Allwissenheit, Allmacht und Allgegenwart. (Latzer 2021: 9) KI-basierte Erscheinungsformen des Digitalen sind mit weitreichenden Erlösungsversprechungen verbunden. Der evidente Zusammenhang von Technizität und Religiosität ist aber durchaus problematisch, weil sie aus den bekannten High-Tech-Unternehmen religiöse Bestrebungen mit Missionscharakter macht. (Noble 1997) Diese religiöse Unterströmung von Technikentwicklung rückt jeden Diskurs über Technologien wie KI fast automatisch in die Nähe von Verheißungen. Euphorische Zukunftserzählungen können deshalb als Kernelement säkularer Alltagsreligiosität verstanden werden. Auf diese Weise wird die Digitalisierung »religionsartig als (Sinn und) Bedeutung zuweisendes System individuell und gesellschaftlich wirksam« (Latzer 2021: 10). Basierend auf der Erfahrung technologischer Transzendenz, die immer mehr zum latenten Alltagserlebnis wird, entwickelt sich das Religiöse. Verheißungserzählungen können daher auch als ästhetisches Stilmittel im Kontext von Erlebnisgesellschaften verstanden werden, denen (im Sinne einer weiteren Steigerungslogik) das Versprechen auf die Intensivierung des eigenen Lebens (Garcia 2017) zugrunde liegt. Quasi-religiöse Verheißungen füllen damit eine Lücke, die in postmodernen (bzw. posttraditionalen) Gesellschaften durch den Rückzug oder sogar Wegfall klassischer Religionen entstand. Sie bieten Komplexitätsreduktion, Transzendenzerfahrungen und ontologische Sicherheit, auf deren Wichtigkeit für eine zufriedenstellende Lebensgestaltung insbesondere der Soziologe Anthony Giddens hinweist (Giddens 1996). Selbst wenn Verheißungen von ihren Urhebern nicht explizit mit dem Etikett Religion versehen werden, handelt es sich nach Edward Bailey gleichwohl um implizite Religionen, deren Kennzeichen die drei Aspekte Hingabe (»commitment«),

255

256

Stefan Selke: Technik als Trost

Fokussierung (»integrating foci«) sowie die Besorgnis über äußere Einwirkungen (»intensive concerns with extensive effects«) darstellen. (Bailey 2002: 2) Implizite Religionen werden meist im Zusammenhang mit Quest-Narrativen erzählt, so auch der Buchtitel von Bailey: The Secular Quest for the Meaning of Life. Dieses Narrativ ist insbesondere für die Generation der Sinnsuchenden (die oft als ›Babyboomer-Generation‹ bezeichnet wird) (Roof 1993) attraktiv.12 Und zwar deshalb, weil das zentrale Potenzial von Verheißungserzählungen die Bündelung eines Sinnüberschusses darstellt (Luhmann 1998), der sich aus Vertrauen in Technik ergibt. Verheißungsnarrative füllen somit gleich mehrere Leerstellen in säkularisierten Gesellschaften. Zweifelsohne »besteht die Verheißung von KI darin, dass sie Menschen in vielen, wenn nicht allen Lebensbereichen hilft«, behauptet in diesem Sinne der Analyst Boris Paskalev. »Wir sind Zeugen des Auftauchens sehr wirkmächtiger Maschinen, die alle möglichen Dinge können.« Auch diesseitige Neuinterpretationen von Verheißung versprechen Heil oder Erlösung. Im Unterschied zu theologischen Verheißungen befindet sich das säkulare Verheißungsziel jedoch in einer greifbaren Zukunft, wenngleich es dabei Unschärfen gibt. »KI wird uns tatsächlich helfen. Wir wissen nur nicht genau wann«, so Paskalev weiter. Dennoch liegt die Verheißung der KI stets innerhalb und gerade nicht außerhalb des Möglichen, wie bei religiösjenseitigen Heilsbotschaften. Ausgehend von KI-Verheißungen ist es dann nicht mehr weit, bis zum »Transhumanismus und damit zu Erfüllungs- oder Erlösungsfantasien«, so der Medieninformatiker Karsten Wendland. Auf diese Weise wächst der Glaube, dass es möglich ist, die eigene Existenz allein mit technischen Mitteln virtuell auf Dauer zu stellen. »Dieser Glaube in Technik hat an vielen Stellen den Glauben an Mystisches ersetzt. Die Menschen sind nicht mehr religiös im klassischen Sinne, vielmehr glauben sie an technologische Verheißungen.« Weil diese Form der impliziten Religiosität dennnoch sehr viel mit Mystik zu tun hat, grenzen sich KI-Experten meist reflexartig ab. Tatsächlich ist es zu kurz gegriffen, in Verheißungen eine Ersatzreligion zu sehen. Denn die Wechselwirkung zwischen dem religiösen und den säkularen Aspekten von Verheißungen sind komplex. »KI ist nicht einfach nur eine säkulare Religion oder Konkurrenzreligion«, so der Religionssoziologe Oliver Krüger. »Aber sie hat Anteile davon.« Mehr noch: Zwischen dem religiösem Heilsversprechen 12

Mit dem Soziologen Thomas Luckmann ließe sich auch von einer privaten oder unsichtbaren Religion sprechen (Luckmann 1967).

7. Zukunftsverheißung als Heilssehnsucht

und dem säkularen Potenzial bieten Verheißungen eine spirituelle Dimension, die sich aus der Latenz des Versprechens ergibt. In der Urform der Verheißung in christlicher Tradition ist das Reich Gottes noch nicht für alle zu erfassen, es ist latent. Auch KI-Verheißungen spielen mit dieser Latenz. »Ein bisschen was können wir bereits sehen oder erahnen«, so der Theologe Christopher Scholtz. »Und das andere müssen wir uns eben dazu denken.« Zur Funktion prognostischer Narrative gehört daher die Unterschwelligkeit von Verheißungen, die bestenfalls andeuten, dass etwas Neues entstehen kann und wird. Dieser Aussagetyp knüpft an die Logik religiöser Verheißungen an. Denn »theologisch kann Verheißung beides sein. Einerseits: Es ist schon da – das Reich Gottes. Andererseits: Es wächst im Verborgenen. Es ist das wachsende Weizenkorn. Für diejenigen, die keinen vollwertigen mystischen Zugang haben, hat das einen vertröstenden Charakter«, so Scholtz.

Verheißungen als Distinktionsmittel Damit erhalten KI-Verheißungen eine distinktive Funktion, die sich am offensichtlichsten im Neo-Mystizismus der Digital-Apologeten kundtut, weil diese vermeintlich eine Zukunft sehen, zu der alle anderen keinen Zugang haben. Denn »nur die Sehenden verfügen über den Zugang zur mystischen Realität. Vielleicht leben sie diese Realität schon. Für die Sehenden ist die Verheißung der KI kein Versprechen, sondern ein Fakt«, so Scholtz weiter. »Wer sich hingegen nur auf seine Sinne verlassen kann, wird bestenfalls Andeutungen erkennen.« Ein weiterer Grund dafür, im Kontext von Verheißungen auf die trennscharfe Unterscheidung zwischen Fakten und Fiktion zu verzichten. Die Selbstüberhöhung der Digital-Propheten markiert zugleich den Kipppunkt ins Esoterische. Allerdings verdeutlicht diese Trennung in ›Sehende‹ und ›Blinde‹ auch eine strukturelle Barriere: Wenn erstere auf der Basis ihrer Geheimlehre bereits die Zukunft ›sehen‹, letztere aber noch ›blind‹ für die Verheißungen bleiben, dann ist es schwierig bis unmöglich, überhaupt angemessen über KI zu kommunizieren. Esoterik bedeutet immer, dass eine kleine Gruppe den Zugang zu einer Geheimlehre exklusiv für sich beansprucht. Der distinktive Charakter dieser Grenzziehung – Stabilisierung nach innen und Abschottung nach außen – lässt eine Vermittlung im Sinne einer Übersetzung zwischen argumentativen Positionen kaum noch zu. »Die Verheißung der KI bezieht sich auf eine Lehre im Verborgenen, auf verborgene Erkenntnisquellen, die der Allgemeinheit leider nicht zugänglich sind«, erklärt Scholtz. »Sie argumentieren, dass die Cutting-Edge-Anwendungen nicht von allen gesehen

257

258

Stefan Selke: Technik als Trost

werden können, sie selbst aber weiter blicken und bereits erahnen, was durch diese Technik möglich sein wird.« Wie bei jeder Religion ist die Wirkung von Verheißungen daran geknüpft, dass Versprechungen gerade nicht empirisch überprüft werden können. Es ist also nicht übertrieben, in verheißungsvollen Zukunftsnarrativen über KI eine Form esoterisch verklärter Ersatzspiritualität in säkularisierten Gesellschaften zu sehen, die eine Leerstelle der Sinnproduktion füllt, die sich aus dem gestörten Verhältnis von Dasein und Sein sowie dem Verschwinden des sozialen Gravitationszentrums in modernen Gesellschaften ergibt. »Die Vergöttlichung des Menschen durch Optimierungstechnologien kann als transhumanistische Ersatzreligion betrachtet werden«, fasst auch die Autorin einer utopischen Fortsetzungsgeschichte, Julia Fuchte dieses Prinzip in kritischer Perspektive zusammen. »Statt nach einem sinnerfüllten Leben zu fragen, denkt man reduktionistisch und idealisiert das Höher-SchnellerWeiter.« Zusammengefasst: Die Funktion der KI-Verheißungen besteht darin, gleich mehrere Leerstellen postmoderner Gesellschaften zu füllen, die durch das Verschwinden des Orakels (Minois 2002), das Verschwinden der Religion (Fischer 2010) sowie das Verschwinden der Utopie (Selke 2022) entstanden. In jedem Fall gilt es, Stellung zu beziehen – auch im Fall von KI. »Wichtig für die Diskussion ist: Erlauben wir uns, weiße und schwarze KI-Anwendungen für die zukünftige Welt zu denken – und zu hoffen, dass die Entwicklung der Zukunft sich irgendwo in der Mitte zwischen den Extremen wiederfindet.« (Apt et al. 2019: 265)

8. Sehnsucht nach welthaltigem Trost

Im Thriller Die Tyrannei des Schmetterlings schildert Frank Schätzing anschaulich, wie sich zeitgenössische US-Amerikaner von der Angst treiben lassen, wieder alles zu verlieren, was sie in Jahrzehnten aufgebaut haben. »An Indianer, Kommunisten, Muslime, Drogenbarone, Atheisten, Schwule, Feministinnen, Aliens.« Symbolischen Schutz bieten lediglich an Häuserfassaden genagelte Nationalflaggen. »Als müsse ein Land in seine Nationalfarbe verpackt werden wie von Christos Hand, um es vor fremdem Zugriff zu bewahren.« (Schätzing 2018: 69) Dieses Beispiel steht symbolisch für Form und Funktion von Trost in modernen Gesellschaften. Das Wirkungsprinzip lässt sich auf KI-Verheißungen übertragen. Eine der wesentlichen gesellschaftlichen Funktionen zukunftseuphorischer Narrative ist die Tatsache, dass (der Glaube an) Technik Trost spenden kann.

8.1 Trost als soziale Form Die Beschäftigung mit Zukunftsnarrativen über KI ist zugleich eine Suche nach dem Stellenwert von Trost in postmodernen Gesellschaften. Das scheint zunächst überraschen, aber genau vor diesem Hintergrund ist die Leitthese dieses Buches zu verstehen: In der Summe erzeugen KI-Verheißungen eine Form der Zukunftseuphorie, die über die Verlorenheit in einer desorientierten Welt im Endzustand tröstet. Das funktioniert nicht ohne eine gewisse Paradoxie: Einerseits ist KI selbst ein Element dieser als trostlos empfundenen Welt, andererseits versprechen zukunftseuphorische KI-Narrative eine neue Form von Trost. In einer Umwelt, die durch Säkularisierung, Erschöpfung und Dezentrierung zahlreicher Lebensbereiche gekennzeichnet ist, sind KI-Verheißungen das trostvolle Versprechen auf die Rückgewinnung eines gesellschaftlichen Gravitationszentrums, dessen Verlust der gesellschaftsdiagnostische

8. Sehnsucht nach welthaltigem Trost

Im Thriller Die Tyrannei des Schmetterlings schildert Frank Schätzing anschaulich, wie sich zeitgenössische US-Amerikaner von der Angst treiben lassen, wieder alles zu verlieren, was sie in Jahrzehnten aufgebaut haben. »An Indianer, Kommunisten, Muslime, Drogenbarone, Atheisten, Schwule, Feministinnen, Aliens.« Symbolischen Schutz bieten lediglich an Häuserfassaden genagelte Nationalflaggen. »Als müsse ein Land in seine Nationalfarbe verpackt werden wie von Christos Hand, um es vor fremdem Zugriff zu bewahren.« (Schätzing 2018: 69) Dieses Beispiel steht symbolisch für Form und Funktion von Trost in modernen Gesellschaften. Das Wirkungsprinzip lässt sich auf KI-Verheißungen übertragen. Eine der wesentlichen gesellschaftlichen Funktionen zukunftseuphorischer Narrative ist die Tatsache, dass (der Glaube an) Technik Trost spenden kann.

8.1 Trost als soziale Form Die Beschäftigung mit Zukunftsnarrativen über KI ist zugleich eine Suche nach dem Stellenwert von Trost in postmodernen Gesellschaften. Das scheint zunächst überraschen, aber genau vor diesem Hintergrund ist die Leitthese dieses Buches zu verstehen: In der Summe erzeugen KI-Verheißungen eine Form der Zukunftseuphorie, die über die Verlorenheit in einer desorientierten Welt im Endzustand tröstet. Das funktioniert nicht ohne eine gewisse Paradoxie: Einerseits ist KI selbst ein Element dieser als trostlos empfundenen Welt, andererseits versprechen zukunftseuphorische KI-Narrative eine neue Form von Trost. In einer Umwelt, die durch Säkularisierung, Erschöpfung und Dezentrierung zahlreicher Lebensbereiche gekennzeichnet ist, sind KI-Verheißungen das trostvolle Versprechen auf die Rückgewinnung eines gesellschaftlichen Gravitationszentrums, dessen Verlust der gesellschaftsdiagnostische

260

Stefan Selke: Technik als Trost

Ausgangspunkt der hier vorgelegten Überlegungen war. Zukunftseuphorie verspricht die Heilung des gestörten Zugriffs auf die Welt. Auffallend häufig konvergieren Potenzialerwartungen und Heilungsversprechen im Kontext von KI mit der »Erhebung der Ökologie zu einer Heilungsdisziplin« (Hermann 2019: 119) des gesamten Planeten. Damit erhalten KI-Narrative die Funktion, unsere Welt zwischen funktionalen Technikversprechen und prognostizierten Wundern zu erneuern. Denn diese Welt lässt sich immer deutlicher nur noch über apokalyptische Krisenhermeneutiken fassen (Nagel 2021). Zukunft als Krise oder sogar Katastrophe – das ist die Standardeinstellung für die Selbstproblematisierung von Gesellschaft in der Moderne (Alkemeyer et al. 2019). In der Form prognostischer Zukunftsnarrative haben daher KI-Verheißungen etwas von Trost (oder zumindest Vertröstung). Technik als Trost oder Trostersatz – das klingt zunächst gewagt. Um diese These besser einordnen zu können, ist ein Rückgriff auf die Philosophie bzw. Anthropologie des Trostes notwendig. Aus einer soziologischen Perspektive wird in Trost eine heterogene soziale Form gezeichnet. Gleichzeitig wird anerkannt, dass nicht alles, was Trost spendet, auch als Trost bezeichnet werden kann (Blumenberg 1987: 153). Es ist also ein schmaler Grat zwischen Trost und Vertröstung. Gleichwohl bleibt Menschen in zukunftsbejahenden Gesellschaften kaum eine bessere Alternative, als offen für neue und bislang wenig berücksichtigte Formen des Trostes zu sein. Angesichts der zahlreichen Herausforderungen menschlichen Lebens, herrscht schnell Konsens über die Notwendigkeit von Trost. Allerdings geht dieser Konsens rasch an der Frage verloren, wie sich Menschen über die herrschenden Verhältnisse in der Welt trösten können, oder vielleicht sogar trösten sollten. (Dober 2019: 11)

Die Notwendigkeit des Trostes Zunächst ist zu klären, warum Menschen Trost benötigen. Einmal mehr erweist sich die Prometheus-Erzählung als narratives Paradigma, weil der Mythos die anthropologische These vom Menschen als Mängelwesen maßgeblich mitgeprägt hat. »Menschsein zeichnet sich in seinen kulturellen Vollzügen durch ausdauernde Endlichkeits- oder Hinfälligkeitserfahrungen aus, durch Unvollkommenheit und Scheitern auf unterschiedlichsten Gebieten«, so der Philosoph Benjamin Dober, der sich intensiv mit der Ethik des Trostes befasste. »Jede Kultur leistet zwar Defizitbehebung, aber nicht alle Missstände werden behoben, mehr noch: Kultur erzeugt selbst neue.« (Ebd.: 69) In diesem Kreislauf folgt auf etablierte Tröstungsrituale immer wieder die

8. Sehnsucht nach welthaltigem Trost

Nachfrage nach neuen Vertröstungen, weil Menschen fragile, vulnerable und damit trostbedürftige Wesen sind. Vom Georg Simmel lässt sich in diesem Zusammenhang Grundlegendes über die Notwendigkeit des Trostes lernen. Seine Gedanken zum Thema hinterließ der Soziologe in einer Tagebuchnotiz: »Der Mensch ist ein trostsuchendes Wesen. Trost ist etwas anderes als Hilfe – sie sucht auch das Tier; aber der Trost ist das merkwürdige Erlebnis, das zwar das Leiden bestehen lässt, aber sozusagen das Leiden am Leiden aufhebt, er betrifft nicht das Übel selbst, sondern dessen Reflex in der tiefsten Instanz der Seele. Dem Menschen ist im Großen und Ganzen nicht zu helfen. Darum hat er die wundervolle Kategorie des Trostes ausgebildet.« (Simmel 1995) In der Tat gibt es eine unübersehbare Anzahl von Trost-Institutionen, Trost-Ritualen, Trost-Metaphern und Trost-Rhetoriken: Trost nahezu im Überfluss. Die Traditionslinien sind verschlungen. Trost ist – je nach Sichtweise und Vorliebe – ein theologisches, anthropologisches oder soziologisches Thema. Bereits die alttestamentlichen Propheten trösteten ihre Anhänger über die Zeit der Knechtschaft mit der Verheißung des Exodus hinweg. Immanuel Kant (2003: 171) erkannte in Vernunft sein liebstes Trostpflaster. Und Friedrich Nietzsche (1999: 481) verkündete in Die fröhliche Wissenshaft nicht nur, dass Gott tot sei, sondern fragte auch: »Wie trösten wir uns?«: Für den Philosophen und Trostexperten Hans Blumenberg (2006: 625) geht es schließlich bei Trost um eine symbolische Delegation, die sich aus der Fragilität kultureller Institutionen speist. Das hängt damit zusammen, dass Kultur längst nicht mehr das trostspende Wundermittel ist. Spätestens seit dem Psychoanalytiker Sigmund Freud empfinden wir zumindest ein Unbehagen an und in der Kultur. Ob der Mensch aus Überschuss oder aus Not zur Kultur drängt, ist hierbei zweitrangig angesichts der Beobachtung, dass Kultur als »Erzeugnis« selbst die Züge des Mangelhaften trägt. Wir sind »Prothesengötter«, bringt es Freud (1994: 222) auf den Punkt. »Und Prothesengötter sind trostbedürftig.« (Dober 2019: 71) Für Freud (1994: 270) bedurfte das Leiden am Leben daher eines »Linderungsmittels« (»mächtige Ablenkungen«, »Ersatzbefriedigungen« und »Rauschmittel«). In KI-Verheißungen lässt sich eine Synthese aus diesen Perspektiven erkennen: die Überbetonung des Rationalen, die Erfindung neuer Götter, die Linderung des Mangelhaften. Plötzlich taucht Trost in einer anderen Sphäre auf und wird dort wirksam.

261

262

Stefan Selke: Technik als Trost

8.2 Welthaltige Tröstungen Trost bedeutet die Linderung grundlegenden Kontingenzangst, der Angst vor den offenen Zukunftshorizonten. Die Hoffnung auf eine bessere Welt ist eine erprobte Troststrategie: Zunächst im Rahmen religiöser Heilsversprechungen, die ein besseres Jenseits zum Gegenstand hatten, inzwischen auch in Form von Technikverheißungen. In beiden Fällen gilt: »Auf diese andere Welt darf entweder gehofft, zu ihr soll hingestrebt werden oder aber es kann auf sie gerade nicht mehr gehofft werden, weil das Ziel der Hoffnung alle Glaubwürdigkeit verloren hat. Im letzteren Fall bleiben gegen die schiere Verzweiflung nur die ungeschönte Darstellung der falschen Welt und das stoisch-heroische Aushalten ihrer Absurdität. Woher aber bezieht die Hoffnung auf eine andere Welt ihre Kraft, woher nimmt das stoische Aushalten der Negativität seine Stärke?«, fragt der Philosoph Benjamin Dober. (Dober 2019: 11) In postmodernen Gesellschaften sind Menschen bekanntlich gezwungen, aus ihrem diesseitigem Dasein Sinn machen, ohne auf ein Jenseits hoffen zu können bzw. zu wollen. Je größer dabei der Vorrat an diesseitiger Zukunft ist, desto beliebter werden Trostangebote in der Form von Zukunftsnarrativen. Als denkende und fühlende Wesen sind Menschen dazu verpflichtet, Leid und Schmerz anzuerkennen. Gleichzeitig müssen sie Verzweiflung verhindern. Neben Hoffnung braucht es daher tragfähigen Trost in einer zeitgemäßen Form. Diese Trostform soll ihre Wirkung aus den konkreten Erfahrungen in der Welt beziehen, ohne auf ein unbestimmtes Jenseits zu vertrösten. Guter Trost muss ›welthaltig‹ sein, er darf die Welt im Ganzen nicht verdammen, weil er andernfalls selbst zur Bedrohung werden würde. Guter Trost kann hierbei helfen, mit einer anderen Einstellung in der Welt weiterzuleben: Diese Haltung kann Zukunftseuphorie genannt werden. Weder sollten sich Menschen der schieren Negation oder Klage widerstandslos ausliefern, noch der absoluten Weltaffirmation (»Alles ist gut.«). »Eine humane Trostpraxis orientiert sich stattdessen an der Vieldeutigkeit der Welt, ohne zu leugnen, dass wir in ihr der Trostlosigkeit begegnen.« (Ebd.: 12) Diese Vieldeutigkeit auszuhalten, ohne darin trostlose Vielwertigkeit zu erkennen ist eine enorme Herausforderung. Vor diesem Hintergrund kann – so die in diesem Buch vertretene These – Zukunftseuphorie als Middle Ground zwischen blinder Hoffnung und naiver Technikgläubigkeit dienen. Die gesellschaftliche Funktion von KI-Verheißungen liegt darin, einen neuen Weltbezug herzustellen, bei dem sich die Wirkwelt der KI-Anwendungen auf die Umwelt des Menschen ausdehnt und ihm so hilft, das »Unbegriffliche« (Blumenberg) zu ertragen.

8. Sehnsucht nach welthaltigem Trost

Prognostische KI-Narrative sind ein gutes Beispiel für eine tragfähige Form des Weltbezugs. Das Besondere an Verheißungsnarrativen besteht darin, dass durch sie das Vieldeutige und Opake an KI selbst tröstend wirkt. Diese Art der Zukunftseuphorie ist ein zeitgemäßes Format tragfähigen und welthaltigen Trostes.

Soziologische Umdeutung einer Ethik des Trostes Jede Zukunftsethik müsste auch eine Ethik des Trostes sein. Die These von der Zukunftseuphorie als Trostersatz beruht auf einer soziologischen Umdeutung von Blumenbergs Ethik des Trostes: Im zeitgenössischen Kontext geht es nicht nur um den »menschlichen Mangel an absoluter Evidenz, an Wahrheit, unser Mangel an Lebenszeit, an Heil, an Perfektion« (ebd.: 13), sondern vielmehr um pragmatische Konventionen, die als soziale Koordinationslogiken zwischen kaum noch kompatiblen gesellschaftlichen Teilsystemen (Politik, Wirtschaft, Recht, Kultur, Wissenschaft) wirken. (Diaz-Bone 2015) In anderen Worten: In KI-Verheißungen geht es nicht darum, dass Unbegreifliche zu begreifen, sondern darum, es als kollektiven Erwartungs- und Handlungshorizont pragmatisch und praktisch nutzbar zu machen. Schnell zeigt sich, dass Technik einen vollkommen eigenen Bereich des Trostes ausbildet. Hans Blumenbergs klassische Ethik des Trostes beruht auf einer Kritik des Mängelwesen-Modells von Arnold Gehlen. Dabei wird herausgearbeitet, dass Kultur gerade kein Notprogramm zum Ausgleich biologischer Ausstattungsmängel ist. (Blumenberg 2006: 108) Vielmehr sind die biologische und kulturelle Evolution als Wechselwirkung zu verstehen. Deutlicher wird diese Kritik, wenn man Menschen nicht als zu »schlecht weggekommene« Tiere begreift, die Kultur zur Kompensation ihrer biologischen Mängel benötigen. Vielmehr lässt sich »auch [...] umgekehrt annehmen, dass der Mensch nach dem Bauplan der Natur von vornherein das kulturschaffende Wesen sein sollte, und weil er dies ist, braucht sie ihn körperlich gar nicht so sehr zu bedenken wie die Tiere.« (Landmann 1962: 46) Diese Sichtweise wird nun handlungspraktisch umgedeutet. Denn Trost ist nicht nur ein zentrales Thema der Anthropologie bzw. Philosophie, sondern aus soziologischer Perspektive ein Element säkularer, erschöpfter und entfremdeter Gesellschaften. Trost wird deshalb als koordinierende Konvention betrachtet, deren Funktion darin besteht, eine ausreichend plausible und praktikable Lösung für das wiederkehrende Problem zu liefern, stets weitermachen zu müssen, ohne genau zu wissen wie. Troststrategien sind eine Reaktion auf die Notwendigkeit für individuelle und

263

264

Stefan Selke: Technik als Trost

kollektive Kontingenzbewältigung, denn Menschen sind gerade deshalb trostbedürftig, weil sie ein Bewusstsein für Kontingenz ausbilden. Kultur setzte sich aus Bildern, Geschichten, Metaphern und Mythen zusammen, »deren praktisch-rhetorischer Sinn nicht nur, aber auch Tröstung ist« (Dober 2019: 25). Weil Menschen rhetorische und narrative Wesen sind, werden im Folgenden prognostische Narrative rund um KI nochmals unter dem Gesichtspunkt ihrer welthaltigen Trost-Kapazität in den Blick genommen. Zugleich zeigt sich hierbei, wie vielfältig sich der narrative Wissensraum zu KI darstellt.

8.3 Narrative Spekulationen Eine mögliche Lösung für das wiederholt zu bewältigende Problem der Zukunftsoffenheit sind zukunftseuphorische Geschichten, die von vielen (intersubjektiv) geglaubt werden. Das mag mit daran liegen, dass sich die Kultur der Digitalität (Stalder 2016) nicht nur theoretisch und empirisch fassen lässt, sondern vor allem narrativ. Wichtig ist, aus verschiedenen Perspektiven über KI zu erzählen. Genau in diesem Sinne argumentiert etwa Manfred Becker in seinem Buch Das digitale Narrativ. Er behauptet, dass ganzheitliche Erzählformen hervorragend dazu geeignet seien, Gestaltungsaspekte, Ziele, Nutzen, Chancen und Gefahren der digitalen Transformation zu erfassen sowie die Beziehungen zwischen diesen Aspekten zu bedenken. (Becker 2019)1 Gleichwohl wird das ›digitale Drehbuch‹ gegenwärtig überwiegend von Technikern geschrieben. Die Torheit des digitalen Narrativs besteht in der Fixierung auf die technologischen Mittel, ohne vorher gesellschaftliche Zwecke bzw. Ziele definiert zu haben. Immerhin: Das digitale Narrativ erzählt auch, welche Auswirkungen die Digitalisierung für das Leben der Menschen in der Arbeitsund Lebenswelt der Zukunft haben wird. Erst dadurch wird der komplexe Prozess des digitalen Wandels zu einer erlebbaren und nachvollziehbaren gesellschaftlichen Wirklichkeit. »Die digitale Welt erscheint insofern als geplante, sich jeweils gerade entwickelnde und realisierte technisch-soziale Konstruktion«, so Becker weiter. Aber ist dieses Narrativ wirklich auf der Höhe der Zeit? Ist es nachvollziehbar und schlüssig für alle? Tatsächlich müsste ein solches Narrativ zunächst gesellschaftliche Zwecke (er)klären 1

Die Kenntnis des digitalen Narrativs gilt zudem als Voraussetzung, um aktiv an Transformationsprozessen teilzunehmen. Erst wer »die digitale Transformation verstanden hat«, so Becker, »kann entscheiden, ob er damit einverstanden ist« (Becker 2019: 1).

264

Stefan Selke: Technik als Trost

kollektive Kontingenzbewältigung, denn Menschen sind gerade deshalb trostbedürftig, weil sie ein Bewusstsein für Kontingenz ausbilden. Kultur setzte sich aus Bildern, Geschichten, Metaphern und Mythen zusammen, »deren praktisch-rhetorischer Sinn nicht nur, aber auch Tröstung ist« (Dober 2019: 25). Weil Menschen rhetorische und narrative Wesen sind, werden im Folgenden prognostische Narrative rund um KI nochmals unter dem Gesichtspunkt ihrer welthaltigen Trost-Kapazität in den Blick genommen. Zugleich zeigt sich hierbei, wie vielfältig sich der narrative Wissensraum zu KI darstellt.

8.3 Narrative Spekulationen Eine mögliche Lösung für das wiederholt zu bewältigende Problem der Zukunftsoffenheit sind zukunftseuphorische Geschichten, die von vielen (intersubjektiv) geglaubt werden. Das mag mit daran liegen, dass sich die Kultur der Digitalität (Stalder 2016) nicht nur theoretisch und empirisch fassen lässt, sondern vor allem narrativ. Wichtig ist, aus verschiedenen Perspektiven über KI zu erzählen. Genau in diesem Sinne argumentiert etwa Manfred Becker in seinem Buch Das digitale Narrativ. Er behauptet, dass ganzheitliche Erzählformen hervorragend dazu geeignet seien, Gestaltungsaspekte, Ziele, Nutzen, Chancen und Gefahren der digitalen Transformation zu erfassen sowie die Beziehungen zwischen diesen Aspekten zu bedenken. (Becker 2019)1 Gleichwohl wird das ›digitale Drehbuch‹ gegenwärtig überwiegend von Technikern geschrieben. Die Torheit des digitalen Narrativs besteht in der Fixierung auf die technologischen Mittel, ohne vorher gesellschaftliche Zwecke bzw. Ziele definiert zu haben. Immerhin: Das digitale Narrativ erzählt auch, welche Auswirkungen die Digitalisierung für das Leben der Menschen in der Arbeitsund Lebenswelt der Zukunft haben wird. Erst dadurch wird der komplexe Prozess des digitalen Wandels zu einer erlebbaren und nachvollziehbaren gesellschaftlichen Wirklichkeit. »Die digitale Welt erscheint insofern als geplante, sich jeweils gerade entwickelnde und realisierte technisch-soziale Konstruktion«, so Becker weiter. Aber ist dieses Narrativ wirklich auf der Höhe der Zeit? Ist es nachvollziehbar und schlüssig für alle? Tatsächlich müsste ein solches Narrativ zunächst gesellschaftliche Zwecke (er)klären 1

Die Kenntnis des digitalen Narrativs gilt zudem als Voraussetzung, um aktiv an Transformationsprozessen teilzunehmen. Erst wer »die digitale Transformation verstanden hat«, so Becker, »kann entscheiden, ob er damit einverstanden ist« (Becker 2019: 1).

8. Sehnsucht nach welthaltigem Trost

und erst anschließend nach den passenden technischen Mitteln fragen. Dies Frage nach dem Ursache-Wirkungs-Verhältnis gilt besonders für KI. Zudem muss ein zeitgemäßes Narrativ über technische Zielsetzungen hinaus auch moralisch-ethische Grundprinzipien integrieren. Die Schlüssigkeit eines solchen menschzentrierten Ansatzes, der zugleich auch mögliche Nebenfolgen miterzählt, ist das zentrale Erfolgskriterium eines trostspendenden Zukunftsnarrativs. Ausschließlich ökonomisch motivierte Techniknarrative, die tatsächliche oder vermeintliche Nützlichkeitsaspekte von KI hervorheben und diese zu Verheißungserzählungen verdichten, leisten genau das nicht. Doch welches KI-Narrativ erzählt die ganze Geschichte der Zukunft anstatt nur Ausschnitte zu zeigen? Welche Zukunftserzählung ermöglicht eine Rundumsicht und berücksichtigt Voraussetzungen, Rahmenbedingungen, Erwartungen und Technikfolgen? (Ebd.: 7) Neben Fragen nach dem »Wie« (»know-how«) braucht es vermehrt die Beschäftigung mit dem »Warum« (»know-why«) sowie Vorschläge für gesellschaftliche Gestaltungsoptionen von KI (»know-what«). Erst eine Sichtweise, die konsequent Fortschritt und Bedrohung berücksichtigt, erzeugt ein schlüssiges Bild der Zukunft. Wie so oft, sind Dystopie und Utopie untrennbar mit der Diskussion der digitalen Zukunft verbunden. Schwarz-Weiß-Malerei bringt jedoch auch Probleme mit sich: »Letztlich können wir im Vorhinein nicht wissen, ob eine radikale Vision uns einer guten Zukunft oder dem Abgrund näherbringt«, so der Philosoph Armin Grunwald. »Es wäre ein fatales Missverständnis, heutige Visionen der Digitalisierung unhinterfragt als Tatsachenbeschreibung der Zukunft zu verstehen, egal ob es sich um paradiesartige oder unheilvolle Erzählungen handeln. Tatsächlich kann die von der großen Vision ausgehende Faszination das nüchterne Denken vernebeln.« (Grunwald 2019: 23ff.) Ein schlüssiges KI-Narrativ böte also systematischen Trost anstatt Eklektizismus. »Was bisher an Strukturierung, Abgrenzung, normativer Rahmung geschieht«, so Manfred Becker erneut kritisch, »ähnelt eher kreativen digitalen Selbsthilfegruppen.« (Becker 2019: 14) Verheißungserzählungen über KI sind ein Bestandteil eines schlüssigen Digitalisierungsnarrativ. Schon allein deshalb, weil sie als diffuses Abbild der Wirklichkeit in den Köpfen von Entwicklern, Politikern, Entscheidern und Anwendern existieren. Wer an Verheißungen glaubt, trägt damit auch zur Entstehung neuer Wirklichkeitskategorien bei – hierin liegt die Kraft der Geschichten. Sie geben den Rahmen dessen ab, was für Realität gehalten wird. Ihre gesellschaftliche Funktion geht aber sogar noch weiter. Geschichten beeinflussen nicht nur unsere Wahrnehmung, sondern auch unser Handeln.

265

266

Stefan Selke: Technik als Trost

Dies betrifft einerseits die Motive von KI-Entwicklern. Andererseits haben KI-Narrative zweifelsohne einen starken Einfluss auf Gesetzgebung und Regulierungsvorhaben. (Johnson/Verdicchio 2017)

Intentionale Überhöhung und Zukunftseuphorie Wie gezeigt, geht es bei Verheißungen stets um spekulative Überhöhungen. In diesem Zusammenhang sollte das Potential von Science-Fiction nicht unterschätzt werden: »Imaginative thinking about AI can probe both dystopian and utopian scenarios, showing flaws in overly unidirectional thinking, and anticipating consequences before they affect lives of millions of people.« (Cave et al. 2020a: 10) Dieser Hinweis hilft, das Wesen zeitgenössischer Verheißungen konkreter zu fassen: Unter einer Verheißung wird eine Zukunftsvision verstanden, die zugleich Leitbild, Versprechen, Spekulation sowie eine besonders euphorische Prognose ist. Verheißungen sind prognostischer Narrative, deren Zweck die intentionale Überhöhung, die absichtsvolle Übertreibung eines bestimmten Effekts, darstellt. Im Zusammenhang mit KI beginnt die Verheißung eigentlich schon mit der Namensgebung. »Irgendwann wurde einfach von ›künstlicher Intelligenz‹ gesprochen«, so der Narrationsforscher Michael Müller. »Da steckt die Überhöhung bereits mit drin. Gleichzeitig handelt es sich um Versprechen, die bislang nicht eingelöst wurden. Diese Rahmung gibt bestimmte spekulative Narrative vor.« Neben Überhöhung spielte allerdings von Anfang an auch Abgrenzung eine Rolle: Marvin Minsky, ein amerikanischer Forscher, prägte gemeinsam mit John McCarthy, Nathaniel Rochester und Claude Shannon den englischen Begriff »Artificial Intelligence« (AI). Im Jahr 1956 fand am Dartmouth College in New Hampshire die erste Konferenz über AI statt. Weil John McCarthy dem damaligen ›Starwissenschaftler‹ Norbert Wiener eher ablehnend gegenüberstand, vermied er den damals üblichen Begriff »Cybernetics« und wurde stattdessen mit der Wortneuschöpfung »Artificial Intelligence« zum Gründungsvater einer neuen Disziplin. (Brockman 2020: xx; Zimmerli 2021: 199) Selbstverständlich glaubte der Visionär Minsky an die Zukunft der Informatik. Dazu gehörte die Überzeugung, dass Maschinen eines Tages in der Lage sein würden, zu denken. Mit der mehrfach kolportierten Aussage, dass das menschliche Gehirn eine »Fleischmaschine« sei (im Original: »The Brain is merely a meat machine«) erregte Minsky Auf-

8. Sehnsucht nach welthaltigem Trost

sehen,2 auch wenn die Quelle dieser berühmten Aussage weitgehend unklar geblieben ist. Verheißungserzählungen sind daher äußerst ambivalent, sie müssen es geradezu sein. Als Erzählform zeichnen sie sich durch semantische Promiskuität (Seel 2009) aus, »Verheißungen kann es daher immer nur im Plural geben. Also in Exposition dessen, was hier und jetzt passiert«, so der österreichische Ethiker Leopold Neuhold. »Damit ist eine Verheißung ein erwartbares Ergebnis, das aber bereits in der Entwicklung der Gesellschaft angelegt ist.« Doch aus welchen Sprachbildern setzen sich Verheißungen zusammen? Wer sind die Protagonisten hinter prominenten Verheißungen? Welche Absichten verfolgen sie? Welche Dynamiken werden durch die in Verheißungen enthaltenen Technologieversprechen in Gang gesetzt? Unter welchen Umständen erzeugen verheißungsvolle Erzählungen kollektiven Sinn? Fragen dieser Art sind nicht zuletzt deshalb wichtig, weil sich darin der Zusammenhang zwischen Zukunftserzählungen und Zukunftsdesign ausdrückt. Mögliche Antworten müssen berücksichtigen, dass Geschichten stets eine emotionale bzw. affektive Grundierung jenseits des Faktischen aufweisen. Das bedeutet, dass wir in Zukunftsgeschichten schnell auf Hoffnungen einerseits und Befürchtungen andererseits stoßen. »Die Sorge steht im Raum, dass wir die digitalen Geister, die wir mit guten Gründen gerufen haben, nicht nur nicht wieder loswerden«, so auch Armin Grunwald über KI, »sondern dass sie uns auch noch das Heft aus der Hand nehmen könnten.« (Grunwald 2019: 10) Allerdings stellt der Technikfolgenforscher klar, dass Sorgen ebenfalls konstruktiv sein können. Erst wenn die Sorge in Angst umschlägt, wird das Emotionale destruktiv. »Meine Sorge ist, dass wir in unserer überbordenden Faszination für die neuen Möglichkeiten der Digitalisierung blind werden – blind vor Begeisterung oder blind aus Bequemlichkeit.« (Ebd.: 30)

Relevanz und Potential von Zukunftsgeschichten Verheißungserzählungen sind eine Fortsetzungsgeschichte zwischen Gegenwart und Zukunft – einerseits schon Zukunftsszenarien, andererseits noch Gegenwartsdiagnose. Deshalb geht es darum, Zukunftsnarrative als Mittel der Gesellschaftsdiagnose nutzbar zu machen, ohne selbst an den darin

2

https://www.wired.com/2016/01/marvin-minskys-marvelous-meat-machine/ (12.01.2022).

267

268

Stefan Selke: Technik als Trost

enthaltenden Heilsbotschaften zu erblinden. Damit ist eine große Herausforderung verbunden, denn neben der Sorge gibt es eine zweite, ebenfalls häufig anzutreffende Tonalität in Zukunftsnarrativen: Euphorie. Verheißungserzählungen lassen sich als Generator von Zukunftseuphorie beschreiben. Genau in diesem Spannungsfeld zwischen Sorge und Euphorie lassen KI-Narrative einordnen. Zukunftseuphorische Verheißungserzählungen erzeugen eine Art von Trost, für die es immer mehr Nachfrage gibt. Dieser Trost resultiert aus dem Wesen von Erzählungen, denn über Zukunft muss erzählt werden, weil es keinen empirischen Zugang gibt. Zukunftserzählungen dienen daher vor allem der Modellierung der sozialen Zeit. Der Literaturwissenschaftler Albrecht Koschorke sieht die Funktion von Fiktionen darin, alternative Welten »mit freier Beziehung auf die gegebene Wirklichkeit« zu erfinden, die eine Entlastungsfunktion haben (z.B. Romane oder Gedichte). Verheißungsvolle Erzählungen, so die hier vorgelegte These, sind jedoch gerade nicht in dieser Weise von der empirischen Welt abgekoppelt. Vielmehr gehören sie (in der Nomenklatur von Koschorke) zur Gruppe derjenigen Fiktionen, mit deren Hilfe »Gesellschaften sich ein Bild ihrer selbst erzeugen« (Koschorke 2012: 229ff.). Gerade weil sich postmoderne Gesellschaften radikal von einer Vergangenheits- auf eine Zukunftsreferenz umgestellt haben, ist diese Form der Selbstbeobachtung bedeutungs- und wirkungsvoll, denn Zukunft »ist das plastische Medium, durch das moderne Gesellschaften in Kontakt mit ihrem möglichen Anderssein treten« (ebd.: 230). Zukunftserzählungen mit Verheißungscharakter steigern auf diese Weise den Imaginationshaushalt einer Epoche. Hierbei stehen »Zukunftsszenarien [...] ein ganzes Spektrum von dramatischen Möglichkeiten zur Verfügung: Sie können sich utopisch oder apokalyptisch ausgestalten, die bevorstehende Zeit als Belohnung oder als Strafe imaginieren, Wünschen oder Ängsten Ausdruck verleihen. Damit tragen sie die Unsicherheit des Kommenden in die Gegenwart hinein.« (Ebd.: 230) Immer wieder helfen Geschichten uns, Dasein in Sinn zu verwandeln. Gegenseitig erzählen sich Menschen Vergangenheit, Gegenwart und vor allem Zukunft. Wenn Zukunft aber vor allem in der Form von Geschichten erdacht wird, kommt es darauf an, wie genau diese Geschichte erzählt wird, denn im gemeinsamen Erzählen von Zukunftsgeschichten sind Optionen für Gesellschaftsgestaltung bereits enthalten. Die Zuneigung zu Geschichten ist hier-

8. Sehnsucht nach welthaltigem Trost

bei anthropologisch tief in der menschlichen Existenz verankert.3 Anhand von Geschichten lässt sich Wissen organisieren und Sinn in Handlungen zu erkennen. Weil abstrakte Analysen zum Leben erweckt werden, wird unser zersplittertes Weltempfinden gekittet. Stets gilt: Narrative sind soziale Konstruktionen und keinesfalls detaillierte oder sogar lückenlose Erfassungen von der Wirklichkeit. Ihr Nutzen liegt vielmehr darin, wie komplexe Sachverhalte narrativ erfasst werden: geschlossen und ganzheitlich. Geschichten sind Projektionen, bei denen es niemals um Wahrheit, sondern immer um »erzählerische Wahrheit« geht (Selke 2020c: 283ff.). Weil Geschichten oft auch als Blaupause für Zukunftsentwicklungen angesehen werden, eröffnen sie persönliche Erlebnisräume und subjektive Projektionsflächen. (Becker 2019: 7) Sie tragen dazu bei, Fakten besser zu erinnern, Botschaften verständlicher zu machen und Argumenten gegenüber zugänglicher zu werden. Ihre gesellschaftliche Relevanz liegt zusammenfassend darin, dass Erzählungen idealerweise zwischen den eigenen Erlebnissen und den intersubjektiv geteilten Erfahrungen vermitteln. Das ist eine großartige Leistung, die gerade auch im Kontext von KI und verheißungsvollen Zukunftsgeschichten deutlich wird, weil die Komplexität des Themas und die damit verbundene Informationsfülle auf ein beherrschbares Maß reduziert werden. Geschichten sind also auch pädagogisch wertvolle Werkzeuge, mit denen sich Wissen teilen und umverteilen lässt (Clough 2002). Die Welt lässt sich anhand von Geschichten organisieren.4 Geschichten reagieren auf ihre jeweilige Epoche und sie »können gesellschaftliches Sein verändern«, erläutert die Autorin Julia Fuchte. Die Soziologen Ann Game und Andrew Metcalfe vergleichen die Rolle von Autoren und Schriftstellern sogar mit der von Priestern und Schamanen, die neue Welten in einer narrativen Form erzeugen und diese Welten plausibel erscheinen lassen. (Game/Metcalfe 1996: 84) Spätestens bei den messianisch wirkenden Verheißungen der Digitalen Evangelisten wird diese Eigenschaft praktisch relevant. Erzählungen beinhalten auch um Umfeld von KI rituelle Aspekte. Und damit tritt die zentrale Funktion von Narrativen hervor: Sinnstiftung. Genau deshalb rücken in modernen Gesellschaften Erzählungen über KI in den Mittelpunkt. »Durch Erzählungen wird Wissen über die Welt vermittelt, werden Erfahrungen im

3 4

Der Experte für Storytelling, Jack Hart, drückt es wie folgt aus: »We’re hardwired for story.« (Hart 2011: 8) In komplexen Gesellschaften steigt der Wert von Erzählungen eher noch an. Oder umgekehrt: »Ohne das Instrument der Erzählungen nimmt das gesellschaftliche Verständnis radikal ab«, so der Soziologe Richard Sennett. (Sennett 2009: 82)

269

270

Stefan Selke: Technik als Trost

kollektiven und individuellen Gedächtnis aufbewahrt und Vorstellungen über die Zukunft entwickelt und mitgeteilt.« (Fahrenwald 2011: 16) Geschichten über KI repräsentieren deshalb eine Vielzahl von Positionen und Argumenten, sie bündeln Perspektiven und spenden Trost. Doch wer hat hierbei die Deutungshoheit? Wer hat die lauteste, leiseste Stimme? Und wie überzeugend sind Zukunftsnarrative über KI?

Überzeugungsarbeit und Versprechensdynamiken Ein Beispiel für Überzeugungsarbeit ist die Studie Machine Learning. (Reder et al. 2020) Im Kontext der Verbreitung von Maschine Learning (ML) in deutschen Unternehmen und dem beachtlichen Reifegrad dieser KI-Technologie(n) wird unterstellt, dass sich deutsche Firmen ein wenig mehr »Bewegungsdrang« leisten sollten. »Unternehmen werden sich [...] intensiver als je zuvor mit diesen Technologien auseinandersetzen müssen. Reibungsverluste durch überzogene Erwartungen, zögerliche Vorgehensweisen und Kommunikationsprobleme sind daher nicht tolerabel.« (Ebd.: 32) In diesem AnpassungsNarrativ tauchen marktstrategische und geopolitische Argumente auf, die zwischenzeitlich neben ethischen Aspekten für die Beurteilung von KI zentral sind. Festgehalten werden kann, dass die Überzeugungsarbeit, die in der Studie geleistet wird, dem Modus der »narrativen Persuasion« entspricht, wie sie innerhalb eines neuen Forschungsfeldes der Kommunikationswissenschaft beschrieben wird. (Sukulla 2019) Letztendlich zählt bei Verheißungserzählungen die in ihnen enthaltene kommunikative Vermittlungs- und Überzeugungsleistung. Gerade in Wissensgesellschaften, in denen immer wieder um Deutungshoheit gerungen wird, sind Überzeugungserzählungen stark verbreitet, wenngleich auch weiterhin Mythen reproduziert werden. (Kübler 2009) Wo beide Erzählformen konvergieren, entstehen Verheißungen. Zukunftsnarrative dienen damit der Vermittlung von Wissen, aber auch von Normen und Werten. (Sukulla 2019: 11) Vor diesem Hintergrund untersucht die Persuasionsforschung (als Teilgebiet der Kommunikationswissenschaften bzw. der Psychologie), welche Einflüsse Narrationen auf Einstellungen und Vorstellungen über einen bestimmten Sachverhalt haben. (Schweiger/Fahr 2013) Bei der Verarbeitung von Erzählungen werden vorhandenes Vorwissen sowie eigene Erfahrungen mit einbezogen. Auch im narrativen Wissensraum über KI treffen »vorstrukturierte Wissensformen« (Sukulla 2019: 19) auf neue Informationen. Zusammengenommen entsteht daraus ein Referenzrahmen, innerhalb dessen immer wieder aktualisierte Situationsdefinitionen vorgenom-

8. Sehnsucht nach welthaltigem Trost

men werden können. Je nach Ausgestaltung der (Heils-)Botschaft (z.B. durch mehr oder weniger Anschaulichkeit) wird Narrativen unterschiedliche Persuasivität (Überzeugungsleistung) zugeschrieben. Weil Texte, die besonders anschaulich und konkret sind, stärker überzeugen, verwundert es kaum, dass gerade Science-Fiction im narrativen Wissensraum zu KI einen besonderen Stellenwert einnimmt.

8.4 Antizipationserzählungen Einerseits suchen Menschen Linderung im Trost. Andererseits lieben sie Untergangserzählungen, jedenfalls solange sie nicht selbst vom Untergang betroffen sind. »Der prickelnde Schauer des Untergangs sichert Einschaltquoten und Besucherzahlen«, so Armin Grunwald (2019: 9). Auch der Professor für kognitive Robotik Murray Shanahan sieht in Science-Fiction zunächst den Unterhaltungsaspekt. »Es wäre verfehlt«, so der Forscher weiter, »sie als Denkanleitung zu betrachten.« (Shanahan 2015: 7) Wenn aber doch? Vielleicht bieten Fiktionen mehr als Unterhaltung? »Tatsächlich ist es manchmal lohnend, auch höchst unwahrscheinliche oder abseitige Zukunftsszenarien näher zu betrachten«, widerspricht sich Shanahan dann gleich selbst. »Dies gilt zum Beispiel dann, wenn es um eine besonders dystopische Entwicklung geht.« (Ebd.: 7f.) Das konzeptionelle Terrain ist unübersichtlich. Jedenfalls gibt es gute Gründe dafür, dass viele KI-Verheißungen vor allem im Format fiktionaler Literatur transportiert werden. »Science-Fiction kann uns als Warnung dienen. Spekulatives Geschichtenerzählen vermag auch auf einzigartige Weise die Grenzen von Raum und Zeit zu überwinden, Ingenieur- und Geisteswissenschaften miteinander zu verbinden, die Trennlinie zwischen Fiktion und Wirklichkeit zu verwischen und tiefschürfendes Denken hervorzubringen«, so der Autor Qiufan Chen im Buch KI 2041. Zehn Zukunftsvisionen, in dem auf vorbildliche Weise Fakten und Fiktionen verknüpft werden.5 »Wir können in die Zukunft, die wir uns mithilfe von Science-Fiction ausmalen, eingreifen, Dinge verändern und unsere Wirklichkeit aktiv mitgestalten. [...] Anders gesagt, bevor wir die Zukunft unseren Wünschen entsprechend

5

Das Gegenmodell dazu sind Einführungsbücher wie KI für Dummies, deren Autor seinen Lesern den Tipp gibt, KI nicht mit Science-Fiction zu verwechseln. (Otte 2021: 241) Die vielfältigen Wechselwirkungen, die gerade den narrativen Wissensraum zu KI ausmachen, werden hier vollkommen ignoriert.

271

8. Sehnsucht nach welthaltigem Trost

men werden können. Je nach Ausgestaltung der (Heils-)Botschaft (z.B. durch mehr oder weniger Anschaulichkeit) wird Narrativen unterschiedliche Persuasivität (Überzeugungsleistung) zugeschrieben. Weil Texte, die besonders anschaulich und konkret sind, stärker überzeugen, verwundert es kaum, dass gerade Science-Fiction im narrativen Wissensraum zu KI einen besonderen Stellenwert einnimmt.

8.4 Antizipationserzählungen Einerseits suchen Menschen Linderung im Trost. Andererseits lieben sie Untergangserzählungen, jedenfalls solange sie nicht selbst vom Untergang betroffen sind. »Der prickelnde Schauer des Untergangs sichert Einschaltquoten und Besucherzahlen«, so Armin Grunwald (2019: 9). Auch der Professor für kognitive Robotik Murray Shanahan sieht in Science-Fiction zunächst den Unterhaltungsaspekt. »Es wäre verfehlt«, so der Forscher weiter, »sie als Denkanleitung zu betrachten.« (Shanahan 2015: 7) Wenn aber doch? Vielleicht bieten Fiktionen mehr als Unterhaltung? »Tatsächlich ist es manchmal lohnend, auch höchst unwahrscheinliche oder abseitige Zukunftsszenarien näher zu betrachten«, widerspricht sich Shanahan dann gleich selbst. »Dies gilt zum Beispiel dann, wenn es um eine besonders dystopische Entwicklung geht.« (Ebd.: 7f.) Das konzeptionelle Terrain ist unübersichtlich. Jedenfalls gibt es gute Gründe dafür, dass viele KI-Verheißungen vor allem im Format fiktionaler Literatur transportiert werden. »Science-Fiction kann uns als Warnung dienen. Spekulatives Geschichtenerzählen vermag auch auf einzigartige Weise die Grenzen von Raum und Zeit zu überwinden, Ingenieur- und Geisteswissenschaften miteinander zu verbinden, die Trennlinie zwischen Fiktion und Wirklichkeit zu verwischen und tiefschürfendes Denken hervorzubringen«, so der Autor Qiufan Chen im Buch KI 2041. Zehn Zukunftsvisionen, in dem auf vorbildliche Weise Fakten und Fiktionen verknüpft werden.5 »Wir können in die Zukunft, die wir uns mithilfe von Science-Fiction ausmalen, eingreifen, Dinge verändern und unsere Wirklichkeit aktiv mitgestalten. [...] Anders gesagt, bevor wir die Zukunft unseren Wünschen entsprechend

5

Das Gegenmodell dazu sind Einführungsbücher wie KI für Dummies, deren Autor seinen Lesern den Tipp gibt, KI nicht mit Science-Fiction zu verwechseln. (Otte 2021: 241) Die vielfältigen Wechselwirkungen, die gerade den narrativen Wissensraum zu KI ausmachen, werden hier vollkommen ignoriert.

271

272

Stefan Selke: Technik als Trost

gestalten können, müssen wir zunächst einmal lernen, sie uns vorzustellen. Für mich besteht der größte Nutzen von Science-Fiction nicht darin, Antworten zu liefern, sondern Fragen aufzuwerfen.« (Chen in: Lee/Chen 2021: 21ff.) Zahlreiche wissenschaftliche Studien kommen zu einem ähnlichen Ergebnis: Fiktion hat die Kraft, eine verheißungsvolle, utopische Zukunft zu antizipieren. (Vgl. Avin 2019; Amos/Page 2014; Finn/Cramer 2014) Das sind zahlreiche Gründe dafür, dass Science-Fiction eine so zentrale Stellung des narrativen Wissensraums über KI einnimmt. Denn eine Kultur verhandelt wichtige Fragen nicht in Universitätsseminaren, so der Kulturwissenschaftler Lorenz Engall, sondern gerade auch in und durch Popkultur.6 Science-Fiction dient als Sublimationsfläche kultureller Erwartungen, weckt Hoffnungen, schürt aber auch Ängste. Sie wirkt gewissenmaßen als sensibler Seismograf »kommender Gesellschaften« (Faßler 2009). Literatur ist die Daueranstrengung einer Welterklärung zwischen Fakten und Fiktionen. Die Grenzen zwischen Wissenschaft und Literatur sind dabei weniger undurchlässig als auf den ersten Blick angenommen. Ein nennenswerter Unterschied zwischen literarischen und wissenschaftlichen Texten ist, so der Publizist Hans-Jürgen Heinrichs, selten zu finden. Letztendlich gibt es kaum »Trennstriche zwischen Poesie und Wissenschaftlichkeit«, so Heinrichs, »zwischen Imagination und Empirie.« (Heinrichs 1996: 316)7 Auch der Soziologe Wolf Lepenies analysierte in seiner klassischen Studie Die drei Kulturen das Spannungsfeld zwischen Literatur, Wissenschaft sowie – als dritter Kultur – Soziologie und demonstrierte eindrucksvoll eine Vielzahl von Überlappungen. (Lepenies 1985) Die Grenze zwischen Wissenschaft und kreativem Schreiben (»creative nonfiction« bzw. »narrative non fiction«) ist fließend. »Insgesamt sind Wissenschaft und Science-Fiction hinsichtlich des Potenzials der technisch getriebenen Veränderung der Menschheit [...] eng verflochten«, so der Medienwissenschaftler Michael Latzer (Latzer 2021). 6 7

https://www.spektrum.de/rezension/buchkritik-zu-die-codices/1690136 (11.02.2022). Mit einer Ausnahme allerdings: der literarische Text ist abschließbar, während der wissenschaftliche Diskurs prinzipiell unendlich fortgesetzt werden kann. (Heinrichs 1996: 304) Während wissenschaftliches Schreiben das Oszillierende und Ambivalente abtötet, kann sich literarisches Schreiben auf bedeutungsoffene Prozesse einlassen. »Der Schriftsteller hat ein deutlicheres Gefühl als der Wissenschaftler für die Tatsache, dass er stets in laufende Prozesse eintritt«, so Heinrichs, »dass er als Produzent auch die Rolle eines Mediums annimmt, durch das etwas hindurchgeht.« (Ebd.: 278) Es geht zu Lasten des wissenschaftlichen Schreibens, dass diese Erkenntnisdimension meist unterdrückt wird.

8. Sehnsucht nach welthaltigem Trost

Dennoch: Es gibt eine Art »narratives Wissen« (Morgan/Wise 2017), das sowohl aus fiktionalen wie auch nicht-fiktionalen Texten resultiert und das jenseits aller Plausibilität wahrnehmungs- und handlungswirksam wird.8 Wie intensiv die Wechselwirkungen zwischen der wissenschaftlichen und der literarischen Welt tatsächlich sind, lässt sich auch aus der Danksagung des Roboter-Pioniers Hans Moravec in dessen Buch Mind Children erahnen: »So kann ich mich nur pauschal bei den Autoren aus Wissenschaft und ScienceFiction, bei den Lehrern, Bibliothekaren, Organisatoren technischer Messen und Freunden bedanken, die in vier Jahrzehnten dazu beigetragen haben, mein wissenschaftliches Weltbild zu formen.« (Moravec 1990: 265) Aus dieser Danksagung lässt sich eine zentrale Funktion von Literatur ableiten: Fiktionale Texte malen mögliche Welten aus, gleichzeitig unterstützen sie den kommunikativen Austausch über gesellschaftliche Alternativen. Es ist allerdings nicht so, dass Künstler ausschließlich den fiktiven und Wissenschaftler den objektiven Raum besetzen würden. »Es wäre eine naive Hoffnung, zu glauben, dass nur Wissenschaftler über die Fähigkeit verfügen, herauszufügen, wie die Dinge wirklich sind«, so der Psychologe Fabian Hutmacher. Einerseits bringt auch Wissenschaft eigene Wertungen und Schwerpunktsetzungen mit in Fachtexte ein. Andererseits beschäftigen sich Künstler und Schriftsteller faktenbasiert mit KI. »Sehr viel wird durch den Filter der Fiktion wahrgenommen und verhandelt«, so der französische Theaterregisseur Julian Mellano im Gespräch. »Diese Antizipationsgeschichten bieten einen spielerischen Überblick über mögliche Zukunftsperspektiven.« Science-Fiction bietet hierbei die Möglichkeit des niedrigschwelligen Zugangs zu komplexen Themen. Alltagsnahe Ausdrucksmedien wie Filme, Romane oder Theaterstücke erzeugen im Wesentlichen eine alternative kulturelle Position von Wissen, die sich durch kognitive, ästhetische und kommunikative Anschlussfähigkeit gegenüber außerwissenschaftlichen Publika auszeichnet. Relevanz und Reichweite stehen hierbei idealerweise im Mittelpunkt. (Selke 2020c: 258ff.) »Science-Fiction-Filme sind faszinierend«, ergänzt Mellano. »Sie zeigen die komplexe Kombination weit entwickelter Technologien mit dem menschlichen Körper und unserem Geist, der nach wie vor grundlegend mit unserem organischen Ursprung verbunden sind. Diese Fiktionen dienen

8

Strukturell gleichen damit Verheißungsnarrative Verschwörungstheorien, die aus wissenssoziologischer Perspektive eine eigene kommunikative Gattung bilden. Vgl. dazu Anton (2014).

273

274

Stefan Selke: Technik als Trost

als Sprungbrett zu Wissen, das notwendig sein wird, um mit dem Fortschritt mithalten zu können.« Science-Fiction als Sprungbrett des Wissens? Das ist nicht nur schön gesagt, sondern wird auch immer häufiger als eigenständige Forschungsmethode ›nah am Möglichen‹ anerkannt – selbst wenn das Genre Science-Fiction für viele Puristen oder Technokraten noch immer unter Generalverdacht steht. Fiktionales Schreiben wird dennoch im Kontext progressiver Gesellschaftswissenschaften als innovative Forschungsmethode geschätzt. Mittels fiktionaler Texte lässt sich der ästhetische, kommunikative und dramaturgische Rückstand stimmloser Fachtexte aufholen, die meist im Jargon eines bestimmten Diskurses verfasst werden. Fiktionale Texte eignen sich bestens dazu, Analyse (Reflexivität) und Präsentationsfähigkeit (Narrativität) zu verbinden, denn Wissenschaft und Literatur liegen nicht so weit auseinander, wie oftmals behauptet. In anderen Worten: Fiktionale Texte besitzen eine Art Scharnierfunktion. Da liegt es nahe, Fiktionen als soziale Forschungspraxis zu nutzen. (Vgl. Leavy 2013: 20) Trotz dieser Potenziale scheiden sich am Fiktionalen die Geister. Das liegt auch daran, dass sich Science-Fiction gerade nicht an den aktuellen technischen Möglichkeiten orientiert, sondern selbst Mythen oder verheißungsvolle Antizipationen produziert. Ist aber »fiktional« wirklich ein Gegensatz von »faktisch«? So einseitig die Idee ›reiner‹ Fakten ist, so fragwürdig ist die Idee ›purer‹ Fiktion. Vielmehr geht es meist um eine übersetzende Wiedergabe von Fakten (»Rendering«), d.h. fiktionale Erzählungen ermöglichen den kreativen Umgang mit recherchiertem Faktenwissen.9 Der Idealvorstellung eines ›wahren‹ und ›objektiven‹ wissenschaftlichen Kerns kann also in einer positiven Betrachtungsweise ein kreativer Anpassungsprozess gegenübergestellt werden. Fiktionale Texte können weit mehr, als eine Wissenskluft (»understanding gaps«) zu überbrücken. »Im fiktionalen Raum wird unter anderem sichtbar gemacht, welche Emotionen mit KI verbunden sind und wie Verhaltensweisen durch Technik beeinflusst werden. Das liegt vor allem

9

Der Beststellerautor Frank Schätzing äußert sich in einem Interview zum Plot seines Romans Breaking News über die Grenze zwischen Dichtung und Wahrheit in ähnlicher Weise. »Mich interessieren die Wahrscheinlichkeiten. Es ist Fiktion, nah am Möglichen. Wirklichkeit ist nur authentisch als Ganzes. Sobald wir sie fragmentieren, Einzelnes herausgreifen, verzerren wir sie. Zwangsläufig. Und erschaffen damit eine neue Wirklichkeit, letztlich eine neue Wahrheit.« (DER SPIEGEL 9/2014, 100ff.)

8. Sehnsucht nach welthaltigem Trost

daran, dass es eine Wechselwirkung zwischen einer literarischen Konstruktion fiktionaler Welten und dem Gesellschafts- und Weltverständnis der Lesenden gibt. Fiktionale Welten verweisen immer auf das herrschende Gesellschaftsverständnis. (Abbott 2008) Anhand von Erzählungen lassen sich komplexe Wirkungszusammenhänge und bislang unvorstellbare Zeithorizonte vermitteln und Menschen zur Veränderung eigener Gewohnheiten anleiten. Fiktionale Texte verbinden auf diese Weise situative Erfahrungen innerhalb der eigenen Biografie mit sozial-historischen Veränderungen, also dem gesellschaftlichem Wandel. Im Kern geht es also um eine Überbrückungsfunktion zwischen der Beobachtung kultureller Praktiken und den strukturellen Bedingungen menschlicher Existenz, »between cool reason and hot passion« (Banks/Banks 1998: 7). In Charakteren und Handlungen bildet sich anschaulich ab, was ansonsten theoretisch diskutiert wird. Durch die Fiktionalisierung kann vorstellbar gemacht werden, was ansonsten verborgen bliebe. Damit besitzt ausgerechnet fiktionales Schreiben das Potenzial, die »Orte des Schweigens« in einer Gesellschaft auszuleuchten. Damit wird eine Lücke geschlossen, die empirische Wissenschaft trotz aller Bemühungen (z.B. durch Wissenschaftskommunikation) offenlässt. Anders als Fachtexte, die jeweils nur als Fragment innerhalb eines Diskurses Bestand haben, besteht das Potenzial fiktionaler Texte darin, kontinuierlicher und breiter zu wirken. »Viele Aspekte finden sich eigentlich nur in fiktionaler Literatur oder fiktionalen Filmen«, so der Journalist und Schriftsteller Hans-Arthus Marsiske. »Diese Aspekte erfahren wir höchst selten aus der wissenschaftlichen Literatur. Zum Beispiel, wenn es um Emotionen oder sogar Angst geht und nicht um Technik an sich. Emotionen sind in der Wissenschaft noch immer verpönt.« Umgekehrt ist das Lesen fiktionaler Texte eine Art Ersatzhandlung. Genau darin unterscheiden sie sich von rein analytischen Texten. »Fiction is engaged«, so die Soziologin Patricia Leavy (2013: 20).

Zivilisationstests im spekulativen Fantasieraum Fiktionale Texte ermöglichen Zugang zu Inhalten, Denkweisen und Weltbildern. Sie füllen eine Leerstelle im Spektrum der Selbstvergewisserungsstrategien einer Gesellschaft. Gerade deshalb sind populäre Bücher Vehikel für öffentliche Debatten, denn durch Geschichten lassen sich aktuelle Zeit- und Gesellschaftsdiagnosen ventilieren. Wie gezeigt, sind Verheißungsgeschichten über KI intentionale Überhöhungen eines ausgewählten Sachverhalts. Das erklärt die Beliebtheit von

275

276

Stefan Selke: Technik als Trost

Science-Fiction-Erzählungen. Das Wirkprinzip erinnert an das Konzept der Überschreitung des Literaturwissenschaftlers Wolfgang Iser, der davon ausgeht, dass literarische Welten reale Welten überschreiten und damit gleichzeitig verinnerlichen. (Iser 1980: 4) Durch die Auswahl empirischer Daten aus der sozialen Wirklichkeit und deren Import in die fiktionale Welt werden diese in ein Zeichen verwandelt. Durch diese Überschreitung kann mit einer fiktionalen Geschichte eine Referenz auf gesellschaftliche Wirklichkeit erzeugt werden. Das Potenzial fiktionaler Texte besteht somit zusammenfassend darin, empathisches Engagement, Selbstbewusstsein und soziales Bewusstsein zu wecken. Gute Geschichten hinterfragen Bestehendes, sie erzeugen ein kritisches Bewusstsein und erfüllen damit einen öffentlichen Auftrag. KI ist auch deshalb ein beliebtes Thema für Science-Fiction, weil Filme und Romane helfen, die richtigen Fragen zu stellen: Was brauchen Gesellschaften, um zu funktionieren? Worauf wollen wir als Gesellschaft hinaus? Was macht uns (noch) als Menschen aus? »Alle diese Fragen können zunächst nur auf einer abstrakten, dramaturgischen Ebene angesprochen werden«, so der KI-Unternehmer Wolfgang Eckstein. »In diesem Sinne ist ScienceFiction sehr hilfreich.« Eckstein – selbst Autor des Science-Fiction Romans Die Codices über eine Superintelligenz – plädiert dafür, fiktionale Texte als Medium der Suche nach philosophischen Antworten zu nutzen: »In meinem Buch habe ich KI als Vehikel verwendet, um Grundfragen zu diskutieren: Habe ich einen freien Willen? Kann das, was wir als freien Willen empfinden, maschinell nachgebildet werden? Insofern ist ein Roman ein nützliches Werkzeug, um Antworten herauszuarbeiten«, so Eckstein im Gespräch. ScienceFiction etabliert eine Diskussionsgrundlage und zeigt Möglichkeitsräume auf, auch wenn Romane meist eher als Warnung gedacht sind und nicht als Bedienungsanleitung für die Zukunft. Fiktionale Geschichten sind gedachte Zivilisationstests in einem spekulativen Fantasieraum. Der Vorteil besteht darin, dass sich Entwicklungen vorwegnehmen und in ihrer Wirkung auf uns Menschen prüfen lassen. Vor allem das Genre Science-Fiction dient daher als Versuchsanordnung und Imaginationslaboratorium. Für diese Behauptung gibt es überzeugende Belege: Der Unternehmer und Autor des Bestsellers AI-Superpowers (2019), KaiFu Lee hat sich auf das Experiment eingelassen, zusammen mit dem ScienceFiction-Schriftsteller Qiufan Chen anhand sachlich-optimistischer Erzählungen einen Blick in die Zukunft von KI zu wagen. In ihrem kollaborativ produzierten Buch KI 2041. Zehn Zukunftsvisionen verbinden sie Fakten und Fiktionen auf innovative Weise. Für Lee bedeutet KI den letzten Schritt »der Menschheit

8. Sehnsucht nach welthaltigem Trost

auf ihrem Weg, sich selbst zu erkennen«. Seine Leiterzählung ist ein typisches Aufbruchs-Narrativ. »KI steht jetzt an einem Wendepunkt«, so Lee. »Sie hat den Elfenbeinturm der Wissenschaft verlassen, und die Tage langsamer Fortschritte sind vorüber.« Auf diesem Weg will er ausgerechnet in Zusammenarbeit mit einem Schriftsteller einen »Beitrag zu dieser neuen, verheißungsvollen Wissenschaft leisten«. (Lee/Chen 2021: 10) Seine Leiterzählung beinhaltet Licht und Schatten in ausgeglichener Mischung, dazwischen genügend inkohärente Mosaiksteine. Lee sieht Potenziale von KI, aber auch negative Begleiterscheinungen. Er kritisiert grundlegend, dass die meisten KI-Narrative »für gewöhnlich spekulativ und übertrieben« sind und nicht das ganze Bild zeigen. (Ebd.: 13) Daher wundert er sich, »dass die öffentliche Meinung über KI, die auf Halbwahrheiten beruht, mittlerweile von Bedenken oder sogar offener Ablehnung geprägt ist.« (Ebd.) Das war auch das treibende Motiv hinter dem ungewöhnlichen Schreib-Experiment. Im Buch verbinden sich thematisch gebündelte fiktionale Erzählungen (Chen) und fachlich fundierte Erklärungen (Lee). »Mir geht es darum, die tatsächliche Geschichte von KI zu diesem zukünftigen Zeitpunkt auf eine unvoreingenommene und ausgewogene, aber auch konstruktive und hoffnungsvolle Weise zu erzählen«, so Lee über das Konzept des Gemeinschaftswerks. »Die hier versammelten Erzählungen zeichnen ein Porträt unserer Welt im Jahr 2041, basierend auf Technologien, die mit einer Wahrscheinlichkeit von über 80 % in diesem Zeitraum am Markt eingeführt werden.« (Ebd.: 14) Es geht darum, kommende Entwicklungen in Erzählungen einzubetten, die zugleich »spannend, provokant und technologisch stimmig« sind. (Ebd.: 16) Diese spezifische Erzählweise der Zukunft nennt Lee nicht Science-, sondern Scientific Fiction: Trotz des erheblichen Risikos des Scheiterns entstanden exemplarische verheißungsvolle Antizipationsgeschichten sowie komplementäre sachliche Erläuterungen. »Wir malten uns eine Zukunft aus, in der die kommenden Generationen von den Früchten der technologischen Entwicklung profitieren, daraufhin arbeiten, die Welt zu einem angenehmen Ort zu machen, und ein sinnerfülltes und glückliches Leben zu führen«, führt der Ko-Autor Qiufan Chen den experimentellen Ansatz weiter aus. »Die zweite Herausforderung bestand darin, sich die Zukunft der menschlichen Zivilisation auszumalen. Wir wollten darstellen, wie Menschen aus verschiedenen Kulturen und Wissenschaftszweigen und mit unterschiedlichen Identitäten wohl auf den durch KI hervorgerufenen Zukunftsschock reagieren werden.« (Lee/ Chen 2021: 22f.) Daraus lässt sich einiges lernen: Einerseits kann Science-Fiction als innovatives und legitimes Mittel des Erkenntnisgewinns verstanden wer-

277

278

Stefan Selke: Technik als Trost

den, andererseits sind fiktionale Texte penetranter Dauerkritik ausgesetzt. »Die Debatte besteht aus getrennten Sphären«, so Hans-Arthur Marsiske. »Wissenschaftler sind oft sauer auf Science-Fiction-Autoren, weil diese übertreiben und die Erwartungen hochschrauben. Angeblich behindert das die Forschung.« Kritiker halten Denkanregungen durch Science-Fiction eher für wirkungslos. »Man nimmt das eben als Fiktion zur Kenntnis, redet vielleicht sogar darüber«, so Karsten Wendland. »Aber es führt danach zu nichts, weil Menschen zwar mit viel Aufwand zum Nachdenken gebracht werden, indem warnende Bilder erzeugt werden. Zu einer gesellschaftlichen Debatte führt das allerdings auch nicht.« Vor allem ausgewiesene KI-Experten grenzen sich deutlich ab: »Es gibt eine professionelle Art, mit KI zu arbeiten. Und es gibt ein ganz einfaches Bild von KI«, unterscheidet Wolfgang Eckstein. »Im Wesentlichen ist das einfache Bild durch Romane und Filme geprägt, meist von Blockbustern mit dystopischem Einschlag. Damit geht eine deutliche Verzerrung der tatsächlichen Möglichkeiten einher.« Wieder andere halten ScienceFiction schlicht für Kitsch: »The gap between today’s systems and the sciencefictional systems dominating the popular imagination is still huge«, so der Philosoph Dan Dennett, »though many folks, both lay and experts, manage to underestimate it.« (Dennett zit. n. Brockman 2020: 49) »DisneyfizierungsEffekte« sind nach Dennett wenig hilfreich, wenn es darum geht, ein angemessenes Zukunftsnarrativ zu erzählen. Die Kritik an Science-Fiction taucht sogar im Feld der Politikberatung auf. Der 2018 publizierte Bericht AI in the UK: ready, willing and able beinhaltet scharfe Kritik an fiktionalen KI-Narrativen: »The representation of artificial intelligence in popular culture is lightyears away from the often more complex and mundane reality.« Die Berichterstatter sind deshalb stark besorgt, dass KI in der Öffentlichkeit zu negativ oder fremdartig dargestellt wird.10 Trotz dieser Dauerkritik an fiktionalen Formaten wurden vergleichbare gesellschaftliche Entwicklung immer wieder durch Science-Fiction beeinflusst.11 Gerade auch Entwickler von KI sind in ihrer Sozialisation popkulturell geprägt. Ein konkretes Beispiel: Japanische

10 11

https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/10014.htm (02.03.2022). So geben etwa viele Protagonisten der Weltraumszene freimütig zu, ihre Motivation aus Science-Fiction bezogen zu haben. Astronauten lasen heimlich Perry Rhodan-Hefte unter der Bettdecke. Andere, wie der Raketenpionier Hermann Oberth ließen sich von Kurd Laßwitz oder Jules Verne inspirieren. Generation für Generation wurden die Utopien weitergereicht.

8. Sehnsucht nach welthaltigem Trost

Roboterentwickler lassen sich von Mangas wie Gundam inspirieren. Gundam ist ein 20 Meter hoher Roboter, der von einem Menschen gesteuert wird. Erste empirische Studien zeigen tatsächlich, dass fiktionale Erzählungen nicht nur Programmierer, Ingenieure oder Techniker bei der Berufswahl beeinflussen, sondern auch die eigenen Forschungsfragen oder grundlegenden Haltungen essenziell beeinflussen. (Dillon/Schaffer-Goddard 2022) Ähnlich sieht es auch Kai-Fu Lee: »Während meiner mehr als zehnjährigen Tätigkeit für Technologiefirmen habe ich viele Ingenieure und Techniker kennengelernt, die aus ihrem Faible für fantastische Literatur kein Hehl gemacht haben.« (Lee/Chen 2021: 21)

Zwischen Katalysator des Denkens und Angst vor der Apokalypse Science-Fiction wirkt wie ein Katalysator des Denkens. »Unsere Imagination basiert auf fiktionalen Geschichten. Hinzu kommen ein paar zufällige Geschichten und ein paar Träume«, so der KI-Analyst Boris Paskalev. »Allerdings ist es traurig, dass auf dieser Basis immer gleich der extrem unwahrscheinliche Untergang der Zivilisation durch KI befürchtet wird.« In der Tat werden in fiktiven Geschichten Untergangsszenarien ausgebreitet und Angst vor der Apokalypse geschürt. Im Film Ex-Machina befreit sich eine starke KI von der Vormundschaft der Menschen, um eigene Erfahrungen in der Welt zu machen. »Diese Version widerspricht der Annahme, künstliche Intelligenz werde dem Menschen wie Sklaven dienbar sein«, so der Kulturwissenschaftler Roberto Simanowski (2020: 56). Auch der Romanautor Frank Schätzing greift in seinem KI-Thriller Die Tyrannei des Schmetterlings tief in die sprachliche Trickkiste. Anschaulich beschreibt er, wie ein durch eine starke KI ausgelöstes apokalyptisches Szenario aussehen könnte: »Der Kontrollverlust ist kollektiv, jede öffentliche Ordnung zusammengebrochen, Tote und Verletzte, soweit man blickt. Fliegende, rollende, schreiende, kriechende, kletternde Maschinen, als Diener geschaffen, ergehen sich in Mord und blindwütiger Zerstörung.« (Schätzing 2018: 619) Sehr oft handelt sich um bei ScienceFiction um Gegennarrative, in denen KI nur eine einzige Funktion erfüllt: Aufgrund ihres unkontrollierbaren Eigensinns gefährdet sie die Menschheit als Ganzes. Der Kern dieser pessimistischen Gegenerzählung besteht in der Angst vor Kontrollverlust. Horror zieht Publika an, Aufklärung wäre wichtiger. In der Tat werden in Romanen, Filmen und angrenzenden massenmedialen Darstellungen dysfunktionale Geschichten erzählt, die Durchschnittsbürger ängstlich in Bezug auf KI machen. »Eigentlich geht es in diesen Filmen nicht

279

280

Stefan Selke: Technik als Trost

um Verheißungen, sondern um Hiobsbotschaften«, so Wolfgang Eckstein. Und Boris Paskalev fügt kritisch hinzu: »In den medial vermittelten Geschichten ist es sehr schwer, zu differenzieren: Was ist wissenschaftlich fundiert? Was ist Story? Fast alles ist falsch, aber es sind Geschichten, die Menschen hören wollen.« Allerdings sollte es weniger um Aufmerksamkeit, als vielmehr um Vertrauenswürdigkeit gehen. Dieser Grundsatzkritik steht die selbstbewusste Perspektive jener Schriftstellern entgegen, die genau wissen, dass KI nicht ausschließlich sachlich dargestellt werden kann. »Als Science-Fiction-Autorin muss ich KI überschätzen und in monumentalen Dimensionen denken, weil das interessant für die Story ist«, kontert die Autorin Theresa Hannig. »In der Debatte über KI sind wir Vermittler. Wir übersetzen ›know-how‹ über Technologie, so dass es auch Menschen ohne technischen Hintergrund verstehen. Ich will normalen Menschen ein Grundrauschen an Ideen und Wertvorstellungen mitgeben, die sie dann später in reale Politik oder Praxis umsetzen können.« Science-Fiction ist also keineswegs nur Unterhaltung, sondern der Nährboden für politische Aushandlungen und kulturelle Selbstverständigungsprozesse. »Geschichten bleiben«, so fasst Hannig dieses Potenzial zusammen. »Was in Erinnerung bleibt, ist Popkultur. Der Bericht einer Enquete-Kommission hingegen ist schnell vergessen.«

8.5 Narrativer Wissensraum Als Ensemble von Ideen, Wünschen und Ängsten sind prognostische Narrative für eine Analyse von Verheißungen nicht nur wertvoll, sondern sogar notwendig. »They affect individuals and collectives, and influence human action, thought and outcome. [...] The study of narratives is essential in order to more effectively understand their functioning and critically engage with them.« (Royal Society 2018: 5) Die Analyse von Verheißungsgeschichten erfordert daher auch eine Reflexion des »narrative ecosystem around AI« (ebd.). Prognostische Narrative sind eine Antwort auf die Frage, was wir von der Zukunft wissen können. »Die digitalen Erzählungen handeln von unserer Zukunft. Allerdings gibt es viele unterschiedliche und einander widersprechende Geschichten.« (Grunwald 2019: 21) Im einfachsten Fall finden sich Verheißungserzählungen bereits in Einführungsbüchern zu KI, z.B. Künstliche Intelligenz & Robotik in 30 Sekunden. Obwohl es sich lediglich um einen Schnellüberblick handelt, werden die Inhalte einerseits sachlich und andererseits künstlerisch gestaltet präsentiert. Der Autor hat dabei keine Berührungs-

280

Stefan Selke: Technik als Trost

um Verheißungen, sondern um Hiobsbotschaften«, so Wolfgang Eckstein. Und Boris Paskalev fügt kritisch hinzu: »In den medial vermittelten Geschichten ist es sehr schwer, zu differenzieren: Was ist wissenschaftlich fundiert? Was ist Story? Fast alles ist falsch, aber es sind Geschichten, die Menschen hören wollen.« Allerdings sollte es weniger um Aufmerksamkeit, als vielmehr um Vertrauenswürdigkeit gehen. Dieser Grundsatzkritik steht die selbstbewusste Perspektive jener Schriftstellern entgegen, die genau wissen, dass KI nicht ausschließlich sachlich dargestellt werden kann. »Als Science-Fiction-Autorin muss ich KI überschätzen und in monumentalen Dimensionen denken, weil das interessant für die Story ist«, kontert die Autorin Theresa Hannig. »In der Debatte über KI sind wir Vermittler. Wir übersetzen ›know-how‹ über Technologie, so dass es auch Menschen ohne technischen Hintergrund verstehen. Ich will normalen Menschen ein Grundrauschen an Ideen und Wertvorstellungen mitgeben, die sie dann später in reale Politik oder Praxis umsetzen können.« Science-Fiction ist also keineswegs nur Unterhaltung, sondern der Nährboden für politische Aushandlungen und kulturelle Selbstverständigungsprozesse. »Geschichten bleiben«, so fasst Hannig dieses Potenzial zusammen. »Was in Erinnerung bleibt, ist Popkultur. Der Bericht einer Enquete-Kommission hingegen ist schnell vergessen.«

8.5 Narrativer Wissensraum Als Ensemble von Ideen, Wünschen und Ängsten sind prognostische Narrative für eine Analyse von Verheißungen nicht nur wertvoll, sondern sogar notwendig. »They affect individuals and collectives, and influence human action, thought and outcome. [...] The study of narratives is essential in order to more effectively understand their functioning and critically engage with them.« (Royal Society 2018: 5) Die Analyse von Verheißungsgeschichten erfordert daher auch eine Reflexion des »narrative ecosystem around AI« (ebd.). Prognostische Narrative sind eine Antwort auf die Frage, was wir von der Zukunft wissen können. »Die digitalen Erzählungen handeln von unserer Zukunft. Allerdings gibt es viele unterschiedliche und einander widersprechende Geschichten.« (Grunwald 2019: 21) Im einfachsten Fall finden sich Verheißungserzählungen bereits in Einführungsbüchern zu KI, z.B. Künstliche Intelligenz & Robotik in 30 Sekunden. Obwohl es sich lediglich um einen Schnellüberblick handelt, werden die Inhalte einerseits sachlich und andererseits künstlerisch gestaltet präsentiert. Der Autor hat dabei keine Berührungs-

8. Sehnsucht nach welthaltigem Trost

ängste und präsentiert bereits selbstverständliche Anwendungsfelder von KI genauso wie große Visionen oder Verheißungen. (Miranda 2019) Auch die verbreitete Einführung Künstliche Intelligenz. Fakten, Chancen, Risiken von Manuela Lenzen listet gleich in der Einleitung zahlreiche Verheißungsaspekte (»große Hoffnungen«) auf, ohne diese jedoch explizit Verheißung zu nennen, warnt aber gleichzeitig auch vor dem »Verwirrungspotenzial« von KI und den Folgen überaffirmativer Berichterstattung. »Diese Brille lässt uns in den Produkten der KI-Forschung leicht mehr erkennen, mehr erhoffen und mehr befürchten, als die Technik derzeit realisieren kann.« (Lenzen 2020: 8f.) So unterschiedlich die im narrativen Ökosystem zu KI enthaltenen Textformen auf den ersten Blick auch sein mögen, so naheliegend sind ein paar Gemeinsamkeiten. Denn jede »Zukunftserzählung und jede Zukunftsstudie wird letztlich ausgedacht [...] durch einzelne Menschen wie ScienceFiction-Autoren [...] oder wissenschaftliche Institute«, so Grunwald. »Zukunftserzählungen berichten also nicht einfach aus der Zukunft, sondern spiegeln Gegenwartsüberzeugungen wider.« (Ebd.: 22f.) Weil das Verhältnis zwischen Mensch und Maschine ein beliebtes Dauerthema gesellschaftlicher Selbstreflexion ist, gehören zur Sammlung von Zukunftsgeschichten heterogene Erzählungen: fachwissenschaftliche, teilöffentliche sowie öffentliche Erzählungen. Auch das Wissenschaftsjahr Künstliche Intelligenz lud im Jahr 2019 dazu ein, die Chancen und Risiken der KI zwischen zahlreichen Möglichkeiten auf besseres Leben und notwendigen Grenzziehungen zu diskutieren.12 Rund 20 Förderprojekte wandten sich mit dem Thema KI an die allgemeine Öffentlichkeit.13 Zwar ist dabei nicht von Verheißungen, dennoch aber von Verbesserungen und Vorteilen die Rede, die von humaner Arbeitswelt über Stauvermeidung bis hin zum Umweltschutz reichen. Auch wenn sich vieles noch im Experimentierstadium befinde, so der Tenor, seien immerhin »weitreichende Hoffnungen« berechtigt. Was sich dann doch fast schon ein wenig wie eine Verheißung anhört.14 Ein guter Indikator für die Tonalität von Zukunftserzählungen sind zudem politische Programme, etwa der aktuelle Koalitionsvertrag

12 13 14

https://www.bmbf.de/bmbf/shareddocs/kurzmeldungen/de/wissenschaftsjahr-2019. html (13.01.2021). https:// www. wissenschaftsjahr.de/ 2019/ veranstaltungen/ archiv/ index. html (25.02.2022). https://www.wissenschaftsjahr.de/2019/das-wissenschaftsjahr/themenfelder/gesun dheit-und-medizin/index.html (13.01.2022).

281

282

Stefan Selke: Technik als Trost

(2021–2025) Mehr Fortschritt wagen – Bündnis für Freiheit, Gerechtigkeit und Nachhaltigkeit, der einen »digitalen Aufbruch«, die digitale Modernisierung des Staates sowie mehr »Entfaltungsmöglichkeiten« für Menschen verspricht.15 Die Palette der Möglichkeiten ist umfassend und reicht einmal mehr von der Schaffung eines klimaneutralen Wohlstandes bis hin zur Nutzung digitaler Zwillinge. Deutschland soll Treiber eines starken Technologiestandortes werden, wozu innovationshemmende ex-ante-Regulierungen vermieden werden müssten. Allerdings zeigen sich im Detail Unterschiede bei den beteiligten Parteien. Während die FDP und Die Grünen eher als »KI-Optimisten« bzw. »KI-Ermöglicher« auftreten, zeigt sich die SPD deutlich skeptischer und weist auf die zahlreichen Gefahren algorithmischer Entscheidungssysteme hin, die bereits heute das gesellschaftliche Leben beeinflussen.16 Risiken sehen die Parteien ausschließlich in Bezug auf militärische Einsätze (Die Grünen) oder bei der Überwachung im Inneren (FDP). Bezeichnend ist, dass sich im Koalitionsvertrag keine gesellschaftliche Vision oder Utopie findet, sondern vor allem viele Kompromisse, vage Formulierungen sowie kaum politische Maßnahmen. Kritisiert wird außerdem, dass im Koalitionsvertrag ein recht enges Verständnis von KI zum Vorschein kommt, das KI zwar als technisches, nicht aber als sozio-technologisches System eingebettet in die Gesellschaft betrachtet. Trotz positiv konnotierter Vokabeln wie »Aufbruch« handelt es sich eher um ein typisches Anpassungs-Narrativ. Im Kontext des Cyber Valleys17 finden sich zahlreiche Aussagen des baden-württembergischen Ministerpräsidenten Winfried Kretschmann, für den sich anhand von KI »eine entscheidende Frage für die Gestaltung der Zukunft« stellt.«18 KI biete sich dazu förmlich an, »nun

15 16 17

18

https://www.spd.de/fileadmin/Dokumente/Koalitionsvertrag/Koalitionsvertrag_202 1-2025.pdf (25.02.2022). https://www.politik-kommunikation.de/was-zeigt-die-ampel-bei-kuenstlicher-intell igenz/ (21.01.2022). Das Cyber Valley ist Europas größtes Forschungskonsortium im Bereich der KI. Viele namenswerte Firmen und Institutionen sind Gründer dieser Initiative. Unterstützt wird dies durch Stiftungen sowie das Land Baden-Württemberg. Cyber Valley stärkt die Forschung und Ausbildung in den Bereichen maschinelles Lernen, Computer Vision und Robotik und fördert den Austausch zwischen den wissenschaftlichen Disziplinen. Ansässig ist dies in der Region Stuttgart-Tübingen. Vgl.: https://cyber-valley.d e/de (25.02.2022). https://www.stuttgarter-zeitung.de/inhalt.kuenstliche-intelligenz-merkel-und-krets chmann-geben-startschuss-fuer-ausbau-des-cyber-valley.fab898c4-39d3-4535-9117-3 e58d6aeb6d4.html (21.01.2022).

8. Sehnsucht nach welthaltigem Trost

Antworten auf drängende Fragen zu finden und gemeinsam Lösungen auf den Weg zu bringen«.19 Während für den FDP-Bundestagsabgeordneten Manuel Höferlin KI »fast unendliche Chancen«20 beinhaltet, wenn man auf »German Angst« verzichtet würde, sieht Christian Lindner (auf Twitter) in KI sogar einen »Sieg der Gegenwart über die #Zukunft«.21 – das ist das leise Geräusch einer Verheißung im politischen System. Kritische Stimmen kommen eher von den Linken, etwa von Petra Sitte, die zwar sieht, dass KI Menschen berührt, aber auch verunsichert, weil damit immer wieder zu hohe Erwartungen kommuniziert werden. »Ein Grund mehr, die KI als das zu bezeichnen, was sie wirklich ist, nämlich als maschinelles Lernen oder als automatisierte Statistik.«22 Zu guter Letzt (in dieser exemplarischen Auswahl politischer Stimmen) äußerte sich Ex-Bundeskanzlerin Angela Merkel neutral-sachlich über KI, mahnt aber notwendige Reflexionen und eine klare Haltung an: »Insbesondere im Bereich KI müssen wir uns stets fragen: Tun wir etwas, weil es richtig ist oder nur, weil es möglich ist?«23 In der Summe spiegelt der narrative Wissensraum epochentypische Reflexionsprozesse wider. Prognostische Narrative sind ein Denklabor für Zukunftsgestaltung. Stimmungen, Fantasien, Werte- und Moralvorstellungen unterschiedlicher Akteure, die kontinuierlich technologische Entwicklungen flankieren, lassen sich durch prognostische Narrative »seismographisch« erfassen. So will etwa auch die evangelische Kirche in Deutschland dazu beitragen, die epochalen kulturellen Entwicklungen zu verstehen, die mit KI einhergehen. Gleichzeitig versucht sie in ihrem Manifest Freiheit digital – 10 Gebote in Zeiten des digitalen Wandels das Phänomen KI aus der Perspektive einer religiösen Glaubensgemeinschaft einzuordnen. »Digitale Technologie und der gesellschaftliche Prozess der Digitalisierung sind epochale kulturelle Entwicklungen.« (Amsinck et al. 2021: 5) Theologische Betrachtungen sollen zu einer realistischen und wirklichkeitsgerechten Einordnung von 19 20 21 22 23

https://cyber-valley.de/de/news/bundeskanzlerin-angela-merkel-und-ministerprasi dent-winfried-kretschmann-zu-besuch-im-cyber-valley (21.01.2022). https://www.handelsblatt.com/politik/deutschland/regulierung-fdp-warnt-vor-zu-vi el-german-angst-bei-kuenstlicher-intelligenz/25478176.html (21.01.2022). https://twitter.com/c_lindner/status/1106250448200175616 (21.01.2022). https://www.petra-sitte.de/2019/02/rede-wir-brauchen-eine-gesellschaftliche-disku ssion-ueber-ziele-und-ethik-der-ki/ (21.01.2022). https://www.handelsblatt.com/technik/vernetzt/interview-angela-merkel-zu-ki-dermensch-muss-die-oberhand-behalten/24473044.html?ticket=ST-1880184-ccV6dwoB RXXiRxufAld9-ap6 (27.01.2022).

283

284

Stefan Selke: Technik als Trost

Digitalisierung und KI verhelfen. Aus dieser speziellen Perspektive wird deutlich, dass es auch im Feld der Technik um starke Glaubenssätze geht. Es ist erstaunlich, »welche Gesichtspunkte in den Blick kommen, wenn man [...] jahrhundertealte Glaubensüberzeugungen auf Gegenwartsphänomene bezieht, auf eine Lebenswelt [...], die tief von der Digitalisierung geprägt ist: Manche lassen sich von der Digitalisierung ungebremst begeistern, andere sind heillos verschreckt. Während die einen Utopien erträumen, fürchten die anderen Unheil.« (Ebd.: 6; Hervorhebung, d.V.) Exakt hier taucht einmal mehr die Notwendigkeit welthaltiger und trostspendender Zukunftsnarrative auf. Da wäre zunächst der Cyberspace, der immer wieder auch als »Wunder« beschrieben wird. Oder die zahlreichen Statements der CEOs großer Silicon Valley-Unternehmen, die sich – wie gezeigt – gegenseitig darin übertreffen, die Geschichte des Internets als eine neue digitale herbeigeführte »Heilszeit« zu erzählen. Debatten um die gesellschaftliche Bedeutung der Digitalisierung und künstlicher Intelligenz pendeln immer wieder zwischen Heilsbotschaften und Unheil-Prophezeihungen. Schnell ist vom »Überschießenden«, vom »ganz Anderen« oder vom »Absoluten« die Rede. (Ebd.: 40) Was für die Digitalisierung im Allgemeinen gilt, spiegelt sich im Umgang mit KI im Speziellen. Im Manifest der Kirche wird erläutert, dass Gott die Menschen als seine Geschöpfe dazu befähigte, die Welt zu gestalten, dabei Grenzen zu überwinden, bisher Unmögliches zu wagen und sich selbst dabei zu transzendieren. KI ist in diesem Sinne eine digitale Technologie, die (zumindst aus theologischer Perspektive) zur Selbsttranszendierung genutzt werden kann und sollte: KI schafft einen gottgegebenen Möglichkeitsraum. Gleichzeitig müssen neue Grenzen berücksichtigt werden. »Wo Weltliches – hier: digitale Technologien – als Heils- und Erlösungsbringer inszeniert wird, wo Utopien künstlicher digitaler Intelligenz die Grenzen zwischen Mensch und Maschine verwischen sollen, da wird die verantwortliche Freiheit verspielt und es entstehen neue Abhängigkeiten.« (Ebd.: 235)

Zentralbegriff als geistiger Anker Wie bereits 1965 der Sozialphilosoph Jürgen Habermas zeigte, vollzieht sich die Behandlung technologischer Themen weitgehend unreflektiert und »nach Maßgabe von Interessen, für die eine öffentliche Rechtfertigung weder verlangt noch gestattet wird« (Habermas 1987: 118). Als fast schon zeitlosen Lösungsansatz schlägt Habermas vor, technischen Fortschritt nicht als Naturgesetz zu betrachten, sondern als Vollzug einer sozialen Lebenspraxis. Kurz: Die

8. Sehnsucht nach welthaltigem Trost

Dialektik von Können und Wollen braucht mehr politisches Bewusstsein. Vor allem aber warnt Habermas, solche Fragen nicht dem Bedienpersonal der Zivilisation (Biedenkopf 1983) zu überlassen. »Weil das eine Sache der Reflexion ist, gehört sie nicht wieder in die Zuständigkeit von Spezialisten.« (Habermas 1987: 119) Um die »kryptotheologische Struktur« (Müller 2010: 124) des linearen Fortschritts durch Technik aufzubrechen, braucht es möglicherweise auch eine neue Sprache und ein neues semantisches Feld. Eine Auffälligkeit im narrativen Wissensraum zu KI ist der fehlende Zentralbegriff. Stattdessen gibt es Blasen der Banalität, hypnotische Redundanz, heterogene Blickwinkel und Erkenntnisebenen, die zwar sinnvoll für erste Einordnung sind, gleichzeitig aber ein tieferes Verständnis von KI erschweren. Ein Zentralbegriff im Sinne des Soziologen Georg Simmel (1918) wäre hingegen eine Art geistiger Anker.24 »Es wäre die übergeordnete Idee, der sich alle unterordnen könnten und an deren Verwirklichung alle mitarbeiten würden«, so Manfred Becker (2019: 22). »Nicht plumper Pragmatismus, sondern Realitätsbewältigung, die einer übergeordneten Idee folgt, ist zu fordern.« (Ebd.: 23) Damit verbunden ist der auffallende Kohärenzmangel von KI-Narrativen. »Die Verheißungen von KI sind eigentlich in sich schon voller Widersprüchlichkeiten«, so Susann Kabisch. Es gibt Gravitationszentren, Themen, die immer wieder in den Erzählungen auftauchen. »Dennoch ist es keine große, in sich geschlossene Erzählung.« Jenseits des einheitsstiftenden erzählerischen Universums besteht der Wissensraum über KI oft aus zahlreichen Fragmenten und argumentativen Versatzstücken, die nur selten zu kohärenten Überblicksdarstellungen zusammengeführt werden und die »unverbunden nebeneinander umherschwirren«, so Julia Fuchte. Technische, politische, ethische und kulturelle Perspektiven auf KI existieren mehr oder wenig unverbunden nebeneinander.25 Und dass, obwohl sich »eigentlich ja herumgesprochen haben müsste, dass KI nicht nur ein rein technisches Thema ist«, so Verena van Zyl-Bulitta. »Das Feld der computerisierten Zukunft wird immer öfter jenseits

24

25

Der Soziologe Georg Simmel ordnete bereits vor rund 100 Jahren den unterschiedlichen geschichtlichen Perioden solche Zentralbegriffe zu. Die »griechische Klassik« stellt er unter den Zentralbegriff der »Idee des Seins«, das christliche Mittelalter unter den »Gottesbegriff«, die Renaissancekonzentriert sich auf »die Natur und die Persönlichkeit« als epochale Leitidee. Vgl.: Simmel (1918: 11). Hieran ändern auch neue Hybrid-Disziplinen wie Sozioinformatik wenig, wenngleich diese sinnvoll sind. Beispielsweise Zweig et al. (2021).

285

286

Stefan Selke: Technik als Trost

von Technik in ganz vielen Sphären verhandelt und diese Sphären passen überhaupt nicht zusammen.« Allerdings bieten gerade Verheißungserzählungen ansatzweise eine übergeordnete Perspektive auf KI, selbst wenn sie mehr Fragen aufwerfen als Antworten geben. Verheißungserzählungen fördern Polarisierung und Dramatisierung, sie verhindern Grautöne und Differenzierungen. »Oft wird KI entweder verteufelt oder zur Verheißung stilisiert«, so Julia Fuchte. »Es gibt zu wenig Versuche, These und Antithese in einer Perspektive zu vereinen, in der dann einfach beides miteinander tanzt – Utopie und Dystopie.« Dabei sind gerade fiktionale Erzählungen durch starke Dualismen geprägt, die einen manichäischen Charakter annehmen. Verheißungserzählungen erinnern an den Manichäismus, eine Offenbarungsreligion der Spätantike und des frühen Mittelalters, dessen Anhängerschaft in zwei Gruppen unterteilt war: die Elite der »Auserwählten« (aus der sich die Amtsträger rekrutierten) und die »Hörer«, also einfache Gemeindemitglieder. Diese Grundstruktur findet sich latent in vielen KI-Narrativen wieder.

Realitätsgehalt von Zukunftsvisionen Im narrativen Wissensraum wird immer wieder der Realitätsgehalt von Zukunftsvisionen verhandelt. So setzte sich beispielsweise die Studie Technologien und Visionen der Mensch-Maschine-Entgrenzung (Kehl/Coenen 2016) mit neuen technologischen Entgrenzungen, der Plausibilität von Zukunftserzählungen sowie den Verheißungen von Techno-Utopien auseinander. Die Autoren behaupten, dass die Neudefinitionen des Mensch-Technik-Verhältnis auch daraus resultieren, dass KI zunehmend Lernfähigkeit und Intelligenz nachahmt. Sie zeigen zudem, dass die öffentliche Debatte zu Mensch-Maschine-Entgrenzungen stark durch Zukunftsvisionen beeinflusst wird, die seit den 2000er-Jahren Verbreitung finden. Visionäre Diskussionen über die Zukunft starker KI (oder auch von Neurotechnologie) finden innerhalb eines überschaubaren Zirkels namhafter Naturwissenschaftler, Ingenieure, Autoren und Industrieller statt. Auffallend ist, dass diese Analysen jahrzehntealten Spekulationen ähneln. Oftmals spiegeln sie sich in der ScienceFiction-Literatur oder Filmen. Gerade die Idee der Superintelligenz wurde im Wesentlichen aus Motiven aufgegriffen, die bereits in den 1960er-Jahren zirkulierten. Neu ist allerdings, so die Studie weiter, dass führende Akteure der Computer- und Internetindustrie (z.B. Elon Musk) selbst die Debatte mitprägen, gleichzeitig aber auch Forschung zu technikvisionären Themen und transhumanistischen Aktivitäten finanzieren. Gerade die Debatte über

8. Sehnsucht nach welthaltigem Trost

starke KI zeigt, dass zwar viele Prominente vor der Entstehung einer starken KI mit Ich-Bewusstsein warnen, gleichwohl aber dazu beitragen, Technikvisionen zu popularisieren und Aufmerksamkeit für noch nicht existierende Technologien zu schaffen. Kurz: Hier wird der intentionalen Aufladung von verheißungsvollen Zukunftsvisionen Vorschub geleistet. »Derartig überschießende Erwartungshaltungen sind nicht zuletzt ein Symptom der noch sehr unscharfen Konturen der technologischen Felder selbst, die hinsichtlich möglicher Anwendungsperspektiven einen weiten Zukunftshorizont eröffnen und damit allerlei Spekulationen Nahrung bieten«, so die Autoren, die zum Schluss kommen, »dass zwischen den realen Anwendungsmöglichkeiten und den teils sehr weitreichenden Visionen ein deutliches Missverhältnis besteht.« (Ebd.: 16) Zukunftsnarrative sind jedoch nicht nur in wissenschaftlicher Perspektive von Interesse, vielmehr sind sie zunehmend auch eine öffentliche Angelegenheit. Umfassende Disruptionen, normative Herausforderungen und gesellschaftliche Veränderungen lassen eine frühzeitige Auseinandersetzung mit gesellschaftlichen Konsequenzen und Rahmenbedingungen von KI sinnvoll erscheinen, um Raum für politische Weichenstellungen und gesellschaftliche Gestaltungen zu lassen. Allerdings kommen die Autoren der Studie in diesem Kontext zu einer problematischen Schlussfolgerung: »Aus der Tatsache, dass die normativen Implikationen der neuen Entgrenzungstechnologien nicht unabhängig von ihren Anwendungskontexten zu beurteilen sind, lässt sich zumindest folgern, dass eine übergeordnete Debatte zu den Chancen und Risiken dieser Entwicklungen wenig sinnvoll erscheint.« Sie fordern stattdessen einen differenzierten Blick auf spezifische Anwendungsfelder, »möglichst unter Mitwirkung relevanter Akteure und Interessenvertreter« (ebd.: 161). So sympathisch das Plädoyer für Partizipation und für Perspektivenvielfalt mit Anwendungsbezug auch sein mag, verkannt wird dabei, dass gerade Verheißungserzählungen die Möglichkeit bieten, KI strukturell im Sinne einer gesteigerten Selbstbeobachtungsfähigkeit von Gesellschaft und jenseits bestimmter Anwendungen als gesellschaftsdiagnostischen Instrument zu nutzen. Die Autoren begehen deshalb den Fehlschluss, einerseits die kulturelle Dimension von Zukunftsvisionen klar anzuerkennen, sich andererseits aber beim Verständnis und der Einordnung von KI auf eine implizit technizistische Perspektive zurückzuziehen, die nicht das Prinzipielle von KI in den Mittelpunkt rückt, sondern das anwendungsbezogen Spezifische.

287

288

Stefan Selke: Technik als Trost

Plädoyer für mehr Sachlichkeit Aber es geht um mehr: Zwischen den Zeilen wird in vielen Studien mehr Sachlichkeit eingefordert. So plädiert etwa der der ehemalige Direktor und CEO des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) Wolfgang Wahlster in einem Beitrag für die Tageszeitung FAZ dafür, dass KI vom Menschen lernen müsse.26 Auf diese Weise würden hybride Systeme entstehen, die robuster und anpassungsfähiger seien. Vor diesem Hintergrund warnt Wahlster prominent vor den vielfach überzogenen Heilserwartungen an KI. Gerade Medien würden KI und maschinelles Lernen oftmals gleichsetzen. Vor diesem Hintergrund geht es in dem (vielbeachteten) Text um eher nüchterne Aspekte wie Normen und Standards im Kontext von KI. Selbst der Duktus der Ansprache ist das genaue Gegenteil verheißungsvoller Verkündungen. Auch das Sachbuch Der unterlegene Mensch von Armin Grunwald, Experte für Technikfolgenabschätzung, ist eine Gratwanderung zwischen »Paradieserzählungen und Untergangsbefürchtungen« (Grunwald 2019: 13). Und die Einführung Künstliche Intelligenz. Fakten, Chancen, Risiken von Manuela Lenzen bemüht sich bereits auf der sprachlichen Ebene um Versachlichung, indem etwa ein »Werkzeugkasten der Künstlichen Intelligenz« vorgestellt wird – das hört sich nüchtern und praktisch an. (Lenzen 2020: 29ff.) Noch ein letztes Beispiel: Der Beitrag Nüchtern Bleiben! von Sybille Krämer prangert den »Mythos KI« an und versucht zugleich, der »Kulturtechnik der Verflachung« eine sachliche Erläuterung entgegenzustellen. (Krämer 2021) Vor allem im Kontext sektoraler Strategiepapiere scheint die Bemühung um Sachlichkeit tatsächlich aufzugehen. Anlässlich der Konferenz AI for Humanity am College de France stellte der Präsident der Französischen Republik Emanuel Macron 2018 die Ambitionen und die Strategie Frankreichs im Hinblick auf KI vor. Der exaltierte Mathematiker Cedric Villani schuf mit dem Mission Villani Report die Grundlagen für eine französische KI-Strategie. (Villani 2018) Macron erklärte KI zum Schlüssel für die Zukunft und sah dabei nicht nur technologische und wirtschaftliche, sondern auch soziale, ethische und als politische Revolutionen im Anmarsch.27 Im Kern wird dabei die Notwendigkeit einer sinnhaften (»meaningful«) KI betont. Erstaunlicherweise wird in diesem Strategiepapier

26 27

https://www.faz.net/aktuell/wirtschaft/digitec/kuenstliche-intelligenz-deep-learnin g-alleine-reicht-nicht-16942864.html (25.02.2022). https://www.menschsein-mit-algorithmen.org/wp/2018/05/25/the-villani-report-ameaningful-strategy-for-ai/ (21.06.2021).

8. Sehnsucht nach welthaltigem Trost

die Wechselwirkung zwischen Fakten und Fiktion positiv herausgearbeitet. »Finally, it is probably this relationship between fictional projections and scientific research which constitutes the essence of what is known as AI. Fantasies – often ethnocentric and based on underlying political ideologies – thus play a major role, albeit frequently disregarded, in the direction this discipline is evolving in.« (Ebd.: 4) Die Vorschläge des Berichts geben sich selbst stark verheißungsvoll. Sie sind rund um zahlreiche weitreichende Forderungen gruppiert. So soll etwa der Staat als Treiber agieren und KI in die Politik integrieren. KI-Freizonen sollen eingerichtet werden, in denen administrative Formalitäten reduziert werden, um Innovationsexperimente durchzuführen. Trotz des verheißungsvollen Grundtons wird auch in diesem Dokument immer wieder das Loblied der Versachlichung angestimmt. »The future of artificial intelligence surely depends on its exposure to these different technological developments. These new applications fuel new narratives and fears based on, amongst other concepts, the omnipotence of artificial intelligence, the myth of singularity and transhumanism.« (Ebd.) Für die Bemühungen um Versachlichung in einem mit Verheißungen geradezu aufgeladenen Umfeld gibt es zahlreiche weitere Beispiele: Im OECDFramework zu KI bemühen sich 50 Experten aus unterschiedlichen Feldern (Wirtschaft, Arbeitswelt, Zivilgesellschaft, Hochschulen und Wissenschaft) gemeinsam um sachliche Grundsätze für KI. Auch der umfangreiche AI 100 Report der Stanford University grenzt sich von Science-Fiction ab und versucht einen sachlichen Erwartungshorizont jenseits defensiven oder reaktiven Denkens abzustecken. »Contrary to more fantastic predictions for AI in the popular press, the study panel found no cause for concern that AI is an imminent threat to humankind«.28 Der Duktus der Sachlichkeit im Kontext von KI-Narrativen findet sich vor allem in unternehmensnahen Dokumenten. Ein gutes Beispiel hierfür ist die Studie Künstliche Intelligenz von Lufthansa Industry Solutions, die sich differenziert und konkret gibt und weder utopische Potenziale noch dystopische Pathologien in den Vordergrund rückt. (Lufthansa 2020) Vielmehr geht es um Themen wie Schadenserkennung, Klassifizierung von Kundenfeedback oder die Analyse von Unternehmensdaten. Im Kern wird auch hier ein Anpassungs-Narrativ rund um den zentralen Wert der Effizienzsteigerung verbreitet. »Alle Branchen werden künftig von den Möglichkeiten der Artificial Intelligence (AI) profitieren«, so das Fazit der 28

https://ai100.stanford.edu/sites/g/files/sbiybj18871/files/media/file/AI100Report_MT _10.pdf (07.03.2022).

289

290

Stefan Selke: Technik als Trost

Studie. (Ebd.) Immer dort, wo KI auf den Markt gebracht werden soll, wird die Technologie in einem eher sachlich-positivem Licht dargestellt. Ein weiteres Beispiel für die sachlich-differenzierte Auseinandersetzung mit KI sind forschungsnahe Formen der Wissenschaftskommunikation, z.B. die zehnteilige Podcast-Reihe der Alexander von Humboldt-Stiftung KI und Wir – Was Künstliche Intelligenz für unser Leben bedeutet, die in Zusammenarbeit mit dem KI-Journalisten Thomas Reintjes konzipiert wurde. KI-Experten des Exzellenz-Netzwerks der Stiftung berichten aus ihren Forschungsgebieten zu den Chancen und Herausforderungen von KI sowie zu Zukunftsfragen.29 Bereits in der ersten Folge Was bringt uns KI heute schon? (17.01.2022) werden Chancen und Risiken der Verwendung von KI ausführlich besprochen, darunter Anwendungen in der Medizin zur Unterstützung bei bildgebenden Verfahren. »Wenn man nun Mensch und KI in Zusammenarbeit bringt«, so Daniel Rückert, Professor für Artificial Intelligence in Healthcare and Medicine an der TU München, »kann man das Beste aus beiden Welten kombinieren und hoffentlich die jeweiligen Nachteile loswerden.«30 Auch der Podcast In machines we trust (erstmals veröffentlicht im August 2020) von Jennifer Strong und einem Team des Massachusetts Institute of Technology (MIT) untersucht Ambitionen und Konsequenzen des Einsatz von KI in sensiblen Lebenswelten.31

Orte des Schweigens rund um KI Allerdings können nur Themen, die auch angesprochen werden, versachlicht werden. Im narrativen Wissensraum zu KI finden sich jedoch auch Orte des Schweigens, d.h. übersehene Themen. Das DiDaT-Weißbuch (Digitale Daten als Gegenstand eines transdisziplinären Prozesses) ist das Ergebnis der Erkundung von Problemen bei der Verwertung digitaler Daten. (Scholz et al. 2021) Hierbei wurden Auswirkungen und Nebenwirkungen neuer Datenökosphären aus Sicht der Resilienz- und Vulnerabilitätsforschung bewertet. Zentraler Schwerpunkt des Weißbuchs ist die Identifikation unbeabsichtigter Folgen, sog. »Unseens«. Den Verantwortlichen geht es darum, Verletzbarkeiten

29 30 31

https://www.humboldt-foundation.de/ki-und-wir (11.02.2022). https://open.spotify.com/episode/1lE9o7CteGyAiMEM0x7PYr?si=4317180a3d3b4f6b (Podcast auf Spotify – Folge 1, 08.02.2022) (02:02 bis 02:50). https://forms.technologyreview.com/in-machines-we-trust/ (20.02.2022).

8. Sehnsucht nach welthaltigem Trost

bei der Nutzung digitaler Daten zu vermeiden. Aus der Diskussion zahlreicher Zielkonflikte werden robuste Vorschläge für den Umgang mit unbeabsichtigten Folgen gegeben. Dies betrifft vor allem transdisziplinäre Entwicklungs- sowie deliberative Diffussionprozesse unter Einbezug von Zivilgesellschaft, Wirtschaft und Politik – ganz im Sinne von Habermas’ Kritik an der Dialektik zwischen Können und Wollen. Einen etwas anderen Ansatz wählte hingegen das australische The Ethics Centre, eine gemeinnützige Organisation, die versucht, Ethik wieder in den Mittelpunkt des Lebens zu rücken.32 Ziel ist eine globale Konversation über Zukunftstechnologien als positive Kraft. (Beard/ Longstaff 2018: 11) Technologien werden dabei als prägende Form des Lebens verstanden, als Instrumente des Willens, die menschliche Handlungsfähigkeit erweitern. Aber auch die Experten des Ethics Centre gehen davon aus, dass es zunächst notwendig ist, den Blick für das Un-Offensichtliche zu stärken. Vor diesem Hintergrund werden universelle ethische Prinzipien zum Umgang mit KI vorgeschlagen. Im narrativen Wissensraum werden Zukunftserzählungen regelmäßig in das Passepartout von Utopie und Dystopie gepresst (wenngleich gerade dies einer Versachlichung gerade nicht zugutekommt). Eine dichotome Rahmung wird weder dem Phänomen KI noch den daraus resultierenden Gestaltungsoptionen gerecht. Gleichwohl erweisen sich die Begriffe Utopie und Dystopie in den meisten Fällen als kommunikativ und kulturell anschlussfähig, weil damit Kipppunkte und Perspektivwechsel leicht beschreibbar sind. Denn in utopischen, »scheinbar prophetischen und religiös aufladbaren Zukunftsvision sind immer wieder auch dystopische Aspekte enthalten«, so Fabian Hutmacher. »Dystopische und utopische Deutungsmuster halten sich ungefähr die Waage«, meint auch der Ethiker Leopold Neuhold zu erkennen. Die utopische Verheißung geht immer in Richtung Machbarkeit. Doch das Werk wird dystopisch.« Wenn das Utopische die Träumerei einer humaneren Welt ist, dann ist das Dystopische die Gefahr des Inhumanen. Gerade im Kontext von KI zeigt sich eine intensive Wechselwirkung zwischen beiden Polen, denn »das Dystopische beginnt dort, wo die Freiheit des Zugangs zu Wissen endet«, so Tobias Gantner. »Die maximale Utopie ist das harmonische Zusammenleben im Stande der allgemein möglichen freien Erkenntnis, während die maximale Dystopie darin besteht, wieder in dunkle Zeiten zu verfallen, in denen es Herrschaftswissen gibt. Nur das diesmal das Herrschaftswissen durch KI erzeugt wird und nur wenige dazu Zugang haben.« Was hier angedeutet wird, 32

https://ethics.org.au (10.03.2022).

291

292

Stefan Selke: Technik als Trost

ist die Intransparenz von KI – also, in Anlehnung an Günter Ropohls Techniktheorie, die innere Struktur einer Technologie – die den meisten Menschen nicht zugänglich gemacht werden kann, was übrigens auch alle Appelle nach Partizipation und Gesellschaftsgestaltung fragwürdig werden lässt. Der Wissensraum zu KI wird zudem weiterhin von der Gleichzeitigkeit polarisierender Meinungen dominiert. Kaum eine Studie, die KI nicht als Chance und Risiko zugleich einschätzt. Das ist typisch für große Themen und Leiterzählungen: »Stets liegen die Begierde und der Schrecken, das Verlockende und das Gefährliche, die Unterwelt und die Glitzerwelt, das Zwiespältige und das Glorreiche ganz dicht beieinander«, so der Publizist Hans-Jürgen Heinrichs über das Erzählen der Welt (Heinrichs 1996: 108). KI-Erzählungen sind keine Ausnahme von dieser Regel. Auffällig ist somit die Polarisierung des narrativen Wissensraums. »Digitale Erlösungsfantasien und apokalyptischen Befürchtungen stehen sich schroff gegenüber«, so Armin Grunwald (2019: 16). Einerseits wird Fortschrittlichkeit an Indikatoren gemessen, die deutlich machen sollen, wie weit die Digitalisierung bereits in Beruf, Alltag und Lebenswelt eingedrungen sind. Andererseits wird gerade durch die fortschreitende Verbreitung eine Einengung von Zukunftsperspektiven und Lebensqualität befürchtet. Es gibt also zwei holzschnittartige Sichtweisen auf die Debatte. Ein gutes Beispiel für das bewusste Spiel mit Polarisierungen ist die Studie Future KI, in der das Gottlieb Duttweiler Institut im Auftrag der Jacobs-Stiftung33 vier verschiedene Zukunftsszenarien für die Nutzung von KI entwirft. (Samochowiec 2020)34 Dabei nimmt die Studie explizit KontrastPerspektiven ein: Szenario 1 ist stark dystopisch (»Weltuntergang«), während Szenario 4 (»Vollautomatisierter KI-Luxus«) stark utopisch gezeichnet ist. Im letzteren Szenario wird KI eindeutig als Verheißung beschrieben. Es gibt kaum noch Zwänge für Erwerbsarbeit, Energie und Ressourcen sind im Überfluss vorhanden, die Gesundheitsversorgung wird von Robotern übernommen. Menschen nutzen persönliche KI-Assistenten, die Fragen beantworten und Empfehlungen aussprechen oder als Gesprächspartner dienen. »Dadurch sind Nutzende von KI wie Kinder, die tun, was die Eltern sagen, ohne zu verstehen, warum.« (Ebd.: 59) Mehr noch: Neue Gemeinschaftsformen ersetzen Nationalstaaten, Menschen können dank neuer Technologien leben,

33

34

Die Jacobs Foundation investiert seit 30 Jahre in die Entwicklung von Kindern und Jugendlichen, sowohl in die Forschung als auch in die Praxis. https://jacobsfoundation. org (09.03.2022). https://jacobsfoundation.org/publication/future-skills/ (09.03.2022).

8. Sehnsucht nach welthaltigem Trost

wo sie wollen (selbst extraterrestrisch!). Weil materielle Statussymbole kaum noch Sinn machen, entwickeln Menschen alternative Sinnhorizonte. Eine weit fortgeschrittene KI ist Menschen weit überlegen, allgegenwärtig und ausschlaggebend für die Entwicklung neuer Technologien, der Herstellung von Medikamenten sowie verantwortlich für die regelhafte Steuerung des gesellschaftlichen Lebens. Menschen passen sich an diese neue Umgebung an und lernen intellektuell und spirituell. Kurz: Sie profitieren maximal von der verheißungsvollen Technologie, auch ohne diese zu verstehen.

Umarbeitung von Euphorie in normative Richtlinien Die sich stark ähnelnden Regulationserzählungen sind im Kern AnpassungsNarrative, die eine Strategie des Durchwurstelns empfehlen. »History suggests that neither utopian nor dystopian scenarios prevail«, so der Physiker Neil Gershenfeld (MIT), »we generally end up muddling along somewhere in between.« (Gershenfeld zit. n. Brockman 2020: 169) Ein alternativer Begriff für »Durchwursteln« ist die Umarbeitung von Euphorie in normative Richtlinien. Auch dafür finden sich zahlreiche Belege: Die Leitperspektive des Strategiepapiers Regulation on an European Approach for EU besteht in der Annahme der Notwendigkeit einer Regulation für die Inbetriebnahme und Nutzung von KI-Systemen mit hohem Risiko (z.B. Social Scoring). (EU 2021) Dabei unterliegt allerdings (mit Ausnahme der biometrischen Erkennung) die Einstufung des Risikos von KI der Selbsteinschätzung der Anbieter. Kritiker befürchten, dass auf dieser Grundlage einigen der schädlichsten Anwendungsfälle von KI grünes Licht gegeben wird.35 Die »High-level expert group on artificial intelligence« AIHLEG beschäftigte sich ebenfalls im Auftrag der europäischen Politik mit einer ethischen Einordnung von KI. »Wir sind der Überzeugung, dass die KI das Potenzial hat, die Gesellschaft signifikant zu transformieren«, so die Experten übergreifend. »KI ist kein Selbstzweck, sondern ein vielversprechendes Mittel, um das menschliche Gedeihen und somit das Wohlbefinden von Individuum und Gesellschaft und das Gemeinwohl zu steigern sowie zur Forderung von Fortschritt und Innovation beizutragen.« (EU 2018: 5) Damit legte die Europäische Kommission 2018 ihre Vision zu KI dar, die einerseits ethisch, sicher und hochmodern sein soll, andererseits »Made in Europe«. Die Leitlinie

35

https://techmonitor.ai/policy/eu-ai-regulation-machine-learning-european-union (25.05.2021).

293

294

Stefan Selke: Technik als Trost

kann und will zukünftige politische Entscheidungen oder Regulierungsvorhaben nicht ersetzen. Vielmehr stellt sie ein dynamisches Arbeitspapier dar, das im Laufe der Zeit regelmäßig überarbeitet werden soll. Über Europa heraus soll die Leitlinie Forschung, Reflexion und Diskussion über einen ethischen Rahmen für KI-Systeme auf weltweiter Ebene fördern. »Obwohl KI-Systeme großartige Chancen bieten, entstehen durch sie auch bestimmte Risiken, die angemessen und verhältnismäßig behandelt werden müssen. Wir haben jetzt die wichtige und günstige Gelegenheit, auf die Entwicklung dieser Systeme gestalterischen Einfluss zu nehmen.« (Ebd.: 5). Die 52 einberufenen Experten »zügeln« die latent vorhandene Euphorie für KI, in dem sie diese in eine Leitlinie zur KI-Ethik sowie eine politisch relevante Investitionsempfehlung umarbeiten. Auf diese Weise wird das Trostpotenzial von KI-Verheißungen minimiert statt maximiert. Im Folgenden wird daher nochmals diese spezifische gesellschaftliche Funktion von Zukunftsnarrativen in den Blick genommen.

9. KI als kollektives Tröstungsprojekt

Verheißungserzählungen sind eine mögliche Reaktion auf Trostbedürftigkeit in modernen Zeiten. Hierbei überlagern sich zwei Funktionen: Die primäre Wirkung von Verheißungen ist die Erzeugung von Zukunftseuphorie, die sekundäre Funktion ist die damit verbundene immanente Tröstungsfähigkeit. In KI-Verheißungen verbinden sich rhetorische Trostmittel mit lebenspraktischen Versprechen. Verheißungsnarrative sind tröstende Sprachbilder und handlungsleitende Konventionen in einem. Zukunftseuphorie hat damit eine metaphorische und zugleich eine praktische Signatur. Die Trostfunktion beruht dabei auf der Suggestion, das zentrale Kränkungen des Menschseins endgültig eliminiert werden könnten. (Rohbeck 1993)1 Damit ist eine seelsorgerische Komponente verbunden, für die entscheidend ist, »dass es um Linderungen, nicht um Heilungen oder endgültiges Heil geht« (Dober 2019: 14). KI-Verheißungen zeichnen eben kein abschließendes Bild der Zukunft, sie garantieren keine Erlösung. Als Signatur der Gegenwartsgesellschaft sind sie dennoch willkommen, wirksam und handlungsleitend. KI-Verheißungen deuten den Wandel gesellschaftlich vorrätiger Trostformen an. Vielleicht könnte die Entwicklung von KI sogar als kollektives Tröstungsprojekt verstanden werden? Die gesellschaftliche Funktion von Zukunftseuphorie besteht darin, im Zusammenspiel mit dem Gegennarrativ Zukunftsangst das Wahrnehmungs- und Diskursfeld abzustecken. Euphorie und Angst sind Extrempole, die notwendig sind, um der gesellschaftlichen Debatte über KI eine Form zu geben und somit »das Spektrum für eine gesellschaftliche Auseinandersetzung zu öffnen«, so die Kulturwissenschaftlerin Elisa Budian. »Erst durch extreme Positionen

1

Der Philosoph Johannes Rohbeck (1993) sieht folgende vier Kränkungen: 1. Kosmologisch (heliozentrisches Weltbild), 2. Biologisch (Evolutionstheorie), 3. Psychisch (Psychoanalyse/Unterbewusstsein) und 4. Technologisch.

296

Stefan Selke: Technik als Trost

wird zuvor Undenkbares denkmöglich.« (Budian 2020: 40) Zukunftsangst verhindert blinden Aktionismus, der überfordern würde. Damit liegt der gesellschaftliche Wert von Euphorie in einer Dämpfungsfunktion. Umgekehrt erzeugt Zukunftseuphorie die Kraft, den schwierigen und aufwendigen Prozess des Wandels anzutreiben und gesellschaftlichen Stillstand zu verhindern. Unter dem Strich liefern verheißungsvolle Zukunftserzählungen »der Gesellschaft Blaupausen für eine ›kollektiv erwünschte Zukunft‹« (Maresch 2001: 235). Idealerweise entstehen auf diese Weise ein nivellierender Umgang mit Argumenten und ein gesunder Umgang mit dem Neuen, denn in der »Aneignung von Neuem ist sowohl dessen Problematisierung als auch Visionierung notwendig. Utopie und Dystopie sind beide Teile desselben notwendigen Verständigungsprozesses« (Budian 2020: 40). Zukunftsangst und Zukunftseuphorie sind zwei Seiten einer Medaille, zusammen dienen sie der Diskurserneuerung. In jedem Fall ist damit ein kultureller Transformationsprozess verbunden, dessen Motoren einerseits die »Säkularisierung des eschatologischen Denkens« und andererseits das menschliche Bedürfnis nach Selbstvergewisserung sind. (Müller 2010: 124) Verheißungen rücken somit den Horizont der Selbstvergewisserung ein wenig vom Alltäglichen ab und definieren neue Maßstäbe für die Zukunft. Gleichwohl muss Kritik am Trostersatz durch Zukunftseuphorie ernst genommen werden. »[Es] ist niemals auszuschließen, dass wir uns durch die kulturell entwickelten Trost-Mittel selbst zugrunde richten.« (Dober 2019: 86) Am Beispiel von KI wird das besonders dort deutlich, wo utopische Narrative ins Dystopische kippen. Auch in ihrem Buch Die Anbetung zeichnet Marie-Luise Wolff vor allem »Entmachtungsvorgänge« nach, denen Menschen in Zukunft ausgesetzt sein werden, die aber gegenwärtig kaum vorstellbar sind. »Wir dürfen vor der Digitalisierung nicht weiter in Anbetung erstarren«, so die Autorin. »Der großen Euphorie folgt die Traumzerstörung.« (Wolff 2020: 10) Den tröstende Heilsversprechen der digitalen Wundermittel, allen voran KI, sollte also auch mit Skepsis begegnet werden. Kritik an der Trostfunktion von Verheißungen muss jedoch tiefer schürfen. Denn Trost ist selbst ambivalent, weil es darauf ankommt, wie sehr eine Tröstung bedeutet, sich von der Wirklichkeit abzuwenden. »Es kommt darauf an, auf welche Weise wir vermitteln zwischen einer Nötigung zum Realismus und unserem humanen Trostbedürfnis.« (Dober 2019: 18) Professionellen Tröstern, die Heilsversprechen verkünden, sollte

9. KI als kollektives Tröstungsprojekt

daher mit Vorsicht begegnet werden. »Denn: nicht alles, was tröstet, ist gut.« (Ebd.: 14)2

9.1 Neue Rollenzuschreibungen Um das vermeintlich Neue von KI zu erfassen, wird meist auf recht plakative Bilder zurückgegriffen. »Digitale Technologien, Algorithmen, künstliche Intelligenz und Roboter werden [...] wie die Heinzelmännchen der Zukunft beschrieben.« (Grunwald 2019: 13) Weil Bilder über KI soziale Erwartungen ausdrücken, braucht es an dieser Stelle mehr Differenzierung. Exakt dies leisten Rollenmodelle über KI, die das Verhältnis von Mensch und Maschine anhand zeitgenössischer Anwendungsbeispiele näher beleuchten. Virginia Dignum, Informatikerin und Leiterin der Forschungsgruppe Soziale und Ethische Künstliche Intelligenz an der Technischen Universität Delft, unterscheidet in diesem Zusammenhang drei Rollenmodelle (Dignum 2019: 88ff.): 1. KI als Werkzeug; 2. KI als Assistent sowie 3. KI als Partner.

Jede dieser Zuschreibungen zieht unterschiedliche ethische Sensibilitäten nach sich. Als Erweiterung dieses Modells wird im Folgenden noch die Perspektive auf KI als Über-Ich vorgeschlagen, denn diese Perspektive spielt eine entscheidende Rolle bei den Verheißungen der Superintelligenz bzw. der Singularität.

KI als Werkzeug Das grundlegende Interaktionsverhältnis zwischen Mensch und KI besteht darin, in Maschinen ein Werkzeug zu sehen, das nur über sehr begrenzte Autonomie und nicht im Geringsten über soziale Aufmerksamkeit verfügt. Werkzeuge bieten Entlastung: Für den Anthropologen Arnold Gehlen drückte

2

»Aller Trost ist trübe«, textete bereits der Dichter Theodor Fontane (zit. n. Blumenberg 1987: 207) und Franz Kafka (1996: 211) bereitete Trost schlicht Kopfschmerzen. Theodor Adorno (2003: 26) wollte sich nur von Verzweiflung retten lassen, und für Ludwig Marcuse (1975: 40) gehörte Trost zum »inhumanen Aberglauben der Zeit«.

297

9. KI als kollektives Tröstungsprojekt

daher mit Vorsicht begegnet werden. »Denn: nicht alles, was tröstet, ist gut.« (Ebd.: 14)2

9.1 Neue Rollenzuschreibungen Um das vermeintlich Neue von KI zu erfassen, wird meist auf recht plakative Bilder zurückgegriffen. »Digitale Technologien, Algorithmen, künstliche Intelligenz und Roboter werden [...] wie die Heinzelmännchen der Zukunft beschrieben.« (Grunwald 2019: 13) Weil Bilder über KI soziale Erwartungen ausdrücken, braucht es an dieser Stelle mehr Differenzierung. Exakt dies leisten Rollenmodelle über KI, die das Verhältnis von Mensch und Maschine anhand zeitgenössischer Anwendungsbeispiele näher beleuchten. Virginia Dignum, Informatikerin und Leiterin der Forschungsgruppe Soziale und Ethische Künstliche Intelligenz an der Technischen Universität Delft, unterscheidet in diesem Zusammenhang drei Rollenmodelle (Dignum 2019: 88ff.): 1. KI als Werkzeug; 2. KI als Assistent sowie 3. KI als Partner.

Jede dieser Zuschreibungen zieht unterschiedliche ethische Sensibilitäten nach sich. Als Erweiterung dieses Modells wird im Folgenden noch die Perspektive auf KI als Über-Ich vorgeschlagen, denn diese Perspektive spielt eine entscheidende Rolle bei den Verheißungen der Superintelligenz bzw. der Singularität.

KI als Werkzeug Das grundlegende Interaktionsverhältnis zwischen Mensch und KI besteht darin, in Maschinen ein Werkzeug zu sehen, das nur über sehr begrenzte Autonomie und nicht im Geringsten über soziale Aufmerksamkeit verfügt. Werkzeuge bieten Entlastung: Für den Anthropologen Arnold Gehlen drückte

2

»Aller Trost ist trübe«, textete bereits der Dichter Theodor Fontane (zit. n. Blumenberg 1987: 207) und Franz Kafka (1996: 211) bereitete Trost schlicht Kopfschmerzen. Theodor Adorno (2003: 26) wollte sich nur von Verzweiflung retten lassen, und für Ludwig Marcuse (1975: 40) gehörte Trost zum »inhumanen Aberglauben der Zeit«.

297

298

Stefan Selke: Technik als Trost

sich in Technik die fortschreitende Objektivation menschlicher Arbeit und zugleich die zunehmende Entlastung menschlichen Lebens aus. Entlastung resultierte für ihn aus drei verschiedenen Formen von Technik, die er mit Werkzeug, Maschine und Automat betitelte. (Gehlen 1957: 19) Die Wahrnehmung von KI als hochwertigem Werkzeug liegt sehr vielen zeitgenössischen Narrativen zugrunde. »Auch wenn niemand wirklich etwas mit dem Begriff KI anfangen kann, klingt er cool, richtig High End: Jemand arbeitet mit ganz komplexen Werkzeugen«, so Johanna Tiffe. Häufig wird KI auch als nützliches Instrument beschrieben, das hilft, so gut wie alle Aspekte des Lebens zu optimieren. KI-Experten sehen es ähnlich: »KI ist ein Werkzeug, das Menschen erlaubt, schneller und besser zu werden«, so der Analyst Boris Paskalev. »In der Geschichte der Menschheit gab es bereits viele Versprechen auf der Basis nützlicher Werkzeuge: Computer, Internet, vielleicht sogar Blockchain. Mit KI erhalten wir ein Werkzeug, mit dem wir einfach alles können.« Aus dieser Rollenzuschreibung resultiert eine Mischung aus konkreten Versprechen und eher schillernden Effekten. Letztere zirkulieren in der Form von Verheißungserzählungen. Vor allem »auf der technologischen Ebene lässt sich der Werkzeugaspekt von KI illustrieren«, so der Informatiker Wolfgang Eckstein. Auch der Physiker Michael Möricke sieht in KI zunächst »ein Hilfsmittel«, gleichwohl eines, dass sich vom klassischen Werkzeug dadurch unterscheidet, dass es »uns nicht in Form von Hardware zur Verfügung steht«. Diese Rolle erscheint auf den ersten Blick plausibel zu sein. Gleichwohl sind damit gravierende Probleme verbunden. Allen Überlegungen zur gesellschaftlichen Rolle von KI sollte daher eine Kritik der Werkzeugillusion vorangestellt werden. KI ist gerade kein einfaches Werkzeug, sondern ein welterzeugendes und weltveränderndes Phänomen. Die Werkzeugillusion rückt instrumentelle Funktionen von KI in den Vordergrund. Werkzeuge sind dazu da, Menschen mit Wirkmacht auf deren Umwelt auszustatten und die Umwelt zu verändern. Gerade dieser Zusammenhang kann und muss im Kontext von KI hinterfragt werden. In Anlehnung an das Theoriegebäude von Jakob Johann von Üexküll erzeugt KI eine eigene Umwelt. Bei Werkzeugen war das bislang niemals der Fall. »Was bislang nicht ausreichend verstanden wird: IT-Systeme sind generell Medien, keine Werkzeuge«, so auch die Philosophin Nicole Karafyllis. »Ein Werkzeug kann für bestimmte Dinge genutzt werden, dann wird es wieder weggelegt. Medien erzeugen Welten. Sie sind eben mehr als nur Mittel und Werkzeuge.« (zit. n. Selke et al. 2018) KI sollte vielmehr als systemische Komponente eines neuen Weltzugangs interpretiert werden, anstatt auf ein effizienzsteigerndes Werkzeug reduziert

9. KI als kollektives Tröstungsprojekt

zu werden. Erst eine differenzierte Rollenzuschreibung macht die gesellschaftliche Wirkmacht verheißungsvoller Zukunftsnarrative verständlich.

Beispiel Metropolis: Abgesang auf den Maschinen-Menschen Die Kritik an der Werkzeugillusion fand immer wieder Eingang in mediale Darstellungen. Das vielleicht prominenteste Beispiel ist der Filmklassiker Metropolis (1927, Regie: Fritz Lang). Lang zeichnet in seinem monumentalen Schwarz-Weiß-Werk eine düstere Welt, die von Maschinen beherrscht wird. In der fiktiven Zukunftswelt müssen die meisten Menschen der Technik dienen, während sich wenige Privilegierte ein Leben in Luxus gönnen. Der Film spielt in der gigantischen (namensgebenden) Stadt Metropolis, in der eine privilegierte Oberschicht und eine ohnmächtige Unterschicht nebeneinander leben. Die unterdrückten Arbeiter scharen sich um eine Heilige Maria, die ihnen bessere Zeiten predigt. Der Erfinder Rotwang baut im Auftrag des Alleinherrschers von Metropolis, Joh Fredersen, eine Menschmaschine, die äußerlich Maria gleicht,3 eine Art Bewusstseins-Upload eines Menschen in Maschinengestalt. »Sie ist das vollkommenste und gehorsamste Werkzeug«, verspricht Rotwang, »das je ein Mensch besaß.« Zweck der ›falschen‹ Maria ist es, die Arbeiter aufzuwiegeln. Nach einigen dramatischen Verwechslungen gelingt schließlich ein Bündnis zwischen dem Alleinherrscher der Stadt und dem Vertreter der Arbeiterschaft. Das Gesellschaftsbild, das unterdessen in Metropolis gezeichnet wird, ist düster und gibt das Grundmotiv für zahlreiche spätere Dagegen-Narrative vor. »Mit zunehmender Industrialisierung hört die Maschine auf, bloßes Werkzeug zu sein, beginnt ein Eigenleben und zwingt dem Menschen ihren Rhythmus auf«, so die Filmkritikerin Heide Schönemann. »Er bewegt sich, sie bedienend, mechanisch, wird zum Teil der Maschine.« (Schönemann 1992: 52) Die Szenerie der Stadt mit ihren unterirdischen Maschinenräumen erinnert nicht zufällig an die Legende vom Turmbau zu Babel. Zur Erinnerung: Anlässlich des Turmbaus zu Babel erzürnte sich Gott über die Selbstüberschätzung der Menschen. Erst durch das strafende

3

Der Medienwissenschaftler Martin Hennig weist darauf hin, dass gerade Metropolis als Prototyp einer stereotypenhaften Darstellung der Geschlechter gesehen werden kann: »Ein typisch ›männliches‹ Narrativ ist das des männlichen Schöpfers, der seine Vorstellungen in einen weiblichen Roboterkörper projiziert. […] Typisch ›weibliche‹ Narrative sind klassischer Art, wie etwa das Weibliche als Abweichendes.« (Hennig 2022: 45)

299

300

Stefan Selke: Technik als Trost

Sprachen-Wirrwarr und den damit einhergehenden Verständigungsschwierigkeiten gelang es Gott, die Menschen in ihrem Größenwahn auszubremsen. Dieses Grundmotiv wurde immer wieder aktualisiert: In den 1960er-Jahren befürchtete der Philosoph Herbert Marcuse, dass undurchschaubare technische-wirtschaftliche Systeme Menschen zu Handlangern machen könnten (Marcuse 2004). Und der Philosoph und Schriftsteller Günther Anders beobachtete in einem prophetischen Vorgriff auf das digitale Zeitalter schon vor etwa 60 Jahren die zunehmende Antiquiertheit des Menschen angesichts der von ihm selbst geschaffenen und immer besseren Technik (Anders 1987). Die damit einhergegangenen Ausbeutungsverhältnisse werden im Film perfekt auf den Punkt gebracht: »Lobgesang des Einen wurde Fluch der Anderen.«

KI als Assistent Allerdings lässt sich KI nur noch sehr unzureichend als Werkzeug verstehen. Vielmehr wird KI sehr oft die Rolle eines Assistenten zugewiesen. Das hat ebenfalls eine lange Tradition: In seinen bekannten Themenparks produzierte Walt Disney Zukunftserzählungen, ohne jedoch selbst die Zukunft praktisch mitzugestalten. Von dieser Regel gab es nur eine Ausnahme: Im Bereich der Arbeiter- und Menschenkontrolle wurde die Disney-Company rasch Technologieführer. Die von Walt Disney entwickelten »audio-animatronic puppets« wurden weltweit von Unternehmen übernommen und eingesetzt. Disney war ein früher Fan von Robotern. »Sie brauchen keine Kaffeepause«, befand er in einem Interview 1964, »aber der größte Vorteil von Maschinen ist der, dass sie keine höheren Löhne verlangen.« (Zit. n. Bryman 1995: 118) Wird KI die Rolle eines Assistenten mit limitierter Autonomie und gleichzeitig einer gewissen sozialen Sensibilität für die Umwelt zugeschrieben, verkompliziert sich das ethische Setting. Von einem Assistenten wird zumindest eine funktionale Ethik erwartet, die im Fall von KI irgendwo tief im Algorithmus festgelegt sein muss. In der Rolle als Assistent ist KI nicht nur eine Erweiterung menschlicher Fähigkeiten, vielmehr »verändert sich dadurch auch die Natur der Aufgabe und die Art und Weise wie Menschen mit der Maschine interagieren« (Dignum 2019: 88). Zahlreiche Alltagsanwendungen, wie z.B. sprachbasierten Assistenten (Cortana, Siri, Alexa) repräsentieren dieses Interaktionsmodell. »Eine KI als Entität, das wäre wie ein Google-Assistent auf Steroiden«, so Boris Pasklev. »Es würde eine Menge Dinge tun können, wäre aber

9. KI als kollektives Tröstungsprojekt

immer ein Assistent der Menschheit.«4 Einerseits schließt die Assistenzfunktion an vorgängige Vorstellungen an, andererseits tauchen im Kontext von KI gänzlich neuartige Assistenz-Figuren auf.5 Während bei einem Werkzeug der Dingcharakter im Vordergrund steht, ist der Assistent idealtypisch gedacht »eher eine abgestufte Person«, so der Ethnologe Guido Sprenger. Eine menschliche Analogie dieser auf einer Assistenzfunktion basierenden Rollenzuschreibung sind der Diener oder Butler – Sozialfiguren zwischen Person und Nichtperson. Besonders augenfällig wird die Assistenzfunktion bei Robotern, die Menschen im beruflichen oder privaten Umfeld entlasten sollen.6 Ein etwas differenzierter Begriff für die Sozialfigur des Assistenten ist die »Halbperson«, worunter Diener und Schattenarbeiter verstanden werden. Mit »Diener« wiederum war der soziale Status verbunden. Sehr schön wird dies im literarischen Klassiker Dr. Samuel Johnson. Leben und Meinungen dargestellt. (Boswell 1981) Der nach Shakespeare meistzitierte englische Autor, Samuel Johnson,7 war zwar nicht adelig und lief schlecht gekleidet umher, hatte jedoch einen Diener, weil »jeder anständige Mensch« einen Diener hatte. Vor diesem Hintergrund gilt es zu bemerken, dass Diener zunächst immer weniger sozial akzeptiert wurden, sich inzwischen aber eine »Rückkehr der Diener« (Bartmann 2016) feststellen lässt. In diesem Zusammenhang gelten technische Formen der Assistenz als Form des Dienens, die eigenständig genug ist, um komplexe Aufgaben zu bewältigen, dabei aber gleichzeitig gerade noch ›dingartig‹ genug ist, um gerade keine moralischen Bedenken haben zu müssen. Diener sind »gewissermaßen eine abgestufte Person, deren Status definitiv untergeordnet ist«, so Sprenger. »Ein Assistent ist eine Halbperson, die Dinge machen kann, die ein Werkzeug eben nicht machen kann. Vielleicht besteht die Verheißung gerade darin, eines Tages einen Sklaven zu haben,

4

5

6

7

Umgekehrt gibt es auch eine lange Traditionslinie, in der der Mensch als Assistent Gottes gesehen wird, prominent etwa in der Rede De hominis dignitate von Giovanni Pico della Mirandola. Vgl.: Müller (2010: 125). Assistenzverhältnisse wurden immer weiter ausdifferenziert und erzeugten sogar einen eigenen Diskurs, innerhalb dessen Assistenz als soziale Form verhandelt wird. Vgl.: Biniok/Lettkemann (2017). Assistenzroboter im Weltraum haben sowohl in fiktiven Darstellungen als auch in realen Anwendungskontexten eine besondere Prominenz erlangt: Etwa Der klobige und eckige Roboter TARS im Film Interstellar oder der ballförmige Assistenzroboter CIMON, der neben dem ESA-Astronauten Alexander Gerst durch die ISS schwebte. Für Engländer sind Johnson-Zitate was für Deutsche Goethe-Zitate sind, so Fritz Güttinger in der Einleitung des Buches von Boswell (1981: 9).

301

302

Stefan Selke: Technik als Trost

demgegenüber wir kein schlechtes Gewissen mehr haben müssen.« Diese soziale Klassifikation ist nicht neu. Trotz aller Begeisterung für seine »Mind Children« waren Roboter für den Pionier Hans Moravec bloß »gehorsame und geschickte Sklaven« (Moravec 1990: 140). Der gesellschaftliche Aufstieg von KI bedeutet eben auch, dass intelligente Technik mehr und mehr als Halbperson in unseren Alltag einzieht. »Wir haben nun technische Sklaven«, bringt es Verena van Zyl-Bulitta auf den Punkt. »Oder das Gefühl, uns endlich wieder Dienstboten leisten zu können.« Die zeitgenössische Debatte über »Machine Enslavement« (Dihal 2020) ist ebenfalls nicht neu, entsprechende Bedenken wurden bereits während der Renaissance geäußert. Kritiker sehen darin den Beweis für die Arroganz zeitgenössischer KI-Entwickler, erinnern aber auch an Hegels Bild vom intelligenten Knecht und dessen schwächelnden Herrn. »In fact«, so Kevin LaGrandeur, »our current AI is tending further in that direction.« (LaGrandeur 2020: 113) Kritik an der (sklavenhaften) Assistenzrolle lässt deshalb auch nicht lange auf sich warten: »Assistenten sind gleichzeitig Kontrollsysteme«, so die Autorin des Buches Die Anbetung, Marie-Luise Wolff, »genau das ist das Problem bei Assistenz.« Zur Werkzeugillusion gesellt sich also die Assistenz- oder Dienerillusion als funktionale Verheißung. Dienen als Arbeitsform erweist sich bei näherem Hinsehen als äußerst ambivalent. Einerseits entlastet dienende Technik. Andererseits ersetzt sie Menschen, deren soziale Rolle darin besteht, im Maschinenraum der Gesellschaft zu dienen – wie es bildgewaltig erstmals im Film Metropolis dargestellt wurde.8

KI als Partner Wer in ›intelligenter‹ Technik einen Sozialpartner sieht, wertet KI damit umfassend auf, denn eine solche KI müsste fähig sein, ethische Entscheidungen zu treffen und diese anderen darlegen zu können. »Ich glaube, künstliche Intelligenz wird unser Partner sein«, so auch Masayoshi Son, CEO bei SoftBank Capital. »Wenn wir sie missbrauchen, wird sie zum Risiko werden. Wenn wir

8

Auch die Corona-Pandemie hat im Maschinenraum der Gesellschaft Spuren hinterlassen. Vgl. dazu Thomas Schmid: »Die Krise hat doch sinnlich spürbar gemacht, dass unsere Arbeitswelt nicht in Ordnung ist. Dass die Basisfelder der Gesellschaft eines kräftigen Umbaus bedürfen. Und einer neuen Wertschätzung von Berufen, in denen nicht materielle Güter produziert werden, sondern Gesundheit, Zuwendung, saubere und sichere Städte und vieles mehr. Leistungen, die wir kaum wahrnehmen.« https://schm id.welt.de/2020/09/20/im-maschinenraum-der-gesellschaft/ (22.02.2022).

9. KI als kollektives Tröstungsprojekt

sie richtig einsetzen, kann sie unser Partner sein.«9 Weil sie das Ambivalente an KI sichtbar macht, gewinnt die partnerschaftliche Rollenzuschreibung immer mehr an Bedeutung, selbst in der Wissenschaft. »Ich erwarte, dass KI in der Zukunft ein selbstverständlicher Bestandteil unseres Lebens wird«, so Milica Gašić, Professorin für Dialog Systems and Machine Learning der HeinrichHeine-Universität Düsseldorf im Podcast KI und Wir – was Künstliche Intelligenz für unser Leben bedeutet, »vielleicht wird sie sogar zum Begleiter.«10 Dieses Rollenmodell eignet sich gleichermaßen für verheißungsvolle Zukunftsnarrative wie für dystopische Gegenerzählungen. In zahlreichen Medienberichten wird KI als Teampartner angepriesen, wenn es darum geht, die Wissensbasis für Entscheidungen, Planungen und Konzeptionen zu erweitern. (Platz et al. 2019)11 Anders als in der dienenden Rolle taucht hier erstmals die Entscheidungsautonomie von KI als zentrales Unterscheidungskriterium auf. »Es mag merkwürdig anmuten, dem Rechner eine Entscheidungskompetenz zuzuweisen«, so Armin Nassehi, für den Computer abduktive Maschinen sind, »aber es handelt sich tatsächlich um Entscheidungen, wenn man darunter eine Form der Selbstfestlegung im Hinblick auf unbekannt bleibende Zukünfte versteht, die auch anders hätten ausfallen können.« (Nassehi 2019: 235f.) Gerade die Fähigkeit zur Entscheidungsfindung wird immer wieder vehement kritisiert, denn »wer keine Emotionen empfinden kann, entscheidet nicht etwa besonders rational, sondern meistens gar nicht« (Lenzen 2020: 58). Dennoch: Unabhängig davon, ob Maschinen autonom entscheiden, geht es in Verheißungsgeschichten darum, dass intelligenter Technik die Fähigkeit zur Selbstfestlegung zugerechnet wird. Immerhin findet sich die Bezugnahme auf eine neue Partnerschaft nicht nur in Klassikern der Techniksoziologie wie etwa Sozialität mit Objekten, wobei neue soziale Beziehungsformen in posttraditionalen Gesellschaftsformen vorweggenommen werden (Knorr-Cetina 1998), sondern immer häufiger auch in konkreten Anwendungsfeldern von KI: Im Arbeitsumfeld beginnen Menschen damit »die Maschinen nicht als simple Werkzeuge zu betrachten, sondern als Teammitglieder oder Kollegen« (Dignum 2019: 88). Auch der Unternehmer Wolfgang Eckstein beschreibt im

9 10 11

https://asia.nikkei.com/Editor-s-Picks/Interview/Masayoshi-Son-blasts-critics-who-d on-t-understand-AI-s-potential (22.02.2022). https://open.spotify.com/episode/1lE9o7CteGyAiMEM0x7PYr?si=4317180a3d3b4f6b (Podcast auf Spotify – Folge 1, 08.02.2022) (03:16 bis 03:52). https://dl.gi.de/bitstream/handle/20.500.12116/25183/306.pdf?sequence=1&isAllowe d=y, (22.12.2021).

303

304

Stefan Selke: Technik als Trost

Gespräch, wie KI dazu genutzt werden kann, »Roboter untereinander und mit Menschen partnerschaftlicher interagieren zu lassen, wenn menschartige Interaktion zugelassen werden«. Beginnen Menschen mit KI zu interagieren, wird dieser eine Rolle zugewiesen, die sich fast wie eine Partnerschaft mit Menschen anfühlen kann. Es ist naheliegend, den damit verbundenen dramaturgische Gehalt der Interaktion für fiktionale Narrative nutzbar zu machen. So illustriert etwa der Science-Fiction-Film Moon (2009, Regie: Duncan Jones) den Übergang einer KI vom Assistenten zum Partner besonders anschaulich: In der Zukunft der Filmhandlung wird der Energiebedarf der Erde durch Helium-3 gedeckt, das auf der Rückseite des Mondes automatisiert abgebaut wird, weshalb nur ein einziger Mensch auf der Mondbasis als Besatzung notwendig ist. Sam, so der Name dieser Filmfigur, hat den Roboter GERTY als Gesellschaft. »Ich bin hier, um für Deine Sicherheit zu sorgen«, beteuert GERTY immer wieder. Kurz bevor der dreijährige Einsatz von Sam endet und dieser sich freut, zu Frau und Tochter auf der Erde zurückzukehren, hat er einen Unfall. Wie sich herausstellt, rettete ihm ein Klon das Leben, sorgt aber für Verwirrung, denn nun müssen der ›echte‹ und der ›falsche‹ Sam gemeinsam auf der Mondstation leben. Der Film nimmt eine interessante Wendung als GERTY einem der beiden Sams hilft, das Passwort für die Logdateien der Mondstation zu lesen und somit Ungeheuerliches aufzudecken: Auf der Mondstation gibt es keine echten Menschen, sondern lediglich eine Serie von Klonen, die jeweils drei Jahre im Einsatz sind und anschließend vernichtet werden. Weil ihnen künstliche Erinnerungen an Frau und Tochter implantiert wurden (die vom ersten und einzigen menschlichen Sam stammen), fühlen sich alle nachfolgenden Klone gleichwohl wie Menschen. Mit Hilfe von GERTY kehrt schließlich einer der beiden Klone auf die Erde zurück und sorgt für Aufklärung. GERTY hat damit die Entscheidung getroffen, ›auftragsgemäß‹ zu helfen, vielleicht auch deshalb, weil er sich selbst im Klon wiederkennt und sich ähnliche Fragen über die eigene Existenz stellt. Auch die romantische Science-Fiction-Komödie Ich bin dein Mensch (2021, Regie: Maria Schrader) spielt mit latenten Erwartungen und erwartbaren Paradoxien, die mit einem partnerschaftlichen Rollenmodell zwischen Mensch und KI einhergehen. In der Filmhandlung testet eine Frau drei Wochen lang einen männlich aussehenden Androiden, der über erstaunliche Fähigkeiten verfügt. Neben sexueller Potenz gehört dazu die Fähigkeit, sich perfekt an die Gewohnheiten von Menschen anzupassen. Als der Android die unaufgeräumte Wohnung der Frau in eine Hochglanzordnung verwandelt, ist diese mehr als unglücklich, weil sie sich darin nicht mehr wiedererkennt. »Ich

9. KI als kollektives Tröstungsprojekt

kann in elf Minuten alles wieder in den Ausgangszustand zurückversetzen«, so der (vermeintlich) empathische Android, der realisiert, dass Menschen zu ihrem Glück mehr benötigen als Effizienz – manchmal eben auch Unordnung. Das sind nur zwei Beispiele, die gleichwohl zeigen, wie KI in den bislang exklusiven menschlichen Sozialraum eindringen kann, wenn die Interaktion gut gestaltet ist. »Es fühlt sich dann so an, als hätte man einen Menschen vor sich, einen Partner oder Freund«, beschreibt Verena van Zyl-Bulitta dieses Gefühl. »Auch wenn wir wissen, dass das nicht so ist. Frage – Antwort – Gespräch: das funktioniert immer.«12 Es wird sich zeigen, unter welchen Bedingungen Technik als Partner(-Ersatz) akzeptiert wird. Jedenfalls macht dieses Rollenmodell zwei Stränge der Mensch-Technik-Beziehung deutlich: Entweder wird Technik als effiziente Erweiterung des Menschen wahrgenommen oder Menschen treten in Interaktion mit Technik. »Genau an diesem Punkt tappen wir aber in eine Falle«, erläutert der Designer Andreas Muxel. »Wir interpretieren das Sich-Verhalten der Maschine in menschlichen Begriffen. Die Maschine tut so, als ob, aber es ist eben noch immer eine Maschine.« Hinter dieser Projektion verbirgt sich eine tiefsitzende und hochattraktive Verheißung. Sie besteht darin, den »Keim für eine Intelligenz zu legen, die sich ohne emotionale Triebstruktur rasch selbst weiterentwickelt. Eine Intelligenz ohne emotionale Basis, ohne Machtstreben, Aggressivität, Konkurrenzdruck. Diese reine Vernunft einer total unabhängigen Intelligenz wäre ein sehr interessanter Gesprächspartner«, mutmaßt daher der Physiker Gerd Ganteför. »Es wäre spannend, ob sich aus rein abstrakten, logischen Überlegungen schlussendlich bessere ethische Werte ableiten ließen als durch rein menschengemachte Vereinbarungen. Das wäre eine geradezu metaphysische Verheißung.« Bei dieser Art von Verheißung geht es nur nicht darum, mit KI kommunizieren zu können, sondern vielmehr darum, dass KI möglicherweise sogar ein perfekter Kommunikationspartner wäre. Diese Verheißung wurde im Film Her (2013, Regie: Spike Jonze) in Form einer asymmetrischen Liebesgeschichte inszeniert, die auf der Interaktion eines Menschen und einer starken KI basiert: Theodore verdient seinen Lebensunterhalt damit, in einer Agentur Liebesbriefe an fremde Menschen zu schreiben, leidet aber selbst unter Einsamkeit. Er kauft sich ein neues, KI-basiertes Betriebssystem, definiert es als weib12

Das sicherlich bekannteste Beispiel für dieses Interaktionsmuster liefert ELIZA, ein KI-basiertes Kommunikationsprogramm, das der Computerpionier Josef Weizenbaum erfand. Vgl. Weizenbaum (1977).

305

306

Stefan Selke: Technik als Trost

lich und gibt ihm den Namen Samantha. Das reicht aus, um eine Partnerillusion zu erzeugen. Samantha wirkt durchaus emphatisch. Hat sie deshalb aber ein Bewusstsein? »Ich kann verstehen, dass die eingeschränkte nicht-künstliche Intelligenz das so sieht«, erklärt sie Theodore in einem scheinbar tiefsinnigen Gespräch. Sie merkt sich alles, organisiert das Leben von Theodore, kommuniziert mittels Bildübertragung und ist stets präsent. Zusammen machen Mensch und Maschine – z.B. beim virtuellen Sex – grundlegend neue Erfahrungen. »Ich werde vielschichtiger«, sinniert Samantha nach einiger Zeit, »als sie mich programmiert haben.« Für Theodore fühlt sich Samantha hingegen von Tag zu Tag realer an. Der als weiblich inszenierten Computerstimme aus dem Off fehlt allein die Körperlichkeit, die mit der Intimität einer zwischenmenschlichen Beziehung einhergeht und die sich auch trotz zahlreicher Versuche nicht ersetzen lässt. Schlussendlich kommt es jedoch (wie in vielen normalen Beziehungen auch) zur Krise, als Theodore feststellt, dass Samantha aufgrund ihrer enormen Rechenleistungen parallele Beziehungen zu tausenden anderer Männer unterhält und er nicht mehr von der Exklusivität der Partnerschaft ausgehen kann. Dahinter verbirgt sich eine wichtige Frage: Müssen partnerschaftliche Beziehungen zu einer KI noch immer nach menschlichen Kriterien beurteilt werden? So warnt etwa der Philosoph Dan Dennett davor, KI als Kollege oder Partner zu betrachten und plädiert dafür, in KI ausschließlich ein Werkzeug zu sehen – hier schließt sich der Kreis: »We don’t need artificial conscious agents [...]. We need intelligent tools. Tools do not have rights and should not have feelings.« (Dennett zit. n. Brockman 2020: 51)13

KI als Über-Ich Perspektivwechsel: Für Ernst Kapp, einen der Begründer der Technikphilosophie, waren technische Erfindungen keine Phänomene der Entfremdung des Menschen von seiner Natur, sondern Möglichkeiten der Einsicht in sein eigenes Wesen. Neben der rein instrumentellen Funktion betonte Kapp die reflexive Funktion von Technik. (Kapp 2015: 25) Technik wurde bei ihm zum Werkzeug auf der Suche nach absoluter Vernunft. In etwas altertümlicher Sprache verkündete er: »Hervor aus Werkzeugen und Maschinen, die er geschaffen [...] tritt der Mensch, der Deus ex Machina, sich selbst gegenüber!« (Ebd.: 311) Den drei typischen Rollenmodellen – Werkzeug, Assistent und Partner – soll daher 13

Ähnlich argumentiert auch Joanna Bryson, die Roboter als Sklaven betrachtet. (Bryson 2010)

9. KI als kollektives Tröstungsprojekt

noch ein weiteres hinzugefügt werden: KI als Über-Ich. Gerade verheißungsvolle Zukunftserzählungen kommen ohne diese extreme Zuschreibung – für viele kritische Beobachter eine Zumutung – kaum aus. KI ist in diesen Erzählungen »der Übermensch, der weiß, was gut für uns ist und was wir besser machen sollten«, so die Schriftstellerin Theresa Hannig. Vor dem Hintergrund dieser stark überzogenen Erwartungen entsteht eine Opposition zwischen Mensch und KI. Deutlich wird auch, dass wir mit den Versuchen, KI zu verstehen, »in Begrifflichkeit hineingerutscht sind, die zwar medienwirksam sind«, so Christian Tombeil, gleichzeitig aber nur wenig Bestand haben. Weil wir KI als Technik weitgehend unwissend nutzen und weil damit – wie im Film Her wunderschön durchgespielt – eine engelhafte Unsichtbarkeit verbunden ist, kann eine Aufladung mit Transzendenz erfolgen, die im Kontext von Verheißungsnarrativen eine zentrale Rolle einnimmt.

9.2 Heiligkeitsäquivalente Nun stellt sich die Frage, wie die intentional überhöhten Zuschreibungen an KI praktisch zelebriert werden können. Wie sehen denn die neuen Altare der Anbetung aus? Digitalisierung ist längst mitten in der Institution Kirche angekommen: Menschen nutzen digitale Medien, um religiös zu kommunizieren.14 Dabei überschreitet die digitale Kirche analoge Grenzen – mit digital übertragenen Gottesdiensten werden Partizipationsformen erneuert und die Reichwerte des Gottesdienstes wird erhöht. Die Entgrenzung zeigt sich jedoch nicht allein in Organisationsformen, sondern im Bezug zur Technologie selbst, denn das Verheißungsvolle von KI besteht darin, dass die Technologie mit Religiosität aufgeladen wird. Die technischen Leistungen werden selbst euphorisch verherrlicht – bis hin zu vielen der bereits diskutierten Letztfragen: »Die ultimative KI wäre eine KI, die uns den Sinn unseres Lebens berechnet und so wiedergibt, dass wir das Ergebnis verstehen können«, spekuliert Tobias Gantner. Diese Überlegung macht deutlich, in welchem epistemologischen Spannungsfeld die Entwicklung von KI stattfindet und welche Erwartungen damit verbunden sind. Auch im Roman Die Tyrannei des Schmetterlings zweifelt ein Protagonist daran, ob Menschen überhaupt KI entwickeln dürfen – und kommt zu einer 14

Besonders in Angesicht der Covid-19 Pandemie, nutzen Menschen die sozialen Medien, um zu kommunizieren und Nähe, Austausch und Gemeinschaft zu erfahren. Vgl.: Amsinck et al. (2021).

307

9. KI als kollektives Tröstungsprojekt

noch ein weiteres hinzugefügt werden: KI als Über-Ich. Gerade verheißungsvolle Zukunftserzählungen kommen ohne diese extreme Zuschreibung – für viele kritische Beobachter eine Zumutung – kaum aus. KI ist in diesen Erzählungen »der Übermensch, der weiß, was gut für uns ist und was wir besser machen sollten«, so die Schriftstellerin Theresa Hannig. Vor dem Hintergrund dieser stark überzogenen Erwartungen entsteht eine Opposition zwischen Mensch und KI. Deutlich wird auch, dass wir mit den Versuchen, KI zu verstehen, »in Begrifflichkeit hineingerutscht sind, die zwar medienwirksam sind«, so Christian Tombeil, gleichzeitig aber nur wenig Bestand haben. Weil wir KI als Technik weitgehend unwissend nutzen und weil damit – wie im Film Her wunderschön durchgespielt – eine engelhafte Unsichtbarkeit verbunden ist, kann eine Aufladung mit Transzendenz erfolgen, die im Kontext von Verheißungsnarrativen eine zentrale Rolle einnimmt.

9.2 Heiligkeitsäquivalente Nun stellt sich die Frage, wie die intentional überhöhten Zuschreibungen an KI praktisch zelebriert werden können. Wie sehen denn die neuen Altare der Anbetung aus? Digitalisierung ist längst mitten in der Institution Kirche angekommen: Menschen nutzen digitale Medien, um religiös zu kommunizieren.14 Dabei überschreitet die digitale Kirche analoge Grenzen – mit digital übertragenen Gottesdiensten werden Partizipationsformen erneuert und die Reichwerte des Gottesdienstes wird erhöht. Die Entgrenzung zeigt sich jedoch nicht allein in Organisationsformen, sondern im Bezug zur Technologie selbst, denn das Verheißungsvolle von KI besteht darin, dass die Technologie mit Religiosität aufgeladen wird. Die technischen Leistungen werden selbst euphorisch verherrlicht – bis hin zu vielen der bereits diskutierten Letztfragen: »Die ultimative KI wäre eine KI, die uns den Sinn unseres Lebens berechnet und so wiedergibt, dass wir das Ergebnis verstehen können«, spekuliert Tobias Gantner. Diese Überlegung macht deutlich, in welchem epistemologischen Spannungsfeld die Entwicklung von KI stattfindet und welche Erwartungen damit verbunden sind. Auch im Roman Die Tyrannei des Schmetterlings zweifelt ein Protagonist daran, ob Menschen überhaupt KI entwickeln dürfen – und kommt zu einer 14

Besonders in Angesicht der Covid-19 Pandemie, nutzen Menschen die sozialen Medien, um zu kommunizieren und Nähe, Austausch und Gemeinschaft zu erfahren. Vgl.: Amsinck et al. (2021).

307

308

Stefan Selke: Technik als Trost

interessanten Einschätzung: »Das mag uns utopisch vorkommen, vermessen, gegen die Natur. Viele sagen, gegen Gottes Willen. Aber nicht Gott hat uns erschaffen. Wir haben ihn erschaffen. Gott ist ein Algorithmus der Voraufklärung.« (Schätzing 2018: 357) Wenn Menschen schon immer diese Wirkmacht hatten, dann lässt sich eine Traditionslinie von Verheißungsgeschichten rekonstruieren, die mühelos an theologisch-dogmatische Heilsverkündungen anknüpft. Immerzu gilt: Glaube kann heilen. Nur heilt inzwischen der Glaube an eine gottgleiche intransparente Technologie und nicht an einen unsichtbaren Gott. »Wer glaubt, dem geht es besser – das lässt sich sogar empirisch nachweisen«, so der Informatiker Karsten Wendland. »Wer glaubt, kommt besser durch Krisen.« Dieses Argument legt dann auch eine Spur zu einem besseren Verständnis der gesellschaftlichen Funktion von Verheißungserzählungen in krisenhaften Zeiten: Verheißungen tragen als Religionsersatz zur dynamischen Stabilisierung der Gesellschaft in instabilen Zeiten bei. Die damit verbundene Argumentationslinie lässt sich wie folgt ausbuchstabieren: »Mit dem Rückzug Gottes«, so der Wissenschaftshistoriker Ernst Peter Fischer, »wird die Kontingenz, also das Mögliche, das aber nicht notwendig passiert, zu einem Thema der Weltdeutung.« (Fischer 2010: 221) Verheißungserzählungen sind An- und Umdeutungen der Kontingenz und zugleich implizite Strategien der Kontingenzreduktion, die helfen, gesellschaftliche Ordnung aufrechtzuerhalten. Ganz offensichtlich tritt der Begriff der Verheißung im Zusammenhang mit der Säkularisierung auf, in deren Verlauf Religion(en) allmählich die Funktion als alleinige Legitimationsinstanz für Wert- und Normvorstellungen verloren. Gleichzeitig entstanden säkulare Religionen, die zum Teil Inhalte und Funktionen traditioneller Religionen übernahmen. Die neuzeitlichen Prozesse der ›Entzauberung‹ und ›Wiederverzauberung‹ der Welt haben in diesem Kontext eine Stellvertreterfunktion für moderne Formen der Erlösung. (Haring-Mosbacher 2008) Auf dieser Ersatzleistung basiert die in diesem Buch vorgelegte Leitthese: Zukunftseuphorische Verheißungserzählungen dienen als Trostersatz in religiös und sozial erschöpften Gesellschaften.

Religiöse Produktinnovationen und kulturelle Orientierung Aber warum tauchen Verheißungen ausgerechnet im Zusammenhang mit KI so prominent auf? Ein Klärungsversuch: Während die abrahamitischen Weltreligionen (Christentum, Islam, Judentum) stark an Sesshaftigkeit gebunden waren und sich Regeln für das Zusammenleben in Siedlungen sowie die Re-

9. KI als kollektives Tröstungsprojekt

gelung der Arbeit gaben, leben Menschen in postmodernen Gesellschaften wiederum in einer Situation des dauernden Aufbruchs mit teils stark erschöpfenden Flexibilitätsanforderungen an das private und berufliche Leben. (Sennett 2000) Vorstellungen von Fortschritt und Wachstum sind daher an Prozesse der dynamischen Stabilisierung gebunden. (Castel/Dörre 2009) Das ist einer der Gründe dafür, warum monotheistische Religionen in der klassischen Form an ihr Ende gekommen sind. Sie sind unfähig, die Herausforderung unseres Zeitalters zu erfassen, das Soziologen als fluide oder flüssig bezeichnen und dessen Grundierung zunehmenden Unsicherheitserfahrungen besteht. (Bauman 2007) Die Kernannahme der religionsökonomischen These besteht darin, dass der religiöse Markt durch Versäumnisse der monopolistischen Staatskirchen radikal dereguliert wurde und die neue Wettbewerbssituation zu religiösen Produktinnovationen zwingt. Gleichzeitig wächst paradoxerweise durch die Pluralisierung der Produktpalette die gesellschaftliche Bedeutung des Religiösen. (Vgl. Nagel 2021: 142ff.) Vor diesem Hintergrund wird verständlich, dass sich Heilsargumente differenzieren und ausweiten.15 Da mittlerweile auch die Eigenmächtigkeit der religiösen Endverbraucher anstieg, wundert es kaum, das Angebots- und Nachfrageseite rund um technische Verheißungserzählungen zusammenlaufen. Genau dafür stehen KI-Narrative. Wie bei vielen Religionen sind die Heilsversprechungen gerade deshalb attraktiv, weil sie auf (vermeintliche) apokalyptische Bedrohungen reagieren. Damit entsteht die Neigung, alternative Orientierungsleistungen zuzulassen. »Immerhin wäre eine Superintelligenz, die wir schaffen, etwas Gottgleiches«, so HansArthus Marsiske. »Sie entspräche in ihrer Machtfülle dem, was wir uns unter Göttern vorstellen.« Und in diese Macht lässt sich vieles hineinprojizieren: allmächtiger Problemlöser, Bewältigung der Zukunftsoffenheit, Hoffnung auf Sicherheit. Wird KI also nicht als Technik, sondern als kulturelle Orientierungsleistung verstanden, resultiert daraus auf der metaphorischen Ebene die Verheißung von KI als ›neuer Monotheismus‹.

15

Bereits der Soziologie Peter Berger (1973) wies auf die veränderte Marktlage, den Plausibilitätsverlust einzelner Wahrheitsanbieter sowie die warenförmige Zurichtung von Religionen hin.

309

310

Stefan Selke: Technik als Trost

Epochentypische Revitalisierungen von Sakralisierungen durch KI-Verheißungen Die gesellschaftliche Funktionalität dieser neuen Religion ist allerdings auf ein entsprechendes sozio-kulturelles Umfeld angewiesen. Auch wenn an dieser Stelle nicht abschließend geklärt werden kann, ob es sich bei den neuen Techno- und Datenreligionen tatsächlich um Religionen handelt, die transzendente Grenzüberschreitungen ermöglichen, beinhalten deren Verheißungen doch Heiligkeitsqualitäten. Ihre rituellen, mundanen Aspekte stellen zudem Heiligkeitsäquivalente dar, deren Funktion in kollektiver Selbstsakralisierung besteht. Gerade in den strategischen Inszenierungen, den Symbolisierungen und den Metaphoriken rund um das Thema KI wird die (neue) »Macht des Heiligen« deutlich. In diesem Sinne schreibt Hans Joas: »Durch neue Sakralisierungen können alte Legitimitäten in Zweifel gezogen werden und neue Legitimationschancen sich ergeben für alte und neue Machtansprüche.« (Joas 2017: 444) Die hier skizzierten neo-religiösen Züge der Anbetung von KI sind ein Beleg für diese These, nach der gesellschaftlicher Wandel immer neue Revitalisierungen von Sakralisierungen hervorbringt, die sich jeweils auf epochentypische Transzendenzvorstellungen auswirken. Das Phänomen KI und die damit verbundenen Zuschreibungen lassen sich daher im Spannungsfeld von Macht, Religion und Politik – also weit jenseits des Technischen – verorten. Ob und inwieweit die reflexive Sakralität von Technoreligionen hilfreich ist, um in erschöpften Gesellschaften wieder Halt und Trost zu finden, muss sich jedoch erst noch zeigen.

9.3 Neoreligiöse Lichtgestalten Jede Verheißung braucht Absender. Wer aber ist Urheber von KI-Verheißungen, wer gibt die zukunftsweisenden Versprechen ab? Es folgt ein Blick auf privilegierte Akteure und deren Rollenverständnis. Selbst eine Ersatzoder Quasi-Religion braucht Verkünder, die im Zentrum stehen und nach außen wirken. »Jede Verheißung ist an einen Messias, gebunden«, so Wolfang Eckstein, der sich bestens mit der im Silicon Valley vorherrschenden Denkweise auskennt. »Ein Messias lässt sich von etwas leiten, das er selbst nicht rational begründen kann.« An Pathos mangelt es dabei selten. Pathos wird erkennbar nachgefragt, wobei zu bedenken ist, wie ambivalent zeitgenössische Heilsverkündungen sind und welche nicht-intendierten Nebenfolgen

310

Stefan Selke: Technik als Trost

Epochentypische Revitalisierungen von Sakralisierungen durch KI-Verheißungen Die gesellschaftliche Funktionalität dieser neuen Religion ist allerdings auf ein entsprechendes sozio-kulturelles Umfeld angewiesen. Auch wenn an dieser Stelle nicht abschließend geklärt werden kann, ob es sich bei den neuen Techno- und Datenreligionen tatsächlich um Religionen handelt, die transzendente Grenzüberschreitungen ermöglichen, beinhalten deren Verheißungen doch Heiligkeitsqualitäten. Ihre rituellen, mundanen Aspekte stellen zudem Heiligkeitsäquivalente dar, deren Funktion in kollektiver Selbstsakralisierung besteht. Gerade in den strategischen Inszenierungen, den Symbolisierungen und den Metaphoriken rund um das Thema KI wird die (neue) »Macht des Heiligen« deutlich. In diesem Sinne schreibt Hans Joas: »Durch neue Sakralisierungen können alte Legitimitäten in Zweifel gezogen werden und neue Legitimationschancen sich ergeben für alte und neue Machtansprüche.« (Joas 2017: 444) Die hier skizzierten neo-religiösen Züge der Anbetung von KI sind ein Beleg für diese These, nach der gesellschaftlicher Wandel immer neue Revitalisierungen von Sakralisierungen hervorbringt, die sich jeweils auf epochentypische Transzendenzvorstellungen auswirken. Das Phänomen KI und die damit verbundenen Zuschreibungen lassen sich daher im Spannungsfeld von Macht, Religion und Politik – also weit jenseits des Technischen – verorten. Ob und inwieweit die reflexive Sakralität von Technoreligionen hilfreich ist, um in erschöpften Gesellschaften wieder Halt und Trost zu finden, muss sich jedoch erst noch zeigen.

9.3 Neoreligiöse Lichtgestalten Jede Verheißung braucht Absender. Wer aber ist Urheber von KI-Verheißungen, wer gibt die zukunftsweisenden Versprechen ab? Es folgt ein Blick auf privilegierte Akteure und deren Rollenverständnis. Selbst eine Ersatzoder Quasi-Religion braucht Verkünder, die im Zentrum stehen und nach außen wirken. »Jede Verheißung ist an einen Messias, gebunden«, so Wolfang Eckstein, der sich bestens mit der im Silicon Valley vorherrschenden Denkweise auskennt. »Ein Messias lässt sich von etwas leiten, das er selbst nicht rational begründen kann.« An Pathos mangelt es dabei selten. Pathos wird erkennbar nachgefragt, wobei zu bedenken ist, wie ambivalent zeitgenössische Heilsverkündungen sind und welche nicht-intendierten Nebenfolgen

9. KI als kollektives Tröstungsprojekt

damit verbunden sein können. »Die Visionäre des digitalen Zeitalters werden wie Apostel der Zukunft gefeiert«, so auch der Technikfolgenforscher Armin Grunwald. »Digitale Visionäre gelten als Gurus und Propheten der Zukunft und ein neues Smartphone wird wie in einer religiösen Liturgie in einem tempelartigen Ambiente vorgestellt.« (Grunwald 2019: 234) Dieser Pathos verspricht Erleuchtung und Erlösung und lässt nur den Schluss zu, dass es um mehr als nur um Technik geht. Deshalb ist ein differenzierter Blick auf das skizzierte Ambiente der Heilsbotschaften notwendig. Denn »die überbordende Faszination und das Heilspathos ihrer Apostel können [...] auch in das genaue Gegenteil umschlagen. Allzu große Paradieserzählungen können Misstrauen, Befürchtungen und Gegenwehr auslösen. [...] Der Weg von übertriebenen Versprechungen zum Horrorbild ist manchmal verblüffend kurz.« (Ebd.: 21f.) Vor diesem Hintergrund können die neuen Stars der Digitalität als funktionales Äquivalent und säkularisierte Version des christlichen Heiligen angesehen werden. Sie sind Quasi-Heilige, so wie Steve Jobs, der eines Tages tatsächlich verkleidet als Jesus Christus zu einer Halloween-Party erschienen sein soll. Für Hans-Ulrich Gumbrecht ist Jobs sogar das, was Napoleon einst für Hegel war. »Vielleicht war Steve Jobs der eine napoleonische Charakter in Nordkalifornien, weil er bis zu seinem Tod mit neuen Visionen und einem messianischen Glauben an ihre Verwirklichung die Welt in Atem hielt.« (Gumbrecht 2018: 18) In einer Kultur, die ihre eignen religiösen Horizonte weitgehend verloren hat, erfüllte Jobs die Sehnsüchte nach einer höheren Sphäre und nach Erlösung. »In einem Apple-Computer [...] wird Technologie, statt zu bedrohen, zu einer Annäherung an und einer Öffnung auf die Welt.« (Ebd.: 41) Steve Jobs sprach mit der Gewissheit eines Propheten, mit sichtbarer »Freude an starken Formulierungen«, so der Augenzeuge Gumbrecht (der visà-vis mit den digitalen Gurus in Kalifornien lebt), unabhängig davon, »wie banal diese eigentlich waren.« (Ebd.: 44) Ein anderes Beispiel, das zugleich die Entgrenzung gesellschaftlicher Teilsysteme und Erzählformate über Zukunft zeigt, ist Elon Musk, der eine kleine Gastrolle im Science-Fiction-Film Transcendence hatte. Dort wird er in einer Bühnensituation als Prediger gezeigt, der sein Publikum messianisch auf die Rolle einer Superintelligenz im Sinne eines ›Über-Ichs‹ einschwört: »Sie wollen einen Gott erschaffen? Einen eigenen Gott?«

311

312

Stefan Selke: Technik als Trost

In bester Gesellschaft: die Tradition der Überhöhung und Überzeugung Maßgeblich für diese neue Prophetie ist die Fähigkeit, Visionen und Verheißungen zu erschaffen, die nicht mehr zwangsläufig den Logiken von Naturwissenschaften und der Physik folgen, die gleichwohl immer entschlossenere Schritte »zur Umgestaltung der vertrauten Welt« (ebd.: 83) in Form euphorischer Zukunftsnarrative beinhalten. Aufgrund dieser Eigenschaften werden diejenigen, die das Rollenset des Verkünders in sich vereinen, meist »digitale Evangelisten« genannt. Der Begriff wurde maßgeblich vom Lyriker und Essayisten Hans Magnus Enzensberger geprägt. In seinem Essay Das digitale Evangelium kritisierte er den starken Einfluss der (damals) neuen digitalen Medien. Enzensberger unterscheidet zwei antagonistische Propheten: Einerseits stehen digitale Apokalyptiker den neuen Medien kritisch gegenüber und sehen darin »Unheil« oder »Fluch«. Andererseits prägen digitale Evangelisten eine als utopisch beschriebene Euphorie gegenüber technischem Fortschritt und empfinden diesen als »Heil« oder »Segen«. »Die digitalen Evangelisten begnügen sich nicht mehr mit der alten Frohbotschaft von der Perfektibilität der Menschen«, so Enzensberger. »Weltweite Kommunikation und Vernetzung, direkte elektronische Demokratie, gleichberechtigter Zugang zu jeder Art von Information, Abbau von Hierarchien, nachhaltige Nutzung von Ressourcen, kurzum, Homöostase und Harmonie – das sind einige ihrer Verheißungen.« (Enzensberger 2000: 93) Gleichzeitig kritisiert der Intellektuelle den »Grad von Weltfremdheit« dieser Verheißungen, die für ihn »nur im Seminar, im Labor und im Science-Fiction-Film denkbar« (ebd.) sind. In der Tat hat sich der Begriff des digitalen Evangelisten fest im Verkündungsrepertoire sowie im Umfeld von KI etabliert. Er ziert Visitenkarten und wird vollkommen ironiefrei als Rollenbezeichnung bei Tech-Unternehmen genutzt. Mit dieser neuartigen Berufsbezeichnung sind weitreichende Privilegien und Vorteile verbunden. »Auf dieser Grundlage ist es erlaubt, Verheißungsaspekte in Aussicht zu stellen, die weder greifbar noch belegbar sind«, so der Theologe Christopher Scholtz. Im engeren Wortsinn ist ein Evangelist ein Geschichtenschreiber. Auch der digitale Evangelist eines Tech-Unternehmens verkündet eine positive Botschaft in der Form einer Fortsetzungsgeschichte – die frohe Botschaft der KI und ihrer umfassenden Leistungsfähigkeit. Dabei stehen digitale Evangelisten in der Tradition der Überhöhung und Überzeugung, die bereits aus der Bibel bekannt ist. »Denn das ist kein neutrales Erzählen mehr«, so Scholtz, »sondern missionarisches und appellatives Verkünden.« So wie die biblischen

9. KI als kollektives Tröstungsprojekt

Evangelisten sich auf eine besonders ausgeprägte Inspiration beriefen, lassen sich digitale Evangelisten von einer intensiven prognostischen Gabe leiten. Nicht selten berufen sie sich dabei auf die prominente Idee des Presencings, die dem Forscher Otto Scharmer16 im Gewand seiner Theorie U zu Weltruhm verholfen hat. Dieser behauptet, dass Zukunftsentwicklungen in Form eines U-förmigen Prozesses ablaufen. Folgt man Scharmer ist es notwendig, in einen »Modus des Erspürens« zu kommen, um dann zu wissen, was aus der Zukunft auf einen zukommt. Das ist nicht wirklich neu: Bereits Marcel Mauss führte in seiner Anthropologie die Figur des Magiers ein, den er als Hüter eines irreligiösen Ritus betrachtet. Er macht damit eine Unterscheidung zwischen offiziellen Riten (wie z.B. in Kirchen) und inoffiziellen Ritalen im Feld der Magie. (Mauss 1974: 59ff.) Ein Magier ist Spezialist für Zeremonien. Magier wird man durch »Berufung«, d.h. ein Magier besitzt eine sozial zugeschriebene Rolle, die ihm von seinem Umfeld verliehen wird. Zu seinen Eigenschaften gehören neben exaltierter Nervosität auch rhetorische Geschicklichkeit und visionäre Einbildungskraft. Selbst wenn die Analogie zwischen digitalen Evangelisten und der Sozialfigur des Magiers an dieser Stelle nicht überstrapaziert werden darf, finden sich doch in prominenten Vertretern der KI-Szene – z.B. Elon Musk – auffällige Ähnlichkeiten. Die von Mauss anhand seiner anthropologischen Studien beschriebenen »Formen oraler Riten« (ebd.: 88ff.) wie Eide, Gelübde, Wünsche, Gebete oder Hymnen lassen sich in zahlreichen öffentlichen Auftritten oder Vorträgen (z.B. TED-Talks) digitaler Evangelisten beobachten. Dazu gehört auch ein »Gewirr verschwommener Formulierungen« (ebd.: 97) mit dem gleichwohl die »Idee einer Ansteckung« (ebd.: 99) verbunden ist. Abstraktionen und Interpretationen wechseln sich in der »magischen Rede« ab, so dass verheißungsvolle KI-Narrative insgesamt als »Suggestionsphänomen« (ebd.: 155) betrachtet werden können, mit denen Bedeutungsvolles behauptet wird, das sich aber gleichzeitig auch der Kritik entzieht.17 Mauss weist allerdings darauf hin, dass dies nicht einem Täuschungsversuch entspringt, sondern Magie »unter dem Druck von Bedürfnissen von Gruppen und Individuen vollzogen« (ebd.: 158) wird. »Damit also Magie existieren kann, muss die Gesellschaft präsent sein.« (Ebd.: 159)

16 17

Otto Scharmer ist Aktionsforscher und Gründer es Presencing Institute am Massachusetts Institute of Technology (MIT) in Cambridge (USA). Unter Rückgriff auf die Traditionslinie der Technikmythen macht Oliver Müller deutlich, dass bereits Prometheus »in seiner Rolle als ›Lichtbringer‹ eine gewisse etymologische Verwandtschaft zu ›Luzifer‹ aufweist« (Müller 2010: 126).

313

314

Stefan Selke: Technik als Trost

Hier schließt sich der Kreis: Es stellt sich die Frage, welche zeitgenössische Gesellschaft denn eigentlich »präsent« ist? Wer rezipiert verheißungsvolle KI-Narrative in ritueller und magischer Form und welches Bedürfnis wird damit befriedigt? Die zentrale These geht davon aus, dass mit Verheißungserzählungen sowohl auf der kognitiven als auch auf einer affektiven Ebene Zukunftskontinuierung beabsichtigt wird und dazu als Voraussetzung Zukunftseuphorie als eine Form des säkularen Trostersatzes produziert werden muss. Anders als Religion, die der Metaphysik zugeneigt ist, ist Magie eine »praktische Kunst«, die sich stets dem Konkreten zuwendet. (Ebd.: 174) Zudem unterscheidet sich digitale Magie in einem Punkt radikal von klassischer Magie: Während Magie eng mit einem ganzen System kollektiver Verbote verknüpft ist, die dem Machterhalt des Magiers dienen, assoziieren digitale Magier die Zukunft umgekehrt als normativ entgrenzten Raum – für sie basiert die neue digitale Zivilisation eher auf Freiheiten des Experimentierens als auf Regulationen und Verboten. Es erscheint daher notwendig, sowohl die Wurzeln als auch die Folgen dieser Denkhaltung, die zahlreiche Querverbindungen zu Post-New-AgeDenken aufweist, näher zu untersuchen. Esoterisches Denken und magische Rituale digitaler Evangelisten überlappen sich auffallend.

Elitäre Denkhaltungen im Umfeld von KI-Zukunftsnarrativen Durch die Affinität zu derartigen Denktraditionen erklärt sich auch der implizit elitäre Ansatz von Zukunftserwartungen im Umfeld von KI. Techno-Verheißungen passen gut zu radikalen libertären oder anarchistischen Gesellschaftstheorien, wie sie etwa in der ultra-minimalen Staatstheorie von Robert Nozick, der Vordenker des amerikanischen Radikalliberalismus, vertreten werden. In seinem Buch Anarchie, Staat, Utopia plädiert Nozick dafür, in Verpflichtungen gegenüber anderen (dem Staat, dem Volk oder der Familie) eine »Teilenteignung des Menschen« zu sehen. (Nozick 2006) Jedenfalls beziehen sich TechPropheten wie der Libertäre Peter Thiel in eigenen Essays explizit auf die politischen Theorien Nozicks. (Thiel 2009) Gurus wie Steve Jobs wiederum suggerier(t)en mit ihren distinktiven Wächtergesten Hüter eines besonderen Herrschaftswissens zu sein. Auf dieser Basis verkünden sie die tiefverwurzelte Verheißung von Schöpfungen aus dem Nichts. Digitale Evangelisten verkörpern eine Eigenschaft, die die Philosophin Hannah Arendt mit Natalität bezeichnete, als Fähigkeit des Menschen, Neues zu schaffen. Die Apologeten dieser Verheißung sehen sich als Erleuchtete, die über ein besonders feinsinniges Gespür

9. KI als kollektives Tröstungsprojekt

für die Zukunft verfügen – oder dies zumindest behaupten. Tatsächlich wären Verheißungen, die quasi-religiöse Züge tragen, nichts ohne feldtypische Priester, Gurus und Apologeten. Denn nur sie können das verheißungsvolle Anliegen seherisch und mit großer Geste öffentlich inszenieren. Genau in diesem Sinne »gibt es diese KI-Gurus, die so tun, als würde da etwas ganz Tolles auf uns warten«, erinnert der Psychologe Fabian Hutmacher. Es sind Menschen, die ihre Weissagungen auf den Bühnen dieser Welt präsentieren und dabei das nächste ›große Ding‹ verkünden. »Auf jeden Fall versprechen sie etwas, das das Leben besser macht«, so Verena van Zyl-Bulitta. »KI gibt es kaum ohne mystische Gestalten und deren Verkaufs-Evangelium.« Dieses Evangelium ist je nach Betrachtungsweise faszinierend oder erschreckend. Das ändert nichts daran, dass digitale Evangelisten eine Machtfülle in sich vereinen, die Rockstars und Politiker nachdenklich stimmen sollte. »Das hätte man vor ein paar Jahren für unmöglich gehalten«, so die Autorin Theresa Hannig. »Milliardäre, die mit einem Tweet alles verändern. Ein Wort, ein Klick und alle rennen dieser Sache hinterher.«

Verheißungen als heilsgeschichtliche Verlaufsform Verheißungen sind kein Zustand, sondern vielmehr ein Prozess. Verheißungen sind heilsgeschichtliche Verlaufsformen, sie »wirken auf einen Gipfelpunkt hin, den großen Punkt der Wende, der Metanoia«, so der Ethiker Christian Bauer. Unter Metanoia wird üblicherweise die Änderung der eigenen Lebensauffassung verstanden, womit die Gewinnung einer neuen Weltsicht eingehergeht. Dieser radikale Perspektivwechsel wird allgemein als eine transformative Veränderung des Herzens und damit einhergehend als spirituelle Bekehrung gesehen. Im heilsgeschichtlichen Verständnis (nach Augustinus) bleiben am Ende wenige Auserwählte übrig. Mit verheißungsvollen KI-Narrativen lässt sich umstandslos an diese Traditionslinie anknüpfen, auch wenn viele der Auserwählten bei Lichte betrachtet ganz normale Menschen (bzw. ganz normale Unternehmer) sind. Allerdings führen die Mechanismen der Aufmerksamkeitsökonomie dazu, sie wie Stars, Gurus oder Götter in Erscheinung treten zu lassen und entsprechende Verkündungserwartungen an sie zu richten. Kurz: Sie vereinen bedenkenlose Macht, imperialen Glamour, überzeichnete Technovisionen und verquaste Heilsbotschaften. In Anlehnung an das berühmte Gesetz von Arthur C. Clarke, der behauptete, dass sich jede hinreichend fortschrittliche Technologie letztendlich nicht mehr von Magie unterscheiden lässt, kann über diesen privilegierten Personenkreis die Aussa-

315

316

Stefan Selke: Technik als Trost

ge getroffen werden, dass sich jeder hinreichend erfolgreiche CEO letztendlich nicht von einem Magier oder Guru unterscheiden lässt (Frank 2022).18 Noch etwas fällt auf: Es sind vor allem Männer, die die Imagination anderer Männer beflügeln – Verheißungserzählungen über KI sind ein Genderthema! »Und wenn ihre schrillsten Vertreter bisweilen wirken, als wären sie fleischgewordene Algorithmen, Homunculi aus Hirn- und Finanzströmen, humanoide Ausstülpungen des Kapitals selbst, so bleiben es doch: Männer.« (Ebd.) Trotz dieser Kritik wird weiterhin an der These festgehalten, dass Verheißungserzählungen Zukunftseuphorie erzeugen, die tröstend wirkt. Beachtet werden sollte, dass Fortschritt kein technologisches, sondern ein humanitäres Projekt ist. Die Welt ist fortschrittlicher, nicht aber gerechter geworden. Es ist also zweitrangig, ob KI-Verheißungen plausibel sind, ob die Technik funktioniert. Stattdessen müssen die Zuschreibungen an diese Technik in den Blick genommen werden, denn der Mensch ist das Lebewesen, das versprechen kann (Nietzsche). Jedes Versprechen aber – so versteht es die Philosophin Hannah Arendt – ist eine Verpflichtung. Mutualität, das wechselseitige Versprechen, dass sich Menschen gegenseitig geben, ist die säkulare Variante der göttlichen Verheißung. Und Versprechen können ernst genommen werden, wenn wir aufrichtig an einer gemeinsamen Zukunft interessiert sind.

9.4 Gesellschaftsutopie statt Innovation Verheißungserzählungen über KI sind das Bindeglied zwischen internen (funktionalen) Strukturen von Technik und externen Zwecksetzungen und Sinngebungsstrategien. KI-Narrative verbinden Zukunftsszenarien mit Gegenwartsdiagnosen bzw. Erwartungsstrukturen mit der Verarbeitungskapazität der Gesellschaft für ihre jeweilige Zukunft. Verheißungen ermöglichen hierbei eine übergeordnete Meta-Perspektive auf KI und lassen sich zu transformativen Szenarien auffächern. Damit haben Zukunftsnarrative auch Übersetzungs- und Reintegrationsfunktionen. Darin liegt die gesellschaftsdiagnostische Perspektive auf Verheißungen. So fragt etwa Armin Nassehi, welche »Disposition« der Moderne für digitale Technologien sensibilisiert.

18

https://www.spiegel.de/kultur/tv/wie-don-t-look-up-superreiche-karikiert-demkind-haengen-massen-an-den-lippen-a-ecab531c-9c23-4246-8a58-279a0fc23010 (05.01.2022).

316

Stefan Selke: Technik als Trost

ge getroffen werden, dass sich jeder hinreichend erfolgreiche CEO letztendlich nicht von einem Magier oder Guru unterscheiden lässt (Frank 2022).18 Noch etwas fällt auf: Es sind vor allem Männer, die die Imagination anderer Männer beflügeln – Verheißungserzählungen über KI sind ein Genderthema! »Und wenn ihre schrillsten Vertreter bisweilen wirken, als wären sie fleischgewordene Algorithmen, Homunculi aus Hirn- und Finanzströmen, humanoide Ausstülpungen des Kapitals selbst, so bleiben es doch: Männer.« (Ebd.) Trotz dieser Kritik wird weiterhin an der These festgehalten, dass Verheißungserzählungen Zukunftseuphorie erzeugen, die tröstend wirkt. Beachtet werden sollte, dass Fortschritt kein technologisches, sondern ein humanitäres Projekt ist. Die Welt ist fortschrittlicher, nicht aber gerechter geworden. Es ist also zweitrangig, ob KI-Verheißungen plausibel sind, ob die Technik funktioniert. Stattdessen müssen die Zuschreibungen an diese Technik in den Blick genommen werden, denn der Mensch ist das Lebewesen, das versprechen kann (Nietzsche). Jedes Versprechen aber – so versteht es die Philosophin Hannah Arendt – ist eine Verpflichtung. Mutualität, das wechselseitige Versprechen, dass sich Menschen gegenseitig geben, ist die säkulare Variante der göttlichen Verheißung. Und Versprechen können ernst genommen werden, wenn wir aufrichtig an einer gemeinsamen Zukunft interessiert sind.

9.4 Gesellschaftsutopie statt Innovation Verheißungserzählungen über KI sind das Bindeglied zwischen internen (funktionalen) Strukturen von Technik und externen Zwecksetzungen und Sinngebungsstrategien. KI-Narrative verbinden Zukunftsszenarien mit Gegenwartsdiagnosen bzw. Erwartungsstrukturen mit der Verarbeitungskapazität der Gesellschaft für ihre jeweilige Zukunft. Verheißungen ermöglichen hierbei eine übergeordnete Meta-Perspektive auf KI und lassen sich zu transformativen Szenarien auffächern. Damit haben Zukunftsnarrative auch Übersetzungs- und Reintegrationsfunktionen. Darin liegt die gesellschaftsdiagnostische Perspektive auf Verheißungen. So fragt etwa Armin Nassehi, welche »Disposition« der Moderne für digitale Technologien sensibilisiert.

18

https://www.spiegel.de/kultur/tv/wie-don-t-look-up-superreiche-karikiert-demkind-haengen-massen-an-den-lippen-a-ecab531c-9c23-4246-8a58-279a0fc23010 (05.01.2022).

9. KI als kollektives Tröstungsprojekt

(Nassehi 2019: 17) Gerade in diesem Sinne darf KI nicht einfach als gegeben voraussetzt werden. Vielmehr muss gefragt werden, wie KI-Narrative Anschlussfähigkeit an gesellschaftliche Strukturen herstellen. Aus soziologischer Perspektive kann in der Herstellung dieser Anschlussfähigkeit ein Akt der Sinnsetzung gesehen werden, denn technische Systeme blieben so lange ›sinnlos‹, bis ihnen von Menschen Sinn mitgegeben wird. Die bloße Koppelung von Daten und Systemen erzeugt noch keinen originären Sinn. Der Sinn technischer Systeme ergibt sich erst aus den Zielen. Diese zwecksetzenden Ziele können die Systeme nicht selbst formulieren und zufällige Erfolge sind noch längst keine eigenständig Zwecksetzung. Verheißungsgeschichten sind daher Teil einer unverzichtbaren Sinnstrategie, die Zukunft und damit auch gestaltbare Zukunft erst möglich macht. Wie Hans-Georg Gumbrecht im Silicon Valley unmittelbar an seinen Studierenden beobachten konnte, entstehen KI-Anwendungen in einem kreativen Raum, zudem neben Daten auch Kontemplation und Imagination gehören (Gumbrecht 2018: 93). »Programmieren ist ein gestalterischer Akt oder wie Weizenbaum sagte: ein Akt des Schreibens«, erinnert der Designer Andreas Muxel. »Im Hin und Her zwischen Mensch und Maschine entsteht ein Ergebnis. Das ist ein Gestaltungsprozess.« Dieser Blick auf KI reicht allerdings noch nicht aus. Vielmehr müssen KI-Verheißungen als Teil eines größeren Bildes gesehen werden, das die Welt als Gegenstand des Zukunftsdesigns versteht. In seinem Buch Weltentwerfen entwickelt Friedrich von Borries einen mosaikartigen Blick auf Gestaltungsoptionen der Zukunft zwischen Überlebens-, Sicherheits-, Gesellschafts- und Selbstdesign. (von Borries 2019) Alle diese Dimensionen werden durch KI-Anwendungen und damit verbundene Verheißungen berührt. Weil das Überlebensdesign kollektiven Erfahrungen des Scheiterns entspringt, bieten verheißungsvolle Erzählungen über KI ein tröstendes Gegennarrativ. »Aus einem aufklärerischen Verständnis von Verantwortung heraus«, so von Borries, »ist Weltentwerfen [...] eine moralische Verpflichtung. [...] Weltentwerfen muss von Offenheit geprägt sein, sich als immerfort suchender Prozess verstehen und dabei Unvollständigkeit und Unabgeschlossenheit akzeptieren.« (Ebd.: 122/132) Das zeigt sich auch daran, dass sich die Verheißungen zu KI fortentwickeln und somit immer neue Handlungskorridore eröffnen. Wird Zukunft zunehmend als Katastrophe verstanden (Horn 2014) dann legen Gedankenexperimente zumindest nahe, sich eine Erde ohne menschliche Herrscher, dafür unter der Herrschaft einer KI vorzustellen. Schon immer dienten Katastrophenszenarien dazu, Herrschaft zu legitimieren. (von Borries 2019: 51) Daher verwundert es nicht, wenn mögliche kybernetische Re-

317

318

Stefan Selke: Technik als Trost

gierungsformen als Reaktion auf das Katastrophale gesellschaftlich akzeptabel gemacht werden.

Zwischen Erfolg und Ernüchterung: Optionen für eine positive Zukunftsethik Die Vielzahl von Katastrophenszenarien – die wiederum in munterer Wechselwirkung mit zahlreichen fiktiven Katastrophendarstellungen stehen – macht es immer wieder notwendig, über hoffnungsvolle Gestaltungsoptionen und eine positive Zukunftsethik nachzudenken. Wenn die Katastrophe die ultimative »Offenbarung« darstellt (Horn 2014: 20ff.) wird verständlich, warum verheißungsvolle KI-Narrative tröstend wirken, denn Krisenbewusstsein und Zukunftseuphorie bedingen sich gegenseitig. Gestaltungsoptionen dürfen dabei allerdings nicht allein von den Risiken der Technik ausgehen, sondern den Menschen selbst als Risiko sehen, wie es etwa der Genetiker George Church anschaulich beschreibt: »The main risk in AI [...] is not so much whether we can mathematically understand what they’re thinking; it’s whether we’re capable of teaching them ethical behaviour. We’re barely capable of teaching each other ethical behaviour.« (Church zit. n. Brockman 2020: 241) Der Programmierer Jaan Tallinn warnt hingegen vor KI, weil sich dahinter vor allem ein ökonomisches Profitmotiv verbirgt. Gleichzeitig hat selbst er noch Hoffnung, dass sich eine Zukunft mit KI unter bestimmten Umständen gestalten ließe. »I very much hope that a new generation of leaders [...] can rise above the usual tribal, zero-sum games and steer humanity past these dangerous waters were we are in.« (Tallinn zit. n. Brockman 2020: 99) Wie kann vor diesem Hintergrund Zukunftsgestaltung zwischen Pessimismus und Optimismus aussehen? Der Computerpionier Klaus Haefner warnte bereits im Jahr 2000 vor allzu viel Pessimismus und betonte die Notwendigkeit großer Visionen. »Ein Mangel an plausibel vermittelbaren und für viele Menschen reizvollen Zukunftsvisionen führt in die ›No-Future‹-Bewegung. Diese beinhaltet dann eine sich selbst erfüllende Prophezeiung: Indem man davon ausgeht, dass man keine Zukunft hat, verdrängt man jeden Ansatz, über die Zukunft nachzudenken.« (Haefner 2000: 158) Weil sie hingegen Zukunft geradezu voraussetzen, sind zukunftseuphorische Verheißungsnarrative einerseits Schrumpfformen echter Zukunftsgestaltung, andererseits aber doch zumindest Katalysatoren des Zukunftsdenkens. Was folgt, versteht sich als Erinnerung an ein paar Grundregeln: Bislang folgte auf technische Erfolge immer wieder Ernüchterung. Hellsichtig diagnostizierte der Philosoph Hans Jonas

9. KI als kollektives Tröstungsprojekt

in seinem berühmt gewordenen Buch Das Prinzip Verantwortung 1979, dass das zentrale ethische Problem der Technik mit nicht darin liegen, dass sie gelegentlich nicht funktioniert oder Unfälle verursacht. Vielmehr zeigt Jonas, dass die großen Probleme wie Klimawandel und Ozonloch, wie Artenschwund und Versauerung der Ozeane gerade von einer reibungslos funktionierenden Technik verursacht wurden. (Jonas 1984) Als Empfehlung bietet sich an, kritisch nachzufragen, »wann immer uns viel versprochen wird«, so Armin Grunwald. »Nicht um prinzipiell jede visionäre Idee schlecht zu machen, sondern um die Bedingungen zu prüfen, unter denen sie sich realisieren lässt. Auch bei der schönsten Utopie sollte die Frage nach den Risiken und Nebenwirkungen nicht fehlen.« (Grunwald 2019: 20) Zukunftsgestaltung durch KI erweist sich aber aus mehreren Gründen als schwierig. Einerseits steht die Inflexibilität von Normierungstechnologien und der Kosmos von Regulierungsansätzen und Versprechungspapieren (Leitbilder, Manifeste etc.) innovativen und dynamischen Entwicklungen gegenüber (manche sagen: im Weg). Erschwerend hinzu kommt die dynamische Veränderung des Begriffs »KI«. Das macht es nicht leicht, ausreichend weit in die Zukunft zu blicken und provoziert die Frage, wie überhaupt geschaut werden kann. »Hat denn ein Johannes Gutenberg erahnt, das durch seine Erfindung Reformation, Gegenreformation sowie ein dreißigjähriger Krieg entstehen?«, fragt Tobias Gantner. »Und hätte er seine Erfindung eingestampft, wenn er es gewusst hätte? Wenn wir über die eigentliche Technologie hinwegschauen, dann sehen wir das, was wichtig ist.« Genau das dürfte jedoch die meisten Menschen überfordern. Wie bei jeder Regel gibt es auch hier Ausnahmen: Der Lektor Bryan Appleyard lobt in einer Randbemerkung etwa die »erschreckend präzise« Fähigkeit von James Lovelock zur Imagination des Neuen: »Die Menschen sprechen oft davon, wie wertvoll es ist, ›über den eigenen Tellerrand hinauszuschauen‹, aber sie erwähnen selten, dass es noch viel wertvoller ist, so zu denken wie Jim das tun, nämlich als gäbe es keinen Teller.« (Zit. n. Lovelock 2020: 11) Das bedeutet, ein Denken außerhalb von Null-Optionen (»default«-Annahmen) zu erlernen. In seinem Manifest Die Zukunft der Erdbewohner verhandelt der Anthropologe Marc Augé die Vorstellbarkeit der Zukunft zwischen der Entpersonalisierung sozialer Beziehungen und der Virtualisierung von Orten. (Augé 2021) Beim Zukunftsdesign zwischen Erfolg und Ernüchterung wird es auch auf die Rolle der Zivilgesellschaft und die Mitgestaltung der KI-Narrative durch Bürger ankommen. Hier stellt sich erneut die Frage, wo eigentlich Digitalisierung, Big Data und KI jenseits technischer Sphären stattfinden werden. Zunächst finden die genannten Prozesse zwischen (kurzfristigem) Alltag und (lang-

319

320

Stefan Selke: Technik als Trost

fristigem) Wandel statt. »Im dem Augenblick, in dem Geschichte stattfindet, erleben Menschen Gegenwart«, so der Sozialpsychologe Harald Welzer (2009: 221ff.). Ereignisse – wie etwa die Einführung des Internets oder sprachbasierte intelligente Assistenten wie Siri oder Alexa – werden erst im Nachhinein ›historisch‹. Meistens dann, wenn sich irreversible Folgen einstellen. Der Anspruch zukunftsrobuster Gesellschaftsgestaltung besteht darin, diese Form von ›lock-in‹ zu verhindern. Deshalb erzeugen zahlreiche Gremien und Expertengruppen lediglich Anpassungs-Narrative, die versuchen, die Leitlinien für Regulierungen vorzugeben. Ein Beispiel: Die Datenethikkommission erhielt von der Bundesregierung 2018 den Auftrag, sich mit Fragen zum Umgang mit Daten, Algorithmen und KI auseinanderzusetzen und hierzu binnen eines Jahres ethische Leitlinien und rechtliche Handlungsempfehlungen zu erarbeiten. Digitalisierung, so der Grundgedanke, verändert die Gesellschaft grundlegend. Sowohl Nutzen als auch Risiken spielen hierbei eine Rolle. In der Summe führt dies zu zahlreichen rechtlichen und ethischen Fragen. Im Zentrum der Empfehlungen stehen der konsequente Aufruf zur aktiven Mitgestaltung der Zukunft durch Bürger sowie die Betonung europäischer Werte bzw. eines europäischen Weges im globalen Wettlauf um die Zukunftstechnologie KI. Der Ruf nach Bürgerbeteiligung wurde zwischenzeitlich immer lauter und so einem politisch-normativen Mantra. »Die Verantwortung und die Zuständigkeiten für den technischen Fortschritt sollte nicht in einer Handvoll Technologieunternehmen überlassen werden«, so auch die Autorin MarieLuise Wolff (2020: 22). Forschungseinrichtungen und Hochschulen versuchen – zumindest auf dem Papier – Bürgerbeteiligung in die Praxis umzusetzen. Zur euphorischen Aufbruchsstimmung der Unternehmen, die KI als Schlüsseltechnologie des 21. Jahrhunderts zelebrieren und zur medialen Euphorie in Form verheißungsvoller KI-Narrative, gehört somit grundlegend auch die Akzeptanz der Bürger als Optionsschein auf eine bessere Zukunft. Dieser Ansatz steht gleichwohl den immer wieder geäußerten Vorschlägen gegenüber, die im Kontext einer nachhaltigen und lebensdienlichen Welt mehr digitale Askese oder digitalen Verzicht fordern. (Mierzwa 2021: 103ff.) Beiden Perspektiven gemein ist, dass KI längst kein vager Zukunftstraum mehr ist. Ernstgemeinte Bürgerdialoge, -foren und -gespräche sind ein Element agiler Wissenschaft, die aus zwei Gründen wohl noch an Bedeutung zunehmen werden. Erstens liegt dies am Gegenstand der Forschung, denn KI-Anwendungen sind ein gutes Beispiel für eine Zukunftspraxis im alltäglichen Vollzug. Bei agiler Wissenschaft wird es darum gehen, nicht nur die ›großen Zukünfte‹, sondern auch die vielen ›kleinen Zukünfte‹ alltäglicher Handlungswelten in

9. KI als kollektives Tröstungsprojekt

den Blick zu nehmen, um den Zusammenhang zwischen Praxis und Reden (»nexus of doings and sayings«) beobachtbar und beschreibbar zu machen. Denn »Zukunft wird als Resultat und zugleich als Bestandteil der jeweiligen Praxis verstanden«, so der Soziologe Hannes Krämer. Dabei sind Zukunftspraktiken »eng mit Affekt- und Begehrenskonstellationen verbunden« (Krämer 2019: 89), es geht also um das Wollen und Wünschen der Menschen in deren jeweiligen Lebenswelten. Agile Wissenschaft wird zudem immer häufiger mit Zusatzherausforderungen (z.B. der Corona-Pandemie) konfrontiert sein. Ausgehend von der Dauerdiagnose eines verflüchtigten Lebens in der Moderne zeigen sich alte und neue Unsicherheiten, Ambivalenzen und Widersprüche, die auch im post-pandemischen Leben nicht so schnell verschwinden werden. (Empirische) Gesellschaftsforschung ist eine bewährte Strategie im Umgang mit Unwissen über die Zukunft. Aus Sicht der betroffenen Bürger ist das (eigentlich) alternativlos. Eine differenzierte Einordnung des Zukunftstraums KI passt gut zur Rolle der Gesellschaftswissenschaften. Mit Norbert Elias können Soziologen als Mythenjäger (Elias 2009) beschrieben werden, deren Aufgabe darin besteht, öffentlich und medial zirkulierende Bilder und Narrative zu hinterfragen sowie Orte des Schweigens zugänglich zu machen. Wissenschaft fragt nach einflussreichen Akteuren im Dunkeln, Einflussnahmen Mächtiger auf Politik und Gesellschaft, Manipulationsmöglichkeiten sowie Diskriminierungs- und Zerstörungspotenzial. Allerdings ist damit die Aufgabe der Gesellschaftswissenschaften noch nicht erschöpfend beschrieben – zumal sich kritische Wissenschaftler diese Aufgabe und damit das Terrain der KI-Kritik mit engagierten und informierten Journalisten teilen. Neben Kritik und Aufklärung können in diesem Zusammenhang drei Aufgaben für die Gesellschaftswissenschaften benannt werden: Erstens sollte die Aufgabe in Zukunft darin bestehen, eine Brücke zwischen Verheißungen und Entmystifizierung zu bauen, d.h. alternative Zukünfte sollten sichtbar gemacht werden. Zweitens sollte skandalisiert werden, dass berechenbare Zukünfte lediglich Schrumpfformen echter Gesellschaftsgestaltung sind. Vielmehr braucht es ein tiefgründiges Verständnis für die Notwendigkeit und Möglichkeit sozial-utopischen Denkens, das sich längst nicht in der Reproduktion von Standardwelten oder der Verdopplung des Bestehenden erschöpfen darf. (Schaper-Rinkel 2015) Die Rolle der Gesellschaftswissenschaften besteht kurz gesagt darin, der Utopiemüdigkeit, die durch die einseitige Fokussierung auf technologische Innovationen wie KI zum allgemeinen Orientierungsrahmen wurde, Utopielust entgegenzusetzen. (Selke 2022: 443ff.) Und drittens sollten Gesellschaftswissenschaftler

321

322

Stefan Selke: Technik als Trost

zukünftig Lücken in ihren Gesellschaftstheorien schließen. Dies bezieht sich vor allem auf die Ausweitung des Grundrisses der Sozialwissenschaften, denn im Kontext von KI müssen neue Rollenzuschreibungen und Formen von Interaktion und Kommunikation mit nichtmenschlichen Entitäten berücksichtigt werden. Eigentlich muss noch viel intensiver nach dem eigentlichen Bezugsproblem von KI jenseits technischer Funktionalitäten gefragt werden, um eine angemessene Gesellschaftsdiagnose zu erarbeiten. In der Tat macht KI Eine neue Soziologie für eine neue Gesellschaft notwendig, so der paradigmatische Buchtitel von Bruno Latour (2010). Latour provoziert mit Fragen rund um »das Soziale«, proklamiert das Verschwinden des Sozialen oder zumindest dessen Metamorphose. Er sieht die Aufgabe einer zeitgemäßen Soziologie darin, neue Verbindungen nachzuzeichnen. »Das scheint mir der einzige Weg zu sein«, so Latour, »den alten Pflichten der Soziologie, der ›Wissenschaft vom Zusammenleben‹ treu zu bleiben.« (Latour 2010: 11) KI-Verheißungen bieten dafür ausreichend Anschauungsmaterial.

9.5 Verheißungsfreie Zukunftsethik Hieraus lässt sich folgendes schlussfolgern: Es ist falsch, anzunehmen, dass Technik alternativlos ist und dass die Zukunft nicht mehr in unseren Händen liegt. Ebenso falsch ist die Annahme, dass Leben eine Funktionsstörung ist und daher ständiger Optimierung bedarf. Dystopische Effekte können eintreten. Aber sie sind immer der Endpunkt in einer langen Reihe von Entscheidungen, die stets menschliche Akteure vorbereiten und schließlich treffen. Dieser Einfluss des Menschen auf KI sollte daher niemals geleugnet werden, weil sonst die Verantwortung für die eigene Zukunft geleugnet wird. Genau deshalb können ethische Fragen nicht warten. Sie stehen dem Fortschritt allerdings nicht im Weg, vielmehr sind die Grundlage für einen Fortschritt, der diesen Namen auch verdient. Technologiedesign braucht einen proaktiven ethischen Rahmen, also eine Zukunftsethik, die aus einer Absichtserklärung, Grundwerten und Leitprinzipien besteht, innerhalb dessen Technologien vorgeschlagen, entworfen und aktualisiert und verwendet werden können. Jede ethische Rahmen enthält folgende Aspekte: Zweck (Daseinsberechtigung), Werte (bestimmen, was gut ist), Prinzipien (zeigen, was richtig ist) (Beard/Longstaff 2018). Wenn der narrative Wissensraum über KI von Verheißungserzählungen derart durchdrungen ist, wie hier behauptet, dann stellt sich abschließend die Frage ob und wie eine verheißungsfreie Zukunftsgestaltung denkbar wäre.

322

Stefan Selke: Technik als Trost

zukünftig Lücken in ihren Gesellschaftstheorien schließen. Dies bezieht sich vor allem auf die Ausweitung des Grundrisses der Sozialwissenschaften, denn im Kontext von KI müssen neue Rollenzuschreibungen und Formen von Interaktion und Kommunikation mit nichtmenschlichen Entitäten berücksichtigt werden. Eigentlich muss noch viel intensiver nach dem eigentlichen Bezugsproblem von KI jenseits technischer Funktionalitäten gefragt werden, um eine angemessene Gesellschaftsdiagnose zu erarbeiten. In der Tat macht KI Eine neue Soziologie für eine neue Gesellschaft notwendig, so der paradigmatische Buchtitel von Bruno Latour (2010). Latour provoziert mit Fragen rund um »das Soziale«, proklamiert das Verschwinden des Sozialen oder zumindest dessen Metamorphose. Er sieht die Aufgabe einer zeitgemäßen Soziologie darin, neue Verbindungen nachzuzeichnen. »Das scheint mir der einzige Weg zu sein«, so Latour, »den alten Pflichten der Soziologie, der ›Wissenschaft vom Zusammenleben‹ treu zu bleiben.« (Latour 2010: 11) KI-Verheißungen bieten dafür ausreichend Anschauungsmaterial.

9.5 Verheißungsfreie Zukunftsethik Hieraus lässt sich folgendes schlussfolgern: Es ist falsch, anzunehmen, dass Technik alternativlos ist und dass die Zukunft nicht mehr in unseren Händen liegt. Ebenso falsch ist die Annahme, dass Leben eine Funktionsstörung ist und daher ständiger Optimierung bedarf. Dystopische Effekte können eintreten. Aber sie sind immer der Endpunkt in einer langen Reihe von Entscheidungen, die stets menschliche Akteure vorbereiten und schließlich treffen. Dieser Einfluss des Menschen auf KI sollte daher niemals geleugnet werden, weil sonst die Verantwortung für die eigene Zukunft geleugnet wird. Genau deshalb können ethische Fragen nicht warten. Sie stehen dem Fortschritt allerdings nicht im Weg, vielmehr sind die Grundlage für einen Fortschritt, der diesen Namen auch verdient. Technologiedesign braucht einen proaktiven ethischen Rahmen, also eine Zukunftsethik, die aus einer Absichtserklärung, Grundwerten und Leitprinzipien besteht, innerhalb dessen Technologien vorgeschlagen, entworfen und aktualisiert und verwendet werden können. Jede ethische Rahmen enthält folgende Aspekte: Zweck (Daseinsberechtigung), Werte (bestimmen, was gut ist), Prinzipien (zeigen, was richtig ist) (Beard/Longstaff 2018). Wenn der narrative Wissensraum über KI von Verheißungserzählungen derart durchdrungen ist, wie hier behauptet, dann stellt sich abschließend die Frage ob und wie eine verheißungsfreie Zukunftsgestaltung denkbar wäre.

9. KI als kollektives Tröstungsprojekt

Welche Voraussetzungen lassen sich (zumindest) stichpunktartig benennen? Dabei geht es um neue Zieldefinitionen für und neue Perspektiven auf KI. Und schlussendlich auch um neue Zukunftsnarrative, die Transformation statt Tröstung in den Mittelpunkt rücken. Abschließend sollen nochmals einige der Experten und Expertinnen zu Wort kommen, mit denen Gespräche geführt wurden. Eine verheißungsfreie Zukunftsgestaltung benötigt progressive Zieldefinitionen. »Bei KI sind Ziele nicht immer klar und deutlich erkennbar«, so Fabian Hutmacher. »Es gibt kaum Einigkeit darüber, wozu KI eigentlich dienen soll.« Ähnlich sieht es auch Hans-Arthur Marsiske: »Im Moment gibt es kein Denksystem, das uns helfen könnte, KI eine Richtung zu geben. Gleichwohl wäre genau das notwendig. Ansonsten läuft das Ganze unbewusst hinter unseren Rücken und am Ende kommt etwas dabei heraus, was keiner so gewollt hat. Es wäre also an der Zeit, sich kollektiv auf ein Ziel zu verständigen.« Zieldefinitionen sollten präzisiert und kollektiviert werden. Vor allem ginge es darum, den Zielhorizont offen zu halten. »Als Menschen können wir in die Zukunft denken, wir können uns Ziele setzen. Das macht das Leben lebenswert«, so Tobias Gantner. »Für mich wäre eine Dystopie eine Gesellschaft, in der man über solche Sachen nicht mehr nachdenken darf.« Im Kontext von KI wird es weiter darum gehen, zunächst Sinnfragen zu beantworten. Lassen sich Bereiche identifizieren, in denen der Nutzen von KI unbestritten ist? Hierbei besteht die Herausforderung darin, auf Funktionalitäten zu achten, die irreversible Auswirkungen auf gesellschaftliche Bereiche nach sich ziehen. Letztlich geht es hierbei um die Trennung von unproblematischen, lokalen und sozial neutralen KI-Anwendungen von solchen, die weit in die Lebensführung und Gesellschaftssteuerung hineinreichen. Gegenwärtig ist es genau andersherum: Zunächst werden Mittel entwickelt, später die Ziele definiert. »Mit sinnhaften Regeln hat das wenig zu tun. Die einzige Regel ist der Markt«, so Marie-Luise Wolff. »Was wir bräuchten, ist eine gesellschaftlich breitangelegte Diskussion über Sinn, Nutzen und Gefahr von KI. Wir sollten einmal vor der Welle sein«, fordert auch Christian Tombeil. »Die Frage ist doch: Können wir Mechanismen einziehen, die uns selbst vor unmoralischen Grenzübertretungen schützen? Vor der Gier und der Macht der scheinbar unbegrenzten Geldvermehrungsmaschine?« Verheißungsfreie Zukunftsgestaltung bedeutet die Umkehr dieses Standardprozesses: Zunächst sinnvolle Ziele definieren und dann wirkmächtige Werkzeuge entwickeln. Auf diese Weise würde die Zukunft positiv aufgewertet werden. Konsensfähige Zieldefinitionen wären auch ein Schutz vor individuell überambitionierten Zielen, wie sie von den digitalen Evangelisten auf dem Jahr-

323

324

Stefan Selke: Technik als Trost

markt der Hoffnungen im Rahmen neuer Verheißungsnarrative angepriesen werden. Die neuen Zieldefinitionen müssten vor allem wertebasiert sein. »Das wäre der Bruch mit der Frage, was eine Technologie kann und die Hinwendung zur Frage, welche Bedürfnisse Menschen eigentlich haben«, so Fabian Hutmacher. »Die Frage der Zukunft lautet also: Wie lassen sich Prozesse so gestalten, dass Menschen etwas davon haben?« Vor allem in Dagegen-Narrativen wird immer wieder das Trennende zwischen menschlicher und künstlicher Intelligenz betont.19 Dabei käme es viel eher darauf an, im Kontext eines neuen Aufbruchs-Narrativs Gemeinsames zu betonen: Wie lässt sich gemeinsames Lernen zwischen menschlicher und künstlicher Intelligenz konkurrenzfrei denken? »Das wäre eine Art Verschmelzung des Guten, denn es gibt sicher Dinge, die eine Maschine rational besser lösen kann als wir Menschen, und andere Dinge, die wir Menschen aufgrund unserer Eigenschaften besser können«, so Andreas Muxel. Lässt sich vielleicht eine Art dialogisches Lernen zwischen Menschen und Maschine denken, das nicht auf der Abgabe von Kompetenz, Autonomie und Souveränität basiert? Es geht darum, »KI nicht in die Schmuddelecke zu stellen«, so ebenfalls Walburga Fröhlich, »sondern das Potenzial für etwas Kluges zu nutzen.« Einerseits wird das Denken der Menschen dadurch relativiert werden, dass wir im Angesicht von KI unsere Einmaligkeitsfiktion aufgeben müssen, andererseits entsteht dadurch Verbindendes. »Lernen ist lernen. Ob das in einem menschlichen Gehirn passiert oder bei einer KI«, so Fröhlich. »Verteufeln ist einfach. Um das Verbindende zu erkennen, ist es wichtig, KI wegzubringen vom Teuflischen. Die Verteufelung widerspruchsfrei hinzunehmen, manifestiert nur das Trennende.« In der Betonung des Gemeinsamen – der lernenden Gestaltung einer Umwelt auf der Basis einer (gemeinsamen) Merk- und Wirkwelt – läge ein zivilisierendes Moment der KI-Entwicklung. Die Betonung des Verbindenden benötigt jedoch einen Tausch der Standpunkte. Der Designer Andreas Muxel schlägt daher Gedankenexperimente vor, die er auch zusammen mit Studierenden einübt: »Ein experimenteller Ansatz wäre es, die Perspektive der Maschine einzunehmen. Das lässt sich mit Rollenspielen einüben. Menschen schlüpfen in die Rolle der Maschine und durchleben bestimmte Szenarien. Sie nehmen wahr, welche Möglichkeiten die Maschinen hat, zu interagieren oder zu intervenieren.« Zwar wird der Preis für diese Annäherung in der beiderseitigen Formalisierung der Routinen und Regeln liegen, aber auf dieser Basis 19

Vgl. dazu auch den Sammelband Zusammenwirken menschlicher und künstlicher Intelligenz. (Haux et al. 2020)

9. KI als kollektives Tröstungsprojekt

könnte durchaus eine neue soziale Praxis entstehen. Diese Annäherung wird zunächst dort passieren, wo Prozesse ohnehin schon sehr kleinschrittig formalisiert angelegt und beschreibbar sind. Die Frage ist, wie es danach weitergehen könnte. Wie lassen sich Lernprozesse beidseitig formalisieren, die im künstlerischen Bereich oder im zwischenleiblichen Bereich liegen? Bislang findet jedoch der Begriff des Emanzipatorischen im Kontext von KI nur wenig Anwendung. »Unsere Fantasie würde reichen. Wir müssen nur die Marktkräfte in den Griff bekommen. Wir haben es bisher nicht geschafft, die dystopischen Kräfte, die im Markt stecken, einzuhegen. Und deswegen müssen wir diese Aufgabe erst nochmal erledigen. Und dann die Humanisten ranlassen,« so Marie-Luise Wolff. Unter dem Strich werden neue Zukunftserzählungen zwischen Ambitioniertheit und Bescheidenheit, zwischen Konsens und Bedürfnisbefriedung gesucht. Noch gleichen die Erzählungen über KI sehr stark Hypothesen, Schätzungen und Prognosen. »Einige werden Recht haben, andere werden falsch liegen«, so Boris Paskalev. »Fest steht nur, dass KI schon jetzt wichtig ist und in Zukunft noch wichtiger werden wird.« Warum gelingt die TechnoUtopie, nicht aber die soziale Utopie? Eine vorläufige Antwort auf diese Frage besteht in der Annahme, dass Techno-Utopien kommunikativ sparsamer sind als soziale Utopien. Weder erfordern sie komplizierte Aushandlungen und Konfrontationen mit dem eigenen Selbstbild, noch Veränderungen von Gewohnheiten oder die Aufgabe von Privilegien. Rührt also daher die sonderbare Sperre, sozial-utopisch zu denken? Reflektierte, verheißungsfreie Zukunftserzählungen brauchen eine neue Leitfähigkeit für soziale Utopien. »Es geht darum, nach dem sozialen, vielleicht sogar gesamtgesellschaftlich relevanten Entwurf dahinter zu fragen«, so Susann Kabisch. »Und erst dann KI ins Spiel zu bringen. Das würde uns weiterbringen.« Wir sollten also lernen, auch im sozialutopischen Bereich an Disruptionen zu glauben. »Es gibt ein unglaubliches Festhalten an bestehenden Strukturen, eine Art soziale Trägheit. Es gelingt viel einfacher, in Technik eine Verheißung zu erkennen, deshalb lagern wir ja auch so leichtfertig Verantwortung in Maschinen aus.« Für eine verheißungsfreie Zukunftsgestaltung wäre es zudem notwendig, Alltagsgeschichten über KI ernst zu nehmen und systematisch zu erfassen und zu analysieren. »Dabei ginge es weniger darum, was Menschen wissen, sondern was sie glauben«, so der Erzählforscher Michael Müller. »Welche Stereotypen sind gesellschaftlich vorrätig? Was ist das gesellschaftlich vorherrschende Narrativ?« Es ist wichtig, diese welthaltigen KI-Narrative kennenzulernen, weil es weniger mit dem zu tun hat, was KI wirklich kann, vielmehr weist es den Weg zu eschatologi-

325

326

Stefan Selke: Technik als Trost

schen, metaphysischen und mythologischen Orientierungsrahmen und damit zu den vielen Überhöhungen, die in Verheißungen enthalten sind. »Erst wenn es einerseits Alternativen zum ›Hurrapatriotismus‹ in den KI-Narrativen und andererseits Alternativen zu den Bedenkennarrativen gibt«, so Müller, »kann ein neuer Resonanzraum als Basis für Zukunftsgestaltung entstehen.« Für diese Art der Zukunftsgestaltung gibt es keinen stabilen Zustand. Zukunftserzählungen wechsln zwischen großer Ratlosigkeit und großer Euphorie hin und her, zwischen kulturpessimistischem ›Overthinking‹ und technophilem Zukunftsglauben. Zukunftsnarrative funktionieren wie Schieberegler. »Ein Schieberegler, den man immer bewegen muss, den man nicht nur einmal einstellt«, so Müller. »Wenn es einmal zu sehr ins Euphorische geht, muss man vielleicht wieder in die andere Richtung schieben. Wenn es zu sehr ins Negative geht, ebenfalls. Es müsste also ein ganzes Konzert geben. Zwangsläufig müssen wir uns daher verschiedene Geschichten über KI erzählen.« Deshalb fordern auch die Autoren einer Studie der Royal Society, in der narrative Portraits von KI analysiert wurden, das »reshaping« von Zukunftserzählungen mit dem Ziel, einen breiteren öffentlichen Diskurs zu bedienen. Notwendig dazu sind zunächst alternative Analogien über KI und noch weit mehr Perspektivenvielfalt. (Royal Society 2018: 21) Auch die Forscher Deborah Johnson und Mario Verdicchio sehen die Notwendigkeit für ein »reframing« des KI-Diskurses, da Missverständnisse und blinde Flecken zu Verzerrungen führen. Ziel dieser neuen Erzählungen sollte ein besseres öffentlichen Verständnis von KI sein. (Johnson/Verdicchio 2017) Im Rahmen dieses Zukunftsnarrativs müssen Verantwortung und Interessen immer wieder neu verhandelt werden. »KI darf keine Dinge ersetzen, die für Menschen notwendig sind: Kommunikation, Interaktion, gruppendynamische Prozesse. Das wäre unmenschlich«, so Christian Tombeil. »Das spricht nicht gegen KI. Vielmehr müssen wir als Menschen unsere Intelligenz und vor allem unsere Empathie dazu verwenden, diese Technik so in unser Leben zu integrieren, dass sie einen Mehrwert hat.« Dazu muss der normative ›middleground‹ zwischen dogmatischen Kulturpessimisten und naiven Techno-Utopisten immer wieder neu ausgelotet werden. »Wie immer gibt es einen Wettlauf zwischen denen, die überhöhen und den Traumzerstörern«, so Marie-Luise Wolff. »Ein verantwortungsvoller Umgang mit dieser Technologie wäre ein vorsichtiges Herantasten«, meint hingegen Johanna Tiffe. Immer wieder müssen wir uns fragen, was uns gefällt und was nicht. Wenn wir den Prozess so begleiten, dann verändert sich nicht nur die Technologie, dann verändern wir uns in mannigfaltiger Weise mit.« Einen echten Beitrag zum zivilisatorischen Wandel

9. KI als kollektives Tröstungsprojekt

wird KI erst dann leisten können, wenn wir es schaffen, unser eigenes Mindset zu ändern. Wir benötigen mehr kognitive Emanzipation und weniger kognitive Entlastung. »Schneller, höher, weiter – dieses Denken wird bald nicht mehr reichen. Stattdessen müssen wir lernen, zirkulär zu denken und das Ganze in den Blick zu nehmen. Aber dieses Denken muss etwas Pragmatisches sein, nichts Esoterisches«, fordert Tiffe. KI darf uns bestimmte lästige Dinge abnehmen. Aber Denken (oder Sehnsucht, Neugierde) sollte niemals zu dieser Kategorie der lästigen Dinge gehören. »Dann wird KI großartig sein. Dann lässt sich Intelligenz steigern. Aber ohne verändertes Mindset werden wir das technisch nicht in den Griff bekommen.« Wer die Idee von KI verstehen will, tut also gut daran, sich gedanklich einen neuen Menschentyp mit grundlegend anderen Haltungen und Bedürfnissen vorzustellen, anstatt zeitgenössische Konventionen einfach in die Zukunft zu projizieren. »Man darf die nachrückende Generation nicht in ihrer Urteilskraft unterschätzen«, so Karsten Wendland. Dieses neue Mindset betrifft vor allem das Verständnis und die Einordnung starker KI. Können wir überhaupt in den Dimensionen denken, die notwendig sind, diese Entwicklung verstehend mitzuverfolgen? »Wir werden im weitesten Sinne religiöse Orientierung brauchen, wenn wir weiter an KI arbeiten. Wir können nicht davon ausgehen, dass wir einfach so eine Superintelligenz schaffen können und dann irgendwie gut zurechtkommen«, so der Journalist Hans-Arthur Marsiske. »Wir müssen uns frühzeitig gedanklich mit diesem Konzept beschäftigen. Dazu gehören auch die Entwicklungsdynamik und die Marktdynamik – beides zusammen erzeugt eine Art Wettrüsten. Und wir haben keine Vorstellung, wo das hinlaufen soll.« Verheißungen sind, wie gezeigt, im Kern Glaubenssätze. Deshalb müssen verheißungsfreie Zukunftsnarrative auf einer neuen Ethik basieren. Je nach Grad der Involviertheit in gesellschaftlich-moralische Zusammenhänge wird es progressive ethische Leitlinien brauchen. Der Ethiker Leopold Neuhold stellt fest, dass Ethik »nicht in der Funktion des Antwortgebers, sondern eher des Fragestellers gesehen werden sollte. Ethik muss Fragen stellen, die im technokratischen Modell nicht vorgesehen sind.« Phasen der Ambiguität und der Lösungslosigkeit sind also auszuhalten. Gestaltungsmöglichkeiten wird es immer geben. Auch die Option, auf bestimmte Anwendungen zu verzichten. Es braucht daher noch weit mehr Überlegungen in Richtung einer Zukunftsethik, die vor allem eine Ethik für digitale Technologien im Kontext eines konvivialen Lebens sein muss. Hierbei sollten die Narrative, nach denen im Kontext der großen Transformationsfragen gesucht wird, mit den verheißungsfreien Zukunftsnarrativen über KI verschmelzen. Scheinbare

327

328

Stefan Selke: Technik als Trost

Unvereinbarkeiten können als Antrieb für das Nachdenken über eine bessere Zukunft dienen. Werden stattdessen Digitalisierung, Big Data und KI als einziger Erlösungsweg angepriesen, wertet dies die Gegenwart ab, die es gemeinsam zu gestalten gilt. »Die Gegenwart ist danach nur ein Übergangsstadium auf dem Weg hin zu einer neuen Welt und hat keinen Wert an sich selbst, sondern dieser wird gleichsam aus den Zukunftsvisionen geborgt«, kritisiert Armin Grunwald. »Wie wir zur Erlösung stehen, ob wir sie benötigen, auf sie warten oder die Hoffnung längst begraben haben, bleibt aber eine Sache von Glauben und Unglauben. Die Erlösung durch Technik ist jedenfalls eine Illusion.« (Grunwald 2019: 236) Ein angemessenes Zukunftsnarrativ sollte auf vereinfachende Heilsbotschaften verzichten und stattdessen Sinnfragen zu einem konvivialen Leben stellen. Der Philosoph Dieter Birnbacher schlug bereits in den 1980er-Jahren eine explizite Ethik der Zukunftsverantwortung vor, kurz: Zukunftsethik (»future ethics«). Diese Zukunftsethik müsse über mehrere Generationen denken und Erhaltungsregulative in den Blick nehmen, dazu die Heilighaltung bestimmter Lebensgrundlagen sowie die Tabuisierung und Stigmatisierung schädlicher Nutzungsformen der Welt. »[Denn je] größer das Wissen um mögliche langfristige Schäden und je zahlreicher die Möglichkeiten ihrer Vermeidung, desto größer der Druck der Zukunftsverantwortung auf menschlichem Tun und Unterlassen.« (Birnbacher 1988: 13) Birnbacher konnte dabei noch nicht an die Herausforderungen denken, die mit KI einhergehen. Gleichwohl ist seine Zukunftsethik ein guter Ausgangspunkt für Zukunftsnarrative, die auf Techno-Verheißungen in Form bedingungsloser (im Extremfall pervertierter) Zukunftsorientierung verzichten wollen, sowie ein Plädoyer gegen Gleichgültigkeit: »In jedem Fall endet die Verantwortung für die Zukunft da, wo sich die Wellen, die die Gegenwart in die Zukunft schlägt, einebnen und schließlich ganz verlieren.« (Ebd.: 156) Schlussendlich stellt sich die Frage, wer die Zukunft von KI plant. Dies impliziert Ebenen der Reflexion, die nicht von den KI-Machern bedient werden können, sondern eine eigenständige KI-Ethik benötigen, wie sie etwa Marc Coeckelbergh vorschlägt: »AI ethics is about technological change and its impact on individual lives, but also about transformations in society an in the economy.« (Coeckelbergh 2020: 7) Dieses Buch untersuchte weder Genese noch Funktionsweise von KI, sondern narrative Zuschreibungen in der Form von Verheißungen und Heilsbotschaften. Es wäre an der Zeit, das Terrain der damit verbundenen Fragen für eine öffentlich anschlussfähige Soziologie zurückzuerobern. Verheißungsvol-

9. KI als kollektives Tröstungsprojekt

le KI-Narrative haben zahlreiche Funktionen. Eine letzte soll nun benannt werden: Sie sind auch ein Mittel gegen Gleichgültigkeit, die der Feind jeder Zukunftsorientierung ist. Zukunft kann nur im Handeln liegen. Solange es euphorische Geschichten über die Zukunft gibt, lässt sich streiten. Die damit einhergehenden Deutungskonflikte sind positiv zu bewerten, denn Konflikte sind Regulative, die zeigen, was wichtig ist oder sein sollte. In diesem Sinne sind Verheißungen regulative Ideen, auf die wir auch weiterhin in einer zukunftsoffenen Gesellschaft angewiesen sein werden.

329

Quellen

Abbott, Porter (2008): The Cambridge Introduction to Narrative. Cambridge: Cambridge University Press. Abelson, Robert (1979): Differences Between Belief and Knowledge Systems. In: Cognitive Science, 3/4, S. 355–366. Adorno, Theodor (2003): Minima moralia. Reflexionen aus dem beschädigten Leben. Frankfurt a.M.: Suhrkamp. Albers, Markus (2017): Digitale Erschöpfung. Wie wir die Kontrolle über unser Leben wiedergewinnen. München: Hanser. Alkemeyer, Thomas/Nikolaus Buschmann/Thomas Etzemüller (2019) (Hg.): Gegenwartsdiagnosen. Kulturelle Formen gesellschaftlicher Selbstproblematisierung in der Moderne. Bielefeld: transcript. Alsberg, Paul (1922): Das Menschheitsrätsel. Versuch einer prinzipiellen Lösung. Dresden: Sybillen-Verlag. Amos, Martyn/Page, Ra (2014) (Hg.) Beta Life. Short Stories from an A-Life Future. Manchester: Comma Press. Amsinck, Christian/Berlin, Kerstin Andreae/Baehrens, Heike (2021): Freiheit digital. Die Zehn Gebote in Zeiten des digitalen Wandels. Eine Denkschrift der Evangelischen Kirche in Deutschland. Leipzig: Evangelische Kirche in Deutschland. Anders, Günther (1987): Die Antiquiertheit des Menschen. Band 1: Über die Seele im Zeitalter der zweiten industriellen Revolution. München: C.H. Beck. Anton, Andreas/Schetsche, Michael/Walter, Michael (2014): Konspiration. Soziologie des Verschwörungsdenkens. Wiesbaden: Springer VS. Apt, Wenke/Botthof, Alfons/Bovenschulte, Marc et al. (2019): Künstliche Intelligenz. Berlin: Springer Vieweg. Arendt, Hannah (1972): Crises of the Republic. Lying in Politics. Civil Disobedience. On Violence. Thoughts on Politics and Revolution. New York: Harcourt.

332

Stefan Selke: Technik als Trost

Asimov, Issac (1985): Robots and Empire. London: Harper. Atwood, Margaret (2019): Are Humans Necessay? In: Barbican International (Hg.), AI: More than human, S. 165–173. Augé, Marc (2016): Lob des Fahrrads. München: C.H. Beck. Augé, Marc (2021): Die Zukunft der Erdbewohner. Ein Manifest. Berlin: Matthes & Seitz. Avin, Shahar (2019): Exploring artificial intelligence futures. In: Journal of AI Humanities, 2, S. 171–193. Backhaus, Knut (2001): Das Land der Verheißung. Die Heimat der Glaubenden im Hebräerbrief. In: New Testament Studies, 47/2, S. 171–188. Bader, Verena/Buhr, Daniel (2020): Die Ambivalenz des Neuen. Sozialer Fortschritt durch Plattformen, Blockchain und KI? Bonn: Friedrich Ebert Stiftung. Baecker, Dirk (2007): Studien zur nächsten Gesellschaft. Frankfurt a.M.: Suhrkamp. Bailey, Edward (2002): The Secular Quest for Meaning of Life. Lewiston: Edwin Mellen. Bain, Ken (2004): What The Best College Teachers Do. Cambridge: Harvard University Press. Banks, Stephen/Banks, Anna (1998): The Struggle Over Facts and Fictions. In: Banks, Stephen/Anna Banks (Hg.), Fiction and Social Research: By Fire or Ice. Walnut Creek: Alta Mira Press, S. 11–29. Barbican International (2019) (Hg.): AI: More than human. London: Barbican International Enterprises. Bartelmess, Peter (2020): Die große Zerstörung. Was der digitale Bruch mit unserem Leben macht. Berlin: Dudenverlag. Bartmann, Christoph (2016): Die Rückkehr der Diener. Das neue Bürgertum und sein Personal. München: Hanser. Barrow, John/Tipler, Frank (1986): The Anthropic Cosmological Principle. Oxford: Oxford University Press. Bauer, Thomas (2018): Die Vereindeutigung der Welt. Über den Verlust an Mehrdeutigkeit und Vielfalt. Stuttgart: Reclam. Bauman, Zygmunt (2007): Liquid Times. Living in an Age of Uncertaintiy. Cambridge: Polity. Bauman, Zygmunt (2009): Leben als Konsum. Hamburg: Hamburger Edition. Bayramoglu, Yener/Varela, María do Mar Castro (2021): Post/pandemisches Leben. Eine neue Theorie der Fragilität. Bielefeld: transcript.

Quellen

Beard, Mattew/Longstaff, Simon (2018): Ethical by Design: Principles for Good Technology. Sydney: The Ethics Center. Beck, Ulrich (1990): Praxis als Forschung. Wer die Gesellschaft zum Labor macht, öffnet die Wissenschaft für die Mitbestimmung. In: Forschungsjournal Neue Soziale Bewegungen, 1, S. 12–20. Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt a.M.: Suhrkamp. Becker, Manfred (2019): Das digitale Narrativ. Wer schreibt es und was steht drin? Augsburg: Rainer Hampp Verlag. Beer, David (2016): Metric Power. London: Palgrave Macmillan. Bell, Gordon/Gemmell, Jim (2010): Your Life, uploaded. The digital way to better memory, health, and productivity. New York: Penguin. Berger, Peter L. (1973): Zur Dialektik von Religion und Gesellschaft. Elemente einer soziologischen Theorie. Frankfurt a.M.: Fischer. Bertalanffy, Ludwig von (1949): General System Theory. In: Biologia Generalis, 1, S. 114–129. Biedenkopf, Kurt (1983) (Hg.): Technik und Ingenieure in der Öffentlichkeit. Düsseldorf: VDI-Verlag. Biniok, Peter/Peter Lettkemann (2017) Assistive Gesellschaft. Multidisziplinäre Erkundungen zur Sozialform »Assistenz«. Wiesbaden: Springer VS. Birnbacher, Dieter (1988): Verantwortung für zukünftige Generationen. Stuttgart: Reclam. Birnbacher, Dieter (2006): Natürlichkeit. Berlin: de Gruyter. BITKOM (2015) (Hg.): Kognitive Maschinen – Meilenstein in der Wissensarbeit. Berlin: BITKOM – Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V. Blumenberg, Hans (1987): Die Sorge geht über den Fluss. Frankfurt a.M.: Suhrkamp. Blumenberg, Hans (2006): Beschreibung des Menschen. Beschreibung des Menschen. Frankfurt a.M.: Suhrkamp. Blumenberg, Hans (2015): Schriften zur Technik. Frankfurt a.M.: Suhrkamp. Blumenberg, Hans (2016): Arbeit am Mythos. Frankfurt a.M.: Suhrkamp. Bogalheiro, Manuel (2021): Techno-animism or the Magical Existence of Technical Objects. In: International Journal of Film and Media Arts, 6/1, S. 55–72. Bostrom, Nick (2014): Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press.

333

334

Stefan Selke: Technik als Trost

Boswell, James (1981): Dr. Samuel Johnson. Leben und Meinungen. Zürich: Diogenes. Boyd, Danah/Crawford, Kate (2012): Critical Questions for Big Data. In: Information, Communication & Society, 15, S. 662–679. Brockman, John (2020) (Hg.): Possible Minds. 25 Ways of Looking at AI. New York: Penguin Books. Brown, Wendy (2015): Undoing the Demos: Neoliberalism’s Stealth Revolution. New York: Zone Books. Brundage, Miles (2016): Artificial intelligence and responsible innovation. In: Müller, Vincent (Hg.), Fundamental Issues of Artificial Intelligence. Berlin: Springer, S. 541–552. Brunner, Hans (2015): Mit dem Wandel leben. Eine kritische Betrachtung aktueller Themen unserer Zeit. Baden-Baden: Tectum. Bryman, Alan (1995): Disney and his Worlds. Londons: Routledge. Brynjolfsson, Erik/McAfee, Andrew (2014): The Second Machine Age. Wie die digitale Revolution unser aller Leben verändert. Kulmbach: Börsenmedien AG. Bryson, Joanna (2010): Robots Should be Slaves. In: Wilks, Yorick (Hg.), Close Engagement with Artificial Companions. Download: https://www.researc hgate.net/publication/250333956_Robots_Should_Be_Slaves/link/0c96053 7881b776d91000000/download Btihaj, Ajana (2018) (Hg.): Metric Culture. Ontologies of Self-Tracking Practices. Bingley: Emerald. Budian, Elisa (2020): Bedrohung oder Verheißung? Über Medienangst und Medieneuphorie bei digitalen Spielen. Glückstadt: Verlag Werner Hülsbüch. Bundesregierung (2018a): Eckpunkte der Bundesregierung für eine Strategie Künstliche Intelligenz. Berlin: Bundesregierung Deutschland. Bundesregierung (2018b): Strategie Künstliche Intelligenz der Bundesregierung. Berlin: Bundesregierung Deutschland. Bush, Vannebar (1945): As we may think. In: Atlantic Monthly, 1, S. 101–108. Canetti, Elias (1976): Dramen (darin: Die Befristeten). München: Hanser. Canetti, Elias (2012): Die Blendung: Frankfurt a.M.: Fischer. Caparrós, Martín (2015): Der Hunger. Frankfurt a.M.: Suhrkamp. Castel, Robert/Dörre, Klaus (2009) (Hg.): Prekarität, Abstieg, Ausgrenzung. Die soziale Frage am Beginn des 21. Jahrhunderts. Frankfurt a.M.: Campus.

Quellen

Castro, Daniel/New, Joshua (2016): The Promise of Artificial Intelligence: Center for Data Innovation. https://euagenda.eu/upload/publications/untitle d-53560-ea.pdf Cave, Stephen (2020): AI: Artifcial Immortality and Narratives of Mind Uploading. In: Cave, Stephen/Dihal, Kanta/Dillon, Sarah (Hg.), AI Narratives. A History of Imagiantive Thinking about Intelligent Machines. Oxford: Oxford University Press, S. 309–332. Cave, Stephen/Dihal, Kanta/Dillon, Sarah (2020a) (Hg.): AI Narratives. A History of Imagiantive Thinking about Intelligent Machines. Oxford: Oxford University Press. Cave, Stephen/Dihal, Kanta/Dillon, Sarah (2020b): Introduction: Imagining AI. In: Cave, Stephen/Dihal, Kanta/Dillon, Sarah (Hg.), AI Narratives. A History of Imaginative Thinking about Intelligent Machines. Oxford: Oxford University Press, S. 1–21. Chan, Janet/Johns, Fleur/Moses, Lyria Bennett (2018): Academic Metrics and Positioning Strategies. In: Btihay, Ajana (Hg.), Metric Culture. Ontologies of Self-Tracking Practices. Bingley: Emerald, S. 177–195. Chlopczyk, Jacques/Erlach, Christine (2019): Transforming Organizations. Narrative and Story-Based Approaches. Chur: Springer. Chui, Michael/Harryson, Martin/Manyika, James (2018): Notes from the AI frontier. Applying AI for social good. McKinsey & Company. Notes from the AI frontier. Applying AI for social good. McKinsey & Company. Clough, Peter (2002): Narratives and Fictions in Educational Research. Buckingham: Open University Press. Coeckelbergh, Marc (2020): AI Ethics. Cambridge: MIT Press. Coenen, Christopher (2015): Der alte Traum von mechanischen Menschen. In: Spektrum der Wissenschaft. Spezial: Mensch. Maschine. Visionen, 2/2015, S. 66–73. Coser, Lewis A. (2015): Gierige Institutionen. Soziologische Studien über totales Engagement (im Original: Greedy Institutions. Patterns of Undivided Commitment). Frankfurt a.M.: Suhrkamp. Couldry, Nick/Mejias, Ulisess (2019): The Costs of Connections. How Data is Colonizing Human Life and Appropriating it for Capitalism. Stanford: Standford University Press. Crouch, Colin (2008): Postdemokratie. Frankfurt a.M: Suhrkamp. Crouch, Colin (2011): Das befremdliche Überleben des Neoliberalismus. Berlin: Suhrkamp.

335

336

Stefan Selke: Technik als Trost

Crutzen, Paul/Davis, Mike/Mastrandrea, Michael et al. (2011): Das Raumschiff Erde hat keinen Notausgang. Berlin: edition unseld. Crutzen, Paul J. (2011): Die Geologie der Menschheit. In: o.Hg., Das Raumschiff Erde hat keinen Notausgang. Energie und Politik im Anthropozän. Frankfurt a.M.: Suhrkamp, S. 7–10. Davies, William (2014): The Limits of Neoliberalism. Authority, Souvereignty and the Logic of Competition. Oxford: Sage. Delbrück, Max (1986): Wahrheit und Wirklichkeit. Über die Evolution des Erkennens. Hamburg: Rasch und Röhring. Delvaux, Mady (2017): Plenarsitzungsdokument mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik. Brüssel: Europäisches Parlament. Dennett, Daniel (2021): Turings seltsame Umkehrung der Argumentation. Was uns Darwins Evolutionstheorie über Künstliche Intelligenz verrät. In: Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin, S. 27–36. Dessauer, Friedrich (1956): Streit um die Technik. Frankfurt a.M.: Herder. Deutscher Bundestag (2020): Bericht der Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale. Berlin: Deutscher Bundestag. Diaz-Bone, Rainer (2015): Die »Economics of convention«. Grundlagen und Entwicklungen der neuen französischen Wirtschaftssoziologie. Wiesbaden: Springer VS. Dignum, Virginia (2019): Responsible Artificial Intelligence. How to Develop and Use AI in a Responsible Way. Cham: Springer. Dihal, Kanta (2020): Enslaved Minds: Artificial Intelligence, Slavery, and Revolt. In: Cave, Stephen/Dihal, Kanta/Dillon, Sarah (Hg.), AI Narratives. A History of Imagiantive Thinking about Intelligent Machines. Oxford: Oxford University Press, S. 189–212. Dillon, Sarah/Schaffer-Goddard, Jennifer (2022): What AI researchers read: the role of literature in artificial intelligence research. In: Interdisciplinary Science Reviews, 6, S. 1–28. Dijck, José van (2014): Datafication, dataism and dataveillance. In: Surveillance & Society, 12, Datafication, dataism and dataveillance, 4, S. 197–208. Distelhorst, Lars (2014): Leistung. Das Endstadium einer Ideologie. Bielefeld: transcript. Dober, Benjamin (2019): Ethik des Trostes. Hans Blumenbergs Kritik des Unbegrifflichen. Weilerswist: Velbrück Wissenschaft.

Quellen

Easto, Jessica (2017) (Hg.): Rocket Man. Elon Musk in His Own Words. Chicago: Agate. Eckstein, Wolfgang (2019): Die Codices. Marburg: A Tree & Valley. Eggers, Dave (2013): The Circle. London: Penguin. Eggers, Dave (2021): Every. Köln: Kiepenheuer & Witsch. Ehrenberg, Alain (2004): Das erschöpfte Selbst. Depression und Gesellschaft in der Gegenwart. Frankfurt a.M.: Campus. Ehricke, Krafft (1971): Weltraumtechnik von morgen. In: Technische Möglichkeiten von morgen III. Berlin: ECON, Weltraumtechnik von morgen, S. 42–92. Elias, Norbert (2009): Was ist Soziologie? Weinheim: Juventa. Emanuel, Ezekiel/Emanuel, Linda (1998): The promse of a good death. In: The Lancet, 351, S. 21–29. Enzensberger, Hans Magnus (2000): Das digitale Evangelium. Propheten, Nutznießer, Verächter. In: Glotz, Peter (Hg.), Christoph Martin WielandVorlesungen. Erfurt. Eschbach, Andreas (2020): Eines Menschen Flügel. Köln: Lübbe. EU (2018): High Level Expert Group on AI: Ethik-Leitlinie für eine vertrauenswürdige KI. High Level Expert Group on AI. Brüssel: EU. EU (2021): Regulation on a European Approach for Artificial Intelligence. Brüssel: EU. Fahrenwald, Claudia (2011): Erzählen im Kontext neuer Lernkulturen. Eine bildungstheoretische Analyse im Spannungsfeld von Wissen, Lernen und Subjekt. Wiesbaden: Springer VS. Faßler, Manfred (2009): Nach der Gesellschaft. Infogene Welten – anthropologische Zukünfte. München: Fink. Faulstich, Werner (2000): Medienkulturen. München: Fink. Fenn, Jackie/Mark, Raskino (2008): Masterin the hype cycle. How to choose the right innovation at the right time. Boston, Mass.: Harvard Business Press. Finn, Ed/Kathryn Cramer (2014) (Hg.): Hieroglyph. Stories and Visions from a Better Future. New York: William Morrow. Fischer, Ernst Peter (2010): Hinter dem Horizont. Eine Geschichte der Weltbilder. Berlin: Rowohlt. Fischer, Ernst Peter (2014): Die Verzauberung der Welt. Eine andere Geschichte der Naturwissenschaften. München: Siedler. Floridi, Luciano et al. (2018): AI4People – An Ethical Framwork for a Good AI Society. In: Mind and Machines, 28, S. 689–707. Förstl, Hans (2012): Theory of Mind. Anfänge und Ausläufer. Berlin: Springer.

337

338

Stefan Selke: Technik als Trost

Frank, Georg (1998): Ökonomie der Aufmerksamkeit. Ein Entwurf. München: Carl Hanser Verlag. Frank, Jeremy (2019): Artificial Intelligence: Powering Human Exploration of the Moon and Mars, S. 1–9. Download: https://arxiv.org/pdf/1910.03014.p df Frankfurt, Harry G. (2016): Ungleichheit. Warum wir nicht alle gleich viel haben müssen. Frankfurt a.M.: Suhrkamp. Fresco, Jacque (2007): Designing the Future. Florida: Osmora Publishing. Freska, Christian (2021): KI und Kognition. In: Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin, S. 129–144. Freyer, Hans (2000): Die politische Insel. Eine Geschichte der Utopien von Platon bis zur Gegenwart. Wien: Karolinger. Fromm, Erich (1993): Die Furcht vor der Freiheit (darin: Flucht ins Konformistische). München: dtv. Fuchte, Julia (2019): Utopische Szenarien als Beitrag zu einer transformativen Bildung und Wissenschaft. In: Berr, Karsten/Franz, Jürgen (Hg.), Zukunft gestalten – Digitalisierung, Künstliche Intelligenz (KI) und Philosophie. Berlin: Frank & Timme, S. 225–234. Gadamer, Hans-Georg (2003): Über die Verborgenheit der Gesundheit. Frankfurt a.M.: Suhrkamp. Game, Ann/Metcalfe, Andrew (1996): Passionate Sociology. London: Sage. Garcia-Gomez, Juan (2021): Basic principles and concept design of a realtime clinical decision support system for managing medical emergencies on missions to Mars. Basic principles and concept design of a real-time clinical decision support system for managing medical emergencies on missions to Mars, Download: https://www.researchgate.net/publication/ 344662822_Basic_principles_and_concept_design_of_a_real-time_clinica l_decision_support_system_for_autonomous_medical_care_on_missions _to_Mars_based_on_adaptive_deep_learning. Garcia, Tristan (2017): Das intensive Leben. Eine moderne Obsession. Frankfurt a.M.: Suhrkamp. Gehlen, Arnold (1957): Die Seele im technischen Zeitalter. Sozialpsychologische Probleme in der industriellen Gesellschaft. Berlin: Rowohlt. Geiselberger, Heinrich (2017): Die große Regression. Eine internationale Debatte über die geistige Situation unserer Zeit. Berlin: Suhrkamp. Geißler, Karlheinz (2012): Lob der Pause. Von der Vielfalt der Zeiten und der Poesie des Augenblicks. München: oekom.

Quellen

Gelernter, David (2016): Gezeiten des Geistes. Die Vermessung unseres Bewusstseins. Berlin: Ullstein. Georges, Karoline (2020): Totalbeton. Zürich: Secession Verlag. Geraci, Robert (2016): Technology and Religion. In: Brainbridge, William/Roco, Michail (Hg.), Handbook of Science and Technology Convergence. Switzerland: Springer Reference, S. 907–917. Geraci, Robert (2008): Apoalyptic AI: Religion and the Promise of Artificial Intelligence. In: Journal of the American Academy of Religion, 76/1, S. 138–166. Giddens, Anthony (1996): Leben in der posttraditionalen Gesellschaft. In: Beck, Ulrich/Scott, Lash (Hg.), Reflexive Modernisierung. Eine Kontroverse. Frankfurt a.M.: Suhrkamp. Gould, Stephen (2000): Ein Dinosaurier im Heuhaufen. Streifzüge durch die Naturgeschichte. Frankfurt a.M.: Fischer. Graeber, David (2013): Direkte Aktion. Ein Handbuch. Hamburg: Nautilus. Gransche, Bruno (2015): Vorausschauendes Denken. Philosophie und Zukunftsforschung jenseits von Statistik und Kalkül. Bielefeld: transcript. Gransche, Bruno (2016): The Oracle of Big Data. In: The International Review of Information Ethics, 24, S. 55–62. Grimes, Ronald L. (2006): Rite out of Place. Ritual, Media, and the Arts. Oxford: Oxford University Press. Grimm, Petra/Keber, Tobias/Zöllner, Oliver (2019) (Hg.): Digitale Ethik. Leben in vernetzten Welten. Stuttgart: Reclam. Grünewald, Stephan (2013): Die erschöpfte Gesellschaft. Warum Deutschland neu träumen muss. Freiburg i.Br.: Herder. Grunwald, Armin (2019): Der unterlegene Mensch. Die Zukunft der Menschheit im Angesicht von Algorithmen, künstlicher Intelligenz und Robotern. München: Riva Verlag. Gumbrecht, Hans Ulrich (2018): Weltgeist im Silicon Valley. Leben und Denken im Zukunftsmodus. Zürich: NZZ Libro. Guschker (heute: Selke), Stefan (2002): Lebenswelt und Bilderwirklichkeit. Eine soziologische Studie über die Rolle privater Fotografie für die Sinnhaftigkeit des eigenen Lebens. Frankfurt a.M.: Lang. Gutmann, Mathias/Haag, Marie-Claire/Wadephul, Christian (2021): Verheißung, Verdammung oder einfach ein Selbstmissverständnis? Sprachkritische Überlegungen zum Umgang mit KI und ihren Beschreibungen. In: Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz – Die große Verheißung. Berlin: xenomoi Verlag, S. 221–240.

339

340

Stefan Selke: Technik als Trost

Habermas, Jürgen (1987): Technik und Wissenschaft als ›Ideologie‹. Frankfurt a.M.: Suhrkamp. Habermas, Jürgen (1988): Theorie des kommunikativen Handelns. Zur Kritik des kommunikativen Handelns. Band 2. Frankfurt a.M.: Suhrkamp. Haefner, Klaus (2000): Mensch und Computer im Jahr 2000. Ökonomie und Politik für eine human computerisierte Gesellschaft. Basel: Birkhäuser. Hagemeister, Michael (2003): Die Eroberung des Raums und die Beherrschung der Zeit. Utopische, apokalyptische und magisch-okkulte Elemente in den Zukunftsentwürfen der Sowjetzeit. In: Murašov, Jurij/Witte, Georg (Hg.), Musen der Macht. Medien in der sowjetischen Kultur der 20er und 30er Jahre. München: Fink, S. 259–286. Han, Byung-Chul (2013): Digitale Rationalität und das Ende des kommunikativen Handels. Frankfurt a.M.: Suhrkamp. Hänggi, Marcel (2015): Fortschrittsgeschichten. Für einen guten Umgang mit Technik. Frankfurt a.M.: Fischer. Hannig, Theresa (2017): Die Optimierer. Köln: Bastei-Lübbe. Hannig, Theresa (2019): Die Unvollkommenen. Köln: Bastei-Lübbe. Hannig, Theresa (2022): Pantopia. Berlin: Fischer. Hanusch, Frederic/Leggewie, Claus/Meyer, Erik Authors (2021): Planetar Denken. Ein Einstieg. Bielefeld: transcript. Harari, Yuval Noah (2017): Homo Deus. A Brief History of Tomorrow. London: Penguin. Harman, Willis/Rheingold, Howard (1984): Higher Creativity. Liberating the Unconscious for Breakthrough Insights. Los Angeles: J.P. Tarcher. Haring-Mosbacher, Sabine (2008): Verheißung und Erlösung. Religion und ihre weltlichen Ersatzbildungen in Politik und Wissenschaft. Wien: Passagen. Hart, Jack (2011): Storycraft. The Complete Guide to Writing Narrative Nonfiction. Chicago: University of Chicago Press. Hauswald, Rico (2021): Digitale Orakel? Wie Künstliche Intelligenz unser System epistemischer Arbeitsteilung verändert. In: Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin, S. 359–377. Haux, Reinhold/Gahl, Klaus/Jipp, Meike et al. (2020) Zusammenwirken menschlicher und künstlicher Intelligenz. Wiesbaden: Springer VS. Heidegger, Martin (1983): Die Herkunft der Kunst und die Bestimmung des Denkens. Frankfurt a.M.: Klostermann.

Quellen

Heil, Reinhard/Wadephul, Christian/Wendland, Karsten (2019): Robotik und die Zuschreibung von Bewusstsein. In: Füllig, Hanna/Meier, Gernot (Hg.), Die digitale Revolution und ihre Kinder. Brennpunkte digitaler Ethik. Evangelische Zentralstelle für Weltanschauungsfragen, Robotik und die Zuschreibung von Bewusstsein, S. 27–35. Heinemann, Stefan (2019): Nur noch künstliche Intelligenz kann uns heilen? Künstliche Intelligenz in der Medizin als Deus ex machina, Grands recits nouveaux oder Supertool? In: Der Urologe, 58 (9), S. 1007–1015. Heinrichs, Hans-Jürgen (1996): Erzählte Welt. Lesarten der Wirklichkeit in Geschichte, Kunst und Wissenschaft. Reinbek b. Hamburg: Rowohlt. Hennig, Martin (2022): »Das Weibliche ist oft das Abweichende«. Über die Repräsentation von künstlicher Intelligenz im Film. In: mediendiskurs, 100, S. 44–47. Hermann, Bernd (2019): Die Seifenblase um uns herum. Die Entdeckung der »Umwelt«. In: Voigt, Beatrice (Hg.), Vom Werden. Entwicklungsdynamiken in Natur und Gesellschaft. Perspektiven einer zukunftsoffenen Wertekultur im Dialog von Wissenschaft, Kunst und Bildung. Hannover: Buchdruck Werkstätten Hannover, S. 114–121. Ho Lee, Choong/Yoon, Hyung-Jin (2017): Medical big data. Promises and challenges. In: Kidney Research and Clinical Practice, 36/1, S. 3–11. Høeg, Peter (1999): Der Plan von der Abschaffung des Dunkels. Reinbek b. Hamburg: Rowohlt. Hoffrage, Ulrich (2019): Digitalisierung: Verheißung und Verhängnis. In: ALGORA, 5/6/7, S. 24–28. Hofstetter, Yvonne (2014): Sie wissen alles. Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen. München: Bertelsmann. Hofstetter, Yvonne (2018): Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt. München: Penguin. Illich, Ivan (1975): Selbstbegrenzung. Eine politische Kritik der Technik. Reinbek b. Hamburg: Rowohlt. Illich, Ivan (2009): Tools for Conviviality. London: Boyars Publishers. Iser, Wolfgang (1980): The Act of Reading. A Theory of Aesthetic Response. Baltimore: Johns Hopkins University Press. Ishiguro, Kazuo (2021): Klara und die Sonne. München: Blessing. Jansen, Jonas (2017): Gefährliche Innovation? Elon Musk warnt vor 3. Weltkrieg durch künstliche Intelligenz. https://www.faz.net/aktuell/wirtschaft/kue

341

342

Stefan Selke: Technik als Trost

nstliche-intelligenz/elon-musk-tesla-chef-warnt-vor-kuenstlicher-intelli genz-15182958.html (12.07.2022). Jasanoff, Sheila (2015): Future imperfect. Science, technology, and the imaginations of modernity. In: Jasanoff, Sheila/Kim, Sang-Hyun (Hg.), Dreamscapes of modernity. Sociotechnical imaginaries and the fabrication of power. Chicago: Chicago University Press, S. 1–33. Jenner, Gero (2018): Digitale Revolution: Verheißung oder Bedrohung? https:/ /www.gerojenner.com/wp/wp-content/uploads/2018/04/Glanz-und-Sch atten-menschlichen-Fortschritts.pdf. Jensen, Caspar (2013): Techo-animism in Japan. Shinto Cosmograms, Actornetwork Theory, and the Enabling Powers of Non-human Agencies. In: Theory, Culture, and Society, 30/2, S. 84–115. Joas, Hans (2017): Die Macht des Heiligen. Eine Alternative zur Geschichte von der Entzauberung. Berlin: Suhrkamp. Johnson, Deborah/Verdicchio, Mario (2017): Reframing AI discources. In: Minds + Machines, 27/4, S. 575–590. Jonas, Hans (1984): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Frankfurt a.M.: Suhrkamp. Jünger, Friedrich Georg (2020): Die Perfektion der Technik. Frankfurt a.M.: Vittorio Klostermann. Kafka, Franz (1996): Erzählungen und andere ausgewählte Prosa. Frankfurt a.M.: Fischer. Kaku, Michio (2018): The Future for Humanity. Terraforming Mars, Interstellar Travel, Immortality and Our Destiny beyond Earth. St. Ives: Allen Lane. Kaminski, Andreas (2010): Technik als Erwartung. Grundzüge einer allgemeinen Technikphilosophie. Bielefeld: transcript. Kant, Immanuel (2003): Die Religion innerhalb der Grenzen der bloßen Vernunft. Hamburg: Felix Meiner Verlag. Kapp, Ernst (2015): Grundlinien der Philosophie der Technik. Zur Entstehungsgeschichte der Kultur als neuen Gesichtspunkten. Hamburg: Felix Meiner Verlag. Kastrop, Christian/Ponattu, Dominic (2021): Künstliche Intelligenz muss dem Gemeinwohl dienen. In: Datenschutz und Datensicherheit, 45, S. 434–437. Kaube, Jürgen (2007): Otto Normalabweicher. Der Aufstieg der Minderheiten. Springe: zu Klampen. Kaufmann, Roland/Navarini, Alexander (2020): Künstliche Intelligenz – Es kommt darauf an, was wir daraus machen. In: Der Hautarzt. Zeitschrift für Dermatologie, Venerologie und verwandte Gebiete, 71, S. 657–659.

Quellen

Kehl, Christoph/Coenen, Christopher (2016): Technologien und Visionen der Mensch-Maschine-Entgrenzung. Sachstandsbericht zum TA-Projekct ›Mensch-Maschine-Entgrenzungen: zwischen künstlicher Intelligenz und Human Enhancement‹. Berlin: TAB. Kelly, Kevin (1999): New Rules for the Economy. 10 Radical Strategies for a Connected World. http://kk.org/mt-files/books-mt/KevinKelly-NewRules-wit hads.pdf Kelly, Kevin (2017): The Myth of a Superhuman AI. https://www.wired.com/20 17/04/the-myth-of-a-superhuman-ai/ Keyes, Kenneth/Fresco, Jacque (1969): Looking Forward. New York: South Brunswick & A.S. Barnes. Kimura, Takeshi (2017): Robotics and AI in the sociology of religion. In: Social Compass, 64, S. 6–22. Klie, Thomas (2014): Zwischen Verheißung und Schreckensszenario. Über Technik für ein selbständiges Leben im Alter. In: Dr. med. Mabuse, 1/2, S. 30–33. Kling, Marc-Uwe (2017): Qualityland. Berlin: Ullstein. Knoblauch, Hubert (2014): Wissenssoziologie. Konstanz: UVK. Knoblauch, Hubert (2019): Gesellschaftstheorien, Gesellschaftsdiagnosen und Zeitdoagnosen. Über einige Gattungen der soziologischen Theoriebildung. In: Alkemeyer, Thomas/Buschmann, Niklolaus/Etzemüller, Thomas (Hg.), Gegenwartsdiagnosen. Kulturelle Formen gesellschaftlicher Selbstproblematisierung in der Moderne. Bielefeld: transcript, S. 217–234. Knorr-Cetina, Karin (1998): Sozialität mit Objekten. Soziale Beziehungen in posttradionellen Gesellschaften. In: Rammert, Werner (Hg.), Technik und Sozialtheorie. Frankfurt a.M.: Campus, S. 83–120. Kohle, Chinmay/Hande, Asika (2018): Artificial Evil Intelligence and Ethical Approaches in Development. In: International Research Journal of Engineering and Technology, 5/10, S. 1581–1584. Koschorke, Albrecht (2012): Wahrheit und Erfindung. Frankfurt a.M.: Fischer. Krämer, Hannes (2019): Zukunftspraktiken. Praxeologische Formanalyse des Kommenden. In: Alkemeyer, Thomas/Buschmann, Nikolaus/Etzemüller, Thomas (Hg.), Gegenwartsdiagnosen. Kulturelle Formen gesellschaftlicher Selbstproblematisierung in der Moderne. Bielefeld: transcript, S. 81–102. Krämer, Sybille (2021): Nüchtern bleiben! Künstliche Intelligenz jenseits des Mythos. In: Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin, S. 335–357.

343

344

Stefan Selke: Technik als Trost

Kreutzer, Ralf/Land, Karl-Heinz (2015): Dematerialisierung. Die Neuverteilung der Welt in Zeiten des digitalen Darwinismus. Köln: FutureVisionPress. Krüger, Oliver (2019): Virtualität und Unsterblichkeit. Gott, Evolution und die Singularität im Post- und Transhumanismus. Freiburg i.Br.: Rombach Wissenschaft. Kübler, Hans-Dieter (2009): Mythos Wissensgesellschaft. Gesellschaftlicher Wandel zwischen Information, Medien und Wissen. Wiesbaden: Springer VS. Kurzweil, Raymond (2005): The Singulrity is near. New York: Penguin. LaGrandeur, Kevin (2020): Artificial Slaves in the Renaissance and the Dangers of Independent Innovation. In: Cave, Stephen/Dihal, Kanta/Dillon, Sarah (Hg.), AI Narratives. A History of Imagiantive Thinking about Intelligent Machines. Oxford: Oxford University Press, S. 95–118. Landmann, Michael (1962): De homine. Der Mensch im Spiegel seines Gedankens. München: Karl Alber. Latour, Bruno (2010): Eine neue Soziologie für eine neue Gesellschaft. Frankfurt a.M.: Suhrkamp. Latour, Bruno (2017): Kampf um Gaia. Acht Vorträge über das neue Klimaregime. Frankfurt a.M.: Suhrkamp. Latour, Bruno (2018): Das terrestrische Manifest. Berlin: Suhrkamp. Latour, Bruno/Peter Weibel (2020) (Hg.): Critical Zones. The Science and Politics of Landing on Earth. Karlsruhe: ZKM. Latzer, Michael (2021): Digitale Dreifaltigkeit – kontrollierbare Evolution – Alltagsreligion. Kennzeichen des soziotechnischen Transformationsprozesses der Digitalisierung. Working Paper – Institut für Kommunikationswissenschaft und Medienforschung. Universität Zürich. Download: https: //papers.ssrn.com/sol3/papers.cfm?abstract_id=3854509 (20.03.2022). Lawson, Thomas/McCauley, Robert (1993): Rethinking Religion. Connecting Cognition and Culture. Cambridge: Cambridge University Press. Leavy, Patricia (2013): Fiction as a Research Practice. Short Stories, Novellas, and Novels. Walnut Creek, CA: Left Coast Press. Lee, Kai-Fu/Chen, Quifan (2021): KI 2041. Zehn Zukunftsvisionen. Frankfurt/ New York: Campus. Lenzen, Manuela (2020): Künstliche Intelligenz. Fakten, Chancen, Risiken. München: C.H. Beck. Lepenies, Wolf (1985): Die drei Kulturen. Soziologie zwischen Literatur und Wissenschaft. München: Hanser.

Quellen

Lévy, Pierre (1997): Die kollektive Intelligenz. Eine Anthropologie des Cyberspace. Mannheim: Bollmann. Link, Jürgen (2013): Normale Krisen? Normalismus und die Krise der Gegenwart. Konstanz: Konstanz University Press. Loizides, Georgios (2004): Henry Ford’s Project in Human Engineering. The Sociological Department of the Ford Motor Company (1913–1941). Lewiston: The Edwin Mellen Press. Lovelock, James (1991): Das Gaia-Prinzip. Die Biographie unseres Planeten. Zürich: Artemis & Winkler. Lovelock, James (2020): Novozän. Das kommende Zeitalter der Hyperintelligenz. München: C.H. Beck. Lovink, Geert (2019): Digitaler Nihilismus. Thesen zur dunklen Seite der Plattformen. Bielefeld: transcript. Luckmann, Thomas (1967): The Invisible Religion. New York: MacMillan. Lufthansa (2020): Künstliche Intelligenz. Norderstadt: Lufthansa Industry Solutions. Luhmann, Niklas (1991): Copierte Existenz und Karriere. Zur Herstellung von Individualität. In: Beck, Ulrich/Beck-Gernsheim, Elisabeth (Hg.), Riskante Freiheiten. Individualisierung in modernen Gesellschaften. Frankfurt a.M.: Suhrkamp, S. 191–200. Luhmann, Niklas (1998): Die Gesellschaft der Gesellschaft. Frankfurt a.M.: Suhrkamp. Lünich, Marco (2022): Der Glaube an Big Data. Eine Analyse gesellschaftlicher Überzeugungen von Erkenntnis- und Nutzengewinnen aus digitalen Daten. Wiesbaden: Springer VS. Lupton, Deborah (2016): The Quantified Self. Cambridge: Polity Press. Lüdke, Christian/Lüdke, Kerstin (2020). Das Böse in der Welt. In: Profile des Bösen. Springer, Wiesbaden. Lutz, Ronald (2014): Soziale Erschöpfung. Kulturelle Kontexte sozialer Ungleichheit. Weinheim und Basel: Beltz Juventa. Lynas, Mark (2020): Our final warning. Six degress of climare emergency. London: Harper. Mak, Geert (2014): Amerika! Auf der Suche nach dem Land der unbegrenzten Möglichkeiten. München: Pantheon. Manguel, Alberto (2015): Eine Geschichte der Neugierde. München: Fischer. Marcuse, Herbert (2004): Der eindimensionale Mensch. Studien zur Ideologie der fortgeschrittenen Industriegesellschaft. München: Dt. Taschenbuchverlag.

345

346

Stefan Selke: Technik als Trost

Marcuse, Ludwig (1975): Nachruf auf Ludwig Marcuse. Zürich: Diogenes. Maresch, Rudolf (2001): Der Hype ist vorbei. Das Internet ist in der Realität angekommen. In: Merz – Medien und Erziehung (Schwerpunkt: Medienutopien – gestern und heute), 45/4, S. 235–242. Massaro, Toni/Norton, Helen (2018): Artificial Intelligence and the First Amendment. In: Barfield, Woodrow/Ugo Pagallo (Hg.), Research Handbook on the Law of Artificial Inteligence. Cheltenham: Edward Elgar, S. 353–374. Matthes, Jörg (2014): Framing. Wiesbaden: Springer VS. Matthew, Williams (2019): AI Case Studies: Potential for Human Health, Space Exploration and Colonisation and a Proposed Superimposition of the Kubler-Ross Change Curve on the Hype Cycle. In: Studia Humana, 8/1, S. 3–18. Mau, Steffen (2017): Das metrische Wir. Über die Quantifizierung des Sozialen. Frankfurt a.M.: Suhrkamp. Mauss, Marcel (1974): Soziologie und Anthropologie. Band 1: Theorie der Magie. Soziale Morphologie. München: Hanser. Mazzucato, Mariana (2018): The Value of Everything. London: Public Affairs. Mersch, Dieter (2021): Vorbemerkungen zu einer Kritik algorithmischer Rationalität. Denken, Kreativität und Künstliche Intelligenz. In: Strasser, Anna/ Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin, S. 305–323. Mierzwa, Roland (2021): Digitalisierung, Ökologie und das Gute Leben. Eine Ethik für digitale Technologien. Baden-Baden: Tectum. Mills, Wright C. (1959): The Sociological Imagination. Oxford: Oxford University Press. Mills, Wright C. (1963): Kritik der soziologischen Denkweise. Neuwied am Rhein: Luchterhand. Minevich, Mark (2021): How the EU Is Leading The Way In AI Powered Social Innovation. https://www.forbes.com/sites/markminevich/2021/01/18/ho w-the-eu-is-leading-the-way-in-ai-powered-social-innovation/?sh=2428 b66a6bb7 (22.04.2022). Minois, Georges (2002): Die Geschichte der Prophezeihungen. Orakel. Utopien, Prognosen. Düsseldorf: Patmos. Miranda, Luis de (2019): Künstliche Intelligenz & Robotik in 30 Sekunden. Visionen, Herausforderungen & Risiken. Kerkdriel: Librero. Moravec, Hans (1990): Mind children. Der Wettlauf zwischen menschlicher und künstlicher Intelligenz. Hamburg: Hoffmann und Campe.

Quellen

Morgan, Mary/Wise, Nortin (2017): Narrative Science and Narrative Knowing. In: Studies in History and Philosopphy of Science, 62, S. 1–5. Mosco, Vincent (2017): Becoming Digital. London: Emerald. Mozorov, Evgeny (2013): Smarte neue Welt. Digitale Technik und die Freiheit des Menschen. München: Blessing. Müller, Christoph/Nievergelt, Bernhard (1996): Technikkritik der Moderne. Empirische Technikereignisse als Herausforderung an die Sozialwissenschaft. Opladen: Leske + Budrich. Müller, Michael (2019): Developing the Future Stories of Companies: Open and Closed Story Worlds. In: Chlopczyk, Jacques/Erlach, Christine (Hg.), Transforming Organizations. Narrative and Story-Based Approaches. Springer Nature: Schweiz, S. 75–88. Müller, Oliver (2010): Zwischen Mensch und Maschine. Vom Glück und Unglück des Homo Faber. Berlin: Suhrkamp. Müller-Funk, Wolfgang (2008): Die Kultur und ihre Narrative. Eine Einführung. Wiesbaden: Springer. Mumford, Lewis (2010): Technics and Civilization. University of Chicago Press. Nagel, Alexander, Kenneth (2021): Corona und andere Weltuntergänge. Apokalyptische Krisenhermeneutik in der modernen Gesellschaft. Bielefeld: transcript. Nassehi, Armin (2019): Muster. Theorie der digitalen Gesellschaft. München: C.H. Beck. Nassehi, Armin (2021): Unbehagen. Theorie der überforderten Gesellschaft. München: C.H. Beck. Neckel, Sighard/Wagner, Greta (2013) (Hg.): Leistung und Erschöpfung. Burnout in der Wettbewerbsgesellschaft. Frankfurt a.M.: Suhrkamp. Nesas, Issa/Fesq, Lorraine/Volpe, Richard (2021): Autonomy for Space Robots: Past, Present, and Future. In: Current Robotics Reports, 2, S. 251–263. Noble, David (1997): The Religion of Technology. New York: Knopf. Nozick, Robert (2006): Anarchie, Staat, Utopia. München: Olzog. O’Hara, Kieron/Tuffield, Mischa/Shadbolt, Nigel (2009): Lifelogging: Privacy and Empowerment with Memories for Life. In: Identity the Information Society, Jg. 2009, 1/1. http://eprints.soton.ac.uk/267123/ OECD (2019): Empfehlung des Rats zu künstlicher Intelligenz (Recommendation of the Council on Artificial Intelligence). Paris: OECD. Olsberg, Karl (2016): Mirror. Berlin: Aufbau Verlag. Ortega Y Gasset, José (1952): Der Aufstand der Massen. Stuttgart: Deutsche Verlagsanstalt.

347

348

Stefan Selke: Technik als Trost

Otte, Ralf (2021): Allgemeinbildung Künstliche Intelligenz. Risiko und Chance für Dummies. Weinheim: Wiley-VCH. Parvianen, Jaana/Coeckelbergh, Marc (2021): The political choreography of the sophia robot. Beyond robot rights and citizenship to political performances for the social robotoc market. In: AI & Society, 36/2, S. 715–726. Passig, Kathrin (2013): Standardsituationen der Technikkritik. Berlin: Suhrkamp. Peters, Burkhard (2007): Der Sinn von Öffentlichkeit. Frankfurt a.M.: Suhrkamp. Pirsig, Robert (2017): Zen und die Kunst, ein Motorrad zu warten. Frankfurt a.M.: Fischer Taschenbuchverlag. Plessner, Helmuth (1976): Die Frage nach der Conditio humana. Aufsätze zur philosophischen Anthropologie. Frankfurt a.M.: Suhrkamp. Precht, Richard David (2020): Jäger, Hirten, Kritiker. Eine Utopie für die digitale Gesellschaft. München: Goldmann. Priesner, Claus/Annette Diefelnthal/Gerda Gensberger (1998): Alchemie. In: Lexikon einer hermeneutischen Wissenschaft. München: C.H. Beck. Quartier, Thomas (2016): Das Kloster im Leben. Monastische Spiritualität als Provokation. Kevelaer: Butzon & Bercker. Quinn, Daniel (1992): Ismael. München: Goldmann. Ramge, Thomas (2018): Mensch und Maschine. Wie Künstliche Inteligenz und Roboter unser Leben verändern. Stuttgart: Reclam. Rauch, Jonathan (2021): The Constitution of Knowledge. A Defense of truth. Washington, D.C.: Brookings Institution Press. Reder, Bernd/Freimark, Alexander Jake/Holzwart, Gerhard et al. (2020): Studie Machine Learning. München: IDG Business Media GmbH. Reuter, Timo (2019): Warten. Eine verlernte Kunst. Hamburg: Westend. Rief, W. (2020): Die Rolle von Placebo- und Nocebomechanismen bei depressiven Erkrankungen und ihrer Therapie. In: Der Nervenarzt, 91 (8), S. 675–683. Robertson, Jennifer (2019): Robots and Religiosity: Japanese Perspectives on Spirituality and Science. In: Barbican International (Hg.), AI: More than human. London: Barbican International Enterprises, S. 39–43. Rohner, Sandra/Subbe, Julian/Wessels, Jan/Zinke, Guido (2018): Gute KI, böse KI? Streitgespräch zur Künstlichen Intelligenz. In: Wittpahl, Volker (Hg.), Institut für Innovation und Technik, Berlin. Roof, Wade Clark (1993): A Generation of Seekers. The Spiritual Journeys of the Baby Boom Generation. San Fransisco: Harper.

Quellen

Ropohl, Günter (2009): Allgemeine Technologie. Eine Systemtheorie der Technik. Karlsruhe: Universitätsverlag Karlsruhe. Ropohl, Günter (1979): Eine Systemtheorie der Technik. München: Hanser. Rosa, Hartmut (2014): Beschleunigung und Entfremdung. Frankfurt a.M.: Suhrkamp. Royal Society,(2018): Portrayals and perceptions of AI and why they matter. London: The Royal Society. Rude, Matthias (2013): Antispeziesismus. Die Befreiung von Mensch und Tier in der Tierrechtsbewegung und der Linken. Schmetterling Verlag: Stuttgart. Samochowiec, Jakub (2020): Future Skills – Vier Szenarien für morgen und was man dafür können muss. Zürich: GDI Gottlieb Duttweiler Institute. Schaper-Rinkel, Petra (2015): Antizipation von Zukunft zwischen Verwissenschaftlichung und Storytelling. In: Azzouni, Safia (Hg.), Erzählung und Geltung. Wissenschaft zwischen Autorenschaft und Autorität. Weilerswist: Velbrück, S. 363–384. Schätzing, Frank (2018): Die Tyrannei des Schmetterlings. Köln: Kiepenheuer & Witsch. Schmidbauer, Wolfgang (2015): Enzyklopädie der dummen Dinge. München: oekom. Schneider, Peter (2018): Goldrausch im All. Wie Elon Musk, Richard Branson und Jeff Bezos den Weltraum erobern. München: FBV. Schneidewind, Uwe (2008): ›Shifting Baselines‹ – zum schleichenden Wandel in stürmischen Zeiten. http://oops.uni-oldenburg.de/860/1/ur185.pdf. Scholtz, Christopher (2008): Alltag mit künstlichen Wesen. Theologische Implikationen eines Lebens mit subjektsimulierenden Maschinen am Beispiel des Unterhaltungsroboters Aibo. Göttingen: Vandenhoeck & Ruprecht. Scholz, Roland/Beckedahl, Markus/Noller, Stephan et al. (2021) (Hg.): Verantwortungvoller Umgang mit digitalen Daten – Orientierungen eines transdisziplinären Prozesses. Baden-Baden: Nomos. Schönemann, Heide (1992): Fritz Lang. Filmbilder, Vorbilder. Berlin: Edition Hentrich. Schroer, Markus (2006): Selbstthematierung. Von der (Er-)Findung des Selbst und der Suche nach Aufmerksamkeit. In: Burkhart, Günter (Hg.), Die Ausweitung der Bekenntniskultur – neue Formen der Selbstthematisierung? Wiesbaden: Springer VS, S. 41–72.

349

350

Stefan Selke: Technik als Trost

Schweiger, Wolfgang/Fahr, Andrea (2013) (Hg.): Handbuch Medienwirkungsforschung. Wiesbaden: Springer VS. Seel, Martin (2009): Theorien. Frankfurt a.M.: Fischer. Seele, Peter (2020): Künstliche Intelligenz und die Maschinisierung des Menschen. Köln: Halem. Seiffert-Brockmann, Jens (2015): Vertrauen in der Mediengesellschaft. Wiesbaden: Springer VS. Selke, Stefan (2013): Der vermessene Mensch. Quantifiziertes Leben im Zeitalter digitaler Erinnerungsmedien. In: Tsantsa. Zeitschrift der Schweizerischen Ethnologischen Gesellschaft (SEG)., Vol. 18, S. 77–85. Selke, Stefan (2014): Lifelogging. Wie die digitale Selbstvermessung unsere Gesellschaft verändert. Berlin: ECON. Selke, Stefan (2015): Rationale Diskriminierung. Neuordnung des Sozialen durch Lifelogging. Prävention. In: Zeitschrift für Gesundheitsförderung, 3, S. 69–73. Selke, Stefan (2016a): Ausweitung der Kampfzone. Rationale Diskriminierung durch Lifelogging und die neue Taxonomie des Sozialen. In: Selke, Stefan (Hg.), Lifelogging. Digitale Selbstvermessung und Lebensprotokollierung zwischen disruptiver Technologie und kulturellem Wandel. Wiesbaden: Springer VS, S. 309–339. Selke, Stefan (2016b) (Hg.): Lifelogging. Digital self-measurement between disruptive technology and cultural change. Wiesbaden: Springer VS. Selke, Stefan (2017): Precious People. How Digital Alchemy Transforms us into Vulnerable Consumers. In: Bala, Christian/Schuldzinski, Wolfgang (Hg.), The 21st Century Consumer: Vulnerable, Responsible, Transparent? Proceedings of the International Conference on Consumer Research (ICCR) 2016. Düsseldorf, S. 113–125. Selke, Stefan (2018): Assistive Kolonialisierung. Vom ›Vita Activa‹ zur ›Vita Assistiva‹. In: Biniok, Peter/Lettkemann, Peter (Hg.), Assistive Gesellschaft. Multidisziplinäre Erkundungen zur Sozialform ›Assistenz‹. Wiesbaden: Springer VS, S. 99–119. Selke, Stefan (2019): Homo Narrans im Zeitalter von Big Data und KI. Zum Verlust biografischer Imaginationsfähigkeit im Delirium der Rationalität. Der künstliche Mensch. Menschenbilder im 21. Jahrhundert. In: Latenz. Journal für Philosophie und Gesellschaft, Arbeit und Technik, Kunst und Kultur, 4, S. 15–27. Selke, Stefan (2020a): Erzählerische Wahrheit im Zeitalter von Big Data. Zwischen Delirium der Rationalität und Verlust biografischer Ima-

Quellen

ginationsfähigkeit. In: Wiegerling, Klaus/Nerurkar, Michael/Wadephul, Christian (Hg.), Datafizierung und Big Data. Ethische, anthropologische und wissenschaftstheoretische Perspeketiven. Wiesbaden: Springer VS, S. 229–249. Selke, Stefan (2020b): Der editierte Mensch. Künstliche Intelligenz als Kurator von Erinnerung. Ein postdisziplinärer Essay. In: MerzWissenschaft, 12/2020, S. 99–109. Selke, Stefan (2020c): Einladung zur öffentlichen Soziologie. Eine postdisziplinäre Passion. Wiesbaden: Springer VS. Selke, Stefan (2022): Wunschland. Unsere Odysee zwischen irdischen Utopien und Weltraumkolonien. Berlin: Ullstein. Selke, Stefan/Achatz, Johannes/Biniok, Peter et al. (2018): Ethische Standards von Big Data und deren Begründung. Gutachten im Kontext des Forschungsprojekts ABIDA (Assessing Big Data). https://www.abida.de /de/blog-item/gutachten-ethische-standards-für-big-data-und-derenbegründung Sennett, Richard (2000): Der flexible Mensch. Die Kultur des neuen Kapitalismus. Berlin: Berlin Verlag. Sennett, Richard (2009): How I Write: Sociology as Literature. Münster: Rhema. Shanahan, Murray (2015): The Technological Singularity. Cambridge: MIT Press. Simanowski, Roberto (2020): Todesalgorithmus. Das Dilemma der künstlichen Intelligenz. Wien: Passagen. Simmel, Georg (1995): Aufsätze und Abhandlungen 1901–1908. Gesamtausgabe Band 7. Frankfurt a.M.: Suhrkamp. Simmel, Georg (1918): Der Konflikt der modernen Kultur. Ein Vortrag. München und Leipzig: Duncker & Humblot. Slocombe, Will (2020): Machine Visions. Artificial Intelligence, Society, and Control. In: Cave, Stephen/Dihal, Kanta/Dillon, Sarah (Hg.), AI Narratives. A History of Imagiantive Thinking about Intelligent Machines. Oxford: Oxford University Press, S. 213–236. Slonim, Noam/Bilu, Yonatan/Alzate, Carlos et al. (2021): An autonomous debating system. In: Nature. The international journal of science, 591, S. 379–384. Sloterdijk, Peter (2011): Du mußt dein Leben ändern. Frankfurt a.M.: Suhrkamp.

351

352

Stefan Selke: Technik als Trost

Snake-Beings, Emit (2017): Maker Culture and DiY technologies. Re-Functioning as a Techno-Animist practice. In: Continuum: Journal of Media and Cultural Studies, S. 121–136. Söding, Thomas (2015): Nächstenliebe – Gottes Gebot als Verheißung und Anspruch. Freiburg: Herder. Soleri, Paolo (1988): Arcosanti. Labor für Öko-Urbanität. Basel: Sphinx Medien. Soroka, Larysa (2019): Artificial Intelligence and Space Technologies: Legal, Ethical and Technological Issues. In: Advanced Space Law, 3, S. 131–139. Spahr, Angela (2002): Der Sturz des Ikarus. Im Nirgendwo der Medientechnologien. In: Gegenworte, 10, S. 30–34. Spiegel, Simon (2019): Bilder einer besseren Welt. Die Utopie im nicht-fiktionalen Film. Bilder einer besseren Welt. Die Utopie im nicht-fiktionalen Film. Schüren: Zürich. Spitzer, Manfred (2015): Cyberkrank. Wie das digitalisierte Leben unsere Gesundheit ruiniert. München: Droemer. Spitzer, Manfred (2018): Die Smartphone-Epidemie. Gefahren für Gesundheit, Bildung und Gesellschaft. Stuttgart: Klett-Cotta. Stalder, Felix (2016): Kultur der Digitalität. Frankfurt a.M.: Suhrkamp. Stark, Christopher (2014): Neoliberalyse. Über die Ökonomisierung unseres Alltags. Wien: Mandelbaum. Stark, Christopher (2016): Der neoliberale Zeitgeist als Nährboden für die digitale Selbstvermessung. Selbstevaluation – allumfassend, 86.400 Sekunden am Tag, 365 Tage im Jahr. In: Selke, Stefan (Hg.), Lifelogging zwischen disruptiven Technologien und kulturellem Wandel. Wiesbaden: Springer VS, S. 67–89. Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (2021) (Hg.): Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin. Sukulla, Freya (2019): Narrative Persusion. Baden-Baden: Nomos. Süssenguth, Florian (2015a) (Hg.): Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld: transcript. Süssenguth, Florian (2015b): In Gesellschaft der Daten. Ein kurzer Problemaufriss. In: Süssenguth, Florian (Hg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung. Bielefeld: transcript, S. 7–14. Süssenguth, Florian (2015c): Die Organisation des digitalen Wandels. Zur Funktion von Digitalisierungssemantiken in Wirtschaft, Medien und Politik. In: Süssenguth, Florian (Hg.), Die Gesellschaft der Daten. Über

Quellen

die digitale Transformation der sozialen Ordnung. Bielefeld: transcript, S. 93–121. Tapscott, Don (1996): Die digitale Religion – Verheißung einer vernetzten Welt. Die Folgen für Wirtschaft, Management und Gesellschaft. Wiesbaden: Gabler. Tegmark, Max (2017): Leben 3.0. Mensch sein im Zeitalter Künstlicher Intelligenz. Berlin: Ullstein. Thiel, Peter (2009): The Education of a Libertarian. Cato Unbound. A Journal of Debate. https://www.cato-unbound.org/2009/04/13/peter-thiel/educat ion-libertarian/ (22.04.2022). Timmer, Jelte (2016): Techno-Animism – When Technology Talks Back. In: Janssens, Liisa (Hg.), The Art ot Ethics in the Information Societ. Amsterdam: Amsterdam University Press, S. 132–137. Tree, Joshua (2021): Singularity. Frankfurt a.M.: Fischer. Truitt, E. R. (2020): Demons and Devices: Artificial and Augmented Reality before AI. In: Cave, Stephen/Dihal, Kanta/Dillon, Sarah (Hg.), AI Narratives. A History of Imagiantive Thinking about Intelligent Machines. Oxford: Oxford University Press, S. 49–71. Truttmann, Paul (2021): Künstliche Künstler. Kann Künstliche Intelligenz der Materie Geist einhauchen? Baden-Baden: Academia. Uexküll, Johann Jacob von (2018): Umwelt und Innenwelt der Tiere (Original: 1921). London: Forgotten Books Reprint. Ullrich, Wolfgang (2012): Habenwollen. Wie funktioniert die Konsumkultur? Frankfurt a.M.: Fischer. Van Lente, Harro/Rip, Aro (1998): Expectations in Technological Developments: An Example of Prospective Structures to be filled in by Agency. In: Cornelis, Disco/van der Meulen, Barend (Hg.), Getting New Technologies Together: Studies in Making Sociotechnical Order. Berlin/New York: de Gruyter, S. 203–229. Veblen, Thorstein (2006): The Engineers and the Price System. New York: Cosimo Books. Vetter, Andrea (2018): The Matrix of Convivial Technology – Assessing technologies for degrowth. In: Journal of Cleaner production, 197/2, S. 1778–1786. Villani, Cédric (2018): For a Meaningfull Artificial Intelligence. Towards a French and European Strategy.

353

354

Stefan Selke: Technik als Trost

Vinuesa, Ricardo/Azispour, Hossein/Leite, Iolanda et al. (2020): The role of artificial intelligence in achieving the Susatainable Development Goals. In: Nature Communication, 11, S. 233–241. Von Borries, Friedrich von (2019): Weltentwerfen. Eine politische Designtheorie. Berlin: Suhrkamp. Von Puttkamer, Jesco (2001): Von Apollo zur ISS. Eine Geschichte der Raumfahrt. Aus meinem Weltraumjournal. München: Herbig. Von Puttkamer, Jesco (2012): Projekt Mars. Menschheitstraum und Zukunftsvision. München: Herbig. Voss, Günter G./Weiss, Cornelia (2013): Burnout und Depression – Leiterkrankungen des subjektivierten Kapitalismus oder: Woran leidet der Arbeitskraftunternehmer? In: Neckel, Sighard/Wagner, Greta (Hg.), Leistung und Erschöpfung. Burnout in der Wettbewerbsgesellschaft. Frankfurt a.M.: Suhrkamp, S. 29–57. Wagner, Gerald (1994): Vertrauen in Technik. In: Zeitschrift für Soziologie, 23, S. 145–157. Wahlster, Wolfgang (2020): Deep Learning alleine reicht nicht. https://www.f az.net/aktuell/wirtschaft/digitec/kuenstliche-intelligenz-deep-learningalleine-reicht-nicht-16942864.html Waters, Brent (2015): Is Technology the New Religion? In: Word & Worlds, 35, S. 143–150. WBGU (2011) (Hg.): Welt im Wandel. Gesellschaftsvertrag für eine große Transformation. Berlin: Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU). Weizenbaum, Josef (1977): Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt a.M.: Suhrkamp. Weizenbaum, Josef/Haefner, Klaus (1992): Sind Computer die besseren Menschen? Ein Streitgespräch. München. Welzer, Harald (2009): Klimakriege. Wofür im 21. Jahrhundert getötet wird (darin: Shifting Baselines. S. 212ff.). Frankfurt a.M.: Fischer. Westin, Ulrika/Ingedahl, Waldemar/Wariario, Citoria et al. (2022): Global Catastrophic Risks 2022. Download: https://globalchallenges.org/app/uploa ds/2023/04/GCFAnnualReport2022-FINAL.pdf White, Frank (2014): The Overview Effect. Space Exploration and Human Evolution. Reston: American Institute of Aeronautics and Astronautics. Wiener, Norbert (1958): Mensch und Menschmaschine. Berlin: Ullstein. Wiener, Norbert (1963): Gott & Golem. Berlin: ECON.

Quellen

Willeke, Stefan (1994): Die Technokratiebewegung in Nordamerika und Deutschland zwischen den Weltkriegen. Frankfurt a.M.: Peter Lang. Willemsen, Roger (2016): Wer wir waren. Zukunftsrede. Frankfurt a.M.: Fischer. Wolf, Gary (2010): The Data-Driven Life. https://www.nytimes.com/2010/05/0 2/magazine/02self-measurement-t.html?_r=0&pagewanted=print Wolff, Marie-Luise (2020): Die Anbetung. Über eine Superideologie namens Digitalisierung. Frankfurt a.M.: Westend. Wright, Erik Olin (2017): Reale Utopien. Wege aus dem Kapitalismus. Berlin: Suhrkamp. Wuketits, Franz M. (2013): Animal irrationale. Eine kurze (Natur-)Geschichte der Unvernunft. Frankfurt a.M.: Suhrkamp. Young, James Edward (1994): The Texture of Memory. Holocaust Memorials and Meaning. New York: Yale University Press. Zillmann, Hans (2021): Künstliche Subjektivität? Eine Analyse anhand der neurowissenschaftlichen Subjketbeschreibung Antoio Damasios. In: Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin, S. 63–81. Zima, Peter V. (2004): Was ist Theorie? Theoriebegriff und Dialogische Theorie in den Kultur- und Sozialwissenschaften. Tübingen: Franke. Zima, Peter V. (2014): Entfremdung. Pathologien der Postmodernen Gesellschaft. Tübingen: Franke. Zimmerli, Walther (2021): Künstliche Intelligenz und postanaloges Menschsein. Entstehung, Entwicklung und Wirkung eines realen Mythos. In: Strasser, Anna/Sohst, Wolfgang/Stapelfeldt, Ralf et al. (Hg.), Künstliche Intelligenz. Die große Verheißung. Berlin: MoMo Berlin, S. 193–219. Zuboff, Shoshana (2015): Big other. In: Journal of Information Technology, 30, S. 75–89. Zuboff, Shoshana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt a.M.: Campus. Zweig, Katharina/Krafft, Tobias/Klingel, Anita et al. (2021): Sozioinformatik. Ein neuer Blick auf Informatik und Gesellschaft. München: Hanser.

355

Gespräche über KI

Am Ende seines Lebens bilanzierte Goethe seine persönliche Strategie des Wissenserwerbs folgendermaßen: »Was bin ich denn selbst? Was habe ich denn gemacht? Ich sammelte und benutzte alles, was mir vor Augen, vor Ohren, vor die Sinne kam. Alle kamen und brachten mir ihre Gedanken, ihr Können, ihre Erfahrungen, ihr Leben und ihr Sein; so erntete ich oft, was andere gesät; mein Lebenswerk ist das eines Kollektivwesens, und dies Werk trägt den Namen Goethe.« Genau in diesem Sinne führte ich mit folgenden Personen kollegiale Gespräche über KI, insbesondere über den damit verbundenen Verheißungscharakter. Allen Gesprächspartnern an dieser Stelle herzlichen Dank für die Unterstützung beim Erkenntnisgewinn! 1. Bauer, Christian, Prof. Dr.: Professor für Designtheorie und Designgeschichte sowie Rektor der Hochschule der Bildenden Künste Saar 2. Dietel, Manfred, Prof. Dr.: Pathologe an der Charité Berlin, Vorstandsmitglied der Deutschen Gesellschaft für Telemedizin sowie Mitglied des Pandemierats der Bundesärztekammer 3. Eckstein, Wolfgang: Unternehmer im Bereich KI sowie Autor des ScienceFiction Thrillers »Die Codices« 4. Fröhlich, Walburga: Geschäftsführerin der atempo GmbH (Software und KI zur Gleichstellung von Menschen) sowie geschäftsführende Gesellschafterin in der CFS GmbH 5. Fuchte, Julia: Studium der Germanistik, Philosophie und Psychologie sowie der Ökonomie und Gesellschaftsgestaltung, veröffentlicht im Internet eine Utopie von 2055 als Fortsetzungsgeschichte; https://www.utopisch-w issen.de 6. Ganteför, Gerd, Prof. Dr.: Experimentalphysiker an der Universität Konstanz, Buchautor und Redner

358

Stefan Selke: Technik als Trost

7. Gantner, Tobias, Dr. med.: Arzt, Unternehmer, Zukunftsgestalter. Gründer der HealthCareFuturists GmbH 8. Gerstheimer, Oliver: Managing Director der Agentur chilli mind sowie Evangelist of Human Centered Design 9. Hanning, Theresa: Science-Fiction-Autorin (u.a. »Die Optimierer«) 10. Hanson, Megan: Übersetzerin und Lektorin für Deutsch-Englisch, lektoriert Texte, die mit einer KI übersetzt wurden 11. Hutmacher, Fabian, Dr.: Post-Doc am Lehrstuhl für Kommunikationspsychologie und Neue Medien, Universität Würzburg 12. Kabisch, Susann, Dr.: Philosophin mit Schwerpunkt sozial-ökologische Transformation, ethische Herausforderungen von Digitalisierung und Nachhaltigkeit, Moderatorin, Speakerin, Podcasterin, seit 2022 am Zentrum für Ethik und Verantwortung der Hochschule Bonn-Rhein-Sieg 13. Krüger, Oliver, Prof. Dr., Religionswissenschaftler an der Universität Freiburg (Schweiz), Forschungsfeld Cyborgs und Transhumanismus 14. Marsiske, Hans-Arthus, Dr.: Wissenschaftsjournalist, Sachbuchautor und Science-Fiction-Autor 15. Mellano, Julien, Dramaturg und Theaterregisseur u.a. des Stückes »Ersatz« 16. Möricke, Michael: Physiker und Vorstand der Integrata-Stiftung (Humane Nutzung von IT und KI) 17. Müller, Michael, Prof. Dr.: Professor für Medienanalyse und Medienkonzeption im Studiengang Medienwirtschaft an der Hochschule der Medien Stuttgart sowie Gründer des Instituts für angewandte Narrationsforschung an der HdM 18. Muxel, Andreas, Prof. Dr.: Professor für Physical Human-Machine Interfaces an der Fakultät für Gestaltung Hochschule Augsburg 19. Neuhold, Leopold, Prof. Dr.: Professor für Ethik und Gesellschaftslehre an der Universität Graz 20. Paskalev, Boris: Head of Product, AI Code Analysis bei Snyk (Software- und Netzwerksicherheit), London 21. Quartier, Thomas, Prof. Dr.: Benediktinermönch in der Abtei Keizersberg Leuven, Professor für Lithurgie- und Religionswissenschaft an der Radboud Universität Nijmegen, der KU Leuven und der Benediktinischen Universität Sant Anselmo in Rom 22. Scholtz, Christopher, Dr.: Leiter des IPOS Instituts für Personalberatung, Organisationsentwicklung und Supervision in der EKHN, Externer Mitarbeiter im Fachgebiet Praktische Theologie an der Universität Frankfurt

Gespräche über KI

23. Sprenger, Guido, Prof. Dr.: Lehrstuhl für Sozial- und Kulturanthropologie an der Universität Heidelberg 24. Tiffe, Johanna: Designerin (https://blog.formf.de) 25. Tombeil, Christian: Indendant Schauspiel Essen 26. Van Zyl-Bulitta, Verena: Universität Leipzig 27. Von Gottberg, Joachim: ehemaliger Direktor der Freiwilligen Selbstkontrolle Fernsehen e.V. sowie Chefredakteur des Magazins »tv diskurs« 28. Wendland, Karsten, Prof. Dr.: Professor für Medieninformatik an der Hochschule Aalen und Senior Researcher am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des Karlsruher Instituts für Technologie (KIT) 29. Wolff, Marie-Luise, Dr.: Vorstandsvorsitzende die ENTEGA AG sowie Autorin von »Die Anbetung. Über eine Superideologie namens Digitalisierung« 30. Zurawski, Nils, PD Dr.: Wissenschaftlicher Leiter der Forschungsstelle für strategische Polizeiforschung an der Akademie der Polizei in Hamburg sowie Gründer von surveillance-studies.org

359

WISSEN. GEMEINSAM. PUBLIZIEREN. transcript pflegt ein mehrsprachiges transdisziplinäres Programm mit Schwerpunkt in den Kultur- und Sozialwissenschaften. Aktuelle Beträge zu Forschungsdebatten werden durch einen Fokus auf Gegenwartsdiagnosen und Zukunftsthemen sowie durch innovative Bildungsmedien ergänzt. Wir ermöglichen eine Veröffentlichung in diesem Programm in modernen digitalen und offenen Publikationsformaten, die passgenau auf die individuellen Bedürfnisse unserer Publikationspartner*innen zugeschnitten werden können.

UN S ERE L EISTUNGEN IN K ÜR Z E • • • • • •

partnerschaftliche Publikationsmodelle Open Access-Publishing innovative digitale Formate: HTML, Living Handbooks etc. nachhaltiges digitales Publizieren durch XML digitale Bildungsmedien vielfältige Verknüpfung von Publikationen mit Social Media

Besuchen Sie uns im Internet: www.transcript-verlag.de Unsere aktuelle Vorschau finden Sie unter: www.transcript-verlag.de/vorschau-download