Computer und Künstliche Intelligenz: Vergangenheit - Gegenwart - Zukunft [1 ed.] 3658377674, 9783658377670, 9783658377687

Das Buch beginnt mit einer Erklärung der menschlichen Intelligenz und der Beschreibung von Intelligenztests. Die Künstli

608 121 5MB

German Pages 243 [230] Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Computer und Künstliche Intelligenz: Vergangenheit - Gegenwart - Zukunft [1 ed.]
 3658377674, 9783658377670, 9783658377687

Table of contents :
Danksagung
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1 Vorwort
2 Einleitung
3 Wie definiert man Intelligenz?
3.1 Unterschiedliche Konzepte für die Definition von Intelligenz
3.2 Intelligenztests
4 Die historische Entwicklung
4.1 Die Anfänge
4.2 Die Dartmouth-Konferenz
4.3 Algorithmen und Programmiersprachen
4.3.1 Die 1930er- und 1940er-Jahre: Logische Kalküle
4.3.2 Die 1950er-Jahre: Erste moderne Programmiersprachen
4.3.3 Die 1960er- und 1970er-Jahre: Entwicklung neuer Paradigmen
4.3.4 Objektorientierte Programmierung
4.3.5 Die 1980er-Jahre
4.3.6 Die weitere Entwicklung
4.4 Die Turing-Maschine
4.5 Die ersten Computer – Turing-Test – Einzelband-Turingmaschine
4.6 LaTeX
4.7 Die Entwicklung der Computer
5 Mathematik auf dem Computer
5.1 Microsoft Mathematics
5.2 Mathematica
5.3 Maple
6 Polynomiale und exponentielle Komplexität
6.1 Einführende Betrachtungen
6.2 Mathematische Beschreibungen der Komplexität
6.3 Erfüllbarkeitsprobleme
6.4 Das Auffinden von Widersprüchen – Inkonsistenzbeweise
6.5 Probleme aus der Kombinatorik
6.6 Färbungsprobleme
7 Spieltheorie, Kybernetik und Informationstheorie
7.1 Spieltheorie
7.2 Kybernetik
7.3 Informationstheorie
8 Maschinelles Lernen und neuronale Netze
8.1 Neuronale Netze
8.2 AlphaZero gewinnt bei Schach, Go und Shogi
8.3 Übersetzung zwischen verschiedenen Sprachen
9 Weitere Anwendungen
9.1 Datenbanken
9.2 Handel über das Internet
9.3 Big Data
9.4 Die Rolle der Simulation
10 Digitalisierung
10.1 Die Grundlagen der Digitalisierung
10.2 Einige Anwendungen
11 Bildverarbeitung
11.1 Die Vorhersage von Erdbeben
11.2 Tumore, Alzheimer, Herzkrankheiten
11.3 Erkennung von Viren
11.4 Medizinische Anwendungen
11.5 Weitere Anwendungen
11.6 Die Grundlagen der Bildverarbeitung
11.7 Die Bearbeitung von Bildern
12 Robotik
12.1 Roboter in der Chirurgie
12.2 Roboter helfen in der Pflege
12.3 Weitere interessante Anwendungen
13 Künstliche Intelligenz in der Finanzwirtschaft
14 Künstliche Intelligenz und Ausbildung
14.1 Die Ausbildung von KI-Fachleuten
14.2 Die Anwendung der Künstlichen Intelligenz in der Ausbildung
15 Künstliche Intelligenz in der Kunst
15.1 Künstliche Intelligenz und Musik
15.2 Künstliche Intelligenz und Architektur
16 Künstliche Intelligenz im Rechtswesen
17 Zukünftige Entwicklungen
Literatur
Stichwortverzeichnis

Citation preview

Christian Posthoff

Computer und Künstliche Intelligenz Vergangenheit – Gegenwart – Zukunft

Computer und Künstliche Intelligenz

Christian Posthoff

Computer und Künstliche Intelligenz Vergangenheit – Gegenwart – Zukunft

Christian Posthoff Chemnitz, Deutschland

ISBN 978-3-658-37767-0 ISBN 978-3-658-37768-7  (eBook) https://doi.org/10.1007/978-3-658-37768-7 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Petra Steinmueller Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Danksagung

Während der langen Tätigkeit an Universitäten und Hochschulen ist man natürlich vielen Leuten dankbar, mit denen man in unterschiedlicher Art und Weise zusammengearbeitet hat. Eine lange Liste von Namen würde aber die Gefahr in sich bergen, dass man jemand vergisst. Deshalb möchte ich an dieser Stelle nur die Zusammenarbeit mit Professor Bernd Steinbach (Abb. 1) betonen, mit dem ich über einen Zeitraum von 40 Jahren hinweg zusammengearbeitet habe. Mit ihm habe ich viele Probleme bis zum letzten Komma diskutiert. Er ist ein kreativer Diskussionspartner, er verfeinert jeden Algorithmus und setzt ihn erfindungsreich um. Ohne ihn hätte es nur die Theorie gegeben, die praktischen Ergebnisse sind allein ihm zu verdanken.

Abb. 1   Professor Dr. Bernd Steinbach

V

Inhaltsverzeichnis

1 Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 3

Wie definiert man Intelligenz?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 3.1 Unterschiedliche Konzepte für die Definition von Intelligenz . . . . . . . . 9 3.2 Intelligenztests. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4

Die historische Entwicklung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 4.1 Die Anfänge. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 4.2 Die Dartmouth-Konferenz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 4.3 Algorithmen und Programmiersprachen. . . . . . . . . . . . . . . . . . . . . . . . . 26 4.3.1 Die 1930er- und 1940er-Jahre: Logische Kalküle. . . . . . . . . . . . . 27 4.3.2 Die 1950er-Jahre: Erste moderne Programmiersprachen. . . . . . . . 28 4.3.3 Die 1960er- und 1970er-Jahre: Entwicklung neuer Paradigmen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 4.3.4 Objektorientierte Programmierung . . . . . . . . . . . . . . . . . . . . . . . . 30 4.3.5 Die 1980er-Jahre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.3.6 Die weitere Entwicklung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.4 Die Turing-Maschine. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.5 Die ersten Computer – der Turing-Test – die EinzelbandTuring-Maschine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.6 LaTeX. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.7 Die Entwicklung der Computer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5

Mathematik auf dem Computer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.1 Microsoft Mathematics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 5.2 Mathematica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5.3 Maple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

VII

VIII

Inhaltsverzeichnis

6

Polynomiale und exponentielle Komplexität . . . . . . . . . . . . . . . . . . . . . . . . . 51 6.1 Einführende Betrachtungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 6.2 Mathematische Beschreibungen der Komplexität. . . . . . . . . . . . . . . . . . 54 6.3 Erfüllbarkeitsprobleme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.4 Das Auffinden von Widersprüchen – Inkonsistenzbeweise. . . . . . . . . . . 58 6.5 Probleme aus der Kombinatorik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 6.6 Färbungsprobleme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

7

Spieltheorie, Kybernetik und Informationstheorie. . . . . . . . . . . . . . . . . . . . 67 7.1 Spieltheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 7.2 Kybernetik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7.3 Informationstheorie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

8

Maschinelles Lernen und neuronale Netze. . . . . . . . . . . . . . . . . . . . . . . . . . . 73 8.1 Neuronale Netze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 8.2 AlphaZero gewinnt bei Schach, Go und Shogi. . . . . . . . . . . . . . . . . . . . 81 8.3 Übersetzung zwischen verschiedenen Sprachen. . . . . . . . . . . . . . . . . . . 82

9

Weitere Anwendungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 9.1 Datenbanken. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 9.2 Handel über das Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 9.3 Big Data. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 9.4 Die Rolle der Simulation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

10 Digitalisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 10.1 Die Grundlagen der Digitalisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 10.2 Einige Anwendungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 11 Bildverarbeitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 11.1 Die Vorhersage von Erdbeben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 11.2 Tumore, Alzheimer, Herzkrankheiten. . . . . . . . . . . . . . . . . . . . . . . . . . . 133 11.3 Erkennung von Viren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 11.4 Medizinische Anwendungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 11.5 Weitere Anwendungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 11.6 Die Grundlagen der Bildverarbeitung. . . . . . . . . . . . . . . . . . . . . . . . . . . 141 11.7 Die Bearbeitung von Bildern. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 12 Robotik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 12.1 Roboter in der Chirurgie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 12.2 Roboter helfen in der Pflege. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 12.3 Weitere interessante Anwendungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 13 Künstliche Intelligenz in der Finanzwirtschaft. . . . . . . . . . . . . . . . . . . . . . . 181

Inhaltsverzeichnis

IX

14 Künstliche Intelligenz und Ausbildung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 14.1 Die Ausbildung von KI-Fachleuten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 14.2 Die Anwendung der Künstlichen Intelligenz in der Ausbildung. . . . . . . 193 15 Künstliche Intelligenz in der Kunst. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 15.1 Künstliche Intelligenz und Musik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 15.2 Künstliche Intelligenz und Architektur. . . . . . . . . . . . . . . . . . . . . . . . . . 199 16 Künstliche Intelligenz im Rechtswesen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 17 Zukünftige Entwicklungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Stichwortverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225

Abbildungsverzeichnis

Abb. 1.1 Abb. 2.1 Abb. 2.2 Abb. 3.1 Abb. 3.2 Abb. 3.3 Abb. 4.1 Abb. 4.2 Abb. 4.3 Abb. 4.4 Abb. 4.5 Abb. 4.6 Abb. 4.7 Abb. 4.8 Abb. 4.9 Abb. 4.10 Abb. 4.11 Abb. 4.12 Abb. 4.13 Abb. 4.14 Abb. 4.15 Abb. 4.16 Abb. 4.17 Abb. 4.18 Abb. 5.1 Abb. 5.2 Abb. 5.3 Abb. 5.4 Abb. 5.5 Abb. 6.1

Der Zeiss-Rechenautomat ZRA 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Die Leistungsfähigkeit der Computer nimmt ständig zu. . . . . . . . . . . 6 Es wird eine Analogie zwischen Computer und Gehirn dargestellt. . . 6 Die Masse von Tieren sichert das Überleben der meisten. . . . . . . . . . 12 Schwarmverhalten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Intelligenztest – wie viel Tiere kann man sehen? . . . . . . . . . . . . . . . . 15 Gottfried Wilhelm Leibniz (1646–1716). . . . . . . . . . . . . . . . . . . . . . . 18 Der Brief, in dem das Dualsystem beschrieben wird. . . . . . . . . . . . . . 19 George Boole (1815–1864). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Eine Additionsschaltung für vier Bits . . . . . . . . . . . . . . . . . . . . . . . . . 22 Claude Shannon (1916–2001). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 Eine Parallelschaltung realisiert die Disjunktion y = a ∨ b . . . . . . . . 23 Eine Reihenschaltung realisiert die Konjunktion y = a ∧ b . . . . . . . . 24 Die Dartmouth-Konferenz 1955 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Ein Jacquard-Webstuhl, der mit Lochkarten gesteuert wird . . . . . . . . 27 Konrad Zuse (1910–1995). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 Eine japanische Tastatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Niklaus Wirth (* 1934) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 ENIGMA – das zur Code-Entschlüsselung benutzte Gerät. . . . . . . . . 34 Alan Turing (1912–1954). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Eine Einzelband-Turing-Maschine . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Ein kurzer LaTeX-Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 Das Moore'sche Gesetz für Supercomputer. . . . . . . . . . . . . . . . . . . . . 40 Ein Supercomputer mit vielen parallel arbeitenden Prozessoren. . . . . 40 Ein mechanischer Rechner aus den 1960er-Jahren. . . . . . . . . . . . . . . 43 Der Arbeitsbildschirm von Microsoft Mathematics. . . . . . . . . . . . . . . 44 In diesem Bild wird der Goldene Schnitt verwendet. . . . . . . . . . . . . . 45 Mathematica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Maple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 Der Schmetterlingseffekt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 XI

XII

Abb. 6.2 Abb. 6.3 Abb. 6.4 Abb. 6.5 Abb. 6.6 Abb. 6.7 Abb. 6.8 Abb. 6.9 Abb. 6.10 Abb. 6.11 Abb. 6.12 Abb. 6.13 Abb. 7.1 Abb. 7.2 Abb. 7.3 Abb. 8.1 Abb. 8.2 Abb. 8.3 Abb. 8.4 Abb. 8.5 Abb. 8.6 Abb. 8.7 Abb. 8.8 Abb. 8.9 Abb. 8.10 Abb. 8.11 Abb. 9.1 Abb. 9.2 Abb. 9.3 Abb. 10.1 Abb. 10.2 Abb. 10.3 Abb. 10.4 Abb. 10.5 Abb. 11.1 Abb. 11.2 Abb. 11.3 Abb. 11.4 Abb. 11.5 Abb. 11.6 Abb. 11.7

Abbildungsverzeichnis

Der Lorenz-Attraktor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Lineare, exponentielle und logarithmische Komplexität. . . . . . . . . . . 55 Miniaturisierung der Schaltkreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Exponentielle Komplexität eines Stammbaums. . . . . . . . . . . . . . . . . . 57 David Hilbert (1862–1943). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Vier Damen auf einem kleinen Schachbrett, die sich nicht gegenseitig bedrohen. . . . . . . . . . . . . . . . . . . . . . . . . . . 60 Acht Damen auf einem Schachbrett 8 × 8. . . . . . . . . . . . . . . . . . . . . . 61 Neun Damen und ein Bauer – zehn Damen und zwei Bauern. . . . . . . 62 Zu untersuchen ist die Folge 1 – 2 – 3 – 4 – 1. . . . . . . . . . . . . . . . . . . 63 Eine Lösung für die Matrix 18 × 18. . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Es gibt viele verschiedene Rundreisen durch die gleichen Städte. . . . 65 Das Königsberger Brückenproblem. . . . . . . . . . . . . . . . . . . . . . . . . . . 65 John von Neumann (1903–1957). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 Norbert Wiener (1894–1964). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Eine hoher Wert von p ergibt eine geringe Information. . . . . . . . . . . . 71 Warren McCulloch (1898–1969). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Walter Pitts (1923–1969). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Eine mögliche Struktur eines Perzeptrons. . . . . . . . . . . . . . . . . . . . . . 76 Frank Rosenblatt (1928–1971). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Ein Perzeptronennetz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Ein Ausschnitt aus einem Neuronennetz. . . . . . . . . . . . . . . . . . . . . . . 78 Korrektur der Gewichte von rechts nach links. . . . . . . . . . . . . . . . . . . 79 Die Architektur eines tiefen CNN. . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Computer contra Go-Weltmeister . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Eine Übersetzung ins Japanische. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Eine Übersetzung ins Chinesische. . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 Die erste Briefmarke von Britisch-Guyana. . . . . . . . . . . . . . . . . . . . . 89 Alle erreichbaren Daten werden gespeichert. . . . . . . . . . . . . . . . . . . . 96 Eine Welle von Erwärmung und Abkühlung. . . . . . . . . . . . . . . . . . . . 115 Eine Digitalkamera der Firma Sony. . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Ein Museum für digitale Kunst in Tokio. . . . . . . . . . . . . . . . . . . . . . . 126 Gravitationswellen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 Auch in der Landwirtschaft ändert sich das Berufsbild. . . . . . . . . . . . 128 Das Bildungswesen der Zukunft?!. . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 Erdbeben der Stärke 3,6 in der Schweiz . . . . . . . . . . . . . . . . . . . . . . . 133 Magnetresonanztomographie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 Innere Organe des Menschen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 Steuerung des Straßenverkehrs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 Ein typisches Pixelbild. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 Eine Schwarz-Weiß-Darstellung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Die Verwendung von Farben mit dem Wert 30 . . . . . . . . . . . . . . . . . . 144

Abbildungsverzeichnis

XIII

Abb. 11.8 Die Erhöhung der Farbwerte auf 60. . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Abb. 11.9 Die Erhöhung der Farbwerte auf 90. . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Abb. 11.10 Schräg unten befindet sich ein anamorphes Bild des Stehenden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 Abb. 11.11 Monstrositäten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 Abb. 11.12 Das Mae West Lips Sofa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Abb. 11.13 Eine unmögliche geometrische Konstruktion . . . . . . . . . . . . . . . . . . . 151 Abb. 11.14 Verzerrungen in allen Richtungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Abb. 11.15 Eine im Bild versteckte Nachricht. . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 Abb. 11.16 Pablo Picasso: Die einsame kauernde Nackte. . . . . . . . . . . . . . . . . . . 154 Abb. 11.17 Ein Bild im Stil von Modigliani (1884–1920). . . . . . . . . . . . . . . . . . . 155 Abb. 12.1 Eine Wasserorgel aus der Antike. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 Abb. 12.2 Eine Drohne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Abb. 12.3 Star Trek. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 Abb. 12.4 Ein gesunder und ein von Krebs befallener Lungenflügel. . . . . . . . . . 175 Abb. 12.5 Schwarzer Hautkrebs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 Abb. 13.1 Diese Informationen bzgl. des DAX werden in Echtzeit angeboten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 Abb. 13.2 Benoît Mandelbrot (1924–2010). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 Abb. 13.3 Mittlere Trendlängen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 Abb. 14.1 Die 3D-Nachbildung einer Hand. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 Abb. 14.2 Komplizierte Formen machen keine Schwierigkeiten. . . . . . . . . . . . . 195 Abb. 15.1 Die Architektur der Zukunft. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Abb. 17.1 Der Phantasie sind keine Grenzen gesetzt. . . . . . . . . . . . . . . . . . . . . . 216

Tabellenverzeichnis

Tab. 4.1 Tab. 4.2 Tab. 4.3 Tab. 6.1 Tab. 6.2 Tab. 9.1 Tab. 10.1

Konjunktion und Disjunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Antivalenz and Äquivalenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Negation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Implikation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Lösungsraum für das Problem mit vier Damen. . . . . . . . . . . . . . . . . . . . 61 Pearson'sche Rangkorrelation für Laufzeit und Alter. . . . . . . . . . . . . . . 98 Beispiele für die Nutzung des Unicodes. . . . . . . . . . . . . . . . . . . . . . . . . 123

XV

1

Vorwort

Am Ende der Arbeit an einem solchen Manuskript stellt man sich die Frage, wann und warum man auf die Idee gekommen ist, ein solches Buch zu schreiben. Der unmittelbare Anlass war die Einladung zu einer Tagung „Was war Künstliche Intelligenz? Konturen eines Forschungsfeldes 1975–2000 in Deutschland“ am Lehrstuhl für Medientheorien der Humboldt-Universität zu Berlin im Medientheater, Georgenstraße 47, 10117 Berlin. Ich wurde eingeladen, über die Entwicklung der Künstlichen Intelligenz in der DDR zu sprechen, was den Anlass gab, den Zeitraum von 1975 bis heute zu überblicken. Zuerst kam ich mit diesem Gebiet als Student in Berührung. Ich studierte am Mathematischen Institut der Karl – Marx – Universität Leipzig und war seit meiner Schulzeit ein aktiver Schachspieler. In den beiden letzten Studienjahren gab es die ersten Vorlesungen zur Programmierung und ein Praktikum am ZRA 1 (Zeiss – Rechenautomat), der in Jena gebaut wurde (siehe Abb. 1.1). Es lag deshalb nahe zu probieren, ob man mit Hilfe eines Programms vernünftige Züge auf dem Schachbrett zustande bekommt. Das Programm verwendete eine Suchtiefe von vier Zügen, und damit kann man bei Positionen, die nicht sehr verzwickt sind, schon etwas anfangen. Der nächste Schritt, die Promotion, wies schon 1976 auf ein Problem hin, das es noch heute gibt, nämlich die interdisziplinäre Zusammenarbeit. Der Titel der Arbeit weist schon darauf hin: „Die Anwendung mathematischer Methoden in der Kommunikativen Psychotherapie“. Die Mathematiker sagten, dass nichts Neues für die Mathematik herausgekommen ist, die Mediziner meinten, Dr. med. kann er nicht werden. Nach zwei Jahren des Herumirrens zwischen den Fakultäten und Dekanen hat dann schließlich der Rektor eine positive Entscheidung getroffen, und das Verfahren wurde durchgeführt. Nach dem Studium habe ich dann vier Jahre als Programmierer und in der Operationsforschung gearbeitet und 1972 an der TH Karl-Marx-Stadt, Sektion Informationstechnik, als Assistent angefangen. Hier wurde die Boolesche Algebra das wesentliche © Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_1

1

2

1 Vorwort

Abb. 1.1 Der Zeiss-Rechenautomat ZRA 1

Forschungsgebiet; sie wird ja ganz wesentlich beim Entwurf von Schaltkreisen verwendet, spielt aber auch in der Künstlichen Intelligenz eine wichtige Rolle. 1982 wurde dann an der TU Karl-Marx-Stadt (heute Chemnitz) die Sektion Informatik gegründet mit einem Lehrstuhl „Theoretische Informatik und Künstliche Intelligenz“, den ich von 1983 bis 1993 innehatte. Zuerst kam es natürlich darauf an, die Lehre für die fünf Studienjahre bis zum Diplom zu sichern. Es musste jede geplante Vorlesung neu ausgearbeitet werden. Die Forschungsarbeiten führten aber ab 1986 zu guten Ergebnissen. Ab 1988 war der Aufbau im Wesentlichen abgeschlossen; alles, was zu einem normalen Universitätsalltag gehört, also Vorlesungen, Diplomarbeiten, Promotionen und Habilitationen, war vorhanden. 1993 wurde das Hochschulleben in den neuen Bundesländern umstrukturiert. Ich wechselte aber zur „University of The West Indies in Trinidad & Tobago“. Hier war die gleiche Reihenfolge einzuhalten. Die Lehre wurde zu einem vollwertigen Studiengang (Bachelor, Master, Ph. D.) entwickelt, und danach konnte ich mich weiter mit den Problemen der Künstlichen Intelligent beschäftigen. Es existierte schon eine Forschungsgruppe „Medizinische Physik“, der ich mich anschloss und um das Spektrum „Computer Science – Artificial Intelligence“ erweiterte. Eine wichtige Erkenntnis war ein juristisches System für das Familienrecht, das Teil des „Common Law“ ist, ein in vielen englischsprachigen Ländern vorherrschender Rechtskreis, der sich nicht nur auf Gesetze, sondern auch auf maßgebliche richterliche Urteile der Vergangenheit – sogenannte Präzedenzfälle – stützt (Fallrecht) und durch richterliche Auslegung weitergebildet wird (Richterrecht). In dieser Bedeutung bildet es den Gegensatz zum sogenannten „Civil Law“ der kontinentaleuropäischen Länder. Civil Law basiert auf kodifiziertem Recht der jeweiligen Gesetzgeber. Richterrecht spielt dort eine lediglich untergeordnete Rolle [21].

1 Vorwort

3

Der Schwerpunkt dieser Arbeiten war die Modellierung der Ähnlichkeit der Fälle. Wenn sich die Fälle nicht sehr unterschieden, durfte auch das neue Urteil nicht sehr von früheren Urteilen abweichen. Das geschaffene System funktionierte zur Zufriedenheit des Justizministeriums, wurde aber von den Anwälten nicht verwendet. Wahrscheinlich war ihnen die Verwendung von Computern zu ungewohnt. Auf der Grundlage meiner fast fünfzigjährigen Tätigkeit auf diesem Gebiet kam ich dann zu dem Entschluss darzustellen, was aus diesen Anfängen insgesamt geworden ist, in einer populärwissenschaftlichen Art und Weise, die zu einem breiteren Verständnis dieses Wissenschaftsgebietes führen soll. Leider ist es so, dass die Medien auf der einen Seite Visionen über ein entstehendes Paradies verbreiten; als Gegenstück dazu werden Katastrophen heraufbeschworen, die bis zur Vernichtung der Menschheit führen sollen.

2

Einleitung

Die digitale Revolution führt zu gewaltigen Entwicklungen auf allen Gebieten von Wissenschaft und Technik und wird das Leben aller Menschen in den nächsten Jahrzehnten weiter ganz wesentlich verändern. Künstliche Intelligenz wird die wirtschaftlichen und sozialen Transformationen, die durch die erste Welle der Digitalisierung bereits angestoßen wurden, noch verstärken. Es sind große Chancen vorhanden, aber es zeichnen sich auch Risiken ab, die sicher nicht zu unterschätzen sind. Gegenwärtig kann man sehen, dass sich die Arbeitsgeschwindigkeit von Computern ständig erhöht. Gordon Moore (* 1929) veröffentlichte 1965 einen Artikel, in dem er den heute „Mooresches Gesetz“ genannten Zusammenhang für die vorhergehenden Jahre feststellte (Abb. 2.1). Er beschrieb anhand der damals vorliegenden Daten einen Zusammenhang zwischen der Zeit und der Anzahl der elektronischen Bauteile einer integrierten Schaltung; er nahm eine jährliche Verdopplung an und stellte die Frage, was wäre, wenn es die nächsten zehn Jahre so weiterginge. Das Gesetz wurde später geringfügig korrigiert; man geht gegenwärtig von einer Verdopplung nach achtzehn Monaten aus. In den letzten zwanzig bis dreißig Jahren hat die Diskussion um Künstliche Diskussion an Breite und an Tiefe zugenommen. Es gibt dafür mehrere Gründe: Zum Ersten gibt es derart überraschende und weitreichende Ergebnisse, die in Wissenschaft und Technik, aber auch im Alltag viele Dinge grundlegend verändern. Das hängt im Wesentlichen damit zusammen, dass die Arbeitsgeschwindigkeit der Computer gewaltig zugenommen hat. Die Größe und die Menge der zur Verfügung stehenden Speichermedien erreicht astronomische Größenordnungen. Viele Probleme waren mathematisch schon seit längerer Zeit modelliert oder sogar im Prinzip gelöst, sie waren aber bisher nicht berechenbar, was eine Anwendung ausschloss. Das hat sich jetzt ganz wesentlich geändert, und die Möglichkeiten erweitern sich fast täglich (siehe Abb. 2.2). Wir nehmen als Beispiel den Wettbewerb um die größte Primzahl. Im Internet kann man lesen, dass die Zahl M82589933 = 282589933 − 1 © Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_2

5

6

2 Einleitung

Abb. 2.1 Die Leistungsfähigkeit der Computer nimmt ständig zu

(wahrscheinlich) eine Primzahl ist, die größte bisher gefundene Primzahl. Ausgeschrieben hätte sie über 24 Mio. Dezimalstellen. Gefunden wurde die Zahl von einem Teilnehmer des Projektes GIMPS (Great Internet Mersenne Prime Search), einem Netzwerk, bei dem eine Vielzahl von Teilnehmern auf verteilten Rechnern nach sogenannten Mersenne-Primzahlen suchen. Diese Mersenne-Zahlen haben die Form 2n − 1 und sind nach dem französischen Mathematiker Marin Mersenne (1588–1648) benannt. Bis 1947 waren die Zahlen p1 = 22 − 1 = 3, p2 = 23 − 1 = 7, p3 = 25 − 1 = 31 und p4 = 27 − 1 = 127 als Mersenne’sche Primzahlen bekannt. Abb. 2.2 Es wird eine Analogie zwischen Computer und Gehirn dargestellt

2 Einleitung

7

Dann begann man, Computer zu verwenden, und der oben angegebene Rekord zeigt, welche Lücke durch die Computer geschlossen werden konnte. Für den Menschen ist es unmöglich, einen solchen Wert zu überprüfen, die Akzeptanz einer solchen Lösung wird zur Glaubens- oder Vertrauensfrage. Man muss sowohl dem Programmierer als auch dem Elektroniker vertrauen, und es darf während der Berechnungen kein Fehlverhalten irgendeines Schaltkreises auftreten. Diese Situation, dass man Ergebnisse nicht überprüfen kann, werden wir noch sehr oft antreffen. Dass die Technik die Leistungen des Menschen übertrifft, ist nicht neu. Diese Probleme werden jetzt vor allem deshalb so heftig diskutiert, weil die Leistungen der Computer jetzt in Gebieten eine Rolle spielen, die bisher ausschließlich den Menschen, ihrer Kreativität und ihrer Intelligenz vorbehalten waren. Die Intelligenz des Menschen wird immer mehr durch Computer unterstützt oder überhaupt nur mit deren Hilfe wirksam, was schließlich den Namen „Künstliche Intelligenz“ hervorbrachte. Es ist wohl ganz selbstverständlich, dass in diesem Buch keine Vollständigkeit erreicht werden kann, dazu ist dieses Gebiet schon viel zu breit. Die Forschungsgebiete am Deutschen Forschungszentrum für Künstliche Intelligenz zeigen das sehr eindrucksvoll: • • • • • • • • • • • • • • • • • • • • • • • •

Smarte Daten und Wissensdienste KI in der medizinischen Bildverarbeitung Cyber-Physical Systems Planbasierte Robotersteuerung Interaktive Textilien Robotics Innovation Center Institut für Wirtschaftsinformatik Kognitive Assistenzsysteme Institute for Information Systems Eingebettete Intelligenz Smart Service Engineering Intelligente Analytik für Massendaten KI in der biomedizinischen Signalverarbeitung Speech and Language Technology Stochastische Relationale KI im Gesundheitswesen Educational Technology Lab Innovative Fabriksysteme Intelligente Netze Agenten und Simulierte Realität Interaktives Maschinelles Lernen Erweiterte Realität Smart Enterprise Engineering Sprachtechnologie und Multilingualität Marine Perception

8

2 Einleitung

Und das ist nur der Standort in Kaiserslautern. Weitere Standorte befinden sich in Berlin, in Bremen, in Osnabrück/Oldenburg, in Saarbrücken und in Lübeck. Dort sind weitere Forschungsgebiete vertreten, und in anderen Ländern findet man natürlich auch viele weitere leistungsfähige Forschungszentren. Zusätzlich erschwert wird die Darstellung dadurch, dass sich viele Gebiete überlappen und zusammenwirken. Gerade diese Kooperation ist ein wesentliches Merkmal der Künstlichen Intelligenz. Das Buch bemüht sich, Grundkenntnisse zu vermitteln, die die Diskussionen versachlichen und etwas von den Gruselszenarien utopischer Filme abbauen. Es muss auch verstanden werden, dass Forschungsergebnisse eine notwendige Bedingung für den Fortschritt sind; hinreichend sind sie erst dann, wenn sie in Programme eingebettet in die Praxis überführt werden können. Dieses schwierige Verhältnis zwischen Theorie und Praxis ist schon lange bekannt. „Theorie ist Wissen, das nicht funktioniert. Praxis ist, wenn alles funktioniert und man nicht weiß warum.“ Hermann Hesse (1877–1962) Man sieht an der Struktur des DFKI und anderer ähnlicher Institutionen eine ganz hervorragende Eigenschaft der Forschungsergebnisse: Ein leistungsfähiges System kann sofort der ganzen Menschheit zur Verfügung gestellt werden. Dieses Buch soll den Leser auch befähigen, die Gebiete auszuwählen, deren Kenntnis notwendig oder wünschenswert sind, um seine speziellen Probleme zu lösen.

3

Wie definiert man Intelligenz?

3.1

Unterschiedliche Konzepte für die Definition von Intelligenz

Intelligenz wurde in vielerlei Hinsicht definiert als die Fähigkeit: • • • • • • • • • •

zum logischen oder kritischen Denken, zur Erfassung des Sinnes von etwas, zur Akzeptanz von Sachverhalten und Personen, zur Selbstwahrnehmung, zum Lernen, zum emotionalen Wissen, zur Argumentation, zur Planung, zur Kreativität, zur Problemlösung.

Intelligenz wird am häufigsten bei Menschen untersucht, wurde aber auch bei Tieren und bei Pflanzen beobachtet, obwohl umstritten ist, ob einige dieser Lebensformen Intelligenz aufweisen. Intelligenz kann man auch im Verhalten von Computern oder anderen Maschinen sehen, dann wird sie als Künstliche Intelligenz bezeichnet. In der Psychologie ist Intelligenz ein Sammelbegriff für kognitive oder geistige Leistungen. Der Begriff bezieht sich in erster Linie auf die Fähigkeit, die Gesamtheit der unterschiedlich ausgeprägten kognitiven Fähigkeiten zur Lösung eines logischen, sprachlichen, mathematischen oder sinnorientierten Problems einzusetzen. Da die einzelnen kognitiven Fähigkeiten unterschiedlich stark ausgeprägt sein können und keine Einigkeit darüber besteht, wie sie zu bestimmen und zu unterscheiden sind, gibt es keine allgemeingültige Definition von Intelligenz.

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_3

9

10

3 Wie definiert man Intelligenz?

Die allgemeine Psychologie, die differentielle Psychologie und die Neuropsychologie befassen sich alle mit der Intelligenz. Die Erforschung der Intelligenz im Bereich der allgemeinen Psychologie unter dem Aspekt der Informationsverarbeitung wird heute oft als kognitive Psychologie bezeichnet. Diese wiederum stützt sich auf Methoden und Erkenntnisse der Hirnforschung, der Entwicklungspsychologie und zunehmend auch der Künstlichen Intelligenz. • Individuen unterscheiden sich voneinander in ihrer Fähigkeit, komplexe Ideen zu verstehen, sich effektiv an die Umwelt anzupassen, aus Erfahrungen zu lernen, verschiedene Formen des Denkens anzuwenden und Hindernisse durch Nachdenken zu überwinden. Obwohl diese individuellen Unterschiede beträchtlich sein können, sind sie nie völlig einheitlich. Die intellektuelle Leistung einer Person variiert bei verschiedenen Gelegenheiten, in verschiedenen Bereichen und wird nach verschiedenen Kriterien beurteilt. Konzepte der „Intelligenz“ sind Versuche, diese komplexen Phänomene zu erklären und zu organisieren. Obwohl in einigen Bereichen beträchtliche Klarheit erreicht wurde, hat noch keine dieser Konzeptualisierungen alle wichtigen Fragen beantwortet, und keine findet allgemeine Zustimmung. • Menschliche Intelligenz Menschliche Intelligenz ist die intellektuelle Leistung des Menschen, die durch komplexe kognitive Leistungen und ein hohes Maß an Motivation und Selbstbewusstsein gekennzeichnet ist. Intelligenz ermöglicht es dem Menschen, sich an Beschreibungen von Dingen zu erinnern und diese Beschreibungen für künftige Verhaltensweisen zu nutzen. Sie ist ein kognitiver Prozess. Sie verleiht dem Menschen die kognitiven Fähigkeiten zu lernen, Konzepte zu bilden, zu verstehen und zu argumentieren, einschließlich der Fähigkeit, Muster zu erkennen, innovativ zu sein, zu planen, Probleme zu lösen und Sprache zur Kommunikation einzusetzen. Intelligenz ermöglicht es dem Menschen, Erfahrungen zu machen und zu denken. Intelligenz ist etwas anderes als Lernen. Lernen bezieht sich auf den Akt des Behaltens von Fakten und Informationen oder Fähigkeiten und auf die Fähigkeit, sie für zukünftige Zwecke abzurufen, während Intelligenz die kognitive Fähigkeit einer Person ist, diese und andere Prozesse durchzuführen. Es hat verschiedene Versuche gegeben, Intelligenz durch Tests zu quantifizieren und aufgrund der Ergebnisse des Tests einen IntelligenzQuotienten (IQ) zu berechnen. Es ist umstritten, ob die menschliche Intelligenz auf vererbten Faktoren oder auf Umweltfaktoren beruht. Vererbte Intelligenz ist die Theorie, dass die Intelligenz bei der Geburt festgelegt ist und nicht wachsen kann. Umweltbedingte Intelligenz ist die Theorie, dass sich die Intelligenz im Laufe des Lebens in Abhängigkeit von der Umgebung der Person entwickelt. Ein Umfeld, das die Intelligenz kultiviert, fordert die kognitiven Fähigkeiten der Person heraus.

3.1

Unterschiedliche Konzepte für die Definition von Intelligenz

11

• Emotionale Intelligenz Emotionale Intelligenz ist die Fähigkeit, anderen auf verständliche Weise Emotionen zu vermitteln und die Emotionen anderer genau zu lesen. Einige Theorien besagen, dass eine höhere emotionale Intelligenz neben der Genauigkeit auch zu einer schnelleren Erzeugung und Verarbeitung von Emotionen führen könnte. Außerdem geht man davon aus, dass eine höhere emotionale Intelligenz uns hilft, unsere Emotionen zu steuern, was sich positiv auf unsere Problemlösungsfähigkeiten auswirkt. Emotionale Intelligenz ist wichtig für unsere geistige Gesundheit und hat Verbindungen zur sozialen Intelligenz. • Soziale Intelligenz Soziale Intelligenz ist die Fähigkeit, die sozialen Signale und Motivationen anderer und der eigenen Person in sozialen Situationen zu verstehen. Man geht davon aus, dass sie sich von anderen Arten der Intelligenz unterscheidet, aber Beziehungen zur emotionalen Intelligenz aufweist. Die soziale Intelligenz hat sich mit anderen Studien überschnitten, die sich damit befassen, wie wir andere beurteilen, mit welcher Genauigkeit wir dies tun und warum Menschen als Menschen mit positivem oder negativem sozialen Charakter angesehen werden. Es ist umstritten, ob diese Studien und die soziale Intelligenz auf denselben Theorien beruhen oder ob es einen Unterschied zwischen ihnen gibt, und man geht allgemein davon aus, dass es sich um zwei verschiedene Denkschulen handelt. • Kollektive Intelligenz Das Konzept der Kollektiven Intelligenz (Schwarm-Intelligenz) geht davon aus, dass größere Mengen von Individuen mit gleichartigen Zielen imstande sind, bestimmte Ziele tatsächlich zu erreichen. Die Individuen, die Ursache des Phänomens Kollektive Intelligenz sind, werden gewissermaßen auf die Stufe von Ameisen gestellt, die ein sehr begrenztes Verhaltens- und Reaktionsrepertoire besitzen. In der Tierwelt ist diese Schwarm-Intelligenz dazu geeignet, in einer feindlichen Umwelt das Überleben des größten Teils der Individuen zu sichern. An der Grenze zwischen Tansania und Kenia versammeln sich zu bestimmten Zeiten viele Gnus, um einen Fluss zu überqueren. Die dort vorhandenen Krokodile können zwar einige Gnus fangen und fressen, aber der größte Teil überquert den Fluss ohne Probleme (Abb. 3.1). Beim Schwarmverhalten, auch als Herdenverhalten bezeichnet, gibt es keine zentrale Steuerung für die einzelnen Individuen. Auf Finanzmärkten neigen Anleger manchmal dazu, sich in ihren Kauf- und Verkaufsentscheidungen wie eine Herde zu verhalten und mehrheitlich in ein Handelsobjekt zu investieren bzw. zu desinvestieren. Herdenverhalten ist eine Ausprägung massenpsychologischer Contagion-Effekte und kann somit eine Ursache für Finanzmarktkrisen oder Wirtschaftskrisen sein. Auch Hamsterkäufe zeigen Herdenverhalten wie vor Naturkatastrophen oder während der Covid-19-Pandemie ab März 2020, als es in deutschen Läden Regallücken bei bestimmten Waren (beispielsweise Mehl, Nudeln, Toilettenpapier) gab (Abb. 3.2). Dem Herdenverhalten können verschiedene massenpsychologische oder marktpsychologische Ursachen zugrunde liegen. Der Verbraucher kann von der Furcht getrieben sein,

12

3 Wie definiert man Intelligenz?

Abb. 3.1 Die Masse von Tieren sichert das Überleben der meisten Abb. 3.2 Schwarmverhalten

angesichts von Regallücken seinen Bedarf nicht decken zu können, wenn er nicht sofort kauft. Auch die Erwartung eines Verbrauchers, dass andere Verbraucher nach ihm auch hamstern werden, drängt ihn zu Hamsterkäufen. Ebenfalls seine Befürchtung, dass es künftig zu Lieferengpässen kommen könnte, zwingt ihn zu nicht bedarfsgerechten Kaufentscheidungen. Zuweilen werden auch Ohnmachtsgefühle der Verbraucher als Ursache gesehen. Das Verhalten ist irrational, zumal Nahrungs- und Genussmittel oder Toilettenpapier als Massenprodukte jederzeit reproduzierbar sind. In Frankreich und Italien ist von Hamsterkäufen unter anderem der Rotwein betroffen, ein nicht jederzeit reproduzierbares Produkt.

3.1

Unterschiedliche Konzepte für die Definition von Intelligenz

13

Die Folge von Herdenverhalten sind starke Preisschwankungen des betroffenen Handelsobjekts. Zudem beschleunigen Hamsterkäufe die Warenrotation und verringern die logistische Reichweite. Als Marktverhalten ist das Herdenverhalten insbesondere bei Noise Tradern bekannt, die oft vom Herdenverhalten geleitet sind und durch Stimmungen oder Gruppen dazu motiviert werden, zu kaufen oder in fallende hinein zu verkaufen. Dies ist der sogenannte „Stimmungs-Noise“. Steigende oder fallende Kurse sind ein Indiz dafür, dass sich bereits andere Marktteilnehmer zuvor genauso entschieden haben. Dieser Noise kann sowohl bei Kauf- als auch bei Verkaufsentscheidungen und auch bei HalteEntscheidungen zugrunde liegen. Herdenverhalten ist somit ein Zeichen für fehlende Effizienz von Märkten. Spekulation wird für einen Markt erst problematisch, wenn nicht mehr mit Hilfe von Fundamentaldaten spekuliert wird, sondern Herdenverhalten einsetzt. Dann können Spekulationsblasen entstehen, die meist auf Herdenverhalten zurückzuführen sind. Spekulationsblasen können durch die Erwartung der Mehrheit der Marktteilnehmer von künftigen Gewinnchancen begründet werden. Gewinnmitnahmen können auch auf Herdenverhalten beruhen, wenn eine Vielzahl von Anlegern ein hohes Kursniveau zum Verkauf nutzt und sich weitere Anleger dem anschließen. Auch der Bank Run ist ein typisches Herdenverhalten, denn Anleger beobachten eine vielleicht zufällige Massenabhebung von Bargeld und schließen sich dieser blindlings an im Vertrauen darauf, dass diese einen bestimmten Grund haben muss; die massenhaften Abhebungen kulminieren schließlich im Dominoeffekt. Anleger ziehen ihre Einlage ab, weil sie befürchten, diese Einlage infolge des sequentiellen Auszahlungsprinzips („Wer zuerst kommt, mahlt zuerst.“) andernfalls nicht mehr abziehen zu können, da die Bargeldbestände aufgebraucht sind. Folglich ist es für jeden Einleger rational, der Herde zu folgen. Ein Bank Run ist umso eher zu erwarten, je schlechter die Bankkunden informiert sind und je mehr sie überreagieren. Hamsterkäufe sind geeignet, durch stark zunehmende Nachfrage zur Knappheit bestimmter Güter oder Dienstleistungen und damit zur Marktenge beizutragen. Herdenverhalten kann zu selbsterfüllenden Prophezeiungen führen: Verhalten sich Marktteilnehmer in einer bestimmten Weise, so kann dies dazu führen, dass sich die einer Anlage zugrunde liegenden Fundamentaldaten durch das Herdenverhalten selbst ändern: Sie entwickeln sich in die Richtung, die die Herde einschlägt – folglich ist es rational, nicht aus der Herde auszuscheren, wodurch sich letzten Endes das erwartete Ergebnis einstellt. [10] • Kompetenz Das Verhältnis zwischen individueller und kollektiver Intelligenz wird noch überlagert durch den Begriff der Kompetenz. Als Beispiel wählen wir die Maxwell’schen Gl. (3.1) bis (3.4).

14

3 Wie definiert man Intelligenz?

 = ρ div D div B = 0 ∂ B =0 rot E + ∂t  ∂D rot B − = j. ∂t

(3.1) (3.2) (3.3) (3.4)

Hierbei sind: – E die elektrische Feldstärke,  die elektrische Flussdichte, – D – H die magnetische Feldstärke, – B die magnetische Flussdichte. Die Ladungsdichte ρ ist die Quelle des elektrischen Feldes, die Stromdichte wird durch j bezeichnet. Diese vier Gleichungen sagen einem normalen Sterblichen überhaupt nichts, er versteht im Allgemeinen die Formeln nicht, ebensowenig die physikalischen Begriffe. Nur ein Fachmann kann hiermit etwas anfangen. Und das bringt den Begriff der Kompetenz ins Spiel. Viele Leute können diese Kompetenz erwerben, aber nur auf wenigen Gebieten, weil der Weg dahin lang und mühselig ist und meistens ein Universitätsstudium erfordert. Diese Kompetenz ist für jede Wissenschaft notwendig. Aber auch alle Berufe und der vielseitige Alltag erfordern Kompetenz auf den unterschiedlichsten Gebieten, Sie spielt in Prozessen eine Rolle, in der die Leistungsfähigkeit aus einer anwendungsorientierten Sicht betrachtet wird. Kompetenzen werden vor allem in Zusammenhang mit der Entwicklung von Bildungsstandards herangezogen, um Bildungsziele zu erreichen. Man kann die folgenden Eigenschaften aufzählen. 1. Kompetenzen als generelle kognitive Leistungsdispositionen, die Personen befähigen, sehr unterschiedliche Aufgaben zu bewältigen. 2. Kompetenzen als kontextspezifische kognitive Leistungsdispositionen, die sich funktional auf bestimmte Klassen von Situationen und Anforderungen beziehen. Diese spezifischen Leistungsdispositionen lassen sich auch als Kenntnisse, Fertigkeiten oder Routinen charakterisieren. Sie sind funktional bestimmt. 3. Kompetenzen im Sinne der für die Bewältigung von anspruchsvollen Aufgaben nötigen motivationalen Orientierungen. 4. Handlungskompetenz als eine Integration der drei erstgenannten Konzepte, bezogen auf die Anforderungen eines spezifischen Handlungsfeldes. 5. Metakompetenzen als das Wissen, die Strategien oder die Motivationen, welche sowohl den Erwerb als auch die Anwendung spezifischer Kompetenzen erleichtern. 6. Schlüsselkompetenzen, die aber für einen relativ breiten Bereich von Situationen und Anforderungen relevant sind. Hierzu gehören auch sprachliche oder mathematische Kenntnisse.

3.2

Intelligenztests

15

• Tierische Intelligenz Obwohl sich die Intelligenzforschung in erster Linie auf den Menschen konzentriert, haben Wissenschaftler auch versucht, die Intelligenz von Tieren zu untersuchen. Man ist daran interessiert, sowohl die geistigen Fähigkeiten einer bestimmten Art zu untersuchen als auch die Fähigkeiten verschiedener Arten zu vergleichen.

3.2

Intelligenztests

Es stellt sich natürlich sofort die Frage, wie man die verschiedenen Formen der Intelligenz, die im vorangegangenen Abschnitt definiert wurden, vergleichen kann. Schließlich sind sie nicht völlig deckungsgleich und werden von Natur aus bei jedem Menschen anders ausgeprägt. Aus diesem Grund wurde eine Vielzahl von Intelligenztests definiert (Abb. 3.3). Ein Intelligenztest ist ein Instrument der psychologischen Diagnostik zur Messung der Intelligenz einer Person. Es gibt viele verschiedene Arten von Intelligenztests. Es wird davon ausgegangen, dass Leistungsunterschiede in Intelligenztests auch Unterschiede in der kognitiven Leistung im täglichen Leben widerspiegeln. Psychologische Tests werden als Hilfsmittel eingesetzt, um im Rahmen verschiedener diagnostischer Fragestellungen eine optimale Entscheidung zu finden. Die Beurteilung der Intelligenz kann beispielsweise bei der Vorhersage von Berufserfolg oder Berufseignung (Personalauswahl oder Berufsberatung) oder bei der Empfehlung einer Schulausbildung oder Studienwahl hilfreich sein. Auch verschiedene klinische Fragestellungen (Vorliegen von Krankheiten wie Demenz oder Intelligenzminderung oder die Anwendung beruflicher Rehabilitationsmaßnahmen) können eine Erfassung der Intelligenz erforderlich machen. Das bekannteste Ergebnis einiger dieser Tests ist der Intelligenzquotient (IQ). Wegen der Gefahr, den IQ zu einer absoluten Bezeichnung für eine Person zu machen (wie Größe oder Gewicht – also unabhängig von einer bestimmten Fragestellung), wird diese Größe in der Fachsprache nicht mehr verwendet, und es werden andere Standardskalen zur Beschreibung der Intelligenzleistung eingesetzt.

Abb. 3.3 Intelligenztest – wie viel Tiere kann man sehen?

16

3 Wie definiert man Intelligenz?

Intelligenztests sind oft umstritten. Dies liegt unter anderem an der Vielzahl von Faktoren, die die Intelligenz beeinflussen, einer möglichen Verbindung zu Vererbungsproblemen und Zweifeln an der Objektivität. Mit den im Internet angebotenen Intelligenztests kann man sich sehr gut die Zeit vertreiben, es ist aber nicht einfach, daraus einen vernünftigen Schluss zu ziehen. Sehr oft wird Mathematik-Verständnis abgefragt; auch die Fähigkeit, sich eine größere Menge von Figuren schnell zu merken und sie zu klassifizieren entsprechend nicht sofort sichtbarer Merkmale, ist hilfreich. Oft spielt auch die zur Verfügung stehende Zeit eine Rolle. Wenn man den gleichen Test mit einer geringeren oder erhöhten Bedenkzeit ausführt, kann das Ergebnis ganz anders aussehen. Schon dieser kurze Überblick zeigt, dass es sehr schwierig ist, eine allgemeingültige und akzeptierte Definition von Intelligenz zu finden, die allen Anforderungen gerecht wird. Dies zeigt sich natürlich auch, wenn man von „Künstlicher Intelligenz“ sprechen will.

4

Die historische Entwicklung

4.1

Die Anfänge

Viele moderne wissenschaftliche Theorien mit Bezug zur Mathematik finden ihren Anfang bei Gottfried Wilhelm Leibniz (1646–1716, Abb. 4.1). Leibniz notierte über sich auf Französisch: „Mir kommen morgens manchmal so viele Gedanken während einer Stunde, die ich noch im Bett liege, dass ich den ganzen Vormittag und bisweilen den ganzen Tag und länger brauche, um sie klar zu Papier zu bringen.“ Sein handschriftlicher Nachlass, der im Arbeitskatalog der Leibniz-Edition verzeichnet wird, ist dementsprechend umfangreich und umfasst mehr als 40.000 Schriften und Briefe. Leibniz zählt zur Frühaufklärung und wird oft als letzter Universalgelehrter bezeichnet. Er hatte einen starken Einfluss auf die nachfolgenden Aufklärer, die klassische deutsche Philosophie, den deutschen Idealismus und die Literatur der Weimarer Klassik. Seine Entdeckungen in den Naturwissenschaften und seine philosophischen und historischen Schriften werden bis heute von Gelehrten beachtet. Er repräsentierte als letzter großer Denker den vor dem 18. Jahrhundert praktizierten Wissenschaftsstil der vielfältigen Verknüpfung von Zusammenhängen. Einige seiner Forschungsergebnisse und Initiativen waren: • • • • • • • • • •

Beschreibung des Dualsystems, Entwicklung der Dezimalklassifikation, Pläne für ein Unterseeboot, Verbesserung der Technik von Türschlössern, Gerät zur Bestimmung der Windgeschwindigkeit, Rat an Ärzte zur regelmäßigen Fiebermessung, Gründung einer Witwen- und Waisenkasse, Beweis für das Unbewusste des Menschen, Infinitesimalrechnung (Integralrechnung und Differentialrechnung), Matrizen und Determinanten,

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_4

17

18

4 Die historische Entwicklung

Abb. 4.1 Gottfried Wilhelm Leibniz (1646–1716)

• Erfindung der Staffelwalze für eine mechanische Rechenmaschine, • Entwicklung der Endloskette zur Erzförderung im Bergbau. Als Freund, Fachkollege und Ermunterer der damaligen europäischen Schriftgelehrten und Verfasser sprachkundlich einflussreicher Schriften war er einer der wesentlichen Initiatoren zur Begründung der modernen Sprachwissenschaft, insbesondere der Indogermanistik. In dem Brief an Herzog Rudolph August vom 12. Januar 1697 beschreibt und skizziert Leibniz erstmals seine Idee des „Dualsystems“. Im Zentrum seiner Ausführungen steht der christliche Glaube, dass man aus dem Nichts (0) alles (1) erschaffen kann, was zu dem berühmten Satz „omnibus ex nihilo ducendis sufficit unum“ führt. Das Original des Briefes, in dem er das Dualsystem begründete, ist erhalten geblieben (Abb. 4.2). Heute sind wir mit der Tatsache vertraut, dass jede Zahl größer als 1 als Basis für die Darstellung einer beliebigen Zahl dienen kann. Aktuell wird die Zahl 10 im menschlichen Alltag verwendet, die Basis 2 für alle digitalen Geräte. Die dezimale Darstellung ordnet den Positionen von rechts nach links Potenzen von 10 zu: . . . 104 103 102 101 100 . 728 = 7 · 102 + 2 · 101 + 8 · 100 Wenn man die Basis 10 verwendet, benötigt man die zehn Ziffern 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Die binäre (duale, zweiwertige) Darstellung der gleichen Zahl: 728 = 1.011.011.000 = 1·29 +0·28 +1·27 +1·26 +0·25 +1·24 +1·23 +0·22 +0·21 +0·20 Man sieht, dass die duale Darstellung nur die Ziffern 0 und 1 benötigt. Da aber jede Potenz von 2 wesentlich weniger zum Wert der Zahl beiträgt als die Potenzen von 10, benötigt man eine größere Anzahl von Zweierpotenzen, und die Darstellung wird wesentlich länger. Die Addition von Dualzahlen ist ganz einfach:

4.1

Die Anfänge

19

Abb. 4.2 Der Brief, in dem das Dualsystem beschrieben wird

0+0 = 0 0+1 = 1 1+0 = 1 ¨ 1 + 1 = 0 Ubertrag 1 Auch die Multiplikation macht keine Schwierigkeiten: 0·0 = 0 0·1 = 0 1·0 = 0 1·1 = 1 Dem Dualsystem kann man sich auch von einer ganz anderen Seite nähern. Der englische Mathematiker, Logiker und Philosoph George Boole (1815–1864, Abb. 4.3) begründete in seiner Arbeit „The Mathematical Analysis of Logic“ (1847), den ersten algebraischen Logikkalkül, der für die Entwicklung der Computertechnik grundlegende Bedeutung besitzt.

20

4 Die historische Entwicklung

Abb. 4.3 George Boole (1815–1864)

Im Umfeld der Computertechnik verwendet man stets die Ziffern 0 and 1, in der Aussagenlogik werden diesen Ziffern zwei Wahrheitswerte zugeordnet: 1 ⇔ wahr

0 ⇔ f alsch

1 ⇔ tr ue

0 ⇔ f alse

Die englischen Worte werden in den Programmiersprachen verwendet. Seine Voraussetzung für die Aussagenlogik ist einfach und selbstverständlich: • Die Wiederholung einer Aussage ändert nichts an ihrem Wahrheitswert. Eine falsche Aussage bleibt falsch, eine wahre Aussage bleibt wahr. Seine weitere Schlussfolgerung ist brillant: Er überträgt diese Tatsache in die Arithmetik, die seit Jahrtausenden fehlerfrei funktioniert. Er führt eine logische Variable x ein und formuliert: x2 = x Diese Gleichung hat die beiden Lösungen x = 0 und x = 1. Die Zweiwertigkeit der Logik ergibt sich also zwingend aus der Konstanz des Wahrheitswertes und der vorausgesetzten Widerspruchsfreiheit der Arithmetik. Ein Beweis der Widerspruchsfreiheit der Arithmetik wurde erst 1936 von Gerhard Gentzen (1909–1945) veröffentlicht. Auf dieser Zweiwertigkeit baut er die Aussagenlogik auf, die als Boole’sche Algebra bezeichnet wird. Sie ist heute eine Grundlage für den Entwurf von mikroelektronischen Schaltkreisen, aber auch in der „Künstlichen Intelligenz“ spielt sie eine ganz wesentliche Rolle.

4.1

Die Anfänge

21

Die folgenden logischen Funktionen stehen zur Verfügung: Konjunktion ∧, Disjunktion ∨, Antivalenz ⊕, Äquivalenz ∼ und Negation ¬ Das Symbol ¬ wird nur selten verwendet, meistens wird es durch eine Überstreichung x ersetzt (Tab. 4.1). Das Symbol ∧ wird meistens weggelassen (so wie es oft auch bei der Multiplikation der Fall ist). Wir verstehen also ab als a ∧ b. Die Anwendung dieser Operationen in der Logik gab ∧ den Namen und: Die Verbindung von zwei Aussagen durch und ist wahr, wenn jede der beiden Aussagen wahr ist, ansonsten ist sie falsch. ∨ wird mit oder bezeichnet: Um eine wahre Aussage zu erhalten, muss die erste Aussage oder die zweite Aussage wahr sein; es ist erlaubt, dass beide Aussagen wahr sind (Tab. 4.2). Man sieht, dass die Äquivalenzfunktion gleich 1 ist, wenn x und y den gleichen Wert haben. Der Wert der Antivalenz ist gleich 1, wenn die Werte von x und y unterschiedlich sind. Man sieht, dass Antivalenz und Äquivalenz durch Negation ineinander übergehen. Der Vergleich der Tabelle für die Addition von Binärzahlen mit der Tabelle für die Antivalenz zeigt, dass sie genau gleich sind; deshalb verwendet man für sie das Formelzeichen ⊕. Dies gilt auch für die Tabellen der Konjunktion und der Multiplikation von Binärzahlen. Die Disjunktion und die Negation lassen sich ebenfalls arithmetisch ausdrücken (Tab. 4.3): a∨b =a+b−a·b x =1−x Die mathematische Modellierung von Schaltungen mit Hilfe der Boole’schen Algebra wurde von Claude Shannon (1916–2001) eingeführt. Er schrieb 1937 seine Magisterarbeit: „A Symbolic Analysis of Relay and Switching Circuits“. Ein Teil dieser Dissertation wurde 1938 veröffentlicht. Shannon zeigte, dass die Boole’sche Algebra verwendet werden kann, um die Anzahl und die Anordnung der elektromechanischen Relais zu vereinfachen, die Tab. 4.1 Konjunktion und Disjunktion

Tab. 4.2 Antivalenz and Äquivalenz

xy x∧y

x∨y

00 0

0

01 0

1

10 0

1

11 1

1

x y x⊕y

x∼y

00 0

1

01 1

0

10 1

0

11 0

1

22

4 Die historische Entwicklung

Tab. 4.3 Negation

x x 0 1 1 0

damals in Vermittlungsstellen für Telefongespräche verwendet wurden. Im letzten Kapitel stellte er Diagramme mehrerer Schaltungen vor, unter anderem einen 4-Bit-Volladdierer, die alle mit Hilfe der Boole’schen Algebra entworfen wurden. Im Laufe der Jahre wurde dieser Kalkül zur mathematischen Grundlage für alle digitalen Systeme. Schauen wir uns als Beispiel eine Additionsschaltung (Abb. 4.4) an, die die Zahlen addiert, die sich mit vier Bits darstellen lassen; das sind die Zahlen von 0 bis 15. Die Addition sieht folgendermaßen aus: 0+0= 0

(4.1)

0+1= 1

(4.2)

.. .

.. .

15 + 14 = 29

(4.3)

15 + 15 = 30

(4.4)

Der größte Wert ist die Zahl 30, die im Dualsystem fünf Stellen benötigt: 30 = ˆ 1 1110

Abb. 4.4 Eine Additionsschaltung für vier Bits

4.1

Die Anfänge

23

Diese zusätzliche Position benötigt man immer dann, wenn die Summe von zwei vierstelligen Dualzahlen größer als 15 ist. Shannon arbeitete auch auf vielen anderen Gebieten und war einer der produktivsten Wissenschaftler aller Zeiten (Abb. 4.5). Bei der Parallelschaltung (Abb. 4.6) erreicht man eine leitende Verbindung, wenn der obere Kontakt oder der untere Kontakt oder beide geschlossen sind. Dieser Sachverhalt wird durch die Disjunktion beschrieben. Um bei der Reihenschaltung eine leitende Verbindung zu erreichen, muss der erste Kontakt und der zweite Kontakt geschlossen sein. Dieser Sachverhalt wird durch die Konjunktion modelliert (Abb. 4.7). Die Boole’sche Algebra stellt viele Algorithmen bereit, um logische Ausdrücke zu minimieren. Eine bestimmte Funktion, die von einem Schaltkreis realisiert werden soll, kann durch viele verschiedene Formeln dargestellt werden, und die minimale Darstellung führt dazu, dass der Speicherbedarf einer solchen Schaltung möglichst gering ist und die Rechengeschwindigkeit ihr Maximum erreicht. Seit den 60er-Jahren des vergangenen Jahrhunderts

Abb. 4.5 Claude Shannon (1916–2001)

Abb. 4.6 Eine Parallelschaltung realisiert die Disjunktion y = a ∨ b

24

4 Die historische Entwicklung

Abb. 4.7 Eine Reihenschaltung realisiert die Konjunktion y = a ∧ b

setzte eine enorme Entwicklung der Digitaltechnik ein. Die zur Verfügung stehenden Schaltkreise wurden immer kleiner und schneller, und es konnten immer größere Datenmengen gespeichert werden. Der schnellste Supercomputer der Welt ist wohl zurzeit Fugaku im RIKEN Center for Computational Science in Kobe, Japan. Dieser leistet mit seinen 7.299.072 Kernen 415,5 Petaflops. 1 Petaflop entspricht einer Geschwindigkeit von 250 Gleitkomma-Operationen (Operationen mit reellen Zahlen) pro Sekunde. Die einzelnen Recheneinheiten sind Eigenentwicklungen vom Hersteller Fujitsu und beinhalten 48 Kerne sowie 32 Gigabyte (GB) HBM2-Arbeitsspeicher. HBM steht für Speicher mit hoher Bandbreite. Er erreicht eine Geschwindigkeit von 1024 G B/s; 1 GB = 1 Gigabyte = 109 Bytes (B). Ein Byte enthält acht Datenbits. Diese acht Bits können simultan, parallel oder sequentiell von Bit 1 bis Bit 8 übertragen werden. Die parallele Übertragung ist die schnellste. Es können also pro Sekunde 1012 B gespeichert werden. Auf demselben Chip befinden sich außerdem weitere Komponenten wie PCIe-Lanes und ein Netzwerk-Switch, wodurch die Bezeichnung „System-on-a-Chip (SOC)“ zutrifft. Dank des 7 nm − Herstellungsprozesses ist dieses Wunderwerk der Technik außerordentlich energieeffizient. Der Supercomputer benötigt im Betrieb jedoch immer noch bis zu 28.334,5 kW an Energie. Fugakus Stärke liegt aber nicht nur in der Rechenleistung selbst, sondern in der ausgewogenen Architektur aus Prozessoren, Verbindungen (Interconnects) und Speichern. Auf Platz 3 im nationalen und auf Rang 31 im globalen Vergleich befindet sich gegenwärtig der Supercomputer JUWELS vom Forschungszentrum Jülich in Nordrhein-Westfalen. Dieser besteht aus 2271 Rechnern mit jeweils 96 GB Arbeitsspeicher und 240 weiteren Rechnern mit jeweils 192 GB. Beide beherbergen einen Prozessor des Typs Intel Xeon Platinum SC 8168 (24 Kerne, 2,7 GHz). Dazu gesellen sich 40 weitere Rechner mit jeweils 4 Nvidia Volta V100 Grafikprozessoren. Insgesamt erreicht das System eine Rechenleistung

4.2

Die Dartmouth-Konferenz

25

von 10,4 Petaflops bei einem Energieverbrauch von 1,36 MW. Gekühlt wird der Supercomputer mit Heißwasser, welches gleichzeitig für Heizzwecke anderer Gebäude genutzt wird. Zum Zeitpunkt der Veröffentlichung dieses Buches werden die Zahlen aber sicherlich schon höher liegen. Damit ist aber eine wichtige Grundlage für die „Künstliche Intelligenz“ gegeben: Man hat die Möglichkeit, Daten in unbegrenzter Menge zu speichern, und man kann sie mit ungeheurer Geschwindigkeit verarbeiten.

4.2

Die Dartmouth-Konferenz

Das erste Mal wurde der Begriff der Künstlichen Intelligenz explizit verwendet in dem Vorschlag • „A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence“ von J. McCarthy, Dartmouth College, M. L. Minsky, Harvard University, N. Rochester, I.B.M. Corporation, C.E. Shannon, Bell Telephone Laboratories, mit Datum vom 31. August 1955 (Abb. 4.8). Es sollten die folgenden Themen behandelt werden: • • • •

Automatische Computer Wie kann ein Computer so programmiert werden, dass er eine Sprache benutzt Neuronale Netze Theorie der Größe einer Berechnung

Abb. 4.8 Die Dartmouth-Konferenz 1955

26

4 Die historische Entwicklung

• Selbstverbesserung • Abstraktionen • Zufälligkeit und Kreativität

4.3

Algorithmen und Programmiersprachen

Viele wertvolle Programmierumgebungen (eine Software, die die Eingabe eines Programms, das in einer bestimmten Programmiersprache geschrieben ist und das Programmieren bis zum lauffähigen korrekten Programm unterstützt) kann man zu niedrigen Preisen oder sogar ohne Kosten beziehen. Die wichtigsten Programmiersprachen sind gegenwärtig C, C++, Java und Python. Sie werden ständig weiterentwickelt und aktualisiert. Außerdem sind sie vom verwendeten Betriebssystem unabhängig. Java kann man problemlos unter dem Betriebssystem „Windows“ verwenden, aber ebenso unter dem System „Linux“. Bei der Programmierung sind wesentliche Aspekte der Softwarequalität zu berücksichtigen und durch die Gestaltung des Quellcodes umzusetzen. Als Beispiele seien genannt: Programmierstil, Benutzerfreundlichkeit, Wiederverwendbarkeit und Modularität sowie Wartbarkeit. Programmieren im erweiterten Sinne umfasst neben dem reinen Programmieren zahlreiche weitere Tätigkeiten, beispielsweise das Testen (Entwicklertest) des Programms oder die Erstellung der Programm-Dokumentation. Andere Entwicklungsaktivitäten wie Projektmanagement, Anforderungsanalyse oder Datenmodellierung können von der Programmierung abgegrenzt werden. Je nach Art und Anwendungsumgebung der Software (Systemsoftware, Software für Spiele, Standardsoftware, Grafiksoftware etc.) können unterschiedliche Verfahren und Werkzeuge (wie Programmiersprachen und Testverfahren) für die Entwicklung eingesetzt bzw. von spezialisierten Entwicklern durchgeführt werden. Entsprechend der Organisation der Arbeiten finden die Programmieraktivitäten in zeitlich getrennten Projektphasen parallel oder iterativ statt. In der Praxis erfolgt die Programmierung häufig in Teamarbeit unter Verwendung moderner Entwicklungsmethoden und Programmierwerkzeuge. Auch dieses Gebiet ist mit Problemen reichlich angefüllt. Dokumentationen von wichtigen Programmen, wie z. B. die von Microsoft stammenden Programme Word und Excel, umfassen Dutzende von Seiten, und es ist ein hoffnungsloses Unterfangen, alles, was mit den Programmen möglich ist, auswendig zu lernen. Man muss sich Schritt für Schritt einarbeiten und neue Dinge dann dazulernen, wenn sie gebraucht oder gewünscht werden. Das Testen eines Programms geschieht immer anhand von repräsentativen Beispielen. Hier gilt aber der berühmte Satz: Ein Beispiel ist kein Beweis! Das bedeutet, dass ein erfolgreicher Lauf eines Programmes nicht garantiert, dass das bei einem nächsten Lauf ebenso ist.

4.3

Algorithmen und Programmiersprachen

27

Es gibt eine lange Liste berühmter Informatiker, die zur Entwicklung aller Arten von Programmiersprachen beigetragen haben. Mit dem Einsetzen der industriellen Revolution (etwa ab 1880) wurden viele vormals handwerkliche Tätigkeiten immer stärker in die Kontrolle von Maschinen gegeben. Diese waren durch ihre zyklischen Funktionsweisen besonders für sich wiederholende Aufgaben ausgelegt. Andererseits wurde es immer wichtiger, den maschinell ausgeführten Prozessen auch Alternativen vorzugeben, zumal diese Prozesse auch immer schneller ausgeführt werden konnten. Exemplarisch für diese Notwendigkeit steht die Einführung des programmierbaren Webstuhls von Joseph-Marie Jacquard, (1752–1834) am Anfang des 19. Jahrhunderts. Der Webstuhl arbeitete mit Lochkarten, die die Informationen über das zu webende Muster enthielten. Das Kunsthandwerk des Webens konnte nun als „Programmierkunst“ auf einem dem Stoffmuster analogen Medium fortgeführt werden (siehe Abb. 4.9).

4.3.1

Die 1930er- und 1940er-Jahre: Logische Kalküle

Der Lambda-Kalkül wurde von Alonzo Church (1903–1995) und Stephen Kleene (1909– 1984) in den 1930er-Jahren entwickelt. Es wurde schon früh nachgewiesen, dass der Lambda-Kalkül im Prinzip eine universelle Programmiersprache ist. Mit Fertigstellung der ersten elektronischen Rechenmaschinen und der Verwendung der Boole’schen Algebra ging es spürbar mit der Entwicklung von Programmiersprachen weiter. Hervorzuheben sind diesbezüglich etwa 1937 die Patente von Konrad Zuse (Abb. 4.10), die eine Computerarchitektur beschreiben, die später als Von-Neumann-Maschine bekannt wird. In den 1940er-Jahren stellte Zuse dafür seine Programmiersprache Plankalkül fertig,

Abb. 4.9 Ein Jacquard-Webstuhl, der mit Lochkarten gesteuert wird

28

4 Die historische Entwicklung

Abb. 4.10 Konrad Zuse (1910–1995)

in die Ideen aus dem Lambda-Kalkül einflossen. Die Von-Neumann-Architektur (VNA) ist ein Referenzmodell für Computer, wonach ein gemeinsamer Speicher sowohl Computerprogrammbefehle als auch Daten hält. Von-Neumann-Systeme gehören nach der Flynn’schen Klassifikation zur Klasse der SISD-Architekturen (Single Instruction, Single Data), im Unterschied zur Parallelverarbeitung. Die Von-Neumann-Architektur bildet die Grundlage für die Arbeitsweise der meisten heute bekannten Computer. Sie ist benannt nach dem österreichisch-ungarischen, später in den USA tätigen Mathematiker John von Neumann, dessen wesentliche Arbeit zum Thema 1945 veröffentlicht wurde. Sie wird manchmal auch Princeton-Architektur genannt (nach der Princeton University).

4.3.2

Die 1950er-Jahre: Erste moderne Programmiersprachen

Grace Hopper (1906–1992) war eine amerikanische Informatikerin. Sie kam Ende der 1940er-Jahre auf die Idee, Computerprogramme in einer verständlichen Sprache zu verfassen, also nicht unmittelbar auf dem Niveau von 0 und 1 zu arbeiten. Dieses Niveau ist nur für Computer verständlich. Jede höhere Programmiersprache muss mit einem Übersetzungsprogramm, einem Compiler, in diese Maschinensprache übersetzt werden. Maßgeblich war sie an den wegweisenden Projekten Mark I, Mark II und UNIVAC I beteiligt. Sie hat 1952 den ersten Compiler (A-0) entwickelt und mit der Programmiersprache FLOW-MATIC und dem zugehörigen Compiler (1957) wesentliche Vorarbeiten zur Entwicklung der Programmiersprache COBOL geleistet (Spitzname: „Grandma COBOL“). Durch ihr Beharren auf der Bedeutung einer allgemeinverständlichen Sprache sind Compiler, Interpreter und Programmiersprachen entstanden. In den 1950er-Jahren wurden in den USA die ersten drei weitverbreiteten, praktisch eingesetzten höheren Programmiersprachen entwickelt: Die älteste noch in weitem Gebrauch befindliche Sprache FORTRAN (FORmula TRANslator) wurde 1954 von John W. Backus et al. entworfen, 1959 kam LISP (LISt Processor) von John McCarthy et al. hinzu.

4.3

Algorithmen und Programmiersprachen

29

Die vorgenannten Sprachen existieren mit ihren Nachfolgern bis heute. Vor allem LISP beeinflusste die später an amerikanischen Universitäten entwickelten Programmiersprachen stark. Der nächste größere Meilenstein wurde zwischen 1958 und 1960 gesetzt, als ein internationales Komitee während einer Tagungsreihe eine „neue Sprache für Algorithmen“ mit dem späteren Namen ALGOL 58 entwarf. Das Komitee beendete seine Entwicklung mit dem Revised Report on ALGOL 60. In dem Bericht zur Tagung wurden viele Ideen aufgenommen, die zu dieser Zeit in der Fachgemeinschaft kursierten. Eine wichtige Neuerung war die Backus-Naur-Form (BNF) zur kontextfreien Beschreibung der Syntax der Programmiersprache. Nahezu alle folgenden Programmiersprachen benutzen die BNF, um die Syntax als kontextfreie Grammatik darzustellen. Obwohl ALGOL 60 sich aus politischen Gründen in Nordamerika nicht durchsetzte, hauptsächlich weil IBM eine Gegenentwicklung in Form von PL/1 anbot, teilweise aber auch wegen der Entscheidung, die Ein- und Ausgabe nicht in die Sprachdefinition zu integrieren, wurde ALGOL in der Folgezeit zum Standard in der (west-)europäischen Welt. Es beeinflusste die Ausbildung einer ganzen Generation von Informatikern und den Entwurf späterer Sprachen, insbesondere von SIMULA 67, PASCAL und SCHEME. Eine geraume Zeit wurden diese Sprachen fast überall verwendet, im Lauf der Zeit entwickelten viele Länder, vor allem China, Russland und Japan, eigene Programmiersprachen (Abb. 4.11).

4.3.3

Die 1960er- und 1970er-Jahre: Entwicklung neuer Paradigmen

Ken Thompson (* 1943) und Dennis Ritchie (1941–2011) sind die Entwickler der noch heute viel benutzten Programmiersprache C [20]. In der Folgezeit wurde eine große Zahl von Programmiersprachen entwickelt, da die Möglichkeit und der Bedarf durch den schnellen Fortschritt der Computertechnik gegeben waren. Den größten Erfolg hatten dabei Weiterentwicklungen der bereits vorhandenen Programmiersprachen. Beispielsweise wurde um

Abb. 4.11 Eine japanische Tastatur

30

4 Die historische Entwicklung

1964 BASIC (Beginner’s All-purpose Symbolic Instruction Code) entwickelt, um Studenten den Einstieg in die Programmierung mit ALGOL und FORTRAN zu erleichtern. Mitte der 1960er-Jahre tauchte in der sogenannten Softwarekrise erstmals das Phänomen auf, dass die Kosten für die Software die Kosten für die Hardware überstiegen. In dieser Zeit kam es auch zu den ersten großen gescheiterten Softwareprojekten. BASIC wurde schließlich auch in den Ende der 1970er-Jahre gebauten, erschwinglicheren Heimcomputern populär. Auch die Programmiersprache C, 1972 für das neu entwickelte Betriebssystem UNIX entworfen, hat ihre Wurzeln in ALGOL. Sie setzte sich gegenüber BASIC für allgemeine Anwendungsprogramme durch; die grundlegenden funktionalen Teile vieler Betriebssysteme sind in C programmiert. Beide Programmiersprachen haben bis heute viele Varianten nach sich gezogen.

4.3.4

Objektorientierte Programmierung

Es entstanden in dieser Zeit jedoch auch neue Konzepte. Große Bedeutung erlangte das objektorientierte Programmieren, das Daten-, Prozedur- und Referenzaspekte in dem einzigen Konzept des Objekts vereinigt. Denkweise und Begriffe der Objektorientierung zeigten sich zuerst in SIMULA 67, einer Sprache für Simulationszwecke, die als erste Sprache objektorientierte Verfahren einführte. Erzählt wird, dass ihre Entwickler Ole-Johan Dahl (1931–2002) und Kristen Nygaard (1926–2002) an Schiffssimulationen gearbeitet hatten. Dabei ergab sich durch die unüberschaubar vielen Parameterbeziehungen eine verwirrende Vielfalt an Möglichkeiten, wie sich die verschiedensten Attribute der unterschiedlichen Schiffe gegenseitig beeinflussen konnten. So kam bei ihnen die Idee auf, die unterschiedlichen Schiffstypen jeweils als eigenständige Objekte zu behandeln, wobei jede Klasse von Objekten für die eigenen Daten und das eigene Verhalten selbst zuständig war. 1962 trafen sie sich am Norwegian Computing Center in Oslo und erstellten eine erste formale Beschreibung der Sprache. Ein erster Prototyp eines SIMULA-Compilers lief bereits 1964. In den 1970erJahren wurde SIMULA in der Praxis vielfach eingesetzt. Die objektorientierten Konzepte der Sprache hatten großen Einfluss auf die weitere Entwicklung von Programmiersprachen. Während in SIMULA die neuen Konzepte noch von ihrer Implementierung nicht deutlich abgehoben wurden, wurden in der Folgezeit die Konzepte weiterentwickelt. Deren Begriffe und Verfahren wurden bereits seit den frühen 1970er-Jahren im Xerox Palo Alto Research Center mit der Sprache SMALLTALK verfeinert und konsequenter als in SIMULA umgesetzt. Smalltalk wurde schließlich in den 1980ern der Öffentlichkeit allgemein freigegeben. SMALLTALK war als voll dynamisches System angelegt, bei dem man Objekte interaktiv erzeugen und ändern konnte – im Gegensatz zum vorher verwendeten System statischer Programme. Bemerkenswert auch gegenüber ihren Nachfolgern ist die Integration der Sprache in einer innovativen grafischen Benutzeroberfläche, die erstmals eine echte Interaktion ermöglichte.

4.3

Algorithmen und Programmiersprachen

31

Nachdem Niklaus Wirth (Abb. 4.12) bei seiner Mitarbeit an ALGOL enttäuscht war, entwickelte er PASCAL zusammen mit Kathleen Jensen und setzte PASCAL ab 1971 konsequent für die Lehre von Sprachkonzepten ein. Nachdem er festgestellt hatte, wie schwierig die Softwareentwicklung größerer Projekte mit mehreren Entwicklern umzusetzen war, veröffentlichte er 1978 die mit einem strengen Modul- und Schnittstellenkonzept versehene Weiterentwicklung MODULA-2. Alain Colmerauer (1941–2017), Phillipe Roussel und Robert Kowalski (* 1941) begründeten ab 1972 die logische Programmierung, was sich in mehreren Realisierungen der Sprache PROLOG ausdrückt.

4.3.5

Die 1980er-Jahre

In den 1970ern zeigte sich das Verteidigungsministerium der Vereinigten Staaten besorgt über die Anzahl von über 450 Programmiersprachen, die in seinen Projekten verwendet wurden. Viele der Programmiersprachen waren zudem nicht standardisiert, sondern vom Anbieter abhängig. Eine Arbeitsgruppe sollte diesen Dschungel lichten und eine Sprache finden, die die militärischen Bedingungen des Ministeriums erfüllt. Viele existierende Sprachen wurden überprüft, doch 1977 kam die Arbeitsgruppe zum Entschluss, dass keine der vorhandenen Sprachen geeignet war. Nach Ausschreiben von vier Sprachentwürfen entschied man sich 1980 für die aus den besten Ideen der Entwürfe komponierte Sprache ADA. Dieser Entwurf wurde unter der Bezeichnung MIL-STD 1815 standardisiert, da 1815 die Namensgeberin Ada Lovelace (1815–1852) geboren wurde. Das Verteidigungsminis-

Abb. 4.12 Niklaus Wirth (* 1934)

32

4 Die historische Entwicklung

terium der USA schrieb zeitweilig vor, dass jedes Softwareprojekt mit einem Anteil von mehr als 30 % neuem Code in ADA geschrieben werden musste. Um die Verbreitung des Standards zu unterstützen, finanzierte die US Air Force die Entwicklung des kostenfreien GNAT-Compilers. Die Anzahl verschiedener Programmiersprachen im Ministerium reduzierte sich schließlich auf 36. Die objektorientierte Programmierung begann Mitte der 1980er-Jahre populärer zu werden, hauptsächlich durch den Einfluss von C++, das als syntaktische Erweiterung der Sprache C konzipiert war. Bjarne Stroustrup (* 1950) hatte 1983 C++ vorgestellt. Viele existierende Programmiersprachen erhielten seit dieser Zeit objektorientierte Erweiterungen, wie PASCAL oder LISP. Speziell für die Entwicklung der Künstlichen Intelligenz waren die Sprachen PROLOG und LISP vorgesehen. PROLOG realisiert eine auf Fakten und Regeln aufgebaute logische Programmierung, LISP realisiert eine funktionale Programmierung, sie wird für Probleme verwendet, bei denen schnell ein Prototyp der Lösung entstehen muss.

4.3.6

Die weitere Entwicklung

• Linus Torvalds Linus Torvalds (* 1969) hat in seinem Zimmer auf dem Campus der Universität von Helsinki LINUX erschaffen. Das Open-Source-Betriebssystem wird heute nicht nur von Computerfreaks, sondern vor allem in Datenzentren oder Serverfarmen eingesetzt. Bis heute koordiniert er die Entwicklung des Linux-Kernes. Zudem gilt er als einer der zentralen Entwickler des Versionsverwaltungssystems Git. • Brendan Eich Der ehemalige Mozilla-CTO Brendan Eich hat den JavaScript-Vorläufer LiveScript entwickelt. JavaScript ist aktuell de facto der Standard für die Entwicklung von InternetSeiten. • Tim Berners-Lee Der britische Informatiker Tim Berners-Lee gilt als HTML-Erfinder und damit als Begründer des heutigen Internets (World Wide Web). Für seine Verdienste wurde er im Jahr 2004 von Königin Elisabeth II. in den Ritterstand erhoben. Derzeit steht Sir Tim Berners-Lee dem World Wide Web Consortium (W3C) vor und lehrt als Professor am Massachusetts Institute of Technology (MIT). Der erste Webserver der Welt wurde von Berners-Lee auf einem NeXTcube-Computer entwickelt und implementiert. Ein Problem am CERN war, dass sich ein Teil der Laboratorien auf französischem, ein anderer auf schweizerischem Gebiet befindet. In den beiden Ländern herrschten unterschiedliche Netzwerk-Infrastrukturen, die den Austausch von Informationen erschwerten. Am 12. März 1989 schlug Berners-Lee seinem Arbeitgeber CERN ein Projekt vor, das auf dem Prinzip des Hypertexts beruhte und den weltweiten Austausch sowie die Aktualisierung von Informationen zwischen Wissenschaftlern vereinfachen sollte. 1990 veröffentlichte er mit Robert Cailliau ein Konzept für ein welt-

4.4

Die Turing-Maschine

33

weites Hypertext-Projekt, das Computerprogramm Enquire. In der Folgezeit entwickelte Berners-Lee die Seitenbeschreibungssprache HTML, das Transferprotokoll HTTP, die URL, den ersten Browser und den ersten Webserver CERN httpd. Berners-Lee erstellte die erste Webpräsenz, info.cern.ch. Diese Website gibt es bis heute; allerdings existiert von dem ursprünglichen Inhalt nur noch eine Kopie aus dem Jahr 1992. Sie erläuterte unter anderem, • was das World Wide Web sein sollte, • wie man an einen Webbrowser kommt, • wie man einen Webserver einrichtet. Ursprünglich war dies auch die erste einfache Suchmaschine, denn Berners-Lee betreute noch andere Webpräsenzen außer seiner eigenen. Die Grundideen des World Wide Webs sind vergleichsweise einfach, Berners-Lee sah und verknüpfte sie jedoch in einer Weise, deren Möglichkeiten bis heute noch nicht vollständig ausgeschöpft sind. 1994 gründete Berners-Lee das World Wide Web Consortium (W3C) am Massachusetts Institute of Technology. Wichtig war, dass er seine Ideen und technischen Umsetzungen nicht patentierte, sondern frei weitergab. Auch auf die Maxime des „World Wide Web Consortiums“, nur patentfreie Standards zu verabschieden, hatte er starken Einfluss. In seinem Buch „Weaving the Web“ wird z. B. Folgendes betont: Das Web editieren zu können ist genauso wichtig wie durch das Web zu browsen. Computer können genutzt werden, um im Hintergrund Aufgaben zu erledigen, damit Gruppen besser zusammenarbeiten können. Jeder Bereich des Internets sollte eher eine Netzstruktur als eine Baumstruktur haben. Erwähnenswerte Ausnahmen sind das Domain Name System und die Regeln für die Vergabe von Domain-Namen durch die ICANN. Informatiker tragen nicht nur eine technische, sondern auch eine moralische Verantwortung.

4.4

Die Turing-Maschine

Viele Fragen im Zusammenhang mit Algorithmen erfordern eine genaue mathematische Definition eines Algorithmus. Alan Mathison Turing (1912–1954) war ein britischer Logiker, Mathematiker, Kryptoanalytiker und Computerwissenschaftler. Er gilt heute als einer der einflussreichsten Theoretiker der frühen Computerentwicklung und der Computerwissenschaft. Turing schuf einen großen Teil der theoretischen Grundlagen für die moderne Informations- und Computertechnologie. Auch seine Beiträge zur theoretischen Biologie erwiesen sich als bahnbrechend. Das von ihm entwickelte Berechenbarkeitsmodell der Turingmaschine bildet eine der Grundlagen der Theoretischen Informatik. Während des Zweiten Weltkriegs war er maßgeblich an der Entschlüsselung deutscher Funksprüche beteiligt, die mit der deutschen

34

4 Die historische Entwicklung

Abb. 4.13 ENIGMA – das zur Code-Entschlüsselung benutzte Gerät

Rotorchiffriermaschine Enigma (Abb. 4.13) verschlüsselt wurden. Die meisten seiner Arbeiten blieben auch nach Kriegsende unter Verschluss. Die Erkenntnisse, die Turing bei der Kryptoanalyse der Fish-Chiffren gewann, halfen später bei der Entwicklung des ersten digitalen, programmierbaren elektronischen Röhrencomputers, ENIAC. 1953 entwickelte Turing eines der ersten Schachprogramme, dessen Berechnungen er aus Mangel an Hardware selbst durchführte. Der Turing-Award, die wichtigste Auszeichnung in der Informatik, ist nach ihm benannt, ebenso wie der Turing-Test zum Nachweis des Vorhandenseins von Künstlicher Intelligenz. Im März 1952 wurde Turing wegen seiner Homosexualität, die damals noch als Straftat verfolgt wurde, zur chemischen Kastration verurteilt. Als Folge der Hormonbehandlung erkrankte Turing an Depressionen und starb etwa zwei Jahre später durch Selbstmord. Im Jahr 2009 entschuldigte sich der damalige britische Premierminister Gordon Brown im Namen der Regierung offiziell für Turings „entsetzliche Behandlung“ und würdigte seine „außerordentlichen Verdienste“ während des Krieges; eine Begnadigung wurde jedoch trotz einer Petition auch 2011 noch abgelehnt. Turings Beteiligung als einer der wichtigsten Codeknacker an der Entschlüsselung der Enigma war bis in die 1970er-Jahre geheim; nicht einmal seine engsten Freunde wussten davon. Die Entschlüsselung der geheimen deutschen Funksprüche war eine kriegsentscheidende Komponente für den Sieg der Alliierten im U-Boot-Krieg und im Afrikafeldzug.

4.5

Die ersten Computer – der Turing-Test – die Einzelband-Turing-Maschine

Von 1945 bis 1948 war Turing am National Physical Laboratory in Teddington beschäftigt, wo er an der Entwicklung der ACE (Automatic Computing Engine) arbeitete. Der Name der Maschine ist von der Analytical Engine des Mathematikers Charles Babbage abgeleitet, dessen Arbeit Turing zeitlebens bewunderte (Abb. 4.14).

4.5

Die ersten Computer – Turing-Test – Einzelband-Turingmaschine

35

Abb. 4.14 Alan Turing (1912–1954)

Ab 1948 lehrte Turing an der Universität Manchester und wurde 1949 stellvertretender Leiter der Computerabteilung. Hier arbeitete er an der Software für einen der ersten echten Computer, den Manchester Mark I, und schrieb gleichzeitig weiter an verschiedenen theoretischen Arbeiten. In „Computing Machinery and Intelligence“ (Mind, Oktober 1950) griff Turing das Problem der Künstlichen Intelligenz auf und schlug den Turing-Test als Kriterium dafür vor, ob eine Maschine in der Lage ist, wie ein Mensch zu denken. Da der Denkprozess nicht formalisiert werden kann, betrachtet der Test nur die Antworten einer Maschine im Dialog mit einem Menschen, d. h. das kommunikative Verhalten der Maschine. Erscheint dieses ununterscheidbar vom menschlichen Verhalten, sollte man von maschineller Intelligenz sprechen. Mit seiner Veröffentlichung hat er die Entwicklung der Künstlichen Intelligenz maßgeblich beeinflusst. 1952 schrieb er das Schachprogramm Turochamp. Da es keine Computer mit ausreichender Leistung gab, um es auszuführen, übernahm Turing dessen Funktion und berechnete jeden Zug selbst. Dies dauerte bis zu 30 min pro Zug. Die einzige schriftlich dokumentierte Partie verlor er gegen einen Kollegen. Von 1952 bis zu seinem Tod im Jahr 1954 arbeitete Turing an mathematischen Problemen in der theoretischen Biologie. Im Jahr 1952 veröffentlichte er eine Arbeit über die chemischen Grundlagen der Morphogenese. In dieser Arbeit beschrieb er erstmals einen Mechanismus, durch den Reaktions-Diffusions-Systeme spontan Strukturen entwickeln können. Dieser als Turing-Mechanismus bezeichnete Prozess steht auch heute noch im Mittelpunkt vieler chemisch-biologischer Strukturbildungstheorien. Ein weiteres Interesse Turings galt dem Auftreten von Fibonacci-Zahlen in der Struktur von Pflanzen. Spätere Arbeiten blieben bis zur Veröffentlichung seiner gesammelten Werke im Jahr 1992 unveröffentlicht. Eine Möglichkeit, den Begriff des Algorithmus mathematisch exakt zu definieren, ist die Einzelband-Turing-Maschine (Abb. 4.15). Sie besitzt eine Texteinheit, in der sich das Programm befindet, und besteht außerdem aus einem unendlich langen Speicherband mit einer unendlichen Anzahl von sequentiell angeordneten Feldern. In jedem Feld kann genau ein Zeichen aus einem vordefinierten Alphabet gespeichert werden. Als zusätzliches Zeichen ist ein Leerzeichen (ein blank) erlaubt, das einem leeren Feld auf dem Speicherband

36

4 Die historische Entwicklung

Abb. 4.15 Eine Einzelband-Turing-Maschine

entspricht. Ein programmgesteuerter Lese- und Schreibkopf kann sich von Feld zu Feld auf dem Speicherband bewegen und die Zeichen verändern. Eine Berechnung für ein Eingabewort beginnt mit dem Eingabewort auf dem Band und dem Lese- und Schreibkopf auf dem ersten Symbol des Eingabeworts. Die Turing-Maschine verarbeitet dann die Eingabe auf dem Band schrittweise nach dem vorgegebenen Programm. Bei jedem Schritt liest der Schreib-/Lesekopf das aktuelle Zeichen, überschreibt es mit einem anderen oder dem gleichen Zeichen und bewegt sich dann nach links oder rechts oder bleibt stehen. Welches Zeichen geschrieben und welche Bewegung ausgeführt wird, hängt von dem Zeichen ab, das an der aktuellen Position gefunden wird, sowie von dem Zustand, in dem sich die Turing-Maschine gerade befindet. Zu Beginn befindet sich die Turing-Maschine in einem bestimmten Startzustand und geht bei jedem Schritt in einen neuen Zustand über. Die Anzahl der Zustände, in denen sich die Turing-Maschine befinden kann, ist endlich. Ein Zustand kann mehrmals durchlaufen werden, er sagt nichts über die auf dem Band vorhandenen Zeichen aus. Eine Turing-Maschine bleibt stehen, wenn für den aktuellen Zustand und das gelesene Bandzeichen kein Übergang zu einem neuen Zustand definiert ist. Es hängt also im Allgemeinen von der Kombination aus Zustand und Symbol ab, ob die Turing-Maschine weiter rechnet oder anhält. Zustände, in denen die Turing-Maschine unabhängig vom gelesenen Bandsymbol anhält, nennt man Endzustände. Es gibt aber auch Turing-Maschinen, die bei bestimmten Eingaben nie anhalten. Eine Turing-Maschine ist ein Tupel M = (Z , E, A, d, q, F) mit • • • • • •

Z eine endliche, nichtleere Menge von Zuständen des Steuerwerks, E das Eingabealphabet, A das Arbeitsalphabet mit E ⊆ A , d die Übergangsrelation, d ⊆ Z × A × A × Z ; hierbei ist A = A ∪ {L, R}, q ∈ Z der Startzustand, F ⊆ Z die Menge der Endzustände.

4.6

LaTeX

37

Das Arbeitsalphabet A enthält die speziellen Zeichen $ und das Leerzeichen; sie kommen nicht im Eingabealphabet vor. Die Zeichen L, R kommen nicht als Alphabetzeichen vor. • E ⊆ A bedeutet, dass jedes Element der Menge E ein Element der Menge A ist; eventuell kann als Grenzfall E = A sein. • Das Zeichen ∪ bedeutet die Vereinigung von zwei Mengen; man erhält die Menge A , wenn man zur Menge A noch die Bewegungen L (nach links) und R (nach rechts) hinzunimmt. Neben der Berechnung von Funktionen wird die Turing-Maschine auch für Entscheidungsprobleme verwendet, d. h. für Fragen, die mit „ja“ oder „nein“ beantwortet werden müssen. Bestimmte Endzustände sind als „akzeptierend“ definiert, andere als „nicht akzeptierend“. Die Eingabe wird genau dann akzeptiert, wenn die Turing-Maschine in einem akzeptierenden Endzustand endet. Mit seinem Modell definierte Turing die Begriffe „Algorithmus“ und „Berechenbarkeit“ als mathematische Konzepte. Es wird allgemein angenommen, dass die Turing’sche Berechenbarkeit dem intuitiven Verständnis von Berechenbarkeit entspricht; diese Aussage ist als Church-Turing-These bekannt. Das besondere Merkmal einer Turing-Maschine ist ihre strukturelle Einfachheit. Sie benötigt nur drei Operationen (Lesen, Schreiben und Bewegen des Lese-/Schreibkopfes), um alle Operationen gängiger Computerprogramme zu simulieren.

4.6

LaTeX

Wissenschaftliche Arbeiten sind sehr oft schwierig zu schreiben. Hier finden wir zwei Sprachen vor, die außerordentlich bedeutsam sind. LaTeX beschreibt Dokumente ganz präzise und in allen Einzelheiten. Das Basis-Programm von LaTeX ist TeX und wurde von Donald E. Knuth während seiner Zeit als Informatik-Professor an der Stanford University entwickelt. Auf TeX aufbauend entwickelte Leslie Lamport Anfang der 1980er-Jahre LaTeX, eine Sammlung von TeX-Makros, die die Benutzung für den durchschnittlichen Anwender gegenüber TeX vereinfachten und erweiterten. Der Name LaTeX ist eine Abkürzung für La–import–TeX. Die Einzelheiten des Dokumentes werden beschrieben und durch Tex in das Dokument umgewandelt, in eine Form, in der es dann dargestellt werden soll. Um die Schaffung der Beschreibung zu unterstützen, ist noch ein Editor notwendig, der die Eingabe des LaTeX-Textes unterstützt. Für dieses Buch wurde MiKTex verwendet als Programm für die Übersetzung, TeXnicCenter ist der verwendete Editor. Es sind aber noch weitere gleichwertige Systeme vorhanden. Sie werden alle im Internet kostenlos zur Verfügung gestellt. Im Gegensatz zu anderen Textverarbeitungsprogrammen, die nach dem What-you-see-iswhat-you-get-Prinzip funktionieren, wird bei LaTeX mit Textdateien gearbeitet, in denen

38

4 Die historische Entwicklung

innerhalb eines Textes anders zu formatierende Passagen oder Überschriften mit speziellen Befehlen beschrieben werden. Bevor das LaTeX-System den Text entsprechend setzen kann, muss es den Quellcode verarbeiten. Das dabei von LaTeX generierte Layout ist sehr sauber, der Formelsatz ist von hoher Qualität. Außerdem ist die Ausgabe nach PDF, HTML und PostScript möglich. LaTeX eignet sich insbesondere für umfangreiche Arbeiten wie Diplomarbeiten und Dissertationen, die oftmals strengen typografischen Ansprüchen genügen müssen. Insbesondere in der Mathematik und den Naturwissenschaften erleichtert LaTeX das Anfertigen von Schriftstücken durch seine komfortablen Möglichkeiten der Formelsetzung gegenüber üblichen Textverarbeitungssystemen. Das Verfahren von LaTeX wird auch mit WYSIWYAF (What you see is what you asked for) umschrieben. Das schrittweise Arbeiten erfordert vordergründig im Vergleich zu herkömmlichen Textverarbeitungen einerseits eine längere Einarbeitungszeit, andererseits kann das Aussehen des Resultats genau festgelegt werden. Die längere Einarbeitungszeit kann sich jedoch, insbesondere bei Folgeprojekten mit vergleichbarem Umfang oder ähnlichen Erfordernissen, lohnen. Inzwischen gibt es auch grafische Editoren, die mit LaTeX arbeiten können und WYSIWYG oder WYSIWYM (What you see is what you mean) bieten und ungeübten Nutzern den Einstieg deutlich erleichtern können (Abb. 4.16). Bei der Benutzung von LaTeX wird ein sogenanntes logisches Markup verwendet. Soll beispielsweise in einem Dokument eine Überschrift erstellt werden, so wird der Text nicht wie in TeX rein optisch hervorgehoben. In den Klassen- oder .sty-Dateien wird global festgelegt, wie eine derartige Abschnittsüberschrift zu gestalten ist: „das Ganze fett setzen; mit einer Nummer davor, die hochzuzählen ist; den Eintrag in das Inhaltsverzeichnis vorbereiten“ usw. Dadurch erhalten alle diese Textstellen eine einheitliche Formatierung. LaTeX ist ein ausgezeichnetes Beispiel für kollektive Intelligenz. Die Grundfunktionen werden durch Pakete (packages) erweitert, die alle einen bestimmten Zweck erfüllen. Zurzeit sind 4000 Pakete verfügbar. Immer, wenn jemand eine bestimmte Funktion vermisst, kann er diese Funktion in ein Paket einbetten und dieses Paket der Allgemeinheit zur Verfügung stellen. Auch chemische Formeln werden einfach und elegant beschrieben.

Der Einführung des Eurozeichens hat man schnell Rechnung getragen, da es ja am Anfang auf den Tastaturen nicht vorhanden war: Man schreibt einfach \euro{} und erhält e. Im Internet gibt es Lehrmaterial in Hülle und Fülle, man muss sich Schritt für Schritt einarbeiten.

4.7

Die Entwicklung der Computer

39

Abb. 4.16 Ein kurzer LaTeX-Text

4.7

Die Entwicklung der Computer

Das Moore’sche Gesetz, das in Abb. 1.2 dargestellt wurde, zeigt, dass die Rechenleistung ständig ansteigt. Wo ist man da jetzt angelangt? Laut Wikipedia [33] steht der japanische Computer Fugaku RIKEN aus dem Center for Computational Science, Kobe, (Japan) an erster Stelle, mit 415.530,00 Teraflops. Danach folgen zwei amerikanische und zwei chinesische Systeme. Das deutsche System Hawk befindet sich in Stuttgart und hat eine Leistungsfähigkeit von 26.000 Teraflops. Die Supercomputing-Messe SC21 wartet mit einer Bestätigung auf, dass in China die zwei weltweit ersten Exascale-Supercomputer laufen: OceanLight und Tianhe-3. Demnach erreicht OceanLight im Linpack-Benchmark eine Spitzenrechenleistung von 1,3 ExaFlops mit doppelter Genauigkeit (FP64) – über einen längeren Zeitraum sind 1,05 ExaFlops drin. Ließe das National Research Center of Parallel Computer Engineering and Technology (NRCPC) den Supercomputer in der TOP500-Liste aufführen, wäre er rund doppelt so schnell wie der bisherige Spitzenreiter, der japanische Fugaku. Die Entwicklung in den USA verläuft ganz in der gleichen Weise. Es ist eine Art Wettlauf und Prestigedenken entstanden (Abb. 4.17 und 4.18) [33], [47]. Die Kosten sind ziemlich hoch: Die Kosten für den Supercomputer Summit lagen bei rund 44 Mio. EUR, während die jährlichen Stromkosten bis zu 4 Mio. EUR betragen. Max Planck schaffte die Grundlagen der Quantenphysik, auf die die Quantencomputer zurückgehen, was noch einmal einen gewaltigen Sprung erlauben wird [34], [43].

40

4 Die historische Entwicklung

Abb. 4.17 Das Moore’sche Gesetz für Supercomputer

Abb. 4.18 Ein Supercomputer mit vielen parallel arbeitenden Prozessoren

4.7

Die Entwicklung der Computer

41

Ein Quantenprozessor bzw. Quantencomputer ist ein Prozessor, der die Gesetze der Quantenmechanik nutzt. Im Unterschied zum klassischen Computer arbeitet er nicht auf der Basis elektrischer, sondern quantenmechanischer Zustände. Hierbei sind erstens das Superpositionsprinzip und zweitens die Quantenverschränkung von Bedeutung. Theoretische Studien zeigen, dass unter Ausnutzung dieser Effekte bestimmte Probleme der Informatik, z. B. die Suche in extrem großen Datenbanken und die Faktorisierung großer Zahlen, effizienter gelöst werden können als mit klassischen Computern. Dies würde es ermöglichen, die Berechnungszeit für viele mathematische und physikalische Problemstellungen deutlich zu verringern. Der Quantencomputer war lange ein überwiegend theoretisches Konzept. Es gab verschiedene Vorschläge, wie ein Quantencomputer realisiert werden könnte, in kleinem Maßstab wurden einige dieser Konzepte im Labor erprobt und Quantencomputer mit wenigen Qubits realisiert. Der Rekord lag im November 2021 bei 127 Qubits für den Prozessor. Neben der Anzahl der Qubits ist aber auch z. B. eine geringe Fehlerquote beim Rechnen und Auslesen wichtig und wie lange die Zustände in den Qubits fehlerfrei aufrechterhalten werden können. Qubits oder Quantenbits sind die Recheneinheiten eines Quantencomputers. Qubits können im Vergleich zu herkömmlichen Bits bei Computern mehr Informationen als nur 1 oder 0 speichern. Qubits existieren auch in einer Überlagerung dieser Werte – in der im Fachjargon sogenannten Superposition. Im Gegensatz zu herkömmlichen Bits kann das Quantenbit beliebig viele Zustände gleichzeitig annehmen. Quantencomputer erzielen so schon mit wenigen Qubits große Rechenleistungen. Die Rechenleistung eines Quantencomputers steigt theoretisch exponentiell mit der Anzahl der Qubits. Schon mit wenigen Qubits sind so komplexe Problemstellungen in kürzester Zeit lösbar. Neben dem Technologie-Riesen IBM und der Fraunhofer-Gesellschaft hat auch die Industrie selbst das große Potenzial von Quantencomputern längt erkannt und sich zu einem Konsortium zusammengeschlossen. Ziel des Konsortiums mit dem Namen Quantum Technology and Application Consortium (QUTAC) ist es, industrielle Anwendungen mit hohem Potenzial für Quantencomputer zu testen. Die Mitglieder der Initiative lesen sich durchaus namhaft: BASF, BMW, Boehringer Ingelheim, Bosch, Infineon, Merck, Munich Re, SAP, Siemens und Volkswagen. Beispielsweise zeigte der bayerische Automobil-Hersteller, wie Quantencomputer Industrieroboter dabei unterstützen könnten, den effizientesten Weg zu finden, um Dichtungsmaterial auf die Nähte eines Autos aufzutragen. Insgesamt erwartet man, dass Quantencomputer in den folgenden Gebieten zum Einsatz kommen: • Logistik Quantencomputer könnten helfen, begrenzte Ressourcen in der Logistik optimal zu verteilen, Verkehrsfluss und Transportwege, Netzwerkstrukturen von Telekommunikationsunternehmen oder die Verteilung von medizinischen Ressourcen für Krankenhäuser.

42

4 Die historische Entwicklung

• Künstliche Intelligenz und Machine Learning Laut der Fraunhofer-Allianz „Big Data und Künstliche Intelligenz“ könnten Quantencomputer Künstliche Intelligenz und Machine Learning revolutionieren: „Verfahren der künstlichen Intelligenz und des Machine Learnings lassen sich für Quantencomputer so anpassen, dass sie mehrere Lösungswege gleichzeitig beschreiten können. Damit können Quantencomputer große Datenbestände in einem einzigen Schritt verarbeiten, Muster in den Daten aufspüren, die klassische Computer nicht entdecken und auch auf unvollständigen oder unsicheren Daten verlässliche Ergebnisse liefern.“ • Robotik Das Beispiel von BMW ist nur ein Vorgeschmack auf das Potenzial von Quantencomputern für die Robotik. Quantencomputing könnte die effizientesten Wege für Mitarbeiter oder Roboter (AGVs – Autonomous Guides Vehicles) für die Navigation durch ein Lager ermitteln. • Chemie, Pharmazie und Materialwissenschaft Das Fraunhofer „Cluster of Excellence Cognitive Internet Technologies“ ist sich sicher: „Mithilfe der Simulation von Molekülen könnten in Zukunft beispielsweise gezielt Katalysatoren entwickelt werden, die chemische Produktionsverfahren effizienter machen. Chancen ähnlicher Größenordnung ergeben sich für die Pharmaindustrie.“ Und auch die Batterie-Forschung zählt zum Anwendungsbereich von Simulationen, die auf Quantencomputern basieren – die Entwicklung neuartiger, leistungsfähigerer Batterien für Elektroautos. • Engineering Sind Materialien mit bestimmten Eigenschaften gewünscht und ist dabei ein Abwägen zwischen Stabilität und Gewicht wichtig? – Ein Fall für Quantencomputer! Denn die Eigenschaften jedes Materials hängen fundamental von seinen quantenmechanischen Bausteinen ab. • Finanzen Schnellere Finanzsimulationen und bessere Lösungen für die Portfolio-Optimierung sind potenzielle Anwendungen, die Quantencomputer für die Finanzbranche interessant machen. Mit Quantencomputing und Machine Learning können auch Risikoanalysen schneller gelöst werden. • Die Bundesregierung hat für den internationalen Wettlauf um das Quantencomputing insgesamt 2 Mrd. EUR für die Entwicklung von Quantencomputern freigegeben. Ziel sei es, innerhalb der nächsten fünf Jahre in Deutschland einen konkurrenzfähigen Quantencomputer zu bauen. Bislang gibt es in Deutschland noch keinen Quantencomputer, der komplett ohne Technologie aus dem Ausland gebaut wurde. Aktuell gelten die deutschen Mittelstandsunternehmen Trumpf und Sick bei quantenoptischen Sensoren als führende Kompetenzträger [73]. Also ist auch der Weg zu immer leistungsfähigeren Computern noch längst nicht an seinem Ende angelangt. Der Entwurf von auf diesem Prinzip beruhenden Schaltkreisen ist aber noch wesentlich komplizierter.

5

Mathematik auf dem Computer

Die Lösung mathematischer Probleme mit Hilfe eines Computers ist ein ganz ursprüngliches Anliegen der Entwicklung von Rechenmaschinen (Abb. 5.1) und Computern. In dem Maße wie man Mathematik in vielen Gebieten anwendet, kann man auch Computer und ihre Programme anwenden. Am Anfang ging es im Wesentlichen um das Rechnen mit Zahlen, aber sehr schnell wurden die Programme auf symbolisches Rechnen, das Lösungen von Gleichungen, die Differential- und Integralrechnung und alle anderen Gebiete der Mathematik ausgedehnt. Es gibt jetzt eine große Zahl solcher Systeme, die man gewöhnlich unter dem Namen „Systeme für Computeralgebra“ zusammenfasst. Die Auswahl fällt schwer. Am besten ist es, wenn man erst einmal mit einem kleineren System beginnt und sich dort einarbeitet. Das kostet schon allerhand Mühe. Später kann man dann entscheiden, ob das System schon genügt oder ob man ein größeres, weiter ausgearbeitetes System benötigt. Kleine Systeme haben vor allem den Vorteil, dass man sie ohne Kosten nutzen kann. Die Existenz solcher Systeme wird die Mathematik-Ausbildung in den nächsten Jahren ganz wesentlich beeinflussen.

Abb. 5.1 Ein mechanischer Rechner aus den 1960er-Jahren

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_5

43

44

5 Mathematik auf dem Computer

Bevor einzelne Softwarepakete vorgestellt werden, mit denen man arbeiten kann, soll noch erwähnt werden, dass man durch Suchen im Internet wertvolle Informationen erhalten kann. Formeln und Erklärungen werden dort für alle Teilgebiete der Mathematik bereitgestellt. Ein umsichtiger Abiturient kann seine Hausaufgaben in kurzer Zeit erledigen.

5.1

Microsoft Mathematics

Ein guter Einstieg ist das System Microsoft Mathematics (Abb. 5.2). Es ist frei verfügbar, die Arbeitsoberfläche ist einem Taschenrechner nachempfunden, das System ist aber viel leistungsfähiger. Es überdeckt den ganzen Stoff von der achten Klasse über das Abitur bis zum ersten Jahr eines Mathematik- oder Physikstudiums. Es entsteht ein gewisses Dilemma: Auf der einen Seite ist es vernünftig, sich nicht lange Zeit mit Rechnungen zu plagen, die ein PC sofort zur Hand hat. Auf der anderen Seite könnte es aber sein, dass die selbständigen Berechnungen auch noch zum Wissensumfang beitragen. Man kann aber auch in Betracht ziehen, dass es auf diese Weise möglich ist, die Mathematik nicht mehr als „Feind“ anzusehen, dem man so schnell wie möglich aus dem Weg gehen muss. Man kann den Unterricht wesentlich interessanter gestalten, indem man die Beziehungen der Mathematik zur Architektur, zur Malerei und anderes einbezieht. Für dieses System sind auch zwei Lehrbücher [44, 45] vorhanden, die man im Internet unter bookboon.com findet.

Abb. 5.2 Der Arbeitsbildschirm von Microsoft Mathematics

5.2

Mathematica

45

Abb. 5.3 In diesem Bild wird der Goldene Schnitt verwendet

Die Mathematik hatte ihre Wurzeln in Babylon und schon im antiken Griechenland einen ersten Höhepunkt. Architektur und Geometrie hatten ein inniges Verhältnis, was man an den noch vorhandenen Bauwerken heute noch bewundern kann. Auch die Kunst des Mittelalters wurde davon stark beeinflusst (Abb. 5.3). Eine Strecke a + b mit a > b wird durch einen Punkt auf dieser Stecke so geteilt, dass sich die gesamte Strecke a + b zur größeren Strecke a so verhält wie die größere Strecke a zur kleineren Strecke b: a a+b = . a b a Für das Verhältnis b erhät man den Wert  = 1,618, d. h., die längere Strecke hat den Wert 0,618, die kürzere den Wert 0,382, wenn man für die gesamte Strecke den Wert 1 voraussetzt.

5.2

Mathematica

Mathematica ist ein Softwarepaket des Unternehmens Wolfram Research und stellt eines der meistbenutzten mathematisch-naturwissenschaftlichen Programmpakete dar. Der Autor und Unternehmensbegründer Stephen Wolfram begann die Entwicklungsarbeit im Jahr 1986, die erste Version von Mathematica wurde 1988 herausgebracht (Abb. 5.4).

46

5 Mathematik auf dem Computer

Abb. 5.4 Mathematica

Das Softwarepaket „Mathematica“ enthält unter anderem • ein Computeralgebrasystem zur symbolischen Verarbeitung von Gleichungen und Differentialgleichungen, • eine Numerik-Software zum numerischen Lösen oder Auswerten von Gleichungen, • ein Visualisierungs-Tool zum Darstellen von Graphen und 3D-/2D-Grafiken, • eine Programmiersprache, die Elemente des prozeduralen, objektorientierten, funktionalen und regelbasierten Programmierens in sich vereint.

5.3

Maple

Die erste Version von Maple wurde 1980 von Keith O. Geddes, Gaston H. Gonnet und deren Mitarbeitern von der Symbolic Computation Group an der Universität von Waterloo in der kanadischen Stadt Waterloo (Ontario) programmiert. Ende 1987 gab es Maple bereits in der Version 4.2 (Abb. 5.5). 2005 wurde mit Maple 10 ein neuer Dokumentmodus („document mode“) innerhalb der Standardversion von Maple eingeführt. Seither ist es möglich, Maple-Eingaben in normaler mathematischer Schreibweise zu editieren. Hierbei lassen sich Texte und mathematische Symbole in derselben Eingabezeile miteinander kombinieren.

5.3

Maple

47

Abb. 5.5 Maple

Hauptkomponente der grafischen Benutzeroberfläche von Maple ist das jeweilige Worksheet, in dem interaktiv gearbeitet wird. Es erscheint als Fenster, in das Rechenanweisungen eingetragen werden. Die Maple-Engine interpretiert diese Anweisungen und liefert entsprechende Ausgaben zurück. Typische Maple-Outputs sind Zahlenwerte, Terme, Funktionen, Tabellen, zwei- und dreidimensionale Grafiken, Animationsobjekte und Diagramme. Maple umfasst einen Kern häufig benutzter Standard-Rechenanweisungen und zusätzliche, zur Laufzeit mit dem With-Befehl ladbare Pakete. Im Folgenden sind einige der wichtigsten dieser insgesamt über hundert Pakete aufgelistet: • CodeGeneration (Tools für die Übersetzung von Maple-Quelltext in andere Programmiersprachen) • combinat (zum Lösen kombinatorischer Probleme) • DEtools (für das Rechnen mit Differentialgleichungen) • DifferentialGeometry (für die Differentialgeometrie, insbesondere für das Rechnen mit Lie-Algebren und Tensoren) • DynamicSystems (für das Arbeiten mit linearen Systemen) • geometry (für die zweidimensionale euklidische Geometrie) • geom3d (für die dreidimensionale euklidische Geometrie) • GraphTheory (für Graphentheorie) • GroupTheory (für das Rechnen mit endlich präsentierten Gruppen) • LinearAlgebra (für das Rechnen mit Vektoren und Matrizen)

48

• • • • • • • • • • • • • •

5 Mathematik auf dem Computer

Logic (für die zweiwertige Logik) Maplets (für die Herstellung grafischer Benutzeroberflächen für Maple) NumberTheory (für die Zahlentheorie) PDEtools (für das Lösen partieller Differentialgleichungen) Physics (für Berechnungen in der Theoretischen Physik) plots (Grafikpaket) plottools (für das Erzeugen und Verändern grafischer Objekte) RandomTools (für die Arbeit mit Zufallsobjekten) RealDomain (stellt einen reellwertigen Kontext her) ScientificConstants (physikalische Konstanten und Eigenschaften chemischer Elemente) ScientificErrorAnalysis (für die Fehlerrechnung) Statistics (für die Statistik und die Analyse von Daten) Units (für das Rechnen mit physikalischen Einheiten) VectorCalculus (für die Vektoranalysis)

Man kann sowohl Mathematica als auch Maple benutzen, sie sind relativ gleichwertig. Es ist wahrscheinlich am besten, für zwei Wochen eine Testversion zu laden und dann zu schauen, was einem besser gefällt. Es gibt natürlich noch viele andere Systeme. Die Programmierer lieben es offensichtlich, solche Systeme zu programmieren, weil die Aufgabenstellung fest umrissen ist. Man unterscheidet proprietäre Systeme und Open-Source-Systeme. Im ersten Fall muss man das System kaufen oder mieten, im zweiten Fall wird es dem Anwender kostenlos zur Verfügung gestellt. Die folgenden Systeme sind proprietäre Systeme: • Magma wurde in Australien entwickelt. • Maple stammt aus Kanada. • Mathcad war am Anfang für numerische Berechnungen bestimmt. Man kann es ohne Programmierkenntnisse benutzen, was ja für viele potenzielle Nutzer wichtig ist. • Über Mathematica haben wir bereits gesprochen. Hier sind noch einige Open-Source-Systeme aufgeführt: • Axiom • CoCOA für Kommutative Algebren und Gröbnerbasen • CPMP-Tools ist im Wesentlichen für die Mathematik-Ausbildung in Schulen bestimmt. Es umfasst Algebra, Geometrie, Statistik und Diskrete Mathematik. • GAP ist für Berechnungen in der algebraischen Gruppentheorie vorgesehen. • GeoGebra ist eine Software für die Dynamische Geometrie, zunächst mit einer eingeschränkten Reduce-Portierung, jetzt mit Giac).

5.3

Maple

49

• KANT für die Algebraische Zahlentheorie • Macaulay2 Kommutative Algebra und Gröbnerbasen Man sieht hier das Gegenstück zu Systemen, die alles können. Oft benötigt man nur die Möglichkeiten für ein abgegrenztes Teilgebiet. Andererseits ist es begeisternd, wenn man fast die „gesamte gegenwärtig bekannte Mathematik“ auf seinem Computer hat. Ein Techniker, Ingenieur, Geologe, Biologe, Mediziner usw. steht natürlich vor dem Problem, die Teilgebiete auszuwählen, die für ihn wichtig sind. Deshalb trifft man in der Praxis schon auf einige Teilgebiete wie Wirtschaftsmathematik, Finanzmathematik, Statistik und anderes, es werden aber weitere solche Spezialisierungen und Eingrenzungen notwendig sein. Die Ausbildung kann sich auf die Vermittlung der grundlegenden Ideen konzentrieren, die Berechnungen selbst und ihre Darstellung kann man der Computertechnik überlassen.

6

Polynomiale und exponentielle Komplexität

6.1

Einführende Betrachtungen

Die in den nächsten Abschnitten und Kapiteln dargestellten Zusammenhänge machen klar, dass Künstliche Intelligenz immer dann zur Diskussion steht, wenn man komplexe Systeme vorliegen hat, deren Untersuchung die Leistungsfähigkeit des Menschen weit übersteigt. Die weltweite Globalisierung, die Tatsache, dass jeder mit jedem vernetzt ist, bietet auf der einen Seite große Möglichkeiten, birgt aber auch Gefahren in sich. Die Möglichkeiten werden oft in die Ferne gerückt, während man bei den Risiken sofort Katastrophenszenarien an die Wand malt. Die hohe Vernetzung bewirkt, dass sich eine Störung an einer Stelle im ganzen System nahezu ungehindert ausbreiten kann. Sehr oft tritt ein Schmetterlingseffekt auf. Er besagt, dass in komplexen, nichtlinearen dynamischen Systemen schon kleinste Veränderungen in den Ausgangsbedingungen dazu führen können, dass eine Vorhersagbarkeit hinsichtlich der weiteren Entwicklung eines Systems grundsätzlich auszuschließen ist. Bekannt geworden ist der Schmetterlingseffekt vor allem im Zusammenhang mit dem Thema Wettervorhersage. Damit soll bildhaft zum Ausdruck gebracht werden, dass schon der Flügelschlag eines Schmetterlings an einem Punkt X auf der Erde das Wettergeschehen an einem anderen Ort Y beeinflussen kann. So erstaunlich das auf den ersten Blick auch erscheinen mag, so sehr ist dieser Effekt nachvollziehbar. Das einfache Schema Ursache ⇒ Wirkung ist bei komplexen Systemen nicht anwendbar, schon kleine Ursachen können eine große Wirkung haben (Abb. 6.1). Der einprägsame Begriff Schmetterlingseffekt stammt von dem US-amerikanischen Meteorologen Edward N. Lorenz, der 1972 vor der American Association for the Advancement of Science einen Vortrag mit dem Titel „Predictability: Does the Flap of a Butterfly’s Wings in Brazil set off a Tornado in Texas?“ hielt. In seiner ursprünglichen Form verwendete er allerdings den Flügelschlag einer Möwe statt des Schmetterlings.

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_6

51

52

6 Polynomiale und exponentielle Komplexität

Abb. 6.1 Der Schmetterlingseffekt

Vorarbeiten zu der Theorie leistete Edward N. Lorenz (1917–2008) mit einer Arbeit aus dem Jahre 1963, in der er eine Berechnung zur Wettervorhersage mit dem Computer unternahm. Er untersuchte im Zusammenhang mit langfristigen Wetterprognosen an einem vereinfachten Konvektionsmodell das Verhalten von Flüssigkeiten bzw. Gasen bei deren Erhitzung: Hier bilden sich zunächst Rollen (heißes Gas steigt auf einer Seite auf, verliert Wärme und sinkt auf der anderen Seite wieder ab), die bei weiterer Wärmezufuhr instabil werden. Dieses Verhalten charakterisierte er anhand von drei verbundenen Differentialgleichungen. Das numerische Ergebnis projizierte er in den Phasenraum und erhielt jenen seltsamen Attraktor, der später als Lorenz-Attraktor bekannt wurde: eine unendlich lange Trajektorie im dreidimensionalen Raum, die sich nicht selbst schneidet und die Form zweier Schmetterlingsflügel hat. Lorenz stieß auf das chaotische Verhalten seines Modells eher zufällig. Um Rechenzeit zu sparen, hatte er bei der numerischen Lösung der Gleichungen auf Zwischenergebnisse bereits durchgeführter Berechnungen zurückgegriffen, hierbei jedoch nur drei Dezimalstellen berücksichtigt, obwohl der Computer mit einer Genauigkeit von sechs Dezimalstellen rechnete. Das Resultat waren zunehmende Abweichungen im Zeitverlauf zwischen den alten und neuen Berechnungen, was Lorenz zu seinen Aussagen über die Sensitivität gegenüber den Anfangsbedingungen bewog. Von nahezu demselben Ausgangspunkt divergierten die Wetterkurven, bis sie schließlich keine Gemeinsamkeit zeigten. Bei seiner ersten Berechnung gab er einen Startwert für eine Iteration auf sechs Dezimalstellen genau an (0,506127), bei der zweiten Berechnung auf drei (0,506), und obwohl diese Werte nur um etwa 1/10.000 voneinander abwichen, wich im weiteren Verlauf diese Berechnung mit der Zeit von der ersten stark ab.

6.1

Einführende Betrachtungen

53

Abb. 6.2 Der Lorenz-Attraktor

Die variierenden Bahnkurven x(t), y(t), z(t) sind Lösung des folgenden Differentialgleichungssystems (Abb. 6.2): dx = σ · [y(t) − x(t)] dt dy = [ρ · x(t)] − [x(t) · z(t)] − y(t) dt dz = [x(t) · y(t)] − β · z(t). dt

(6.1) (6.2) (6.3)

Dabei sind σ, ρ und β vorher zu definierende Parameter. Die Nichtlinearität sieht man an den Termen [x(t) · z(t)] und [x(t) · y(t)]. Aufgrund der endlichen Mantisse in der Gleitkommadarstellung lassen sich Zahlen auf einem Computer nicht beliebig genau darstellen. Es muss gerundet werden. Statt x verwendet der Computer die Zahl r d(x) für eine weitere Rechnung. Heutige Computer arbeiten meist nach IEEE 754. Die Maschinengenauigkeit für die dabei verwendeten Datentypen ist  = 2−24 ≈ 6 · 10−8 bei einfacher Genauigkeit und  = 2−53 ≈ 1,1 · 10−16 . Baut man diese Betrachtungen weiter aus, dann gelangt man zur Chaostheorie. Die Chaostheorie beschreibt das zeitliche Verhalten von Systemen mit deterministisch chaotischer Dynamik. Versucht man, Experimente identisch zu wiederholen, so ist das in der Praxis nicht möglich, da aufgrund unvermeidbarer Messungenauigkeiten – und durch Rauschen – die Ausgangssituation nicht identisch wiederhergestellt werden kann. Falls ein System deterministisch chaotisch ist, so kann das System nach hinreichend langer Zeit trotz expe-

54

6 Polynomiale und exponentielle Komplexität

rimentell fast identischer (bzw. bestmöglich identischer) Ausgangssituationen zu deutlich anderen Endzuständen bzw. Messergebnissen führen. Anders als der Begriff Chaos in der Umgangssprache verwendet wird, befasst sich die Chaostheorie nicht mit Systemen, die dem Zufall unterliegen (also stochastischen Systemen), sondern mit dynamischen Systemen, die mathematisch beschreibbar sind und sich prinzipiell deterministisch verhalten. Des Weiteren ist die Chaostheorie abzugrenzen von der Theorie komplexer Systeme, da auch sehr einfache Systeme chaotisches Verhalten zeigen können.

6.2

Mathematische Beschreibungen der Komplexität

Wir beginnen mit einem einfachen Beispiel. Wir stellen uns ein Wandbrett vor mit einer Reihe von Büchern. Sucht man jetzt ein bestimmtes Buch, so fängt man von links an und prüft ein Buch nach dem anderen, ob es das gesuchte ist. Hat man Glück, ist es gleich das erste Buch, wenn man Pech hat, ist es das letzte Buch in der Reihe, oder es ist gar nicht vorhanden. Die Zahl der notwendigen Schritte liegt also zwischen 1 und n, wenn n die Zahl der Bücher auf dem Wandbrett ist. Um verschiedene Algorithmen sinnvoll zu vergleichen, verwendet man immer den ungünstigsten Fall (Worst-Case Complexity) und sagt, dass die lineare Suche die Komplexität O(n) besitzt. Im nächsten Schritt stellen wir uns ein Regal vor, das n Bretter für Bücher enthält. Dort sind also n · n Bücher untergebracht, also benötigt man im schlimmsten Fall n 2 Suchschritte. Die Komplexität der Suche ist von der Größenordnung O(n 2 ). Wenn wir jetzt in eine Bibliothek gehen, dann stehen viele solche Regale in einer Reihe, wir nehmen wieder an, dass es sich um n Stück handelt, die Komplexität der Suche ist jetzt gleich O(n 3 ). Man kann sich aber auch ein sehr langes Wandbrett vorstellen, in dem alle Bücher in einer Reihe stehen, und man verwendet den gleichen Algorithmus der linearen Suche. Deshalb fasst man alle diese Probleme zu der Menge zusammen, für die die Laufzeit t(n) eines Lösungsalgorithmus durch ein Polynom n-ten Grades beschränkt ist: t(n) ≤ n k .

(6.4)

Die polynomielle Zeit gilt als eine Grenze zwischen praktisch lösbaren und praktisch nicht lösbaren Problemen. So steht es in allen Lehrbüchern, aber aufgrund der Entwicklung der Rechengeschwindigkeit kann man diesen Satz getrost streichen. Wir sehen in der Abbildung, dass man zu jeder exponentiellen Komplexität eine lineare Komplexität definieren kann, die in einem bestimmten Bereich über der exponentiellen Komplexität liegt. Natürlich überholt die Exponentialfunktion die lineare Funktion, die Frage ist nur, wo das geschieht. Auf die Lösbarkeit eines Problems links vom Schnittpunkt der beiden Kurven hat das keinen Einfluss (Abb. 6.3). Ob ein gegebenes Problem in Polynomialzeit lösbar ist, ist nicht immer von vornherein klar. So wurde für das Problem, zu entscheiden, ob eine gegebene natürliche Zahl eine Primzahl ist, erst 2002 von Agrawal, Kayal und Saxena ein in Polynomialzeit laufender

6.2

Mathematische Beschreibungen der Komplexität

55

Abb. 6.3 Lineare, exponentielle und logarithmische Komplexität

Algorithmus angegeben (AKS-Primzahltest). Das naive Verfahren, alle möglichen Teiler durchzuprobieren, ist nicht in Polynomialzeit durchführbar. Im weiteren Text wird ein konstruktiverer Standpunkt eingenommen. Es ist nur zu beachten, ob das Problem auf einem gegebenen Rechner in vernünftiger Zeit lösbar ist (wobei „vernünftig“ auch nicht sehr klar definiert ist). Ein einfaches Beispiel soll zeigen, dass man die exponentielle Komplexität schon bei einfachen Sachverhalten antrifft. Es sei eine Menge M mit drei Elementen gegeben: M = {a, b, c}. Aus einem bestimmten Grund sind wir daran interessiert, die Potenzmenge von M, d. h. die Menge aller Teilmengen, zu bestimmen. Das ist nicht schwierig. ⎛ a ⎜0 ⎜ ⎜1 ⎜ ⎜0 ⎜ ⎜ ⎜0 ⎜ ⎜1 ⎜ ⎜1 ⎜ ⎝0 1

b 0 0 1 0 1 0 1 1

c 0 0 0 1 0 1 1 1

⎞ Menge ∅ ⎟ ⎟ {a} ⎟ ⎟ {b} ⎟ ⎟ ⎟ {c} ⎟ ⎟ {a, b} ⎟ ⎟ {a, c} ⎟ ⎟ {b, c} ⎠ {a, b, c}

Man bildet eine Matrix, bei der jede Zeile vier Positionen aufweist. Die ersten drei Spalten sind den drei Elementen a, b und c zugeordnet, die letzte Spalte zeigt die durch die Zeile dargestellte Menge. Der Wert 0 zeigt an, dass das Element nicht zu der Teilmenge gehört; die Zahl 1 zeigt an, dass es zur Teilmenge dazugehört. Da für jedes Element beide Möglichkeiten in Frage kommen, gibt es 2 · 2 · 2 = 23 = 8 Möglichkeiten. Im realen Leben sieht man

56

6 Polynomiale und exponentielle Komplexität

das an einem Stammbaum: Wenn man alle Unglücksfälle und sonstige Abnormitäten außer Acht lässt, hat man • • • • •

ein Kind, zwei Eltern, vier Großeltern, acht Urgroßeltern sechzehn Ururgroßeltern usw.

Man sieht also hier die gleichen Potenzen der Zahl 2 wie zuvor. Ganz allgemein gilt: Die Potenzmenge einer Menge mit n Elementen enthält 2n Elemente. Wir betrachten die Funktion f (a, b, c, d) = ab ⊕ (c ∨ d). Hier treten vier Variable auf mit den möglichen Werten 0 oder 1. Eine Tabelle der Funktionswerte hat jetzt 24 = 16 Zeilen. Der Umfang der Tabellen für die Werte von binären (logischen) Funktionen wächst also auch exponentiell. ⎛ a ⎜0 ⎜ ⎜0 ⎜ ⎜ ⎜0 ⎜ ⎜0 ⎜ ⎜0 ⎜ ⎜0 ⎜ ⎜0 ⎜ ⎜ ⎜0 ⎜ ⎜1 ⎜ ⎜1 ⎜ ⎜1 ⎜ ⎜1 ⎜ ⎜ ⎜1 ⎜ ⎜1 ⎜ ⎝1 1

b 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1

c 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1

⎞ d f (a, b, c, d ⎟ 0 0 ⎟ ⎟ 1 1 ⎟ ⎟ 0 1 ⎟ ⎟ ⎟ 1 1 ⎟ ⎟ 0 0 ⎟ ⎟ 1 1 ⎟ ⎟ 0 1 ⎟ ⎟ 1 1 ⎟ ⎟ ⎟ 0 1 ⎟ ⎟ 1 0 ⎟ ⎟ 0 0 ⎟ ⎟ 1 0 ⎟ ⎟ ⎟ 0 0 ⎟ ⎟ 1 1 ⎟ ⎠ 0 1 1 1

Da das Gebiet des Schaltkreisentwurfes sich ausschließlich binärer Funktionen bedient, trifft man dort ständig auf exponentielle Komplexität (Abb. 6.4 und 6.5). Es ist ein wichtiges Kennzeichen von Problemen, die mit Mitteln und Methoden der Künstlichen Intelligenz behandelt werden, dass sie eine sehr hohe Komplexität besitzen. Man weiß nicht immer, welche Funktion die Komplexität beschreibt, auf alle Fälle liegt sie weit über der Komplexität von Problemen, die vom Menschen gelöst werden können.

6.3

Erfüllbarkeitsprobleme

57

Abb. 6.4 Miniaturisierung der Schaltkreise

Abb. 6.5 Exponentielle Komplexität eines Stammbaums

6.3

Erfüllbarkeitsprobleme

Das Erfüllbarkeitsproblem der Aussagenlogik beschäftigt sich mit der Frage, ob eine gegebene aussagenlogische Formel, die als Konjunktion von Disjunktionen gegeben ist, erfüllbar ist. Mit anderen Worten: Existiert eine Belegung der Variablen mit den Werten wahr = 1 bzw. falsch = 0, so dass der Ausdruck den Wert wahr = 1 annimmt? Diese Aufgabenstellung war viele Jahre ein Schwerpunkt der Künstlichen Intelligenz. Sie stand unter anderem zur Erforschung von Mengen von Regeln im Mittelpunkt des Interesses. Eine Regel wird in der Aussagenlogik durch die Implikation ausgedrückt. Schauen wir uns zunächst die Definition der Implikation an (Tab. 6.1).

58

6 Polynomiale und exponentielle Komplexität

Tab. 6.1 Implikation

x

y

x⇒y

x∨y

0

0

1

1

0

1

1

1

1

0

0

0

1

1

1

1

Wenn man eine Regel als gültig akzeptiert und die Prämisse wahr ist, dann erhält man mit Sicherheit eine wahre Schlussfolgerung, über die man nicht weiter nachdenken muss! Ist die Voraussetzung nicht erfüllt (x = 0), dann hat das auf die Regel keinen Einfluss. Sie kann dann nicht angewendet werden. Schwieriger wird es, wenn man mehrere Regeln vorfindet, die alle gleichzeitig gelten sollen. Wir verwenden wieder ein ganz einfaches Beispiel. (x ⇒ y) = (x ∨ y)

(6.5)

(x ⇒ y) = (x ∨ y).

(6.6)

Diese Situation trifft man gelegentlich (oder häufig?) bei Fernsehdiskussionen an. Aus einer Voraussetzung und ihrem Gegenteil erreichen zwei Parteien die gleiche Schlussfolgerung. Was bewirkt eine solche Situation? Wir betrachten die äquivalente Gleichung: (x ∨ y) ∧ (x ∨ y) = 1.

(6.7)

Die Lösung ergibt x = 1, also x = 0. Diese beiden Regeln lassen sich nur erfüllen mit einer falschen Voraussetzung. Das ist eine ganz wichtige Erkenntnis: Mit einer falschen Voraussetzung kann man alles beweisen! Dann entscheidet nicht mehr die Logik, sondern die Redekunst.

6.4

Das Auffinden von Widersprüchen – Inkonsistenzbeweise

Wenn sehr viele Regeln gleichzeitig gelten sollen, ist es eine außerordentlich schwierige Aufgabe festzustellen, ob das überhaupt ohne Widersprüche möglich ist. Viele populäre Antinomien und Paradoxone beziehen sich nicht auf einen Kalkül, sondern beruhen auf intuitiven, undurchsichtigen, unerlaubten Schlussweisen. Daher ist es wichtig, das logische Schließen in Kalkülen zu regeln; dann erst werden die inkonsistenten Schritte, die zu Paradoxien führen, deutlich sichtbar, beispielsweise beim Lügner-Paradoxon: „Dieser Satz ist falsch.“ Der Satz ist genau dann wahr, wenn er falsch ist.

6.5

Probleme aus der Kombinatorik

59

Abb. 6.6 David Hilbert (1862–1943)

In der Logik gelingt der Beweis der Widerspruchsfreiheit schrittweise im 20. Jahrhundert. David Hilbert (Abb. 6.6) veröffentlichte ab 1918 sein Programm, die Widerspruchsfreiheit der Logik zu beweisen, er skizzierte Methoden für Widerspruchsfreiheitsbeweise, die anspruchsvoller sind, da für alle möglichen Ableitungen Widersprüche ausgeschlossen werden müssen. Sein Plan wurde als Hilberts Programm bekannt und konnte für zentrale Gebiete der Logik erfolgreich umgesetzt werden. Das ist eine ganz grundlegende Erkenntnis von großer Bedeutung. Solange die Aussagen klar definiert sind und durch aussagenlogische Operatoren miteinander verknüpft werden, bewegt man sich auf der sicheren Seite! Deshalb sind logische Funktionen und Gleichungen ein Kerngebiet der Künstlichen Intelligenz [57].

6.5

Probleme aus der Kombinatorik

Viele Probleme, die einen kombinatorischen Charakter besitzen, lassen sich durch logische Gleichungen lösen. Als Beispiel nehmen wir ein Schachbrett der Größe 4 × 4 (Abb. 6.7). Wir wollen auf diesem Brett vier Damen positionieren, so dass keine eine andere bedroht. Wir wissen, dass sich eine Dame horizontal, vertikal und diagonal bewegen kann, also darf sich in jeder Waagerechten, jeder Senkrechten und jeder Diagonale nur eine Dame befinden. Man löst das Problem wie folgt: Im ersten Schritt schreibt man für jede Vertikale die Möglichkeiten auf, die man besitzt: a1 ∨ a2 ∨ a3 ∨ a4.

60

6 Polynomiale und exponentielle Komplexität

Abb. 6.7 Vier Damen auf einem kleinen Schachbrett, die sich nicht gegenseitig bedrohen

Die Dame kann sich in der a-Linie auf einem der vier Felder a1, a2, a3 oder a4 befinden. Im zweiten Schritt formuliert man die Einschränkungen (Constraints), die unerlaubte Lösungen eliminieren: a1 a2 a3 a4 ∨ a2 a1 a3 a4 ∨ a3 a1 a2 a4 ∨ a4 a1 a2 a3 ∨ a1 b1 c1 d1 ∨ a2 b2 c2 d2 ∨ a3 b3 c3 d3 ∨ a4 b4 c4 d4 ∨ a1 b2 c3 d4 ∨ a2 b1 b3 c4 ∨ a3 b2 c1 b4 ∨ a4 b3 c2 d1. Eine Dame auf a1 verhindert also, dass eine Dame auf einem der Felder a2, a3, a4, b1, c1, d1, b2, c3, d4 steht. Analog verfährt man mit den anderen Vertikalen b, c und d. Die Konjunktionen für eine Vertikale sind durch ∨ verknüpft, die Vertikalen selbst werden durch ∧ verbunden. Es entsteht also eine Gleichung Disjunktion1 ∧ Disjunktion2 ∧ Disjunktion3 ∧ Disjunktion4 = 1. Verwenden wir die Darstellung als Matrix, dann ist die Lösung schon fast gegeben. Die Symbole einer Zeile haben eine ganz anschauliche Bedeutung; der Wert 1 kommt nur einmal in jeder Zeile vor und zeigt die Position einer Dame an. Der Wert 0 zeigt die Felder, die durch die Position der Dame nicht mehr verfügbar sind. Die Positionen der Dame auf b2, b3, c2 und c3 lassen nur vier Felder offen, alle anderen Positionen erlauben noch die Belegung oder Nichtbelegung von sechs Feldern (Tab. 6.2). Verwendet man ein entsprechendes Lösungsprogramm [56, 57], dann ist das eine einfache Sache. Eine Suche nach einer Lösung kann man hier sogar noch mit der Hand ausführen. • Dame auf a1: Die nächste Möglichkeit ist eine Dame auf b3; damit kann man auf der Vertikalen c nichts mehr unterbringen. • Dame auf a2: Die nächste Möglichkeit ist eine Dame auf b4; damit ist man auf c1 und a3 festgelegt, und es entsteht die Lösung, die in Abb. 5.1 dargestellt ist.

6.5

Probleme aus der Kombinatorik

61

Tab. 6.2 Lösungsraum für das Problem mit vier Damen a1

a2

a3

a4

b1

b2

b3

b4

c1

c2

c3

c4

d1

d2

d3

d4

1

0

0

0

0

0





0



0



0





0

0

1

0

0

0

0

0





0



0



0





0

0

1

0



0

0

0

0



0







0



0

0

0

1





0

0



0



0

0





0

0

0





1

0

0

0

0

0





0



0



0

0

0



0

1

0

0

0

0

0





0



0



0

0

0

0

0

1

0



0

0

0

0



0







0

0

0

0

0

1





0

0



0



0

0



0

0

0







1

0

0

0

0

0







0



0

0

0

0



0

1

0

0

0

0

0



0



0





0

0

0

0

0

1

0



0

0

0



0



0





0

0

0

0

0

1





0

0

0





0

0



0



0

0





1

0

0

0



0







0



0

0

0

0



0

1

0

0





0



0



0





0

0

0

0

0

1

0

0





0



0



0





0

0

0

0

0

1

• Spiegelbildlich erhält man die zweite Lösung Da3 – Db1 – Dc4 – Dd1. • Es existieren keine weiteren Möglichkeiten. Nach dieser Methodik kann man das auf Schachbretter beliebiger Größe erweitern (Abb. 6.8). Auch Modifikationen des Problems sind möglich (Abb. 6.9). Abb. 6.8 Acht Damen auf einem Schachbrett 8 × 8

62

6 Polynomiale und exponentielle Komplexität

Abb. 6.9 Neun Damen und ein Bauer – zehn Damen und zwei Bauern

Eine Modifikation des Problems besteht beispielsweise darin, dass man auf dem Brett zusätzlich Bauern aufstellt, im ersten Beispiel auf d7, im zweiten auf c3 und e5. Diese Bauern unterbrechen die Wirkungslinien der Damen, so dass man vermutet, dass sich die Anzahl der Damen auf dem Brett erhöhen könnte. Man sieht, dass ein Bauer neun Damen ermöglicht, zehn Damen sind möglich bei zwei Bauern. Die Methodik bleibt völlig gleich, nur die entsprechende Gleichung ändert sich.

6.6

Färbungsprobleme

Wie weit die Möglichkeiten der Computer heute reichen, zeigt das folgende Problem. Der Hintergrund ist ein Problem aus der Elektronik. Auf zwei leitenden Schienen befindet sich eine Reihe von Kontakten. Jeder Kontakt der einen Schiene ist mit jedem Kontakt der anderen Schiene leitend verbunden. Jede Verbindung besitzt eine von vier möglichen Eigenschaften, was durch die vier Farben Rot, Grün, Blau und Amethyst beschrieben wird. Die Schaltung funktioniert nicht, wenn vier Kanten (1 – 2 – 3 – 4 – 1) die gleiche Eigenschaften, d. h. die gleiche Farbe, besitzen. Wichtig ist, dass die letzte Kante zum Ausgangspunkt zurückkehrt, der Kantenzug muss also geschlossen sein (Abb. 6.10). 2010 war bekannt, das es für 16 Kontakte auf beiden Schienen möglich ist, derartige Konflikte zu vermeiden. Es war auch bekannt, dass es für 19 Kontakte nicht möglich ist, konfliktfrei zu arbeiten. Interessant war die Frage, wie es für 17 und 18 Kontakte aussieht. Ein logisches Modell für dieses Problem wird auf die folgende Art und Weise mit einer Matrix 18 × 18 konstruiert:

6.6

Färbungsprobleme

63

Abb. 6.10 Zu untersuchen ist die Folge 1 – 2 – 3 – 4 – 1

• die eine Schiene wird den Spalten einer Matrix zugeordnet; • die zweite Schiene wird den Zeilen einer Matrix zugeordnet. Die Schwierigkeiten der Lösung beruhen auf der enormen Komplexität des Problems: Es gibt 18 × 18 = 324 Positionen in der Matrix. Jede Position kann mit einer von vier Farben eingefärbt werden, was zu 4324 = 2648 Möglichkeiten für mögliche Einfärbungen führt. Diese Zahl ist etwa doppelt so groß wie die Anzahl der Atome im Weltall. Man geht genauso vor wie bei dem Damenproblem. Man beginnt mit einer Matrix 18×18 und führt zuerst wieder an, was man darf. • Für jede Position von (1,1) bis (18,18) gilt: (x11rot ∨ x11gr¨un ∨ x11blau ∨ x11amethyst )

(6.8)

Damit entstehen 4 · 324 = 1296 Variable. • Die Auswahl von zwei horizontalen und zwei vertikalen Linien führt zu 18 · 17 18 · 17 · = 23409 2 2 Rechtecken. • Die Eckpunkte eines Rechteckes dürfen nicht die gleiche Farbe besitzen. Als Beispiel benutzen wir etwa das oberste linke Rechtck mit den Punkten 11 – 12 – 21 – 22. x11rot ∧ x12rot ∧ x21rot ∧ x22rot = x11rot ∨ x12rot ∨ x21rot ∨ x22rot

(6.9)

Das gleiche Verfahren wendet man für die anderen Farben und alle möglichen Rechtecke an. Die Formeln aller Rechtecke werden wieder durch ∧ verknüpft. Es ist absolut unmöglich, dass ein Mensch mit Papier und Bleistift eine Lösung findet. Er kann aber die Lösung noch überprüfen. Bei anderen Problemen ist selbst das nicht mehr möglich.

64

6 Polynomiale und exponentielle Komplexität

Abb. 6.11 Eine Lösung für die Matrix 18 × 18

Die Lösung des Problems nahm die Jahre 2010–2012 in Anspruch. Der prinzipielle logische Algorithmus musste noch durch viele Feinheiten ergänzt werden, aber am Ende wurde eine Lösung mit verträglichem Aufwand gefunden: 20 parallel arbeitende Grafikprozessoren und eine Woche Rechenzeit reichten für die Lösung aus (Abb. 6.11). Es gibt noch viele andere kombinatorische Probleme dieser Art. • Das Problem des Handlungsreisenden Abb. 6.12 zeigt den optimalen Reiseweg eines Handlungsreisenden durch die 15 größten Städte Deutschlands. Die angegebene Route ist die kürzeste von 43.589.145.600 möglichen. Das Problem des Handlungsreisenden ist ein kombinatorisches Optimierungsproblem der Operationsforschung und der Theoretischen Informatik. Die Aufgabe besteht darin, eine Reihenfolge für den Besuch mehrerer Orte so zu wählen, dass keine Station außer der ersten mehr als einmal besucht wird, die gesamte Reisestrecke des Handlungsreisenden möglichst kurz und die erste Station gleich der letzten ist. Seit seiner ersten Erwähnung als mathematisches Problem im Jahre 1930 haben sich viele Forscher damit befasst und neue Optimierungsverfahren entwickelt und erprobt, die momentan auch für andere Optimierungsprobleme eingesetzt werden. Heute steht eine Vielzahl von heuristischen und exakten Methoden zur Verfügung, mit denen auch schwierige Fälle mit mehreren tausend Städten optimal gelöst wurden. Das Problem des Handlungsreisenden tritt schon in seiner Reinform in vielen praktischen Anwendungen auf, beispielsweise in der Tourenplanung oder beim Entwurf von Mikrochips. Noch häufiger tritt es allerdings als Unterproblem auf, wie z. B. bei der Verteilung von Waren, bei der Planung von Touren eines Kunden- oder Pannendienstes (Abb. 6.12). Dabei sind die Begriffe „Stadt“ und „Entfernung“ nicht wörtlich zu

6.6

Färbungsprobleme

65

Abb. 6.12 Es gibt viele verschiedene Rundreisen durch die gleichen Städte

nehmen, vielmehr repräsentieren die Städte beispielsweise zu besuchende Kunden oder Ersatzteillager, während Entfernung für Reisezeit oder Kosten steht. In vielen praktischen Anwendungen müssen zudem Zusatzbedingungen wie Zeitfenster oder eingeschränkte Ressourcen beachtet werden, was die Lösung des Problems erheblich erschwert. • Hamilton’sche und Euler’sche Graphen betreffen ebenfalls Rundreisen, behandeln aber andere Problemstellungen. Wiederum sind Orte und Verbindungen zwischen ihnen gegeben. Ein Eulerkreis ist ein Zyklus in einem Graphen, der alle Kanten des Graphen enthält; die letzte Kante muss zum Ausgangspunkt zurückführen (Abb. 6.13). Leonhard Euler wurde in Königsberg mit dem Problem konfrontiert, ob man von einem Anfangspunkt aus alle Brücken überqueren kann, ohne eine Brücke zweimal zu benutzen. Deshalb sind derartige Wege auch nach ihm benannt. Bei einem Hamilton’schen Graph wird jeder Ort genau einmal betreten, es müssen aber nicht alle Kanten benutzt werden. Der Euler’sche Weg entspricht dem Verhalten eines Briefträgers, der Hamilton’sche Weg mehr dem Verhalten einer Firma, die Zweigstellen beliefert. Natürlich ist das heutzutage für einzelne Ortschaften kein ernsthaftes Problem, aber wenn man das Netz von Flughäfen oder Container-Beladungs- und Entladungsorten betrachtet, dann haben diese Probleme eine große ökonomische Bedetung. • Das Rucksackproblem Dieses Problem tritt oft auf, wenn man eine Flugreise vorbereitet und weiß, dass in der Kabine pro Person nur 20 kg Gepäck zugelassen sind. Aus einer Menge von Objekten, die jeweils ein Gewicht und einen Nutzwert haben, soll eine Teilmenge ausgewählt werden, deren Gesamtgewicht eine vorgegebene Gewichtsschranke nicht überschreitet. Unter dieser Bedingung soll der Nutzwert der ausgewählten Objekte maximiert werden.

Abb. 6.13 Das Königsberger Brückenproblem

Spieltheorie, Kybernetik und Informationstheorie

7.1

Spieltheorie

Zwei weitere hervorragende Wissenschaftler, Norbert Wiener und John von Neumann (Abb. 7.1), erweitern die Liste berühmter Mathematiker und Informatiker, die auf dem Gebiet der Künstlichen Intelligenz von herausragender Bedeutung sind. Arbeiten zur Quantenmechanik begründeten den Ruf von John von Neumann in Amerika. Ab 1933 arbeitete er am neu gegründeten anspruchsvollen Institute for Advanced Study in Princeton als Professor für Mathematik. Zu seinen Kollegen dort gehörten Albert Einstein und Hermann Weyl. Wie diese emigrierte von Neumann nach der Machtergreifung Hitlers endgültig in die USA. John von Neumann leistete herausragende Beiträge auf vielen Gebieten der Mathematik. Bereits 1928 hatte ihn ein Aufsatz des Mathematikers Émile Borel über MinimaxEigenschaften auf Ideen gebracht, die später zu einem seiner originellsten Entwürfe, der Spieltheorie, führten. Von Neumann bewies 1928 das Minimax-Theorem für die Existenz einer optimalen Strategie in „Nullsummenspielen“. Nullsummenspiele beschreiben Situationen, bei denen die Summe der Gewinne und Verluste aller Spieler zusammengenommen gleich null ist. Zusammen mit dem Wirtschaftswissenschaftler Oskar Morgenstern schrieb er 1944 den Klassiker „The Theory of Games and Economic Behavior“, der auch die für die Wirtschaftswissenschaften wichtige Verallgemeinerung auf n-Personen-Spiele behandelt. Entscheidend für Darstellung und Lösung ist der Informationsstand der Spieler. Unterschieden werden hierbei drei Begriffe: Vollständige, perfekte (bzw. vollkommene) Information und perfektes Erinnerungsvermögen, je nachdem, ob der Spieler über die Spielregeln, die Züge der anderen Spieler und die eigenen Informationen aus der Vergangenheit informiert ist. Standard ist das Spiel mit vollständiger Information sowie perfektem Erinnerungsvermögen. Perfekte Information gehört nicht zu den Standardannahmen, da sie hinderlich bei der Erklärung zahlreicher einfacher Konflikte wäre.

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_7

67

7

68

7 Spieltheorie, Kybernetik und Informationstheorie

Abb. 7.1 John von Neumann (1903–1957)

Vollständige Information, die Kenntnis aller Spieler über die Spielregeln, ist eine Annahme, die man bei normalen Spielen als Voraussetzung für gemeinsames Spielen betrachtet. Perfektes Erinnerungsvermögen ist das Wissen jedes Spielers über sämtliche Informationen, die ihm bereits in der Vergangenheit zugänglich waren. Obwohl diese Annahme zumindest vom Prinzip her auf den ersten Blick immer erfüllt zu sein scheint, gibt es Gegenbeispiele: Handelt es sich bei einem Spiel um ein Team kooperierender Akteure wie beim Skat, kennt der einzelne Spieler zum Zeitpunkt einer eigenen Entscheidung nicht mehr den Informationskontext vergangener Züge, die ein Partner aufgrund seiner Karten getroffen hat.

7.2

Kybernetik

Norbert Wiener (1894–1964) war ein amerikanischer Mathematiker und Philosoph (Abb. 7.2). Er ist als Begründer der Kybernetik bekannt, ein Begriff, den er in seinem Werk „Cybernetics or Control and Communication in the Animal and the Machine“ (1948) prägte. Er schuf damit die wissenschaftlich-mathematische Grundlage für die Regelungstheorie und Regelungstechnik zur Berechnung der Dynamik und Stabilität von rückgekoppelten Systemen und beschrieb deren Analogien zum menschlichen Gehirn (durch Rückkopplung über Sinnesorgane) und zu sozialen Organisationen (durch Rückkopplung über Kommunikation und Beobachtung). Das Buch enthält die folgenden Schwerpunkte: • • • • •

Amerika, Spieltheorie und Mathematik Newton’sche und Bergson’sche Zeit Gruppen und Statistische Mechanik Zeitreihen, Information und Kommunikation Rückkopplung und Oszillation

7.2

Kybernetik

69

Abb. 7.2 Norbert Wiener (1894–1964)

• • • • • •

Computer und das Nervensystem Gestalt and Allgemeines Kybernetik und Psychopathologie Information, Sprache und Gesellschaft Das Lernen und sich selbst reproduzierende Maschinen Hirnwellen und sich selbst organisierende Systeme

Wenn man ein Kapitel besonders herausheben will, dann ist es vielleicht das Kapitel „Computer und das Nervensystem“. Wiener begründet dort auch die Notwendigkeit der Arbeit mit dem Dualsystem, aber von einer ganz anderen Seite her. Er betrachtet die Kosten für die Speicherung und Verarbeitung von Zahlen und begründet, dass das Dualsystem sowohl bei der technischen Realisierung als auch bei der Arbeit die geringsten Kosten verursacht, und das zu einer Zeit, als noch keine Computer gab! Er schreibt: „The ideal computing machine must then have all its data inserted at the beginning, and must be as free as possible from human interference to the very end. This means that not only must the numerical data be inserted at the beginning, but also the rules for combining them, in the form of instructions covering every situation which may arise in the course of computation.“ Übersetzt: „Bei der idealen Rechenmaschine müssen alle Daten von Anfang an eingegeben werden, und sie muss bis zum Ende möglichst frei von menschlichen Eingriffen sein. Das bedeutet, dass nicht nur die numerischen Daten zu Beginn eingefügt werden müssen, sondern auch die Regeln für ihre Kombination in Form von Anweisungen, die jede Situation abdecken, die im Laufe der Berechnung auftreten kann.“

70

7 Spieltheorie, Kybernetik und Informationstheorie

Das Dualsystem begründet er, indem er die Arbeitsweise von Neuronen (Nervenzellen) zugrunde legt: Sie befinden sich entweder im Ruhezustand, oder wenn sie „feuern“, machen sie eine Reihe von Veränderungen durch, die fast unabhängig von der Art und Intensität des Reizes sind. Das Kapitel „Kybernetik und Psychopathologie“ ist außerordentlich interessant und reicht weit in die Zukunft. Er stellt die Frage, „wie das Gehirn grobe Fehler, grobe Fehlleistungen, die durch die Fehlfunktion einzelner Komponenten entstehen, vermeidet.“ Ähnliche Fragen, die sich auf die Rechenmaschinen beziehen, sind von großer praktischer Bedeutung. „Es ist durchaus möglich, dass eine Kette von Rechenoperationen aus 109 einzelnen Schritten besteht. Unter diesen Umständen ist die Chance, dass mindestens eine Operation schief geht, alles andere als vernachlässigbar.“ Und er scheut sich überhaupt nicht, gesellschaftliche Probleme ins Auge zu fassen; man darf nicht vergessen, dass diese Sätze vor über 70 Jahren geschrieben wurden: „Die Psychologie des Narren ist zu einem Thema geworden, das die Aufmerksamkeit der Schurken verdient. Anstatt sein eigenes Interesse im Auge zu behalten, so wie von Neumanns Spieler, handelt der Narr auf eine Art und Weise, die im Großen und Ganzen so vorhersehbar ist wie die Kämpfe einer Ratte in einem Labyrinth. Diese Politik der Lügen – oder besser gesagt, der wahrheitswidrigen Behauptungen – wird ihn dazu bringen, eine bestimmte Zigarettenmarke zu kaufen; diese Politik wird ihn, so hofft die Partei, zu einer bestimmten Kandidatur bewegen – oder zur Teilnahme an einer politischen Hexenjagd. Eine bestimmte Mischung aus Religion, Pornografie und Pseudowissenschaft wird eine illustrierte Zeitung verkaufen. Eine bestimmte Mischung aus Anbiederung, Bestechung und Einschüchterung wird einen jungen Wissenschaftler dazu bringen, an Lenkraketen oder an der Atombombe zu arbeiten. Um dies herauszufinden, haben wir unsere Maschinerie von Radio-Fan-Ratings, Strohmann-Abstimmungen, Meinungsumfragen und anderen psychologischen Untersuchungen, die den einfachen Mann zum Gegenstand haben; und es gibt immer Statistiker, Soziologen und Wirtschaftswissenschaftler, die ihre Dienste für diese Unternehmungen anbieten.“ Man kann seine enorme Weitsicht nur bewundern. Es ist eigentlich alles eingetreten, was er voraussehend beschrieben hat. Im vorletzten Kapitel, das er 1961 verfasst hat, schreibt er: „Es gibt nichts Gefährlicheres als den Dritten Weltkrieg. Es lohnt sich, darüber nachzudenken, ob nicht ein Teil der Gefahr im unbedachten Einsatz von Lernmaschinen liegt. Immer wieder habe ich die Aussage gehört, dass uns lernende Maschinen keinen neuen Gefahren aussetzen können, weil wir sie abschalten können, wenn uns danach ist. Aber können wir das? Um eine Maschine effektiv abschalten zu können, müssen wir im Besitz von Informationen darüber sein, ob der Gefahrenpunkt erreicht ist. Die bloße Tatsache, dass wir die Maschine gebaut haben, garantiert nicht, dass wir die richtigen Informationen dafür haben. Dies ist bereits in der Aussage enthalten, dass die Schachspielmaschine den Mann, der sie programmiert hat, besiegen kann. Außerdem steht gerade die

7.3

Informationstheorie

71

Arbeitsgeschwindigkeit moderner digitaler Maschinen unserer Fähigkeit entgegen, die Anzeichen von Gefahren wahrzunehmen und zu durchdenken.“ Er erörtert auch die Frage, ob die Maschinen Nachfolger schaffen können, die einen noch höheren Grad an Intelligenz besitzen als die Elterngeneration, und seine Antwort lautet: Ja! Die intelligenten Systeme können sich immer weiter selbständig verbessern. Alle diese Probleme existieren heute noch und haben sich durch die technischen und sozialen Entwicklungen von 1948 bis heute noch um ein Vielfaches verschärft.

7.3

Informationstheorie

Wir kehren noch einmal zu C. Shannon zurück, der auch die Informationstheorie begründete, eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik. Sie beschäftigt sich mit Begriffen wie Information und Entropie, der Informationsübertragung, der Datenkompression, der Kodierung sowie verwandten Themen. Neben der Mathematik, Informatik und Nachrichtentechnik wird die theoretische Betrachtung von Kommunikation durch die Informationstheorie auch zur Beschreibung von Kommunikationssystemen in anderen Bereichen eingesetzt; als Beispiele sehen wir die Medien in der Publizistik, Nervensysteme in der Neurologie, DNA und Proteinsequenzen in der Molekularbiologie, Wissen in der Informationswissenschaft und Dokumentation. Die Shannon’sche Theorie verwendet den Begriff der Entropie, um den Informationsgehalt (auch Informationsdichte genannt) von Nachrichten zu charakterisieren. Je ungleichförmiger eine Nachricht aufgebaut ist, desto höher ist ihre Entropie (Abb. 7.3). Abb. 7.3 Eine hoher Wert von p ergibt eine geringe Information

72

7 Spieltheorie, Kybernetik und Informationstheorie

Ende der 1930er-Jahre kam es zu einem technischen Durchbruch, als es mit Hilfe der Puls-Code-Modulation gelang, eine als Kontinuum vorliegende Nachricht in befriedigender Annäherung diskret darzustellen. Mit dieser Methode wurde es möglich, Sprache zu telegrafieren. Shannon, der für die Bell Telephone Laboratories arbeitete, war mit der technischen Entwicklung vertraut. Die große Bedeutung seiner Theorie für die Technik liegt darin, dass er Information als physikalische Größe mit einer Maß- bzw. Zähleinheit, dem Bit, definierte. Das erlaubte, quantitativ exakt den Aufwand für die technische Übertragung von Informationen in verschiedener Gestalt (Töne, Zeichen, Bilder) zu vergleichen, die Effizienz von Codes sowie die Kapazität von Informationsspeichern und Übertragungskanälen zu bestimmen. Die Definition des Bits ist ein theoretischer Ausdruck der neuen technischen Möglichkeiten, unterschiedliche Darstellungsformen von Nachrichten in eine gemeinsame, für technische Zwecke vorteilhafte Repräsentation der Information zu transformieren. Man verwendet eine Folge von elektrischen Impulsen, die durch einen Binärcode ausgedrückt werden kann. Das ist letztendlich die Grundlage für die Informationstechnik auf digitaler Basis, wie auch für Multimedia. Shannon selbst bezeichnet sein Werk als eine „mathematische Theorie der Kommunikation“. Er schließt semantische und pragmatische Aspekte der Information, also Aussagen über den „Inhalt“ übertragener Nachrichten sowie deren Bedeutung für den Empfänger, ausdrücklich aus. Dies bedeutet, dass eine „sinnvolle“ Botschaft ebenso gewissenhaft übertragen wird wie eine zufällige Folge von Buchstaben. Obwohl die Shannon-Theorie üblicherweise als „Informationstheorie“ bezeichnet wird, macht sie also keine direkte Aussage über den Informationsgehalt von übertragenen Botschaften.

8

Maschinelles Lernen und neuronale Netze

Erstaunliche Ergebnisse hat man in den letzten Jahren durch die Verwendung von neuronalen Netzen erzielt. Sie bilden zurzeit den Schlüssel für große Erfolge auf vielen Gebieten, verbunden mit der Hoffnung, weitere wichtige Ergebnisse zu erhalten. Dahinter verbirgt sich das Bestreben, mathematische Modelle zu entwickeln, die es erlauben sollen, die Tätigkeit von Nervenzellen zu beschreiben und dann auf Computern nachzuempfinden.

8.1

Neuronale Netze

Ein neuronales Netz ist ein mathematisches Modell, das der Funktionsweise des menschlichen Gehirns nachempfunden ist. Für die Künstliche Intelligenz ist natürlich die Nachbildung ihrer Funktionsweise auf Computern interessant. 1943 führten die Mathematiker Warren McCulloch (Abb. 8.1) und Walter Pitts (Abb. 8.2) das Neuron als logisches Schwellwert-Element mit mehreren Eingängen und einem einzigen Ausgang ein. Es konnte als Boole’sche Variable die Zustände wahr und falsch annehmen und feuerte, wenn die Summe der Eingangssignale einen Schwellwert überschritt. Das Neuron lässt sich in unterschiedliche Abschnitte gliedern [41]: • • • • • • • • •

die Nervenzelle, das Neuron, die Dendriten, der Zellkern, das Soma, das Axon, der Axonhügel, die Myelinscheide, der Ranvier’scher Schnürring,

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_8

73

74

8 Maschinelles Lernen und neuronale Netze

Abb. 8.1 Warren McCulloch (1898–1969)

Abb. 8.2 Walter Pitts (1923–1969)

• die Schwann’sche Zelle, • das synaptische Endknöpfchen. Die Dendriten sind Zellausläufer des Zellkörpers und bilden den Kontakt zu anderen Zellen oder Neuronen. Sie empfangen die ersten Erregungssignale und leiten sie an den Zellkörper weiter.

8.1

Neuronale Netze

75

Das Soma ist der Zellkörper der Nervenzelle. Es bildet einen mit Cytoplasma gefüllten Bereich, der die wichtigen Zellorganellen enthält. Dazu gehören z. B. der Zellkern, die Mitochondrien, das endoplasmatische Retikulum und der Golgi-Apparat. Der Axonhügel bildet den Übergang vom Soma zum Axon. Die elektrischen Signale werden hier so lange gesammelt und summiert, bis eine bestimmte Schwelle oder ein Schwellenpotenzial überschritten wird. Erst dann wird ein Signal an das Axon weitergeleitet. Diese Signale nennt man Aktionspotenziale. Das verhindert, dass unser Körper jedes kleinste Signal weiterleitet. Ohne diesen Filtermechanismus wäre die Verarbeitung der relevanten Reize unmöglich. Der lange Fortsatz der Nervenzelle, der aus dem Axonhügel hervorgeht, heißt Axon oder Neurit. Die Aufgabe des Axons ist die Weiterleitung der Aktionspotenziale zu Nerven- oder Muskelzellen. Damit die Weiterleitung der elektrischen Signale möglichst schnell und ohne Verluste funktioniert, ist das Axon wie ein elektrisches Kabel isoliert. Dazu wird der Fortsatz durch Stütz- oder Hüllzellen umhüllt. Im peripheren Nervensystem (außerhalb von Gehirn und Rückenmark) nennt man sie auch Schwann’sche Zellen. Im zentralen Nervensystem (Gehirn und Rückenmark) heißen sie Oligodendrozyten. Als elektrische Isolationsschicht bilden die Hüllzellen eine sogenannte Myelinscheide um die Axone. Die Umhüllung ist immer wieder durch freiliegende Axonbereiche unterbrochen. Den nicht umhüllten Bereich eines Axons nennt man Ranvier’schen Schnürring. Sie ermöglichen, dass die Geschwindigkeit der Erregungsleitung erhöht wird. Denn die Erregung kann auch von einem Schnürring zum nächsten „springend“ weitergeleitet werden. So werden also die langen umhüllten Bereiche einfach überbrückt. Die synaptischen Endknöpfchen bilden das Ende eines Neurons. Das elektrische Signal wird hier auf die nächste Nervenzelle oder z. B. auf eine Sinnes- oder Muskelzelle übertragen. Dazu wird das elektrische Signal meist in ein chemisches Signal umgewandelt. Die Verbindung am Ende einer Nervenzelle mit einer anderen Zelle nennt man Synapse. In den meisten Fällen sind das chemische Synapsen. Das Endknöpfchen bringt chemische Moleküle in den synaptischen Spalt, in die Lücke zwischen den zwei Zellen. Dort treffen sie auf Rezeptoren und geben die Erregung weiter. In der nächsten Nervenzelle werden so wieder elektrische Signale ausgelöst. Nach ihrer Funktion kann man die Neuronen in drei verschiedene Typen einteilen: • sensorische Nervenzellen leiten Informationen von den Sinnesorganen oder anderen Organen im Körper an das Gehirn; • motorische Nervenzellen leiten Informationen vom Gehirn oder Rückenmark an Muskeln oder Drüsen; • Interneuronen verschalten als Teil des zentralen Nervensystems die Neuronen miteinander, sie haben eine Vermittlerfunktion. Diese Konzepte sind die neurobiologischen Analogie eines Aktionspotenzials, das eine Nervenzelle bei einer kritischen Änderung ihres Membranpotenzials aussendet. McCulloch und

76

8 Maschinelles Lernen und neuronale Netze

Pitts zeigten, dass durch geeignete Kombination mehrerer solcher Neuronen jede aussagenlogische Funktion (∧, ∨, ¬) realisierbar ist. 1957 publizierte Frank Rosenblatt (Abb. 8.4) das Perzeptron-Modell, das bis heute die Grundlage künstlicher neuronaler Netze darstellt (Abb. 8.3). Es besteht in der Grundversion (einfaches Perzeptron) aus einem einzelnen künstlichen Neuron mit anpassbaren Gewichten und einem Schwellwert. Man geht bei einem Menschen von 100 Mrd. Dendriten mit einer Gesamtlänge von vielen Hundert Kilometern aus. Wir betrachten ein einzelnes Neuron mit den Eingabewerten x 1 . . . xn , einem Schwellwert θ und Gewichten w1 . . . wn für die Verbindungen der Eingabewerte mit der Ausgabe. ⎧ n  ⎪ ⎪ ⎨ xi · wi + b > θ o = i=1 (8.1) ⎪ ⎪ ⎩ 0 ansonsten Die Anzahl der Synapsen beträgt im Gehirn eines Erwachsenen etwa 100 Bio. (1014 ) – bezogen auf ein einzelnes Neuron schwankt sie zwischen 1 und 200.000. Trotz dieser großen Zahl ist es im ersten Moment erstaunlich, dass diese einfachen linearen Operationen die Grundlage intelligenten Verhaltens bilden. Beim einlagigen Perzeptron gibt es nur eine einzige Schicht aus künstlichen Neuronen, die zugleich den Ausgabevektor repräsentiert. Jedes Neuron wird dabei durch eine Neuronenfunktion repräsentiert und erhält den gesamten Eingabevektor als Parameter.

Abb. 8.3 Eine mögliche Struktur eines Perzeptrons

8.1

Neuronale Netze

77

Abb. 8.4 Frank Rosenblatt (1928–1971)

In Abb. 8.5 sieht man in der untersten Schicht die Neuronen, die die Eingangsinformation aus ihrer Umwelt erhalten. Jedes Neuron dieser Ebene ist mit jedem Neuron der nächsten Schicht verbunden. Die Werte, die bei den Neuronen der mittleren Schicht ankommen, ergeben dann mit den entsprechenden Gewichten das Ausgangssignal. Sind die Ausgänge nur mit Eingängen einer nachfolgenden Schicht verknüpft, so dass der Informationsfluss nur in einer Richtung verläuft, spricht man von Feed-forward-Netzen. Dabei haben sich folgende Topologien bewährt: • Fully connected: Die Neuronen einer Schicht werden mit allen Neuronen der direkt folgenden Schicht verbunden. • Short-Cuts: Einige Neuronen sind nicht nur mit allen Neuronen der nächsten Schicht verbunden, sondern darüber hinaus mit weiteren Neuronen der übernächsten Schichten.

Ausgabeschicht

verdeckte Schicht

Eingabeschicht Abb. 8.5 Ein Perzeptronennetz

78

8 Maschinelles Lernen und neuronale Netze

• Sind im Netz Neuronen vorhanden, deren Ausgänge mit Neuronen derselben oder einer vorangegangenen Schicht verbunden sind, handelt es sich um ein rekurrentes neuronales Netz. • Mehrlagige Perzeptronen benötigen komplexere Lernregeln als einlagige Perzeptronen. Backpropagation (Rückkoppplung) ist ein möglicher Algorithmus für Überwachtes Lernen. Die Erweiterung dieser Netztopologien um weitere verborgene Schichten und Einführung anderer Architekturen (z. B. rekurrente neuronale Netze), die ebenfalls durch Rückkopplung trainiert werden, wird heute unter dem Stichwort Deep Learning zusammengefasst. Der Backpropagation-Algorithmus arbeitet mit überwachtem Lernen: dem Algorithmus werden Beispiele für die Eingaben und Ausgaben, die das Netz berechnen soll, vorgelegt, und dann wird der Fehler berechnet. Der Backpropagation-Algorithmus beginnt mit zufälligen Gewichten, und das Ziel ist es, diese anzupassen, um den Fehler zu reduzieren, bis das Netzwerk die Trainingsdaten gelernt hat. Feed-forward-Netzwerke haben oft eine oder mehrere versteckte Schichten von Sigmoid-Neuronen, gefolgt von einer Ausgangsschicht aus linearen Neuronen. Diese Struktur ermöglicht es dem Netz, nichtlineare und lineare Beziehungen zwischen Eingabe- und Ausgabevektoren zu lernen. Die lineare Ausgabeschicht ermöglicht es dem Netz, Werte außerhalb des Bereichs von −1 bis +1 zu erhalten (Abb. 8.6). Für den Lernprozess müssen die Daten in zwei Sätze aufgeteilt werden: den Trainingsdatensatz, der zur Berechnung der Abweichungen und zur Aktualisierung der Gewichte verwendet wird, und den Validierungsdatensatz, der die Auswahl der optimalen Anzahl von Iterationen ermöglicht. Mit zunehmender Anzahl der Iterationen sinkt der Trainingsfehler, während der Fehler des Validierungsdatensatzes zunächst sinkt, dann ein Minimum erreicht

Abb. 8.6 Ein Ausschnitt aus einem Neuronennetz

8.1

Neuronale Netze

79

Abb. 8.7 Korrektur der Gewichte von rechts nach links

und schließlich steigt. Wird der Lernprozess fortgesetzt, nachdem der Validierungsfehler ein Minimum erreicht hat, führt dies zum Überlernen. Sobald der Lernprozess abgeschlossen ist, wird ein weiterer Datensatz (Testdatensatz) zur Validierung und Bestätigung der Vorhersage-Genauigkeit verwendet (Abb. 8.7). Die Schwierigkeit, genau zu verstehen, wie sich die Änderung von Gewichtungen und Verzerrungen auf das Gesamtverhalten eines künstlichen neuronalen Netzes auswirkt, war einer der Faktoren, die eine breitere Anwendung neuronaler Netze verhinderten, und zwar bis Anfang der 2000er-Jahre. Heute werden Backpropagation-Algorithmen in vielen Bereichen der Künstlichen Intelligenz angewendet, z. B. bei der optischen Zeichenerkennung (Optical Character Recognition), der Verarbeitung natürlicher Sprache und der Bildverarbeitung. Auf diese Weise lernt man als Kind; nach einmaligem Anfassen einer heißen Herdplatte hält man entweder Abstand oder verwendet einen Topflappen, was man sich höchstwahrscheinlich von den Eltern abgeschaut hat. Nach einigen Versuchen lernen Tiere, einen Elektrozaun zu vermeiden. Schmerz wird in vielen biologischen Systemen als unangenehm oder schädlich angesehen, und das neuronale Netz von Menschen oder Tieren sucht einen Ausweg. Es gibt unterschiedliche Arten von neuronalen Netzen, die an unterschiedliche Aufgabenstellungen angepasst sind. Eine solche Art sind Convolutional Neural Networks (faltende neuronale Netzwerke, CNN).

80

8 Maschinelles Lernen und neuronale Netze

Es handelt sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des maschinellen Lernens. Es wird vornehmlich bei der maschinellen Verarbeitung von Bildoder Audiodaten angewendet. Als Begründer der CNNs gilt Yann LeCun (* 1960). Er entwickelte neue Methoden für das maschinelle Lernen, speziell für die Bildverarbeitung, die Erkennung von mit Hand geschriebenen Texten und einzelnen Zeichen. Die Anordnung in Abb. 8.8 zur Bildklassifikation zeigt die Struktur eines typischen CNN. Dieses Netz besitzt pro Convolutional Layer mehrere Filterkernels, so dass Schichten an Feature Maps entstehen, die jeweils die gleiche Eingabe bekommen, jedoch aufgrund unterschiedlicher Gewichtsmatrizen unterschiedliche Features extrahieren. Architektonisch können im Vergleich zum mehrlagigen Perzeptron drei wesentliche Unterschiede festgehalten werden: • • • •

zwei- oder dreidimensionale Anordnung der Neuronen, geteilte Gewichte, lokale Konnektivität, Convolutional Layer.

In der Regel liegt die Eingabe als zwei- oder dreidimensionale Matrix (beispielsweise die Pixel eines Graustufen- oder Farbbildes) vor. Dementsprechend sind die Neuronen im Convolutional Layer angeordnet. Der Erfolg von CNNs lässt sich mit der kompakten Repräsentation der zu lernenden Gewichte erklären. Grundlage ist die Annahme, dass ein potenziell interessantes Merkmal, z. B. Kanten, an jeder Stelle des Inputsignals interessant ist. Während ein klassisches zweilagiges Perzeptron mit jeweils 1000 Neuronen pro Ebene für die Verarbeitung von einem Bild im Format 32 × 32 insgesamt 2 Mio. Gewichte benötigt, verlangt ein CNN mit zwei sich wiederholenden Einheiten, bestehend aus insgesamt 13.000 Neuronen, nur 160.000 (geteilte) zu lernende Gewichte, wovon der Großteil im hinteren Bereich (fully-connected Layer) liegt.

Abb. 8.8 Die Architektur eines tiefen CNN

8.2

8.2

AlphaZero gewinnt bei Schach, Go und Shogi

81

AlphaZero gewinnt bei Schach, Go und Shogi

Die Google-Tochter DeepMind hat mit AlphaZero ein System entwickelt, das selbständig Schach, Shogi und Go gelernt hat. Es spielte nach kurzer Zeit diese Spiele besser als die stärksten bisherigen Programme und besser als menschliche Spieler (Abb. 8.9). Schach, Shogi (das japanische Schach) und Xiangqi (das chinesische Schach) stammen alle drei vom indischen Tschaturanga ab und gelten zusammen mit Go als die Spiele, die eine große Herausforderung für Menschen und Computer darstellen. Das Programm hat die Spiele innerhalb von 24 h gelernt, mit einer gewaltigen Rechenleistung im Hintergrund: Es kamen 5000 Tensor Processing Units (TPU) der ersten Generation und 64 TPUs der zweiten Generation zum Einsatz. TPUs sind Spezialchips für Berechnungen in neuronalen Netzen. Die erwähnte erste Generation leistet 92 Tera-Operationen pro Sekunde; über die zweite wurden noch keine genauen Informationen veröffentlicht. Das fertig trainierte neuronale Netz spielt das Spiel dann auf einer einzelnen Maschine mit nur vier TPUs, was ein halbwegs fairer Vergleich mit den jeweils stärksten Schachund Shogi-Programmen ist, die immerhin 64 CPU-Kerne zur Verfügung hatten. Ein wichtiger Gesichtspunkt zeigt sich hier: Das Training erfordert einen sehr großen Aufwand, die Anwendung des fertigen Netzes ist aber mit wesentlich geringerem Aufwand möglich. Nachdem der Vergleich mit menschlichen Spielern gegenstandslos geworden ist, bleibt nur noch eine interessante Frage: Gibt es für diese Spiele eine optimale Strategie? • Kann Weiß von der Anfangsstellung aus zwangsläufig gewinnen, für jeden beliebigen Zug von Schwarz? Das könnte man vermuten, da ja Weiß den ersten Zug macht und bei der Mobilisierung seiner Kräfte immer einen Zug voraus ist;

Abb. 8.9 Computer contra Go-Weltmeister

82

8 Maschinelles Lernen und neuronale Netze

• Besitzt Schwarz für jeden Zug von Weiß einen Zug, so dass die Partie unentschieden endet? • Kann Schwarz von der Anfangsstellung aus zwangsläufig gewinnen, für jeden Zug von Weiß? Das könnte möglich sein, weil sich Weiß im ersten Zug vielleicht irreversibel schwächt. Pokern wurde bisher immer als ein Spiel zwischen Menschen angesehen. Es unterscheidet sich insofern von anderen Spielen dadurch, dass hier psychologisches Denken eine Rolle spielt, zumindest dann, wenn nur Menschen am Tisch sitzen. In einem Spielkasino in der amerikanischen Stadt Pittsburgh hat ein Computerprogramm vier der besten Pokerspieler der Welt geschlagen. Beinahe drei Wochen haben sich vier Poker-Profis jeweils viele Stunden am Tag mit der Software namens „Libratus“ gemessen, Chips gesetzt, ihre Strategien analysiert und dennoch verloren. „Es fühlte sich an, als ob ich gegen jemanden spielen würde, der betrügt, so, als ob er meine Karten sehen könnte“, sagte der 28 Jahre alte amerikanischkoreanische Pokerspieler Dong Kim. Damit bilden die neuronalen Netzen eine zentrale Rolle bei der Entwicklung weiterer intelligenter Anwendungen. Die strategischen Spiele dienen nur dazu, die Verfahren auszuprobieren. Die Ergebnisse sind vom Menschen leicht zu begreifen. Man kann jetzt darauf vertrauen, dass auch bei anderen Problemen ähnliche Ergebnisse zu erreichen sind.

8.3

Übersetzung zwischen verschiedenen Sprachen

Das deutsche Technologieunternehmen DeepL brachte den DeepL-Übersetzer heraus, ein maschinelles Übersetzungssystem, das Übersetzungen in bisher nicht erreichter Qualität liefert. Der DeepL-Übersetzer kann auf www.DeepL.com/translators getestet werden. Die Programme für DeepL laufen auf einem Supercomputer in Island, der 5,1 PetaFLOPS (5 100 000 000 000 000 Operationen pro Sekunde) ausführen kann. Dieser Rechner wurde benutzt, um neuronale Netze mit einer Sammlung mehrsprachiger Texte zu trainieren. Die Netzwerke schauen sich dabei sehr viele Übersetzungen an und lernen selbständig, wie man korrekt übersetzt und gute Formulierungen wählt. Der DeepL-Übersetzer unterstützt derzeit 24 Sprachen, die beliebig miteinander kombiniert werden können. Ein eindrucksvolles Beispiel: Wir nehmen einen vorher geschriebenen Absatz und geben ihn bei DeepL in das linke Fenster ein, im rechten Fenster können wir dann eine andere Sprache einstellen.

8.3

Übersetzung zwischen verschiedenen Sprachen

83

Deutsch Die Existenz der maschinellen Übersetzung wird oft entweder übersehen (da man eigentlich längst an sie gewöhnt ist und sie benutzt, ohne darüber nachzudenken) oder etwas zu kritisch betrachtet (da sie vermeintlich alle Übersetzer um ihre Jobs bringen wird). Der weltweite Übersetzungsmarkt verzeichnet jedes Jahr etwa 40 Mrd. Dollar Umsatz und soll bis 2021 auf über 56 Mrd. Dollar wachsen. Regierungen, Unternehmen und auch Privatpersonen in unterschiedlichen Ländern wachsen durch die fortschreitende Globalisierung immer enger zusammen, und der stetig steigende Bedarf an Übersetzungen ist durch Menschen allein nicht mehr zu erfüllen. Englisch The existence of machine translation is often either overlooked (because people have actually long been used to it and use it without thinking about it), or viewed somewhat too critically (because it will supposedly deprive all translators of their jobs). The global translation market records about 40 billion Dollars in revenue every year and is expected to grow to over 56 billion Dollars by 2021. Governments, companies and even private individuals in different countries are growing ever closer together as a result of ongoing globalisation, and the ever-increasing demand for translations can no longer be met by people alone. Lettisch Maš¯intulkošanas past¯av¯ešana bieži vien tiek vai nu ignor¯eta (jo cilv¯eki jau sen pie t¯as ir pieraduši un izmanto to, par to nedom¯ajot), vai ar¯i uz to raug¯as p¯ar¯ak kritiski (jo t¯a it k¯a at¸nems darbu visiem tulkot¯ajiem). Pasaules tulkošanas tirg¯u katru gadu tiek re´gistr¯eti aptuveni 40 miljardu ASV dol¯aru ie¸ne¯ mumi, un paredzams, ka l¯idz 2021. gadam tie pieaugs l¯idz vair¯ak nek¯a 56 miljardiem ASV dol¯aru. Globaliz¯acijas rezult¯at¯a daž¯adu valstu vald¯ibas, uz¸ne¯ mumi un pat priv¯atpersonas k¸lu¯ st arvien cieš¯ak saist¯itas, un arvien pieaugošo piepras¯ijumu p¯ec tulkojumiem vairs nevar apmierin¯at cilv¯eki vieni paši. Ungarisch A gépi fordítás létezésér˝ol gyakran vagy nem vesznek tudomást (mert az emberek már régóta hozzászoktak, és gondolkodás nélkül használják), vagy túlságosan kritikusan szemlélik (mert állítólag minden fordítót megfoszt a munkájától). A globális fordítási piac évente mintegy 40 milliárd dollár bevételt könyvel el, és 2021-re várhatóan 56 milliárd dollár fölé n˝o. A különböz˝o országok kormányai, vállalatai, s˝ot magánszemélyei is egyre közelebb kerülnek egymáshoz a globalizáció következtében, és a fordítások iránti egyre növekv˝o igényt már nem lehet egyedül kielégíteni (Abb. 8.10). Japanisch Die Abb. 8.10 zeigt den Text in japanischer Sprache.

84

8 Maschinelles Lernen und neuronale Netze

Abb. 8.10 Eine Übersetzung ins Japanische

Cinesisch Die Abb. 8.11 zeigt den Text in chinesischer Sprache. Jetzt entsteht die phantastische Möglichkeit, dass man eine E-Mail an einen Kollegen in Japan oder China schreibt. Man schreibt sie zu Hause auf Deutsch, da kann man sich am leichtesten gut ausdrücken, danach lässt man den Text von DeepL übersetzen und kopiert dann den übersetzten Text (das rechte Fenster) in die E-Mail hinein. Ein hervorragendes Beispiel dafür, dass der Mensch aus dieser Technik einen großen Nutzen ziehen kann, er ist aber vollständig abhängig vom System und kann das Ergebnis nicht kontrollieren (Abb. 8.11). Es gibt natürlich immer noch Probleme, wo Nachbesserungen notwendig sein können: • Probleme mit der Fachterminologie und mit der Terminologiekonsistenz, • Probleme mit Homonymen und der Kontexterkennung, • Probleme mit Referenzbezügen.

Abb. 8.11 Eine Übersetzung ins Chinesische

8.3

Übersetzung zwischen verschiedenen Sprachen

85

Einige Beispiele, bei denen sich die Bedeutung nur aus dem Zusammenhang ergibt: • • • • • •

Flügel (Instrument und Körperteil eines Vogels), Bank (Sitzgelegenheit und Geldinstitut), Erde (Planet und Material im Garten), der Band, die Bände ⇒ mehrere Bücher einer Reihe, das Band, die Bänder ⇒ schmale Streifen, die Band, die Bands ⇒ Musikgruppen.

Und wer sich noch nicht überzeugen lässt, kann sich im Internet eine chinesische oder japanische Zeitschrift suchen, den Text mit Strg + C und Strg + V zum Fenster von Deepl übertragen. Dort wird er übersetzt, und man kann sich leicht davon überzeugen, ob man den Text versteht. Wenn man das mehrere Male gemacht hat, ist man davon überzeugt, dass derartige Systeme schon ein sehr gutes Niveau haben, das das Niveau eines normalen Sterblichen weit überschreitet. Man kann jetzt (als Wissenschaftler, als Reporter, als am Alltag in fremden Ländern Interessierter) Informationen erhalten, die früher nur mit riesigem Aufwand zu beschaffen gewesen wäre. Auch Google hat sehr viel in Übersetzungsprogramme investiert. Es werden mehr als 100 Sprachen angeboten, darunter viele Sprachen, die sehr selten sind, vor allem aus Afrika und aus Asien, bis hin zu Xhosa, Yoruba und Zulu. Die Yoruba sind ein westafrikanisches Volk, das vor allem im Südwesten Nigerias lebt. Die Xhosa sind ein südafrikanisches Volk, das sprachlich zu den Bantu gehört. Die Zulu sind eine Untergruppe der Bantu mit heute über 11 Mio. Menschen und die größte Ethnie Südafrikas. Bei einer Reise nach Afrika kann man ziemlich sicher sein, dass man auf Kenntnisse in Englisch, Französisch, Spanisch oder Portugiesisch trifft, in Abhängigkeit von den früheren Kolonialmächten. Man wird sehr freundlich aufgenommen, wenn man sich um die Sprache der einheimischen Bevölkerung bemüht. Man schreibt auf seinem Computer auf, was man wissen möchte und legt das dann in der jeweiligen Sprache der Einheimischen vor. Und es gibt auch Gelegenheiten, wo man darauf angewiesen ist, sich mit einem Einheimischen zu verständigen, der keine weitere Sprache kennt. • Wo ist hier die nächste Gelegenheit, etwas zum Essen oder Trinken einzukaufen? • Dab tsi yog qhov tuag nyob rau hauv Gelegenheit, thiab yog dab tsi. Hmong ist eine ethnische Gruppe, die in Südchina lebt. • Je! Ni nani aliyepata kufa Gelegenheit, na hii inaweza kusababisha nini? Suaheli ist in Ostafrika weitverbreitet. Für Erblindete hat sich mit automatischen Übersetzungen in die Braille-Schrift eine ganz neue Welt eröffnet. Mit Hilfe von Computern kann man Texte aus vielen Sprachen in die Blindenschrift übersetzen und umgekehrt. Es ist also durchaus möglich, dass sich ein erblindeter Deutscher mit einem erblindeten Japaner austauscht.

86

8 Maschinelles Lernen und neuronale Netze

Auch für Menschen, die ihr Gehör vollständig verloren haben, erweitern sich die Möglichkeiten zunehmend. Es werden bereits Smartphone Apps angeboten als Übersetzer für die Gebärdensprache. Die Methoden des tiefen Lernens (Deep Learning) werden gegenwärtig sehr erfolgreich auf vielen Gebieten von Wissenschaft, Technik und Kunst eingesetzt. Einige Beispiele werden bei den entsprechenden Anwendungsgebieten dargestellt. Man kann auch im Internet eine ganze Reihe von Firmen finden, die anwendbare Lösungen verkaufen.

9

Weitere Anwendungen

9.1

Datenbanken

Datenbanken stellen in Bezug auf die Künstliche Intelligenz ein Grenzgebiet dar. Hier verwendet man die großen zur Verfügung stehenden Speichermöglichkeiten und die zur Verfügung stehenden Suchalgorithmen. Eine Datenbank besteht aus zwei Teilen: 1. die Verwaltungssoftware, das Datenbank-Managementsystem (DBMS), 2. die Menge der zu verwaltenden Daten, die Datenbank (DB) im engeren Sinn, oft auch „Datenbasis“ genannt. Die Verwaltungssoftware organisiert intern die strukturierte Speicherung der Daten und kontrolliert alle lesenden und schreibenden Zugriffe auf die Datenbank. 3. Zur Abfrage und Verwaltung der Daten bietet ein Datenbanksystem eine Datenbanksprache an. SQL (Structured Query Language) ist eine Datenbanksprache zur Definition von Datenstrukturen in relationalen Datenbanken sowie zum Bearbeiten (Einfügen, Verändern, Löschen) der Datenbestände. SQL basiert auf einer relationalen Algebra, ihre Syntax ist relativ einfach aufgebaut und semantisch an die englische Umgangssprache angelehnt. Ein gemeinsames Gremium von ISO und IEC standardisiert die Sprache unter Mitwirkung nationaler Normungsgremien wie ANSI oder DIN. Durch den Einsatz von SQL strebt man die Unabhängigkeit der Anwendungen vom eingesetzten Datenbank-Managementsystem an. Eine sehr natürliche Form von Datenbanken sind beispielsweise Wörterbücher. Das Wörterbuch dict.cc [9] bietet für Deutsch als Ausgangssprache 26 Sprachen auf der Gegenseite. Die entsprechende Seite erlaubt die Auswahl einer Sprache und stellt die Antwort bereit, wenn man ein deutsches Wort eingibt. Der Vorteil solcher Datenbanken liegt auf © Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_9

87

88

9 Weitere Anwendungen

der Hand. Man spart viel Platz, viel Zeit und viel Geld. Die Datenbanken, die unter Linguee zur Verfügung stehen, arbeiten eng mit DeepL zusammen Die Existenz von Wörterbüchern im Internet hat einen großen Einfluss auf die Geschäftswelt. Es werden weniger Wörterbücher gedruckt, das Internet stellt wesentlich umfangreichere Wörterbücher für viel mehr Sprachen zur Verfügung. Der Duden und seine Spezialausgaben gelten noch immer als Norm für die Rechtschreibung. Der Umsatz ist aber auch zurückgegangen, da er natürlich auch im Internet vorhanden ist unter https://www.duden. de. Die „Brockhaus Enzyklopädie“ steht seit Generationen als Synonym für das gesammelte Wissen der Welt, für lexikalische Kompetenz auf höchstem Niveau. Sie ist Grundlage für Arbeit, Bildung, kulturelles Erleben, für Diskussionen und im Alltag. Sie hat sich aber auch an die technische Entwicklung angepasst: ein Novum stellt die „Brockhaus Enzyklopädie Audiothek“ dar: Über 70 h Hörbeispiele auf zwei Audio-DVDs – eine für PC, eine für den DVD-Player – machen erstmals hörbar, was man nur bedingt mit Worten beschreiben kann: Naturgeräusche, Reden, Musikstücke, Tierstimmen, Literaturvorlesungen usw. Das Onlineportal https://brockhaus.de sorgte dafür, dass der gesamte Stichwortbestand bis Ende des Jahres 2010 für Enzyklopädiebesitzer jederzeit und überall kostenfrei zugänglich war. Darüber hinaus findet hier eine ständige Aktualisierung der Inhalte statt, so dass die Brockhaus Enzyklopädie nicht nur das umfassendste, sondern auch das aktuellste deutschsprachige Nachschlagewerk ist und bleibt. Dem gleichen Prinzip folgt Wikipedia im Internet. Es gibt noch viele weitere Datenbanken im Internet, die viele Geschäftszweige mehr oder weniger überflüssig gemacht haben. Unter www.stampworld.com findet man einen Briefmarkenkatalog für alle Länder und alle Zeiten. Es war eine gewaltige Arbeit, diese relationale Datenbank herzustellen, und es ist keine leichte Aufgabe, sie ständig zu aktualisieren [54]. Dabei geht man im einfachsten Fall in folgender Weise vor: • Gegeben ist ein einzelnes Objekt, das aus einer Menge gleichartiger Objekte ausgewählt wird. Wir nehmen als Beispiel eine einzelne Briefmarke her, die irgendwann irgendwo herausgeben wurde. Alle Briefmarken aller Länder und Zeiten bilden die Menge M. Für Briefmarken definiert man nun Mengen von Eigenschaften, die einer Briefmarke zugeschrieben werden können (Abb. 9.1): • ∅ – keine spezielle Bezeichnung, • Datum ihrer Ausgabe: Erste Ausgabe 1. Juli 1850, • gefärbtes Papier, • kein Wasserzeichen, • keine Zähnung, • Ausgabenummer 1, • Wert 2 Cent • Farbe: schwarz, Papier: dunkelrosa • Preis ungestempelt 200.000 EUR,

9.1

Datenbanken

89

Abb. 9.1 Die erste Briefmarke von Britisch-Guyana

• Preis gestempelt 150.000 EUR, • ein Bild der Marke. Der Begriff „relationale Datenbank“ lässt sich an diesen Eigenschaften leicht erklären. Für jeden Punkt gibt es eine Grundmenge. Bei den Bezeichnungen gibt es eine große Breite. Es erscheinen die Namen von Gedenktagen, Organisationen, Politikern u. v. a. m. Die Nummerierung der Briefmarken eines Landes beginnt immer bei 1, die obere Grenze ist bei Britisch-Guayana die Zahl 241. Kennt man diesen Wert, dann ist die Marke sofort identifiziert. Das Papier kann unterschiedlich gefärbt sein, heute ist Weiß der Standard. Wasserzeichen sind eine spezielle Eigenschaft des Papiers, auf dem die Marke gedruckt wurde. Sie sollten als Schutz gegen Fälschungen dienen. Zähnungen sind unterschiedlich ausgeprägt, gravierend ist der Unterschied zwischen gezähnten und ungezähnten Briefmarken. Ansonsten werden die vorhandenen Zähnungen nach ihrer Feinheit unterschieden. Danach wird der Ausgabewert der Marke in der jeweiligen Landeswährung angegeben (hier 2 1/2 Silbergroschen). Die restlichen Punkte verstehen sich von selbst. Der Preis schwankt natürlich in gewissen Grenzen und verkörpert die Seltenheit der Marke. Ein Element der Relation ist gegeben, wenn für eine Marke in jeder der gegebenen Mengen ein Element ausgewählt wurde. Obwohl kaum noch Briefe geschrieben werden, ist das Sammeln von Briefmarken noch lebendig; für Postverwaltungen vieler Länder ist es eine zusätzliche Geldquelle. Derartige Datenbanken sind sehr verbreitet – Autonummern, Kontonummern, Nummern von Kreditkarten, Versicherungspolicen, Steuernummern, die Eintragungen beim

90

9 Weitere Anwendungen

Ordnungsamt oder in Flensburg dienen dem gleichen Zweck der eindeutigen Charakterisierung von bestimmten Objekten und deren Zugehörigkeit. Insbesondere sind auch die Verbindungen zwischen verschiedenen Datenbanken interessant und wichtig. In der Schweiz sind die medizinischen Informationen an eine Person gebunden. Jede Eintragung, die ein Arzt vornimmt für einen Patienten, ist sofort für alle anderen Ärzte verfügbar, die mit diesem Patienten zu tun haben. Es entsteht also eine Nutzergruppe. Damit werden doppelte Testungen, gegenläufige Medikationen, unnötige Wege und Kosten vermieden. In den letzten Jahren ist auf dieser Grundlage eine neue Vorgehensweise entstanden, das sogenannte Cloud Computing. Cloud Computing (Rechner- oder Datenwolke) beschreibt ein Modell, das bei Bedarf – meist über das Internet und geräteunabhängig – zeitnah und mit wenig Aufwand geteilte Computer-Ressourcen als Dienstleistung, etwa in Form von Servern, Datenspeichern oder Applikationen, in einer Wolke bereitstellt und nach Nutzung abrechnet. Angebot und Nutzung dieser Computer-Ressourcen ist definiert und erfolgt in der Regel über eine Programmierschnittstelle (API) bzw. für Anwender über eine Webseite oder App.

9.2

Handel über das Internet

Mit der Entstehung und Entwicklung des Internets sind auch viele neue miteinander verkettete Wirtschaftszweige entstanden, die zwar stark von Datenbanken abhängig sind, aber mittlerweile viele andere Eigenschaften – Vorteile und Nachteile – miteinander verbinden. Man fasst sie unter dem Namen „E-Commerce“ („Electronic Commerce, elektronischer Handel“) zusammen. Das Internet ist die Grundlage für einen ausgiebigen Verkaufsbetrieb. Potenziell gehört hierher auch das „Online-Banking“, aber das ist mittlerweile schon eine eigenständige Branche geworden. Fast jede Bank verfügt heute über eine Online-Präsenz. E-Commerce hat sich in den letzten 30 Jahren sehr stark entwickelt und dominiert jetzt viele Geschäftsbereiche, in denen der klassische Einzelhandel stark beeinträchtigt wurde. Ein wohlbekanntes Beispiel ist das „Kindle eBook“. Dort angebotene Bücher sind billiger als im Papierformat, und sie erfordern in der Wohnung keinen Platz. Große Bilder und Landkarten sind allerdings meistens nicht sehr übersichtlich, ebenso gehen schöne Einbände verloren, und der Beruf des Buchbinders stirbt mehr oder weniger aus. Die bekanntesten und größten Firmen sind gegenwärtig „Amazon“ und „ebay“. Amazon.com, Inc. (kurz Amazon) ist ein börsennotierter US-amerikanischer OnlineVersandhändler mit einer breit gefächerten Produktpalette. Nach eigenen Angaben hat Amazon als Marktführer des Handels im Internet die weltweit größte Auswahl an Büchern, CDs und Videos [2]. Über die integrierte Verkaufsplattform „Marketplace“ können auch Privatpersonen oder andere Unternehmen im Rahmen des Onlinehandels neue und gebrauchte Produkte anbieten. Unter eigener Marke werden der „Amazon Kindle“ als Lesegerät für elektronische Bücher, der „Tabletcomputer“ Amazon Fire HD, die „Set-Top-Box Fire TV“ sowie der „HDMI-Stick Fire TV Stick“ und das Spracherkennungssystem „Echo“ vertrieben.

9.2

Handel über das Internet

91

Über Amazon Web Services ist das Unternehmen zudem einer der führenden Dienstleister für Cloud Computing. Das Unternehmen erzielte einen Umsatz von 386 Mrd. US$ im Jahr 2020. In Deutschland war Amazon 2020 mit einem Umsatz von 29,5 Mrd. EUR das umsatzstärkste US-Unternehmen. Es ist fast nicht vorstellbar, dass dieses Unternehmen erst 1994 gegründet wurde und innerhalb von knapp 30 Jahren diesen Leistungsumfang erreicht hat. Die besonderen Eigenschaften sind Markttransparenz und die Abwesenheit von Präferenzen. Bei der Schaffung und Nutzung solcher Systeme treten viele vorher nicht geahnte Probleme auf. Es ist beispielsweise für den Absatz eines Produktes von großer Bedeutung, wann ein Angebot im Internet erscheint. Untersuchungen haben gezeigt, dass ein Kunde, der etwas sucht, nur drei bis vier Seiten anschaut und sich dann entscheidet oder die Suche abbricht und die Entscheidung vertagt. Deshalb spielt die Werbung im Internet eine entscheidende Rolle. Sie ermöglicht die relativ genaue Messung eines konkreten Werbeerfolgs. Es ist aber wohl oft ein Stadium erreicht, in dem diese Form außerordentlich übertrieben wird. Allerdings löst sie doch allmählich die Werbung mit Katalogen, Anzeigen und Prospekten ab. Die Vorteile bestehen vor allem in folgenden Möglichkeiten: • • • • • •

neue Kommunikationsmöglichkeiten mit Kunden, Erschließung neuer Vertriebskanäle, Gewinnung von Neukunden, Umsatzerhöhung, Effizienzsteigerung, automatisierte Geschäftsprozesse unabhängig von der Arbeitszeit.

Der elektronische Handel hat aber auch Nachteile, die sich auf die Kosten auswirken: • • • • •

zusätzliche Absatz- oder Beschaffungsrisiken, sinkender Kundennutzen (bei Verzicht auf persönlichen Service), sinkende Kundenzufriedenheit (Reaktanz-Reaktionen auf Anlegen von Kundenprofilen), erhöhte Risiken des Zahlungsverkehrs (Betrugsrisiko), zusätzlicher Aufwand durch Pflege einer versandhandelstypischen Organisation (Lagerhaltung, Debitorenkontrolle etc.), • Rücksendung ohne Kosten für den Kunden. Es gibt auch eine ganze Reihe von kleineren Firmen, die ebenfalls das Internet nutzen, um ihre Erzeugnisse zu verkaufen. Internethändler haben den Vorteil, dass sie keinen physischen Verkaufsraum brauchen, dieser steht virtuell als Webseite zur Verfügung. Manche Onlinehändler verzichten deswegen auch auf eigene Lagerräume, Bestellungen werden direkt an den Produzenten oder Großhändler weitergeleitet, der sich um die Kommissionierung und den Versand der Ware kümmert. Unternehmen, die Ware kostenlos verschicken und zusätzlich eine schnelle Lieferung ermöglichen, sind so eine ernst zu nehmende Konkurrenz zum

92

9 Weitere Anwendungen

stationären Einzelhandel geworden. Sogar Internet-Buchhändler, die in Deutschland der Buchpreisbindung unterliegen und somit keine Rabattaktionen durchführen können, profitieren dadurch, dass sie dem Kunden bei gleichem Preis den Gang zum Buchladen ersparen. In manchen Fällen dienen Läden zugleich als stationärer Laden und als Abhol- oder Rückgabestation für Ware, die der Kunde im Internet bestellt hat. Auf diese Weise wird der Service im Laden vor Ort mit dem Online-Handel verknüpft. Eine Studie aus der Zeit von Oktober 2015 bis Januar 2018 zeigte, dass der klassische Einzelhandel vor allem in den Städten mit dem Online-Handel konkurrieren kann. Bei digitalen Produkten wie Musikdateien, Software oder Onlinebüchern kann der Kunde nach dem Kauf das Produkt direkt herunterladen. Der physische Versand entfällt in dem Fall, und der Kunde kann seinen Einkauf sofort nutzen. Die meisten E-Shop-Systeme besitzen folgende grundlegende Softwarekomponenten: • • • • • • •

Shop-Datenbank mit Produktinformation, Administrationsdatenbank, Präsentationssystem, Recommendation Engine für das Empfehlen eines Produktes, Payment Gateway (Abwicklung des Bezahlvorgangs), weitere Funktionalitäten (Werkzeuge), Webtracking-System.

Amazon geht offensichtlich in zwei Schritten vor: Zunächst werden Produkte gesucht, die semantisch grundsätzlich zur Suchanfrage passen. Hiermit wird ausgeschlossen, dass z. B. auf einmal ein Hausschuh angeboten wird, obwohl der Kunde eigentlich nach Motorradzubehör gesucht hat. Im zweiten Schritt werden dann die so vorgefilterten Produkte nach verschiedenen Kriterien durch einen Algorithmus sortiert. In diesem Schritt sind die wichtigsten Faktoren „frühere Bewertungen“, „Produktbilder“ oder „Verfügbarkeit“. Diese Faktoren werden in den Einheiten „Klickrate“ und „Umtausch-Häufigkeit“ gemessen. Die Klickrate zeigt an, wie viel Leute die Produktseite besucht haben. Der zweite Faktor zeigt an, wie viel Leute das Produkt dann auch wirklich gekauft haben. Bevor man beginnt, nach einem Produkt zu suchen, sollte man selbst ein paar Überlegungen anstellen: Wonach würde man eine Verkäuferin im Laden fragen bei der Suche nach einem bestimmten Produkt? Mit dieser Methode kommt man relativ schnell auf ein paar passende Suchbegriffe zum Produkt und kann auf dieser Liste aufbauen. Diese Liste kann dann in das AmazonSuchfeld eingegeben werden, um damit weitere passende Begriffe durch die Empfehlungen von Amazon zu erfahren. Man kann sich über Amazons „gesponserte Produkte“ einen Platz ganz oben in den Suchergebnissen sichern, sie beruhen auf Schlüsselworten und Auktionen. Der Händler mit dem höchsten Gebot bekommt den begehrten Platz ganz oben in der Amazon-Produktsuche. Jeder, der einen professionellen Amazon Seller-Account besitzt, hat die Möglichkeit, solche Anzeigen zu schalten.

9.2

Handel über das Internet

93

Das Ziel der Suchmaschine von Google ist es, seinen Nutzern bestmögliche Informationen auf eine schnelle und unkomplizierte Art und Weise zu bieten. Dafür werden Milliarden von Webseiten durchsucht. Bei dieser Suche werden zahlreiche Faktoren herangezogen: die in einer Suchanfrage verwendeten Wörter, die Relevanz und Nützlichkeit von Seiten, die Sachkenntnis von Quellen sowie der Standort und die Einstellungen. Es wird immer deutlicher, dass es vor allem auf große Mengen an Daten ankommt. Die vorhandenen Algorithmen zur Klassifikation der Daten und zum Finden von entscheidungsrelevanten Faktoren arbeiten schon sehr erfolgreich. Es ist schon fast selbstverständlich, dass lernende Programme auch dafür eingesetzt werden, die Werbung ständig zu verbessern. Und man darf natürlich die Unterhaltungsbranche nicht vergessen. Hier nimmt YouTube einen Spitzenplatz ein. YouTube ist ein 2005 gegründetes Videoportal des USamerikanischen Unternehmens YouTube, LLC, seit 2006 eine Tochtergesellschaft von Google LLC. Die Benutzer können auf dem Portal kostenlos Videoclips ansehen, bewerten, kommentieren und selbst hochladen. Die Haupteinnahmequelle von YouTube ist Werbung. Außerdem verdient man durch monatliche Abodienste wie YouTube Premium. 2019 erzielte YouTube einen Jahresumsatz von 15 Mrd. US$. Die Einnahmen werden zum Großteil durch das Abspielen von Werbespots generiert. YouTube bietet drei Formen der Zugänglichkeit an: „öffentlich“, „ungelistet“ oder „privat“. Standard sind öffentliche Videos. Diese sind von jedermann anzusehen und in Suchergebnissen zu finden. Es ist unendlich viel Material vorhanden, Bücher, Schauspiele, klassische Musik, alles, was das Herz begehrt, die Suchzeit ist ganz kurz. Netflix, Inc. ist ein US-amerikanisches Medienunternehmen, das sich mit dem kostenpflichtigen Streaming und der Produktion von Filmen und Serien beschäftigt. Es folgt den gleichen Prinzipien wie Amazon und ebay, hat aber einen eingeschränkteren Geschäftsbereich [42]. Das Unternehmen wurde von Reed Hastings und Marc Randolph 1997 im kalifornischen Los Gatos gegründet und agierte zunächst als Online-Videothek mit dem Versand von Filmen auf DVD und Blu-ray an seine Abonnenten. 2007 stieg Netflix ins Video-onDemand-Geschäft ein und machte die Inhalte per Streaming für Abonnenten zugänglich. Bis März 2020 hatte der Mediendienst knapp 3000 Film- und Fernsehsendungen als Streaming angeboten. Bis Ende Juni 2021 wurden bei Netflix seit der Unternehmensgründung mehr als 200 Mio. bezahlte Abonnements abgeschlossen, davon mehr als 70 Mio. in den USA und Kanada. 2020 übertraf der Börsenwert des Unternehmens mit knapp 195 Mrd. US$ erstmals den der Walt Disney Company. Netflix kategorisiert seine Kunden als Starter, die nur zwei Minuten eines Films oder einer Serie geschaut haben, Watchers, die einen Film oder eine Serienepisode nach 70 % abbrechen, und Completers, die Filme oder Serienstaffeln zu 90 % gesehen haben. Die Zahlen der drei Kategorien werden innerhalb der ersten 7 sowie 28 Tage nach Veröffentlichung eines neuen Films oder einer neuen Serienstaffel an die Produzenten zurückgemeldet. Kennzahlen für den Erfolg der Produktion über einen Monat nach Veröffentlichung hinaus werden nicht erhoben.

94

9 Weitere Anwendungen

Durch inhaltsbasiertes und kollaboratives Filtern ist Netflix in der Lage, den Benutzern Empfehlungen über Serien zu geben, die auf sie zugeschnitten sind. Hierzu werden bei jeder Nutzung von Netflix vielschichtige Daten über das Nutzerverhalten gesammelt. Dazu gehört neben der Handlung, den Schauspielern, dem Drehort etc. auch die genaue Verweildauer beim Konsumieren von Filmen. Jeder Autofahrer weiß die Datenbank zu schätzen, die sich in seinem Navigationsgerät verbirgt. Es kennt in jedem Land jede Stadt, jedes Dorf, jede Straße und jede Hausnummer. Man kann sich kaum noch daran erinnern, dass man früher einen Berg von Landkarten oder einen Autoatlas mitnehmen musste. Allerdings geht die Kunst, sich auf Landkarten zurechtzufinden, langsam verloren. Die Firma Ebay folgt den gleichen Prinzipien. EBay Inc. ist ein US-amerikanisches Unternehmen, das einen der größten Online-Marktplätze betreibt. Es wurde am 3. September 1995 von Pierre Omidyar in San José (Kalifornien) unter dem Namen AuctionWeb gegründet. Auch in Europa, etwa in Deutschland, der Schweiz und Österreich, bietet das Unternehmen seine Dienstleistungen an. Bis zum 17. Juli 2015 gehörte auch der Bezahldienst PayPal zum Unternehmen. Hier wird also dem Geschäftsgebaren von Amazon noch der Charakter einer Auktion hinzugefügt. Jeder kann gegen eine bestimmte Provision ein Erzeugnis über Ebay anbieten, zusammen mit einem Mindestbetrag, zu dem man das Objekt verkaufen möchte. Anschließend können Kunden wie bei einer Auktion den Preis steigern. Durch einen Schlusstermin wird dann diese Auktion beendet, und das höchste Gebot erhält den Zuschlag. Im Laufe der Jahre erweiterte sich das Angebot von Marktplatz mit flohmarktähnlichem Charakter zu einer Plattform, die auch Neuware von kommerziellen Händlern anbietet, im Unterschied zu den Gebrauchtwaren privater Anbieter. Die Abhängigkeit von Datenbanken und Internet ist ganz offensichtlich, die Intelligenz liegt hier unter anderem auch in der Geschäftsidee. Die Touristikbranche ist ebenfalls fest in den Händen des Internets und hat lokale Reisebüros sehr an den Rand gedrängt. Die amerikanische Firma Tripadvisor ist ein Beispiel dafür. Es handelt sich um eine US-amerikanische Touristik-Webseite, die dem Nutzer individuelle Erfahrungsberichte bietet, um den Urlaub zu planen [60]. Es gibt Bewertungen und Erfahrungsberichte über 1,8 Mio. Geschäfte, 4,2 Mio. Restaurants, 1,1 Mio. Hotels und 830.000 Ferienwohnungen sowie 730.000 Sehenswürdigkeiten in 135.000 Reisezielen (Stand: Mitte 2016). Geboten werden Erfahrungsberichte und Beurteilungen von Reisenden, Links zu Berichten aus Zeitungen, Zeitschriften und Reiseführern sowie Reiseforen (elektronische „Schwarze Bretter“). China gehört zu den attraktivsten E-Commerce-Märkten weltweit. 2018 wurden im Onlinehandel in China rund 530 Mrd. EUR umgesetzt. Die Zahl der Onlinekäufer hat sich in den vergangenen zehn Jahren mehr als verzehnfacht. Heute kaufen knapp 85 % der Internetnutzer Chinas bereits online ein. Die Firma Alibaba ist durchaus mit Amazon vergleichbar.

9.3

9.3

Big Data

95

Big Data

Mit Big Data werden große Mengen an Daten bezeichnet, die aus Bereichen wie Internet und Mobilfunk, Finanzindustrie, Energiewirtschaft, Gesundheitswesen und Verkehr und aus Quellen wie intelligenten Agenten, sozialen Medien, Kredit- und Kundenkarten, SmartMetering-Systemen, Assistenzgeräten, Überwachungskameras sowie Flug- und Fahrzeugen stammen und die mit speziellen Lösungen gespeichert, verarbeitet und ausgewertet werden. Es geht um „Rasterfahndung“, „(Inter-)Dependenzanalyse“, „Umfeld-“ und „Trendforschung“ sowie „System-“ und „Produktionssteuerung“. Das Hauptanliegen ist die Entdeckung von neuem Wissen. Das weltweite Datenvolumen ist derart angeschwollen, dass bisher nicht gekannte Möglichkeiten eröffnet werden. Auch die Vernetzung von Datenquellen führt zu neuartigen Anwendungen, zudem zu Risiken für Benutzer und Organisationen. Hier steht man erst am Anfang der Entwicklung. Die weitreichenden Verknüpfungen werden in Abb. 9.2 dargestellt. Die Wirtschaft verspricht sich neue Einblicke in Interessenten und Kunden, ihr Risikopotenzial und ihr Kaufverhalten und generiert personenbezogene Profile. Sie versucht, die Produktion zu optimieren und zu flexibilisieren und Innovationen durch Vorausberechnungen besser in die Märkte zu bringen. Die Wissenschaft untersucht den Klimawandel und das Entstehen von Erdbeben und Epidemien sowie Massenphänomene wie Bevölkerungswanderungen und Verkehrsstaus. Sie simuliert mithilfe von Superrechnern sowohl Atombombenabwürfe als auch Meteoritenflüge und deren Einschläge. Behörden und Geheimdienste spüren in enormen Datenmengen solche Abweichungen und Auffälligkeiten auf, die Kriminelle und Terroristen verraten können, und solche Ähnlichkeiten, die Gruppierungen und Eingrenzungen erlauben. Big Data ist eine Herausforderung für den „Datenschutz“ und das „Persönlichkeitsrecht“. Oft liegt vom Betroffenen kein Einverständnis für die Verwendung der Daten vor, und häufig kann er identifiziert und kontrolliert werden. Die Verknüpfung von an sich unproblematischen Informationen kann zu problematischen Erkenntnissen führen, so dass man plötzlich zum Kreis von Verdächtigen gehört, und die Statistik kann jemand als kreditunwürdig und risikobehaftet erscheinen lassen, weil man im falschen Stadtviertel wohnt, bestimmte Fortbewegungsmittel benutzt und gewisse Bücher liest. Die Informationsethik fragt nach den moralischen Implikationen von Big Data in Bezug auf „digitale Bevormundung“, „informationelle Autonomie“ und „Informationsgerechtigkeit“. Gefordert sind ferner Wirtschaftsund Rechtsethik. Mit Hilfe von Datenschutzgesetzen und -einrichtungen kann man ein Stück weit Auswüchse verhindern und Verbraucherschutz sicherstellen. Der Datenumfang hat immense Ausmaße angenommen: Die Menge an Daten, die die Menschheit von Beginn an bis ins Jahr 2002 angesammelt hat, entstand 2014 schon innerhalb von nur zehn Minuten. Laut Prognosen wird dieser Datenberg weiter steigen und sich weltweit im Zweijahrestakt verdoppeln. Die Datenflut ergibt sich durch die steigende Digitalisierung aller Lebensbereiche. Laut Big-Data-Definition sind die Datenmengen so umfangreich, dass normale Software schlichtweg überfordert ist und die übliche Technik die Menge

96

9 Weitere Anwendungen

Abb. 9.2 Alle erreichbaren Daten werden gespeichert

nicht effizient verarbeiten kann. Beim Umgang mit Massendaten stellen sich also besondere technische Anforderungen an die verwendete Software. Nur spezielle Frameworks können die Daten analysieren. Die Software muss dafür möglichst viele Datensätze auf einmal verarbeiten und große Datenmengen schnellstmöglich importieren können. Außerdem sollte die Software die Datenmengen für den Anwender möglichst in Echtzeit zur Verfügung stellen und, wenn nötig, auch mehrere Datenbankanfragen gleichzeitig beantworten können. Hier ist es besonders wichtig, dass man sehr große Datenmengen verarbeiten kann. Um den Zusammenhang zweier Datenfolgen zu berechnen, verwendet man beispielsweise den Korrelationskoeffizient. Das ist mathematisch nicht sehr schwierig [26]. Wir gehen von zwei Datensätzen (x1 . . . xn ) und (y1 . . . yn ) aus. Zuerst berechnet man die beiden Mittelwerte: n n 1 1 x= xi y= yi . (9.1) n n i=1

i=1

Danach berechnet man die Kovarianz in folgender Weise: n (xi − x)(yi − y) . Cov(x,y) = i=1 n

(9.2)

Mit der Kovarianz lässt sich bestimmen, wie sich die relativen Positionen (Abweichungen vom Mittelwert) von gepaarten Messwerten aus zwei Variablen zueinander verhalten. • Haben Abweichungen vom Mittelwert überwiegend dasselbe Vorzeichen, wird die Kovarianz positiv (wenn positive Abweichungen bei der einen Variablen meist mit positiven Abweichungen bei der anderen Variable einhergehen). • Haben Abweichungen vom Mittelwert überwiegend entgegengesetzte Vorzeichen, wird die Kovarianz negativ (wenn positive Abweichungen bei der einen Variable meist mit negativen Abweichungen bei der anderen Variablen einhergehen).

9.3

Big Data

97

• Wenn die Abweichungen unsystematisch variieren, liegt die Kovarianz nahe null (wenn positive Abweichungen bei der einen Variablen mal mit negativen und mal mit positiven Abweichungen bei der anderen Variable einhergehen). Danach berechnen wir die Standardabweichungen  n 2 i=1 (xi − x) sx = n−1  n 2 i=1 (yi − y) sy = . n−1

(9.3)

(9.4)

Abschließend erhält man die Produkt-Moment-Korrelation r(x,y) =

Cov(x, y) . sx · s y

(9.5)

Der resultierende Kennwert r (x, y) wird Pearson-Korrelationskoeffizient genannt. Er ermöglicht, wie auch die Kovarianz, eine Interpretation der Richtung des Zusammenhangs. Zusätzlich liefert er aber auch Information über die Stärke des Zusammenhangs. Denn durch die Standardisierung ist der Korrelationskoeffizient einheitlich interpretierbar (unabhängig davon, welche Variablen betrachtet werden). Durch sie kann der Korrelationskoeffizient r(x,y) nur Werte zwischen −1 und +1 annehmen, wobei • der Wert −1 einen perfekt negativen Zusammenhang zwischen den Variablen aufzeigt, • der Wert +1 einen perfekt positiven Zusammenhang zwischen den Variablen aufzeigt, • der Wert 0 aufzeigt, dass kein Zusammenhang zwischen den Variablen existiert. In den ersten beiden Fällen liegen alle Punkte auf einer Graden, was in der Praxis jedoch nur sehr selten der Fall ist. Für die Interpretation der Werte zwischen 0 und 1 bzw. 0 und −1 verwendet man die folgende Ausdrucksweise: • ab r = 0,10 bzw. −0,10 spricht man von einem schwachen Zusammenhang, • ab r = 0,30 bzw. −0,30 spricht man von einem mittleren Zusammenhang, • ab r = 0,50 bzw. −0,50 spricht man von einem starken Zusammenhang. Sehr oft kommt es aber vor, dass die Daten nicht durch Zahlen beschrieben, sondern nur durch Platzierungen charakterisiert werden. Hier hilft die Pearson’sche Rangkorrelation. Man verwendet die Formel für r(x,y) , ersetzt aber die Werte für die xi durch Rangplätze [26]. Im Beispiel wird die Laufzeit über 100 m zusammen mit dem Alter dargestellt (Tab. 9.1). Man sieht, dass die Reihenfolge, die durch das Alter bestimmt wird, von der Reihenfolge, die durch die Laufzeiten gegeben ist, abweicht; drei Personen liegen bei den Laufzeiten nicht auf dem ihrem Alter entsprechenden Platz. Berechnet man den Korrelationskoeffizienten,

98

9 Weitere Anwendungen

Tab. 9.1 Pearson’sche Rangkorrelation für Laufzeit und Alter Person

Alter

Altersrang

Laufzeit in Sekunden

Zeitrang

1

59

6

14,61

6

2

35

3

11,80

2

3

43

5

14,34

5

4

23

1

13,03

3

5

42

4

14,18

4

6

27

2

11,02

1

dann erhält man r = 0,73. Das bedeutet, dass nur in etwa 75 % der Fälle das Alter den Platz in diesem Lauf bestimmt. Durch weitere Datenmengen kann man dann diesen Wert weiter präzisieren. Sehr umfangreiche Möglichkeiten stellt die Regressionsanalyse zur Verfügung. Mit all diesen Verfahren kann man umfangreiche Zusammenhänge feststellen zwischen ganz unterschiedlichen Informationen. Beispielsweise hat Google aus mehreren Millionen Anfragen 45 Faktoren für das Auftreten einer Epidemie herausgefiltert. Insgesamt stellt die Statistik und die Wahrscheinlichkeitsrechnung viele ausgereifte, gut untersuchte Mittel und Methoden zur Auswertung von Massendaten zur Verfügung. die sehr genaue Information liefern können über Zusammenhänge und zu erwartende Ereignisse. Man muss aber sehr genau vorgehen bei der Interpretation von Ergebnissen. Es gibt sehr viele (absichtliche oder unabsichtliche) Fehlinterpretationen. Big Data wird in den unterschiedlichsten Lebensbereichen angewendet. Auch ganz alltägliche Dinge, die fast jeder Internetnutzer kennt, basieren darauf. Ein Beispiel für Big-DataAuswertung aus dem Bereich Onlineshopping: Wer schon einmal im Internet eingekauft hat, kennt die Rubrik „Kunden, die das Produkt XY kauften, kauften auch ...“. Diese Empfehlungen entstehen aus der Auswertung von Millionen von Kaufdaten anderer Kunden. Weitere Bereiche, in denen man von Big Data profitiert: 1. Medizinische Forschung: Durch die Auswertung von Massendaten können Mediziner die besten Therapielösungen für Patienten finden. 2. Industrie: Dank der Nutzung eigener Maschinendaten können Unternehmen die Effizienz ihrer Produktion steigern. 3. Wirtschaft: Big Data ermöglicht es den Unternehmen, ihre Kunden gut kennenzulernen und Angebote auf sie abzustimmen. 4. Energie: Um den Energieverbrauch auf individuelle Bedürfnisse zuzuschneiden, muss man diese Bedürfnisse kennen. Erhobene Verbrauchsdaten sorgen langfristig für eine angemessene Energieversorgung.

9.3

Big Data

99

5. Marketing: Big Data wird im Marketing-Bereich oft zur Zielbestimmung genutzt. Meistens geht es darum, die Beziehungen zu den Kunden zu verbessern. 6. Verbrechensbekämpfung: Auch Regierung und Staatsschutz greifen auf Big Data zurück; das massenhafte Verwenden von Überwachungskameras hat die Kleinkriminalität ganz wesentlich reduziert. 7. Analyseverfahren zum Auffinden von Mustern: Sie identifizieren Häufungen von Ähnlichkeiten und bilden danach Gruppen von Objekten, die sich hinsichtlich bestimmter Aspekte stark ähneln; im Gegensatz zur Klassifikation sind die Gruppen (bzw. Cluster) nicht vordefiniert und können je nach analysierten Daten unterschiedliche Formen annehmen. 8. Assoziationsanalyse: Sie deckt Korrelationen zwischen zwei oder mehreren voneinander unabhängigen Faktoren auf, die zwar in keinem direkten Zusammenhang stehen, aber vermehrt gemeinsam auftreten. 9. Regressionsanalyse: Sie deckt Beziehungen zwischen einer abhängigen Variablen (z. B. dem Produktabsatz) und einer oder mehreren unabhängigen Variablen (z. B. dem Produktpreis oder dem Kundeneinkommen) auf; sie wird unter anderem eingesetzt, um Prognosen über die abhängige Variable zu machen (z. B. eine Absatzprognose). 10. Prädiktive Analyse: Das ist eigentlich eine übergeordnete Aufgabe, die darauf abzielt, Vorhersagen über Zukunftstrends zu treffen; sie arbeitet mit einer Variablen (Prädikator), die für einzelne Personen oder größere Entitäten gemessen wird. Die Anwendungen, die sich auf große Datenmengen beziehen, sind sehr breit und zeigen manchmal ganz überraschende Ergebnisse [36]. Sehr oft gibt es zwischen den Erscheinungen keinen kausalen Zusammenhang, aber die Ergebnisse sind ganz überraschend genau. Im Jahre 2009 wurde in den USA der Virus H1N1 (verantwortlich für Vogel- und Schweinegrippe) festgestellt. Einige Wochen, bevor dieser Virus in die Schlagzeilen geriet, veröffentlichten Ingenieure, die bei Google arbeiteten, einen Artikel in der Zeitschrift Nature. Dort zeigten die Autoren, wie Google die Ausbreitung des Virus vorhersagen konnte, nicht nur auf Landesebene, sondern auch auf dem Niveau von Bundesstaaten. Sie schauten auf Korrelationen zwischen der Häufigkeit von gewissen Suchanfragen und der zeitlichen und räumlichen Ausdehnung von Infektionen. Die Software fand 45 Suchbegriffe, die in einem mathematischen Modell gemeinsam benutzt wurden. Die auf dieser Grundlage getroffenen Vorhersagen und die tatsächlichen nationalen Zahlen stimmten in hohem Grad überein. Diese Form der Datenanalyse sucht nicht nach kausalen Zusammenhängen Ursache ⇒ Wirkung, sie richtet ihre Aufmerksamkeit darauf, dass viele Faktoren, jeder für sich, ein klein wenig zum endgültigen Tatbestand beitragen kann. Seit 2007 arbeitet im Silicon Valley ein Unternehmen mit dem Namen 23andMe. Der Name des Unternehmens bezieht sich auf die 23 Chromosomenpaare eines Menschen. Ab Dezember 2007 bot es Privatpersonen eine Untersuchung ihrer genetischen Informationen an. Das Angebot richtete sich zunächst nur an Kunden aus den USA, wurde jedoch mit

100

9 Weitere Anwendungen

der Zeit auf zahlreiche andere Länder ausgeweitet. Es ist unter anderem in Deutschland, Österreich und der Schweiz verfügbar. Die eingesendete Speichelprobe wird auf etwa 200 genetisch bedingte Krankheiten und 99 weitere Veranlagungen untersucht. Auch Angaben zur geografischen Herkunft werden geliefert. Untersucht werden über 960.000 Abschnitte des menschlichen Erbguts, die „Einzelnukleotid-Polymorphismen“ ausweisen und die persönlichen Merkmale ausmachen [42]. Mit Hilfe von Künstlicher Intelligenz könnten Ärzte schon bald bösartige Tumore bei einer Darmspiegelung (Koloskopie) genauer erkennen und besser von harmlosen Wucherungen unterscheiden. Aktuell werden alle Polypen (Wucherungen) entfernt und anschließend histopathologisch untersucht. Mit Hilfe der Künstlichen Intelligenz soll eine Auswertung quasi in Echtzeit vorliegen. Ein weiterer Vorteil der Künstlichen Intelligenz ist, dass sie lernfähig ist. Damit wird sich die Erkennungsrate von Polypen immer weiter verbessern. Gerade kleine Adenome sind flach und oft in den Falten der Darmwand verborgen. Sie können selbst mit hochauflösenden Endoskopie-Geräten durchaus übersehen werden. Durch den Einsatz der KI soll also insgesamt die Qualität der Vorsorge weiter verbessert werden. Möglicherweise wird auch die Zahl der notwendigen histopathologischen Untersuchungen sinken und somit zu einer Abnahme der Gesamtkosten der Untersuchung führen können. Eine Forschergruppe um den japanischen Gastroenterologen Yuichi Mori von der Showa Universität in Yokohama hat jüngst ein entsprechendes computergestütztes System entwickelt und erste Ergebnisse veröffentlicht. Das japanische System wurde zunächst mit 30.000 Bildern endoskopischer Befunde trainiert. Bei anschließend durchgeführten Darmspiegelungen wurde dann ein 500-fach vergrößertes Bild des auffälligen Bereiches anhand von 300 Einzelmerkmalen auf dieser Grundlage ausgewertet. Die Auswertung durch ein Programm erfolgte in weniger als einer Sekunde. Weitere Forschungsgruppen evaluierten ebenfalls den Einsatz von Computerprogrammen bei der Koloskopie. Die Ergebnisse dieser Studie sind erstaunlich zuverlässig. Bei insgesamt 306 untersuchten Polypen, für die ein histologischer Befund vorlag, konnte eine Genauigkeit von 93 % erzielt werden. Die Zuverlässigkeit der Software wird noch weiter steigen, weil das System lernfähig ist. Aufgrund von Rückmeldungen von Ärzten an die Entwickler wird die Software weiter verbessert, und fehlerhafte Algorithmen werden angepasst. Es sind bereits einige Werkzeuge für die Datenanalyse verfügbar und werden über das Internet angeboten. Hadoop, MapReduce und Spark sind drei Angebote aus den Apache Software Projects. Mit diesen sowie weiteren Softwarelösungen kann man Big Data in einem Unternehmen einsetzen. • Hadoop ist eine Open-Source-Softwarelösung für Big Data. Die Werkzeuge von Hadoop helfen bei der Verteilung der Prozesslast. So lassen sich die massiven Datensätze auf vielen separaten Computing-Knoten ausführen. Anstatt ein Petabyte an Daten an einen kleinen Verarbeitungsort zu übertragen, macht Hadoop das Gegenteil. Es sorgt so für eine erheblich schnellere Verarbeitung von Informationen.

9.3

Big Data

101

• MapReduce unterstützt die Ausführung zweier Funktionen: das Kompilieren und Organisieren (Mapping) von Datensätzen und die anschließende Verfeinerung zu kleineren, organisierten Datensätze, um auf Aufgaben oder Abfragen zu reagieren. • Spark ist ebenfalls ein Open-Source-Projekt der Apache Foundation. Es ist ein ultraschnelles, verteiltes Framework für die Verarbeitung großer Datenmengen und maschinelles Lernen. Die Verarbeitungs-Engine von Spark lässt sich folgendermaßen nutzen: als eigenständige Installation, als Cloud-Service, in allen gängigen verteilten IT-Systemen wie Kubernetes oder Sparks‘ Vorgänger, Apache Hadoop. Cloud-Technologien entwickeln sich stetig weiter und führen zu immer größeren Datenfluten. Um zukunftsweisende digitale Lösungen aufbauen zu können, müssen diese Informationen verarbeitet werden. Für virtuelle Transaktionen, Inventare und IT-Infrastrukturen ist daher ein durchdachter Big-Data-Ansatz mit Daten aus zahlreichen Quellen erforderlich. Nur so ermöglicht Big Data einen ganzheitlichen Überblick. Als Quellen können dienen: • • • • • • • • •

virtuelle Netzwerkprotokolle, sicherheitsrelevante Ereignisse und Muster, globale Netzwerkverkehrsmuster, Erkennung von Anomalien und deren Lösung, Compliance – Informationen, Kundenverhalten und Präferenztracking, Geolocation – Daten, Daten aus sozialen Kanälen für Marken – Sentiment – Tracking, Lagerbestände und Sendungsverfolgung.

Ein gutes Beispiel ist die Auswertung von Daten, die bei der Nutzung eines Navigationssystems entstehen. Damit hat man Informationen über Millionen von verschiedenen Autofahrten und kann auf die Minute und den Kilometer genau voraussagen, wo Staus entstehen, wo Gefahren im Winter vorhanden sind, wo man Umgehungsstraßen bauen muss, wo eventuell Fahrbahnen verbreitert werden sollten usw. Das Gleiche trifft auf die Benutzung von Straßenbahnen, Omnibussen und die Eisenbahn zu. Hier kann man z. B. die Frequenz der Fahrten erhöhen oder herabsetzen, so dass die Fahrzeuge weder überfüllt noch unterbelegt sind bzw. die Wartezeit der Passagiere minimiert wird. Selbst vorsichtige Big-Data-Trendanalysen gehen von einer kontinuierlichen Reduzierung lokaler, physischer Infrastrukturen und einer Zunahme virtueller Technologien aus. Dadurch entsteht eine wachsende Abhängigkeit von verschiedenen Tools und Partnern. Die Nutzung von Big Data nimmt in Zukunft eher zu als ab. Die Art und Weise, wie Unternehmen, Organisationen und deren IT-Experten Aufgaben lösen, orientiert sich an den Entwicklungen der Daten- und IT-Technologie. Das bedeutet, es wird immer wieder neue Lösungen geben, mit denen sich Big Data speichern, analysieren und bearbeiten lassen.

102

9 Weitere Anwendungen

Big Data spielt eine große Rolle bei der Prävention und Bekämpfung von COVID-19 in China. Es ist Software im Einsatz für die Verfolgung von infizierten Personen, die Überwachung und Frühwarnung an Stellen mit vielen Menschen, für das Aufspüren von Virusquellen, für das Drogen-Screening, für die medizinische Behandlung, für die Zuweisung von Ressourcen und die Wiederherstellung der Produktion. Es wird erwartet, dass die Investitionsmöglichkeiten für Big-Data-Technologien in China im Prognosezeitraum (2021–2026) einen Zuwachs von 30 % verzeichnen werden. Big Data hat ein enormes Potenzial, die chinesische Wirtschaft zu revolutionieren. China hat den größten Verbrauchermarkt der Welt, es produziert unzählige Güter für den Export. Big Data kann entscheidende Einblicke in Chinas Verbrauchermarkt bieten und chinesischen Unternehmen helfen, sich an wichtigen bzw. notwendigen wirtschaftlichen Aktivitäten zu beteiligen. Ein weiterer Faktor, der die Bedeutung von Big Data für chinesische Unternehmen unterstreicht, ist die Datenmenge, die China heute als zweitgrößte Volkswirtschaft der Welt produziert. Tencent Holdings beispielsweise gibt an, dass sein Datenschatz 15-mal so viele Informationen enthält wie die größte Bibliothek der Welt. Allein die WeChat-App, das Vorzeigeprodukt von Tencent, hat rund 760 Mio. registrierte Nutzer [22]. WeChat ist Chinas beliebteste Messaging-App mit einer monatlichen Nutzerbasis von mehr als einer Milliarde Menschen. Sie gehört Tencent, einem der größten Unternehmen Asiens, gemessen an der Marktkapitalisierung. Was als Messaging-Dienst begann, hat sich zu einer App entwickelt, mit der man alles Mögliche machen kann, von Zahlungen bis hin zu Mitfahrgelegenheiten und sogar Flugbuchungen. Eine der Hauptanwendungen von WeChat ist die Nachrichtenübermittlung. Genau wie bei WhatsApp haben Sie eine Liste von Unterhaltungen, an denen Sie beteiligt sind. Sie können Personen auf verschiedene Weise hinzufügen. Wenn man in China Kontaktdaten austauscht, sieht man oft, dass eine Person das Telefon der anderen Person scannt. Jeder WeChat-Benutzer hat einen eindeutigen Barcode, den sogenannten QR-Code. Eine Person kann den QR-Code des anderen Benutzers scannen, um ihn zu WeChat hinzuzufügen. Sie können auch eine Telefonnummer oder eine ID verwenden, um eine Person hinzuzufügen und nach Personen in der Nähe zu suchen. WeChat ist eines der wichtigsten Kommunikationsmittel in China. Sogar bei geschäftlichen Angelegenheiten ziehen die Menschen WeChat der E-Mail vor. Es gibt auch eine soziale Funktion mit dem Namen „Moments“. Nutzer können eine Reihe von Bildern oder Videos hochladen, ihre Freunde können sich den Beitrag ansehen und kommentieren. Von großen Supermärkten bis hin zu den kleinsten Straßenhändlern und Taxis kann man fast überall in China mit WeChat bezahlen, wenn man ein chinesisches Bankkonto besitzt. Es gibt zwei Möglichkeiten, etwas über die App zu bezahlen. Erstens kann das Geschäft den eindeutigen WeChat-Barcode scannen, oder der Käufer scannt den Barcode des Händlers. Wenn man in China etwas online kauft, hat man die Möglichkeit, mit WeChat Pay zu bezahlen. Man muss einen Passcode eingeben oder ein biometrisches Authentifizierungstool verwenden, um die Transaktion zu autorisieren. Sofortige Geldüberweisungen an WeChat-

9.3

Big Data

103

Kontakte kann man auch über die Nachrichtenfunktion tätigen, was das Teilen von Rechnungen oder das Bewegen von Geld in China erleichtert. Es ist möglich, in China nahezu bargeldlos zu leben und den ganzen Tag ohne Geldbörse auszugehen. Der Hauptkonkurrent von WeChat Pay ist Alipay, ein Unternehmen der Alibaba-Tochter Ant Financial. WeChat und Alipay werden oft als Super-Apps bezeichnet, weil alles in einem einzigen Dienst integriert ist. Unternehmen können sich dafür entscheiden, Mini-Programme – oder Apps innerhalb von WeChat – anstelle einer eigenständigen App zu starten. Das Programm ermöglicht es Unternehmen, Werbenachrichten direkt über WeChat an die Nutzer zu senden und die mehr als eine Milliarde Nutzer der App zu erreichen. Der chinesische Big-Data-Markt befindet sich in einer hart umkämpften Phase. In den letzten zehn Jahren sind mehrere Start-ups entstanden und haben den Markt geprägt. So hat beispielsweise das 2015 gegründete Big-Data-Unternehmen Terark die Terark Database entwickelt, die angeblich ähnliche Produkte von Facebook und Google übertrifft. Mehrere solcher Start-ups haben die frühere Dominanz einiger weniger bedeutender Akteure in Frage gestellt und den Markt fragmentiert. Dies hat auch zu einer erheblichen Konsolidierung in dieser Branche geführt, da die großen Akteure versuchen, Marktanteile zu gewinnen, und kleinere Unternehmen versuchen, sich zu vergrößern. Die zunehmende Konkurrenz aus dem Westen hat chinesische Unternehmen auch dazu gezwungen, nach Möglichkeiten in der ganzen Welt zu suchen und sich nicht auf China zu beschränken. Einige der jüngsten Entwicklungen: • April 2019 – ByteDance, bekannt als Muttergesellschaft der Apps TikTok und Toutiao, kündigte die Übernahme des in Peking ansässigen Big – Data – Unternehmens Terark für eine ungenannte Summe an, wodurch das Unternehmen seinen Kundenstamm auf Marktführer wie die Alibaba Group ausweiten kann. Terark verfügt über Lösungen zur Komprimierung von Daten auf wesentlich kleinerem Raum und mit höherer Suchgeschwindigkeit. • Januar 2019 – Alibaba übernimmt das Berliner Start-up Data Artisans für 103 Mio. US$. Data Artisans bietet verteilte Systeme und groß angelegte Daten-Streaming-Dienste für Unternehmen an. Data Artisans wurde 2014 von dem Team gegründet, das die Entwicklung von Apache Flink, einer weitverbreiteten Open-Source-Technologie für die Verarbeitung großer Datenmengen, leitet. Die meisten Angebote für Big-Data-Auswertungssoftware gibt es vielleicht in Japan [6], allein in der Kategorie Business Intelligenz sind es 239 Systeme, die auf dem Markt vorhanden sind. In Singapore gibt es sechs Firmen, die Software für Big-Data-Anwendungen herstellen. Auch Afrika und Lateinamerika machen auf diesem Gebiet große Fortschritte. Afrika wird seine erste Big-Data-Drehscheibe einrichten, die den Wissensaustausch und die Gewinnung von Informationen aus komplexen Datensätzen fördern soll. Das Zentrum wird es dem

104

9 Weitere Anwendungen

Kontinent ermöglichen, auf aktuelle Daten im Zusammenhang mit den Zielen für nachhaltige Entwicklung zuzugreifen und diese zu analysieren, um faktengestützte Entscheidungen zu treffen, sagt Oliver Chinganya, Direktor des Africa Statistics Centre bei der Wirtschaftskommission der Vereinten Nationen für Afrika (UNECA). Einer Studie zufolge hat Big Data positive Auswirkungen auf fast alle Lebensbereiche, wie z. B. Gesundheit, Luftfahrt, Bankwesen, militärische Aufklärung und Weltraumforschung. Die Studie besagt, dass Big Data, die in Afrika gehostet werden, ein zentraler Punkt für das Gesundheitswesen sein könnte, der Diagnosen, Behandlungsverordnungen, die Überwachung von Gesundheitssystemen und die digitale Überwachung zur Verfolgung von Epidemien unterstützt. Während der Ebola-Krise in Westafrika zapften Datenwissenschaftler die umfangreichen Daten von Telefongesellschaften an, um die Bevölkerungsbewegungen von Ebola-Patienten zu visualisieren und die Ausbreitung der Krankheit vorherzusagen. Detaillierte Karten, die die Bewegungen von Ebola-Patienten zeigen, wurden erstellt und von den Behörden genutzt, um die besten Orte für die Einrichtung von Behandlungszentren zu finden und Mittel zur Begrenzung des Reiseverkehrs zu entwickeln, um die Krankheit einzudämmen. In einer unlängst unterzeichneten Absichtserklärung zwischen Ruanda und der in Äthiopien ansässigen UNECA wird die Datenzentrale beim Nationalen Institut für Statistik von Ruanda (NISR) eingerichtet. „Die Einrichtung dieser Datendrehscheibe wird es Afrika ermöglichen, bei der Datenrevolution nicht zurückzubleiben“, sagt Yusuf Murangwa, Generaldirektor des NISR. „Im Moment haben wir in Afrika Probleme mit dem Zugang zu großen Datenmengen.“ Chinganya erklärt gegenüber SciDev.Net, dass das Zentrum den Austausch von Wissen über neu entwickelte statistische Methoden und Werkzeuge fördern und gleichzeitig Schulungen über die Nutzung von Big Data und Datenwissenschaft für die Entwicklung anbieten wird. Zu den Nutzern gehören Mitglieder der regionalen afrikanischen Statistikgemeinschaft, der Privatsektor, akademische Einrichtungen und die Zivilgesellschaft. „Das Projekt befindet sich noch im Anfangsstadium“. Das Zentrum soll in Betrieb genommen werden, sobald die Umsetzungsstrategie bis zum Ende des zweiten Quartals 2020 abgeschlossen ist, aber das hängt von vielen Faktoren ab, unter anderem von der weltweiten Pandemie COVID-19, die die Bewegungsfreiheit und die Arbeitsmuster einschränkt. Das Zentrum in Kigali gehört zu den anderen geplanten Zentren in Brasilien, China und den Vereinigten Arabischen Emiraten, wie aus einem Bericht der globalen Arbeitsgruppe für Big Data für amtliche Statistiken hervorgeht, der im Dezember von der Statistikkommission des Wirtschafts- und Sozialrats der Vereinten Nationen veröffentlicht wurde. Das regionale Zentrum in Ruanda „wird in Zusammenarbeit mit internationalen und regionalen Agenturen den Aufbau von Kapazitäten im Bereich Big Data für amtliche Statistiken in Afrika unterstützen“. Die größte Herausforderung im Bereich der Datenwissenschaft ist der Mangel an Kapazitäten und geeigneter Infrastruktur zur Unterstützung von Big-DataInitiativen sowie unzureichende Investitionen. Im Rahmen der globalen Plattform werden viele Datenquellen offen zugänglich sein. Es werden auch Mechanismen entwickelt, die einen selektiven Datenaustausch zwischen den verschiedenen Knotenpunkten ermöglichen.

9.3

Big Data

105

Das Repository wird es Computersystemen ermöglichen, Informationen auszutauschen und zu nutzen; rechtliche Regelungen für den Zugang werden von der Wirtschaftskommission für Afrika erarbeitet. Die Daten werden auf der Grundlage der UN-Grundprinzipien für amtliche Statistiken gesammelt, die die bürgerlichen Freiheiten schützen. Dubai plant, neue Technologien und die massenhafte Erfassung von Daten zu nutzen, um die Mobilität seiner Bürger zu optimieren. Die Idee ist, Szenarien zu ermitteln, die einen besseren Verkehrsfluss ermöglichen und gleichzeitig den gesamten Verkehr in der Stadt sauberer machen. Die Straßen- und Verkehrsbehörde (Roads and Transport Authority, RTA) ist eine unabhängige Regierungsbehörde, die für die Straßen und den Verkehr in Dubai zuständig ist. Sie hat kürzlich mehrere Ankündigungen gemacht, die darauf abzielen, den Verkehrsfluss zu optimieren und den Verkehr im gesamten Emirat sauberer zu machen [19]. Dieses umfangreiche Projekt basiert auf der Erfassung aller Arten von Daten, um den öffentlichen und sonstigen Verkehr umzugestalten. Durch die Sammlung von Daten über den öffentlichen Nahverkehr, den Taxiverkehr oder die Belegung von Hotels wird das Programm „Dubai in Motion“ in der Lage sein, optimierte Mobilitätsszenarien zu erstellen und so Anpassungen vorzunehmen, um die Mobilität der Menschen zu verbessern und einen noch saubereren und nachhaltigeren Verkehr zu entwickeln. Langfristig soll dieses Programm auch bei der Planung künftiger Grünflächen und Infrastrukturen für die sanfte Mobilität helfen. Aber die RTA bleibt nicht dabei stehen. Die Behörde plant auch den Einsatz Künstlicher Intelligenz für ihre Radwege, um die Anzahl der Nutzer zu zählen und die Einhaltung der Verkehrsregeln und grundlegenden Sicherheitsvorschriften zu überwachen. Ein weiteres anstehendes Projekt ist eine neue Generation intelligenter Displays, die den Nutzern öffentlicher Verkehrsmittel Informationen vermitteln und ihnen helfen sollen, ihre Fahrten besser zu organisieren. Außerdem will Dubai bis zum Jahr 2030 25 % seines gesamten Transportwesens auf autonome Verkehrsmittel umstellen, sei es am Boden oder in der Luft! [48] Die Corona-Krise beschleunigt die Nutzung von Künstlicher Intelligenz in Russland. Erste Anwendungen zur Bekämpfung der Pandemie kommen auf den Markt. (Gerit Schule, Moskau, 29.04.2020) • Die Pandemie erhöht den Bedarf an digitalen Technologien. Die finanziellen Mittel dafür könnten im Zuge der Corona-Krise deutlich aufgestockt werden. Der dramatische Ölpreisverfall und der durch die Pandemie verursachte Zwang zum mobilen Arbeiten führen in Russland zu einem erhöhten Bedarf an digitalen Produkten. Das russische Digitalministerium schlägt vor, über das geplante Budget hinaus bis zu 67 Mrd. Rubel (804,4 Mio. EUR) zusätzlich auszugeben. • Russlands Unternehmen haben bereits erste Anwendungen zur Virusbekämpfung präsentiert. Das Start-up-Unternehmen Promobot aus Perm bietet Serviceroboter an, die kontaktlos die Körpertemperatur messen oder Flächen sterilisieren. Ähnlich lernfähige

106













9 Weitere Anwendungen

Roboter, die autonom Räume mit UV-Bestrahlung desinfizieren, hat die Sberbank entwickelt. Das größte Finanzinstitut des Landes gehört zu den Vorreitern. Es stößt wichtige Innovationen an und stellt zugleich Geld für neue Projekte bereit. Partner ist der Russische Fonds für Direktinvestitionen (RDIF), der nach eigenen Angaben Zusagen über 2 Mrd. US$ von ausländischen Geldgebern hat, die in Projekte zur Künstlichen Intelligenz investieren wollen. Zusammen mit Yandex, Gazprom Neft, der Mail.ru Group und dem Mobilfunkanbieter MTS haben die Sberbank und RDIF im November 2019 eine „Allianz zur Entwicklung der Künstlichen Intelligenz“ gegründet. RDIF plant unter anderem Investitionen in Analysemethoden, die eine Unterscheidung zwischen COVID-19-Erkrankungen und Lungenentzündungen ermöglichen sollen. Der halbstaatliche Konzern Rostelekom hat eine Methode zur Bilderkennung vorgestellt, die Röntgenaufnahmen von Lungen auf Symptome einer COVID-19-Erkrankung auswertet. Die Technologie wird zusammen mit der Staatsholding Rostec entwickelt. Außerdem will RDIF zusammen mit der Stadt Moskau Kameras zur kontaktlosen Fiebermessung im Stadtgebiet einsetzen. Der russische Internetkonzern Yandex und Nvidia, der US-Hersteller von Prozessoren und Chipsätzen, stellen russischen Unternehmen seit Mitte März 2020 Softwarebibliotheken zur Verfügung, die zur Arbeit an Künstlicher Intelligenz dienen. Darunter ist auch die Anwendung Parabricks für Genomanalysen, die bei der COVID-19-Forschung zum Einsatz kommt. Yandex will mindestens 40 Mio. US$ in den Aufbau von Cloud-Kapazitäten für KI-Anwendungen investieren. Dass die Corona-Pandemie die Marktdurchdringung von KI-Lösungen in Russlands Industrie beschleunigen könnte, zeigt das Beispiel Sibur. Der größte Chemiekonzern des Landes kooperiert mit dem italienischen Softwareanbieter Brochesia, um Augmented Reality (AR, computergestützte Erweiterung der Realitätswahrnehmung) in seinen Fabriken einzuführen. Nach Angaben von Sibur können mit KI-unterstützten Datenbrillen Produktionsprozesse effizienter überwacht und viele Wartungsarbeiten aus der Distanz durchgeführt werden. Das hat die Dienstreiseaktivität der Techniker in Zeiten der Pandemie verringert. Moskau wird ab Sommer 2020 zur Pilotregion. Dort kommen Anwendungen bei der Kontrolle von Ausgangsbeschränkungen während der Corona-Quarantäne zum Einsatz. Hierbei setzt die Metropole auf ihr flächendeckendes Kameranetz. Am 1. Juli 2020 startete ein fünfjähriges Experiment mit einem flexiblen Rechtsrahmen, der den Einsatz von KI-Anwendungen erleichtern und zugleich den Schutz personenbezogener Daten sicherstellen soll. Laut der „Roadmap für die Entwicklung von KI-Technologien in Russland“ wird der Anteil von Produkten rund um Künstliche Intelligenz am Bruttoinlandsprodukt merklich steigen – auf 0,8 % bis 2024 und auf 3,6 % bis 2030. Damit läge er über dem globalen Durchschnitt. Nach Untersuchungen des Marktforschungsinstituts IDC haben russische

9.3

Big Data

107

Unternehmen 2019 rund 139 Mio. US$ in KI investiert, die Hälfte davon in Rechentechnik. Der Markt für solche Produkte wird Prognosen zufolge stark wachsen. • Russlands Regierung unterstützt die neue Technologie mit der „Nationalen Strategie zur Entwicklung der künstlichen Intelligenz bis 2030“. Als wichtigste Ziele sind darin genannt: Wohlstandsgewinn, höhere Lebensqualität, nationale Sicherheit, Konkurrenzfähigkeit der russischen Wirtschaft und eine internationale Führungsrolle bei Künstlicher Intelligenz. Entsprechend dieser Strategie werden die folgenden Hauptanwendungsgebiete definiert: • • • • • • • • • • • • • • • • • • • • • • • • • • •

Produktion, effizientere Planungsprozesse, Optimierung der Lieferketten, vorausschauende Wartung von Maschinen und Anlagen, Automatisierung von Routineproduktionen, verstärkter Einsatz von Robotern, Verbesserung der Logistikverwaltung, Verbesserung des Risikomanagements in Fabriken (weniger Arbeitsunfälle), höhere Kundenzufriedenheit durch individualisierte Produkte, Optimierung der Arbeits- und Dienstpläne sowie der Fort- und Weiterbildung der Beschäftigten, Gesundheitswesen, Verbesserung von Diagnostik und Prophylaxe durch Auswertung bildgebender Verfahren, optimale Dosierung von Arzneimitteln, Eindämmung von Pandemiegefahren, Automatisierung und höhere Präzision bei chirurgischen Eingriffen, staatliche Maßnahmen zur Unterstützung von Künstlicher Intelligenz, langfristige finanzielle Förderung von Forschungsaktivitäten, Ausstattung der Forschungslabore mit moderner Rechentechnik, Entwicklung von weltweit zugänglichen Programmbibliotheken zur Anwendung von KI, steuerliche Anreize für private Investitionen in KI, vereinfachter Zugang zu großen Datenmengen, Fachkräfteausbildung, adäquate Bezahlung von Spezialisten, Gewinnung von internationalen Fachkräften auf dem Gebiet der KI (inklusive Heimholung ausgewanderter russischer Experten durch finanzielle Anreize), Gewährleistung eines internationalen Austausches (Konferenzen, Auslandsaufenthalte, vereinfachte Visumsbestimmungen für ausländische Spezialisten), Exportförderung für russische KI-Technologien, verstärkte öffentliche Beschaffung von KI-Produkten, Zuschüsse für die Entwicklung von energiesparenden Hochleistungsprozessoren,

108

9 Weitere Anwendungen

• Aufbau von Datenverarbeitungszentren, auf die russische KI-Entwicklungsstudios vergünstigten Zugriff bekommen. Es tritt bei der Realisierung solcher Vorhaben ein interessanter Effekt auf. Am Anfang muss man beträchtliche personelle und finanzielle Ressourcen bereitstellen für die Entwicklung und Inbetriebnahme derartiger Systeme. Wenn sie aber eingeführt worden sind, fließt eine Menge an finanziellen Mitteln zurück, und die Arbeit im jeweiligen Gebiet erreicht ein höheres Niveau. Wichtig ist, dass man bei kleineren Anwendern immer dafür sorgen muss, dass genügend Mittel für die Grundausstattung an Hard- und Software vorhanden sind. Als Beispiel für die Situation in anderen Ländern wurde noch Chile ausgewählt. In Chile bringen fast nur Start-ups die Künstliche Intelligenz voran. Es besitzt die beste digitale Vernetzung in Lateinamerika [32]. Bergbau, Einzelhandel sowie Finanz- und Gesundheitssektor geben dabei den Ton an. Als Gründerort gilt Santiago in der Region als eines der Silicon Valleys Lateinamerikas. Viele Branchen erkennen die Notwendigkeit, in Künstliche Intelligenz zu investieren. Die Umsetzung steckt allerdings noch in den Kinderschuhen. Das liegt auch an den Defiziten in der digitalen Infrastruktur und beim Angebot an Fachkräften – auch wenn Chile im lateinamerikanischen Vergleich gut abschneidet. • Die chilenische Regierung plant ein virtuelles Gesundheitssystem [32]. Sie veröffentlichte 2015 die Agenda Digital 2020, die 63 Maßnahmen zum Fortschritt der Digitalisierung umfasst. Davon führte sie bisher 23 durch. Neben Projekten zur Konnektivität und Stärkung des Wettbewerbs beziehen sich sechs der 63 Vorhaben auf das Gesundheitssystem. Im Mittelpunkt steht die Sammlung von Gesundheitsdaten, die verschiedenen medizinischen Servicestellen zur Verfügung stehen [67]. Im Oktober 2018 kündigte das Gesundheitsministerium als zusätzliche Initiative das digitale Krankenhaus an, das die anderen Gesundheitszentren im Land entlasten soll: Das Ministerium beabsichtigt, Versorgungsdienste online anzubieten und Daten der Patienten in einer Cloud zu sammeln. Ebenso will es in Geräte zur Kontrolle für chronisch kranke Patienten investieren. Das virtuelle Hospital basiert auf Maschinellem Lernen und liefert Berichte und Prognosen in Echtzeit. • Das Bildungsministerium bietet im Rahmen der nationalen Kommission für wissenschaftliche und technologische Forschung CONICYT Finanzierungsmöglichkeiten für die technische Ausstattung für Forschungsprojekte an (FONDEQUIP) [12]. • Im Ranking zur digitalen Vernetzung der Economist Intelligence Unit vom Februar 2018 lag Chile auf dem achten Platz von 86 Ländern, direkt nach Frankreich und Großbritannien. Im Vergleich zum Vorjahr hatte sich das Land um zwölf Plätze nach vorn gearbeitet. Der Andenstaat liegt noch vor Deutschland (Platz zwölf) und führt innerhalb Lateinamerikas. Dennoch haben 44 % der chilenischen Haushalte keinen fest installierten Internetanschluss. • Die meisten Chilenen geben ohne Zögern ihre Steuernummer heraus. In Chile fragen Kassierer beim Einkauf im Supermarkt oder der Apotheke nach der persönlichen

9.3

Big Data

109

Steuernummer. Diese können Unternehmen für Marketingzwecke und zur Zielgruppenbestimmung nutzen. Der Kunde profitiert meist von Bonusprogrammen. Bei einer Umfrage des Zentrums für Studien des Einzelhandelssektors Ceret (Centro de Estudios de Retail) der Universität Chile mit mehr als 2000 Teilnehmern gaben 70 % an, ihre Steuernummer im Supermarkt zur Verfügung zu stellen. • Im Mai 2018 hat der Senat einer Gesetzesreform zum persönlichen Datenschutz zugestimmt. Diese legt fest, dass sensible persönliche Daten nur mit Zustimmung verwendet werden dürfen. Außerdem geht es darin um die Errichtung einer Agentur für Datenschutz, die dem Wirtschaftsministerium untergeordnet ist. Gewohnheitsmuster von Staatsbürgern zählen demnach zu den sensiblen Daten. Bisher gilt die Regel, dass veröffentlichte Daten keine sensiblen Informationen darstellen und deshalb eine Weiterverwendung ohne Zustimmung möglich ist. Die Reform definiert bestimmte Datenquellen, die unter dieser Regel weiterhin gelten. Jedoch ist die Weiterverwendung von allen veröffentlichten Daten nicht mehr grundsätzlich erlaubt. • Nur 10 % der Fachkräfte mit technologieorientiertem Werdegang kennen sich im Bereich Computer- und Netzsicherheit aus, so die Stiftung für Fortschritt (Fundación para el Progreso). Eine Studie sagt, dass die Universitäten bisher kaum Fachkräfte für Künstliche Intelligenz ausgebildet haben, obwohl der Bedarf immens ist. Die Hochschulen steigen langsam ein: Die Universidad de Chile, die technische Universität Inacap sowie die Pontificia Universidad Católica in Valparaíso bieten bereits einen Diplomkurs für KI an. Auch die Forschung ist noch nicht weit fortgeschritten. Die meisten staatlichen Programme beruhen hauptsächlich auf der Anwendung von konventionellen Technologien für kleine und mittlere Unternehmen. Die Universidad Católica errichtete 2018 ein Labor für KI in der Abteilung für Computerwissenschaften. Das Team entwickelte einen Roboter, der im Supermarkt Bestand und Preise kontrolliert. Eine Applikation soll zukünftig Falschnachrichten erkennen. Die Ingenieure wollen die Mechanismen von intelligenten Apparaten besser analysieren und Fehler ausschließen. PwC (PricewaterhouseCoopers) eröffnete im September 2018 das erste Zentrum für KI und angewandte Analytik in Chile als neue Abteilung des multinationalen Beratungskonzerns. • Start-ups bieten Lösungen von Personalentscheidungen bis zu Glasfaserleitungen an. Laut Alejandro Legazcue, Vorsitzender des Bereichs digitale Architektur der Technologieberatungsfirma everis sind 63 % der Unternehmen im Bereich KI Start-ups, die nach 2012 gegründet wurden. Chile ist unter den OECD-Ländern (Organisation for Economic Cooperation and Development) das Land mit den meisten Unternehmensgründungen, und Santiago ist in der Region als Zentrum für Start-ups bekannt. Allerdings sind die Finanzierungsmöglichkeiten oftmals beschränkt, da chilenische Banken nur zögerlich Kredite an Neugründer vergeben. Das chilenische Start-up DART spezialisiert sich auf Augenheilkunde und optimiert einen Prozess zur Diagnose von diabetischer Retinopathie, eine der häufigsten Gründe für den Verlust des Augenlichts. Mediziner sammeln dafür Untersuchungsergebnisse von

110

9 Weitere Anwendungen

Patienten mit Diabetes mellitus auf einer Internet-Plattform. Ein Algorithmus bestimmt notwendige Termine und Tests, um Patienten mit Erblindungsrisiko herauszufiltern. • Eine Studie der Beratungsfirma IT Hunter zeigt auf, dass die Nachfrage nach KI-Experten im Bankengeschäft und Einzelhandel am größten ist. Die Banken legen den Fokus auf digitale, personenspezifische Dienstleistungen und maschinelles Lernen. Der Einsatz von Algorithmen mit maschinellem Lernen verbessert die Erfolgsquote für Prognosen um 25 bis 50 %, sagt Leandro Fernández, Vorsitzender der Gruppe AIS in Chile, die sich auf KI spezialisiert. Für den Einzelhandel, der die Produktnachfrage berechnen und prognostizieren möchte, erwartet die Beratungsfirma Accenture Chile einen deutlichen Anstieg des Einsatzes von intelligenten Technologien. Eine Studie von Accenture ergab, dass sich 42 % der Konsumenten neue Standards in den Dienstleistungen und der Kommunikation erhoffen. • Im Bergbau spielt die Automatisierung von Prozessen und Wartung von Maschinen eine große Rolle. Branchenkenner halten intelligente Sensoren zur Analyse von Prozessen sowie digitale Instrumente für umweltfreundlichere Methoden für vielversprechend. Automatisierte Fahrzeuge können Risiken für die Arbeiter minimieren. Der Vorsitzende der Digitalabteilung von FLSmidth, Mikael Lindholm berichtet vom großen Nutzen digitaler Zwillinge der Maschinen, um Prozesse zu simulieren. Verschiedene Szenarien steigern die Produktivität. Mit Hilfe von innovativen Technologien werden bereits Bergbaugebiete mit geringem Mineraliengehalt erschlossen. Allerdings sind viele der Konzerne in Chile konservativ geprägt und stehen der Digitalisierung noch nicht offen gegenüber. • Im Nordosten Santiagos führte die wohlhabende Gemeinde Vitacura im Oktober 2018 Sicherheitsroboter zur Überwachung der Straßen und als Hilfeleistung für die Bewohner ein. Die Roboter fahren selbständig vorprogrammierte Routen ab, und die Einwohner können über sie im Ernstfall mit der Zentrale der Gemeinde kommunizieren. Die Gemeinde will die Daten für Sicherheitskarten und weitere Analysen verwenden. In Asien nehmen gemeinsam mit China auch Taiwan, Südkorea und Japan bei den Forschungsarbeiten zur Künstlichen Intelligenz vordere Plätze ein. Japan setzt unter anderem verstärkt auf Pflegeroboter; das ist in Japan besonders wichtig, da die japanische Bevölkerung immer älter wird. Im Rahmen eines Pilotprojekts will Südkorea laut Reuters Tausende Überwachungskameras und Gesichtserkennung einsetzen, um die Kontakte von CoronaInfizierten nachzuvollziehen. Der Test wird in der südkoreanischen Stadt Bucheon durchgeführt. In der Süddeutschen Zeitung wurde ein Artikel des englischen Wissenschaftlers David Levy veröffentlicht [31]: „Auf Sexpartner müssen wir nicht bis 2050 warten. In Japan und Südkorea gibt es schon heute Bordelle, die nur mit Sexpuppen betrieben werden. Das sind täuschend echt aussehende Figuren aus Silikon, das sich anfühlt wie Haut, mit Heizungen, die Körperwärme vortäuschen, mit Brustwarzen, die sich bei Berührung aufrichten. Die Entwickler sind im Bereich der Robotik und Künstlichen Intelligenz sehr aktiv.“

9.4

9.4

Die Rolle der Simulation

111

Die Rolle der Simulation

Hierbei handelt es sich um eine hervorragende Möglichkeit, sich große Datenmengen zu verschaffen [53]. Man modelliert ein Problem auf dem Computer, wobei der Prozess eine Anzahl von Parametern besitzt, die man ändern kann. Eine große Menge von Änderungen führt zu ganz unterschiedlichen positiven oder negativen Ergebnissen. Die besten Ergebnisse ergeben dann Werte für die Parameter, mit denen man arbeiten kann [53]. Es ist bemerkenswert, dass die Ergebnisse in kurzer Zeit vorliegen. Für den Einsatz von Simulationen kann es mehrere Gründe geben, eine Untersuchung am realen System wäre zu aufwendig, zu teuer, ethisch nicht vertretbar oder zu gefährlich: • Fahrsimulator (zu gefährlich in der Realität). • Flugsimulator zur Pilotenausbildung, Nachstellung kritischer Szenarien (Triebwerksausfall, Notlandung – zu gefährlich in der Realität). • Medizinische Simulation zur Ausbildung und Fortbildung von klinischem Personal, insbesondere Notfallsituationen oder Komplikationen. • Simulatoren in der medizinischen Ausbildung (ein Training am realen Patienten ist in einigen Bereichen ethisch nicht vertretbar). • Ein Kraftwerkssimulator, in dem vor allem die Bedienmannschaften von Kernkraftwerken die Beherrschung von Störfällen bis hin zum GAU trainieren (zu gefährlich in der Realität). • Crashtest (zu gefährlich oder zu aufwendig in der Realität). • Simulation von Fertigungsanlagen vor einem Umbau (mehrfacher Umbau der Anlage in der Realität wäre zu aufwendig und zu teuer). • Simulationsmodelle können wesentlich leichter modifiziert werden als das reale System. • Das reale System existiert (noch) nicht. Beispiel: Windkanalexperimente mit Flugzeugmodellen, bevor das Flugzeug gefertigt wird. • Das reale System lässt sich nicht direkt beobachten. • Das reale System arbeitet zu schnell: Simulation von Schaltkreisen. • Das reale System arbeitet zu langsam: Simulation geologischer Prozesse. • Das reale System ist unverstanden oder sehr komplex. • Das reale System ist in seiner elementaren Dynamik zwar verstanden, die zeitliche Entwicklung ist aber zu komplex bzw. eine exakte Lösung der Bewegungsgleichung ist nicht möglich. Beispiele sind das Drei-Körper-Problem, das Doppelpendel, die Molekulardynamik, nichtlineare Systeme. • Simulationen sind reproduzierbar. • Technische Simulationen, beispielsweise zur Festigkeitsberechnung (Methode der finiten Elemente), Strömungssimulation, von Fabrikprozessen und komplexen logistischen Systemen, zur virtuellen Inbetriebnahme oder Schaltungssimulation. • Wissenschaftliches Rechnen, mit Anwendungen in der Physik, Chemie, Biologie, Meteorologie.

112

9 Weitere Anwendungen

• Simulationen für die Aus- und Weiterbildung, beispielsweise Unternehmensplanspiele oder medizinische Simulationen. • Simulationsspiele, beispielsweise Flugsimulationen, Rennsimulationen, Wirtschaftssimulationen. Die Simulation kann also sehr hilfreich sein, wenn spezielle Fertigkeiten erlangt werden sollen. Erst wenn diese Fertigkeiten ausreichend vorhanden sind, geht man zu realen Systemen über. Die Arbeit mit ihnen ist wesentlich teurer. Man kann die Simulation aber auch sehr gut im vorbeugenden Schutz gegen Katastrophen verwenden. Man spielt Situationen durch, bei denen spezielle Systemparameter außerhalb der normalen Arbeitsweise liegen und richtet eventuelle Schutzmaßnahmen ein. Allgemein verständlich dürfte die Simulation der letzten Eiszeit sein [39]. Die zitierte Arbeit ist eine Veröffentlichung des Max-Planck-Institutes: „Die Simulation von Eiszeitzyklen mit einem komplexen Erdsystemmodell“ mit den Autoren Uwe Mikolajewicz, Matthias Gröger, Jochem Marotzke, Schurgers, Guillaume Schurgers und Vizcaíno, Miren aus den Abteilungen Ozean im Erdsystem (Marotzke) (Prof. Dr. Jochem Marotzke) und MPI für Meteorologie, Hamburg. Warum Eiszeiten und Warmzeiten aufeinanderfolgen, ist eines der großen ungelösten Rätsel der Erdsystemforschung. Vermutlich tragen Wechselwirkungen zwischen Atmosphäre, Ozean, Eis sowie ozeanischer und terrestrischer Biosphäre entscheidend bei. Wir beschreiben hier die Grundlagen und erste Ergebnisse des derzeit komplexesten Erdsystemmodells für die Simulation langer Zeitskalen. Interaktive Landvegetation verstärkt die durch Variationen der Erdbahnparameter hervorgerufenen Klimaänderungen und bewirkt somit auch in einem komplexen Erdsystemmodell eine positive Rückkopplung. Die wohl gesellschaftlich wichtigste Aufgabe der Klimaforschung ist die Vorhersage der Klimaänderungen, die als Folge der anthropogenen Emission von Treibhausgasen zu erwarten sind. Ein wesentliches Problem ist dabei die Validierung der Modelle, mit denen die Vorhersagen gemacht werden. Zum einen sind die existierenden Zeitreihen von gemessenen Klimadaten zu kurz (mit wenigen Ausnahmen kürzer als 100 Jahre), zum anderen decken sie auch nicht das Ausmaß der zu erwartenden Klimaänderungen ab. Um hinreichend große Klimasignale zu finden, muss man mindestens bis in die letzte Eiszeit zurückgehen. Für diese Zeiten existieren natürlich keine gemessenen Klimadaten. Diese müssen daher rekonstruiert werden, aus marinen Sedimentbohrkernen, der Isotopenverteilung in Eisbohrkernen oder Pollenverteilungen in limnischen Sedimenten. Zusätzlich zu den Validierungsaspekten der Klimamodelle ergibt sich noch der wissenschaftlich reizvolle Aspekt, dass die Gründe für den regelmäßigen Wechsel zwischen langen Eiszeiten und relativ kurzen Warmzeiten nur sehr unvollständig verstanden sind. Es herrscht zwar allgemeiner Konsens, dass die Variation der Sonneneinstrahlung in hohen Breiten (und damit die Menge der potenziellen Schneeschmelze) eine wesentliche Rolle spielt, aber dieser Effekt ist bei Weitem zu schwach, um allein die Stärke des Klimasignals (ca. 4 ◦ C im globalen Mittel) zu erklären. Es bedarf also noch einer starken positiven Rückkopplung im Erdsystem, die aber auch aus

9.4

Die Rolle der Simulation

113

dem Zusammenspiel mehrerer Rückkopplungsmechanismen bestehen kann, um die beobachtete Abkühlung zu erklären. Die aktuellen Erdsystemmodelle, die für die Vorhersagen anthropogener Klimaänderungen verwendet werden, sind darauf ausgelegt, Simulationen von typischerweise mehreren Jahrhunderten Länge durchzuführen. Für die Simulation eines Übergangs von einer Warmzeit in eine Eiszeit benötigt man aber ca. 10.000 Jahre Simulationszeit, für die Simulation eines kompletten Glazialzyklus bereits mehr als 100.000 Jahre. Für diese wesentlich längeren Integrationen sind die aktuellen Erdsystemmodelle viel zu rechenzeitintensiv, um die entsprechenden Experimente auf heutigen Computern durchführen zu können. Außerdem fehlen wesentliche Komponenten, die für diese Problemstellung unerlässlich sind, z. B. eine explizite Darstellung der Eisschilde oder der Wechselwirkung zwischen dem im tiefen Ozean gelösten Kohlenstoff und dem marinen Sediment. Bisherige Versuche, das Problem zu lösen, wurden mit stark vereinfachten Modellen durchgeführt. So wird z. B. die Abhängigkeit von der geografischen Länge vernachlässigt, also nur das sogenannte zonale Mittel dargestellt, oder auch die Atmosphäre extrem vereinfacht. Da wahrscheinlich noch nicht alle relevanten Rückkopplungsmechanismen identifiziert sind, könnten bei den Vereinfachungen wichtige Prozesse unterdrückt werden. Wir verfolgen daher den Ansatz, ein gekoppeltes Erdsystemmodell zu entwickeln, in dem die Einzelkomponenten möglichst realistisch sein sollen. Damit sollen möglichst alle wichtigen Wechselwirkungen zwischen den verschiedenen Subkomponenten erfasst werden. Unser Modell wird aus folgenden Komponenten bestehen: dem atmosphärischen Zirkulationsmodell ECHAM, dem ozeanischen Zirkulationsmodell LSG, dem marinen Kohlenstoffkreislaufmodell HAMOCC, dem Eisschildmodell SICOPOLIS und dem terrestrischen dynamischen Vegetationsmodell LPJ. Das Modell wird einen geschlossenen Kohlenstoffkreislauf beinhalten. Dies hat insbesondere zur Folge, dass die CO2 -Konzentration der Atmosphäre vom Modell simuliert (vorhergesagt) wird, im Gegensatz zu den meisten komplexen Modellen, in denen sie vorgeschrieben werden muss. Zurzeit befindet sich das Modell noch in der Testphase. Als Testsimulation wird die letzte Zwischeneiszeit (vor ca. 125.000 Jahren) und der darauffolgende Übergang in eine Eiszeit benutzt. Die Basissimulation wurde nur mit dem gekoppelten Atmosphäre-Ozeanmodell durchgeführt. Die Erdbahnparameter wurden während der Integration variiert, beginnend mit dem Jahr 132.000 v. u. Z. bis zu 112.000 Jahren v. u. Z. Vor ca. 125.000 Jahren ist auf der Nordhalbkugel ein gegenüber heute wärmeres Klima in vielen geologischen Klimaarchiven belegt. Die Exzentrizität und die Erdschiefe waren leicht erhöht, und die größte Annäherung an die Sonne fand im Nordsommer statt. Insgesamt resultiert hieraus eine stärkere Sonneneinstrahlung während des Nordsommers. Auf der Nordhalbkugel wird es dabei – verglichen mit dem heutigen Zustand – überwiegend wärmer, vor allem in der Arktis und auf den Kontinenten. Im Sommer und Herbst ist die Erwärmung am stärksten, was auch der Einstrahlungsänderung entspricht. Ein wesentlicher positiver Rückkopplungsmechanismus ist dabei die Verringerung der Schnee- und Meereisbedeckung. Durch die dunklere Oberfläche wird ein größerer Anteil der auf die Oberfläche

114

9 Weitere Anwendungen

auftreffenden Sonnenstrahlung absorbiert, was die Erwärmung verstärkt und die Schnee- und Meereisbedeckung weiter verringert. Diese Wechselwirkung zwischen Eisbedeckung und Albedo ist ein wichtiger positiver Rückkopplungseffekt im Klimasystem. Über der Sahara führt die Erwärmung der Landoberfläche zu einer Verstärkung des Monsunniederschlags, insbesondere in der Sahelregion. Ein ähnlicher Effekt tritt in Südasien auf. Die damit einhergehende dichtere Wolkendecke führt zu einer Abkühlung bei ca. 10 bis 20◦ N. Albedo ist das Maß für die diffuse Reflexion der Sonnenstrahlung und wird auf einer Skala von 0, was einem schwarzen Körper entspricht, der die gesamte einfallende Strahlung absorbiert, bis 1, was einem Körper entspricht, der die gesamte einfallende Strahlung reflektiert, gemessen. 10.000 Jahre später sind die Einstrahlungsbedingungen nahezu entgegengesetzt. Die Erde ist im Nordsommer am weitesten von der Sonne entfernt, was zu einer schwachen Sonneneinstrahlung führt. Geologische Daten deuten auch darauf hin, dass zu dieser Zeit die Vergletscherung über Nordamerika anfängt und die Eiszeit beginnt. In hohen nördlichen Breiten sind die Unterschiede zwischen den Jahreszeiten geringer, und der Sommer ist deutlich kälter. Auf den Landflächen der Nordhalbkugel sind die Sommer im zonalen Mittel typischerweise 5 bis 6 ◦ C kälter. Als Folge schmilzt der Schnee deutlich später und teilweise überhaupt nicht. Die hellere Oberfläche reflektiert mehr Sonnenlicht, was die Abkühlung noch verstärkt. Das Nordpolargebiet ist während des ganzen Jahres typischerweise 4 bis 5 ◦ C kälter. Auch der Monsun über Nordwestafrika und Südasien ist deutlich schwächer, mit geringeren Niederschlägen über der Sahelzone und Indien. Bei den bisher beschriebenen Simulationen war die Vegetation den heutigen Bedingungen entsprechend vorgeschrieben. In kürzeren Testsimulationen mit interaktiver Vegetation zeigen sich deutliche Effekte. Das wärmere Klima vor 125.000 Jahren führt zu einer deutlichen Nordwärtsverlagerung der Vegetationsgrenze in Eurasien und Nordamerika. In hohen Breiten breitet sich der Wald weiter nach Norden aus. Dadurch wird die Oberfläche insgesamt dunkler. Dieser Effekt wird noch dadurch verstärkt, dass Wald auch unter starker Schneebedeckung wesentlich dunkler ist als Grasland unter ähnlichen Bedingungen. Dieses verstärkt den Albedoeffekt deutlich und damit auch die Erwärmung, was wiederum ein weiteres Vordringen des Waldes nach Norden ermöglicht. Die interaktive Vegetation führt somit zu einer deutlichen Verstärkung der simulierten Klimasignale. Die Verstärkung des Sommermonsuns führt zu Vegetationsbildung in der Sahara. Bedingt durch die dunklere Oberfläche verstärkt sich die Zunahme des Monsuns deutlich. Auch hier ist also ein starker positiver Rückkopplungseffekt vorhanden. Auch 10.000 Jahre später bewirkt die interaktive Vegetation eine Verstärkung des Klimasignals, in diesem Fall der Abkühlung. Die nördliche Waldgrenze verlagert sich in Nordamerika und über Eurasien südwärts. Dadurch wird die Oberfläche insgesamt heller, was die Abkühlung weiter verstärkt. Die Verstärkung des Albedoeffekts durch die Vegetation ist deutlich erkennbar. Zwischen den beiden extremen Experimenten beträgt der Unterschied in der Landalbedo über Nordamerika ca. 0,15. Mit vorgeschriebener Vegetation wird diese Differenz im Sommer nur etwa halb so groß, und im Winter ist sie nahezu vernachlässigbar. Mit interaktiver Vegetation ist das simulierte Klimasignal zwischen 125.000 und 115.000

9.4

Die Rolle der Simulation

115

Jahren für den Sommer um ca. 1,5 bis 2 ◦ C größer. Der Monsunniederschlag über Nordafrika und Südasien ist vor 115.000 Jahren schwächer, und die Trockengebiete dehnen sich aus. Diese ersten Ergebnisse zeigen deutlich, dass die Entwicklung vom reinen Klimamodell (Ozean, Meereis und Atmosphäre) zum Erdsystemmodell auch zu einer Verbesserung der Simulation von Klimasignalen führt. Die Kopplung mit den noch fehlenden Modellkomponenten (Eisschilde, mariner Kohlenstoff) wird wahrscheinlich weitere positive Rückkopplungsmechanismen hinzufügen. Durch das Eisschildmodell ist es prinzipiell möglich, den Schnee, der während Zeiten mit geringer Sommersonneneinstrahlung anwächst, auch über die nächsten Perioden mit starker Einstrahlung zu erhalten. Ein hinreichend hohes Eisschild führt durch die höhere Oberfläche zu kälteren Oberflächentemperaturen und reduziert damit auch das sommerliche Abschmelzen. Zusätzlich reduziert sich auch noch um ca. 115.000 Jahre vor heute die atmosphärische CO2 -Konzentration, was die Abkühlung noch weiter verstärkt. Die Gründe für diese Reduktion sind noch unklar. Wir hoffen, die Antwort im Erdsystemmodell zu finden. Schöner kann man die Nützlichkeit von Simulationsmodellen nicht darstellen. Die in Abb. 9.3 dargestellten Kurven und Flächen weisen deutlich auf eine fraktale Struktur hin. Es wiederholen sich immer die gleichen Formen, manchmal sind sie größer, manchmal kleiner, aber sie ändern sich nicht. Die Erderwärmung bzw. der Klimawandel sind ja gegenwärtig ein außerordentlich heiß diskutierter Gegenstand. Deshalb soll hier noch ein zweites Modell vorgestellt werden, das sogar 3 Mio. Jahre zurückreicht. Diese Arbeit [46] wurde von Matteo Willeit, Paläoklimatologe am Potsdam-Institut für Klimafolgenforschung in Spectrum.de SciLogs veröffentlicht unter dem Titel „3 Mio. Jahre Klimawandel in der Computersimulation“. Das Quartär ist die jüngste geologische Periode; sie umfasst die letzten 2,6 Mio. Jahre. Sie ist durch massive Klimaschwankungen gekennzeichnet, die Eiszeitzyklen, den dramatischen

Abb. 9.3 Eine Welle von Erwärmung und Abkühlung

116

9 Weitere Anwendungen

Wechsel von Wachstum und Zerfall riesiger kontinentaler Eisschilde auf der Nordhalbkugel. Klimaschwankungen im Quartär lassen sich am besten an den Sauerstoffisotopen erkennen, die in Tiefsee-Sedimentkernen gemessen werden und die Schwankungen der globalen Eismenge und der Meerestemperatur widerspiegeln. Diese Daten zeigen deutlich, dass es in den letzten 3 Mio. Jahren einen allgemeinen Trend zu größeren Eisschilden und kühleren Temperaturen gegeben hat, begleitet von einer Zunahme der Amplitude der Schwankungen zwischen Eiszeiten (Glazialen) und Zwischeneiszeiten (Interglazialen), sowie einem Übergang vor rund 1 Mio. Jahren von meist symmetrischen Zyklen mit einer Periodizität von 40.000 Jahren zu stark asymmetrischen 100.000-Jahres-Zyklen. Die Ursachen dieser Übergänge in der Dynamik der Eiszeitzyklen bleiben jedoch in der Fachwelt umstritten. Unter anderem ist die Rolle der CO2 -Änderungen bei der Klimadynamik im Quartär noch nicht vollständig verstanden, vor allem wegen der ungenauen Daten der atmosphärischen CO2 -Konzentrationen für die Zeit bevor 800.000 Jahren vor heute, also vor der Zeitspanne, für die wir über hochwertige Eiskerndaten verfügen. In einer aktuellen Studie (Willeit et al. 2019) konnten wir die natürliche Klimavariabilität des gesamten Quartärs mit einem Erdsystemmodell mittlerer Komplexität reproduzieren. Neben Ozean und Atmosphäre beinhaltet das Modell interaktive Eisschilde für die nördliche Hemisphäre und einen vollständig gekoppelten globalen Kohlenstoffkreislauf. Das Modell wurde nur durch Änderungen der Erdbahnkonfiguration (also durch die bekannten Milankovi´c-Zyklen) angetrieben sowie durch verschiedene Szenarien für langsam veränderliche Randbedingungen, nämlich die CO2 -Ausgasung aus Vulkanen als geologische CO2 -Quelle und Änderungen der Sedimentverteilung auf den Kontinenten. Diese Modellsimulationen liefern eine konsistente Rekonstruktion von CO2 , Klima und Eisschilden, die mit den verfügbaren Beobachtungsdaten abgeglichen ist. Die Tatsache, dass das Modell die Hauptmerkmale der Klimageschichte reproduzieren kann, einschließlich der Daten über die Eismasse auf der Erde und die Oberflächentemperaturen, gibt uns Vertrauen in unser allgemeines Verständnis der Funktionsweise des Klimasystems und liefert Abschätzungen für den Beitrag äußerer Antriebskräfte und interner Rückkopplungen zur Klimavariabilität. Unsere Ergebnisse zeigen eine starke Empfindlichkeit des Erdsystems gegenüber relativ geringen Schwankungen des atmosphärischen CO2 , Ein allmählicher Rückgang des CO2 auf Werte unter ≈ 350 ppm führte zum Beginn der Vereisung von Grönland und, allgemeiner, der Nordhalbkugel zum Beginn des Quartärs. Das Wachsen und Abschmelzen der Eisschilde führte in der Folge dazu, dass die dicke Schicht der losen Sedimente, die sich zuvor durch die ungestörte Wirkung der Verwitterung über Millionen von Jahren auf den Kontinenten gebildet hatte, allmählich abgetragen wurde. Die Erosion dieser Sedimentschicht – sie wurde im Wesentlichen von den fließenden Gletschern fortgeschoben – beeinflusste die Entwicklung der Eiszeitzyklen auf verschiedene Weise. Zum einen sind Eisschilde, die auf weichen Sedimenten liegen, im Allgemeinen beweglicher als Eisschilde auf hartem Untergrund, weil das Eis leichter über die Sedimente rutscht als über den Fels. Zusätzlich erzeugt der Transport von Sedimenten zu den Rändern des Eisschildes erhebliche Mengen an Staub,

9.4

Die Rolle der Simulation

117

der, einmal auf der Oberfläche des Eisschildes abgelagert, das Abschmelzen der Eisschilde verstärkt, weil das Eis schmutziger und damit dunkler wird. Unsere Ergebnisse zeigen, dass die allmähliche Zunahme der Fläche von freiliegendem Felsuntergrund im Laufe der Zeit zu stabileren Eisschilden führte, die weniger auf die Erdbahnzyklen reagierten und schließlich den Weg für den Übergang zu 100.000 Jahre langen Zyklen vor rund 1 Mio. Jahren ebneten. Die Entwicklung der Eisschilde ist sehr temperaturempfindlich, und der Beginn der Vereisung der Nordhalbkugel vor rund 3 Mio. Jahren wäre im Modell nicht möglich gewesen, wenn die globale Temperatur im frühen Quartär höher als 2 ◦ C gegenüber der vorindustriellen Zeit gewesen wäre. Da das Modell nachweislich die Meeresspiegelschwankungen der letzten 400.000 Jahre und auch die räumliche Verteilung der Eisschilde auf dem Höhepunkt der letzten Eiszeit korrekt vorhersagt (Ganopolski & Brovkin 2017), sind wir zuversichtlich, dass die Empfindlichkeit der Eisschilde gegenüber dem Klima im Modell realistisch ist. Man sieht in Abb. 9.3 sehr deutlich, dass Erwärmung und Abkühlung periodische Funktionen sind. Der gegenwärtige Kampf um die Reduzierung des CO2 -Ausstoßes macht die Städte sauberer, was sehr wünschenswert ist, ein wesentlicher Einfluss auf die Erderwärmung ist aber nicht sichtbar. Das kann man nicht beweisen, aber die Simulation dieser Prozesse ermöglicht doch ziemlich sichere Aussagen. Natürlich hat man sich auch sehr schnell dem Problemkreis der Pandemie-Simulation zugewendet [35]. Pandemie-Simulationen wurden in den 2000er-Jahren sehr populär. Spezialisten für biologische Sicherheit und Experten aus dem Gesundheitswesen wollten das Gesundheitswesen einem Stresstest unterziehen, schauen, wo Probleme auftreten. Bei der Durchführung der Planspiele sitzen Wissenschaftler, Geschäftsleute und Regierungsvertreter beieinander und müssen in Echtzeit Entscheidungen treffen, um mit einer sich ausweitenden Krise umzugehen, die ihnen im Stil von Fernsehnachrichten präsentiert wird. Einige markante Beispiele: • 2001: Im Rahmen von Dark Winter simulieren Forscher eine Pocken-Attacke auf die USA – wenige Monate vor einer Serie von Milzbrand-Anschlägen in den USA. • 2003: Ausbruch des Schweren Akuten Respiratorischen Syndroms (Sars) in Asien. Ausgelöst durch einen Corona-Virus breitet sich Sars in einem Dutzend Ländern aus. • 2005: Die WHO revidiert ihre International Health Regulations (IHR). Die Länder sichern zu, Krankheitsausbrüche besser zu überwachen und unverzüglich zu melden. • 2009: Die Schweinegrippe H1N1 taucht in den USA auf. • 2014: In Westafrika wird ein Ebola-Ausbruch gemeldet. • 2015: In Brasilien breitet sich der Zikavirus aus. • 2017: Im Rahmen des Weltwirtschaftsgipfels in Davos wird eine Pandemie-Simulation durchgeführt. • 2018: In der Demokratischen Republik Kongo bricht zweimal unabhängig voneinander Ebola aus. • 2019: In New York City findet Event 201 statt, die Simulation einer neuartigen Coronavirus-Pandemie.

118

9 Weitere Anwendungen

• 2020: An der Sars-CoV-2-Pandemie sterben allein in der ersten Hälfte des Jahres 2020 670 000 Menschen. Auch in Deutschland gibt es Anstrengungen, Simulationsprogramme für Pandemien zu schaffen. Der „Lehrstuhl für Innovationsökonomik“ der Universität Hohenheim stellt ein solches Programm vor [62], unter dem Titel „Agenten-basiertes Modell gesundheitspolitischer Maßnahmen in der Corona-Epidemie“, mit folgendem Text: „Ausgangssperren und social distancing oder Verseuchung? Wie wird der Verlauf der Corona-Pandemie durch die Maßnahmen der Politik beeinflusst? Testen Sie selbst in einem Online-Politiklabor, welche Auswirkungen die verschiedenen Instrumente auf den Verlauf der Epidemie haben. Mit welchen Mortalitätsraten ist zu rechnen, und welchen zeitlichen Verlauf wird die Krise nehmen? Bitte beachten Sie: Unser Politiklabor liefert keine Prognosen, sondern dient der Stärkung des Verständnisses komplexer Zusammenhänge. Die Corona-Pandemie verunsichert uns alle. Seit vielen Tagen verfolgen wir die Veröffentlichungen der Johns Hopkins University und des Robert Koch-Instituts mit den aktuellen Zahlen der mit dem Corona-Virus infizierten Menschen. Weltweit reagieren Politiker mit unterschiedlichen Instrumenten: Während in den meisten Ländern die Verlangsamung der Infektionsraten zum obersten Ziel erklärt wird, diskutiert man andernorts auch eine mögliche Strategie der Durchseuchung, um so schnell wie möglich eine breite Immunisierung der Bevölkerung herzustellen. Angesichts einer damit unweigerlich einhergehenden Überlastung des Gesundheitssystems und einer stark steigenden Mortalitätsrate stellt letztere Strategie jedoch keinen überzeugenden Weg da. Aber auch die Verlangsamungsstrategie ist nicht unumstritten, da unklar ist, wie lange Maßnahmen durchgeführt werden müssen, die das soziale und wirtschaftliche Leben stark beeinträchtigen. Zwei der zentralen Begriffe, die wir in dieser Debatte ständig hören, sind exponentielles ’ Wachstum der Zahl der Infizierten‘ und kritische Schwellen‘, die im Krankenhauswesen ’ überschritten werden könnten und die Gefahr eines Totalzusammenbruchs der Leistungserstellung mit sich bringen. Das sind die typischen Zutaten für komplexe Systeme, die nur schwer zu prognostizieren und für unerwartete Überraschungen gut sind. Mit Hilfe moderner Computersimulationen kann man die Entwicklung komplexer Systeme gut beschreiben und eine Intuition für deren scheinbar unberechenbaren Entwicklungspfade entwickeln. Wir haben zur Betrachtung möglicher Entwicklungspfade für Sie ein einfach zu bedienendes Politiklabor entwickelt. Sie sehen eine typische europäische Stadt mit den verschiedenen Betätigungsmöglichkeiten (Arbeitsstätten, Supermärkte, Schulen etc.) sowie Wohnviertel. Die Bewohner der Stadt führen ein ganz normales Leben, das sich ganz gut mit einem Kalender beschreiben lässt. Morgens gehen die Erwachsenen zur Arbeit in ihre Büros und Fabriken, die Kinder gehen in die Schule, nachmittags zum Sport. In den Einkaufszentren nimmt der Betrieb ebenfalls in den Nachmittagsstunden stark zu. An allen Stellen finden zahlreiche Begegnungen und soziale Interaktionen statt. Für einen Virus, wie den hochansteckenden Corona-Virus, sind das ideale Ausbreitungsbedingungen. Sie können auf dem Monitor gut beobachten, wie sich nach und nach ein großer Prozentsatz der

9.4

Die Rolle der Simulation

119

Menschen infiziert und teilweise auch schwer erkrankt oder gar verstirbt. Die Krankenhauskapazität in unserer Stadt ist begrenzt, so dass die Sterbefälle mit dem Überschreiten der Kapazitätsgrenze zunehmen. Der Virus verschwindet nach einer gewissen Zeit auch ohne ein Eingreifen, und die überlebenden Stadtbewohner haben eine Immunität entwickelt. Es sind viele Verstorbene zu beklagen. Sie können in dieser Stadt die Gesundheitspolitik gestalten und am Bildschirm die damit einhergehenden Veränderungen der Situation beobachten. Beispielsweise können Sie die infizierten Menschen in häusliche Quarantäne schicken, mit Gesundheitsaufklärung die allgemeinen Hygienebedingungen verbessern oder die Schulen schließen. Auch in die Bettenkapazität der Krankenhäuser können Sie investieren. Alle Maßnahmen haben einen Einfluss auf die Anzahl der schweren Fälle und der Verstorbenen sowie auf die Länge und den Verlauf der Epidemie. Sehen Sie selbst in unserem Politiklabor, welche große Unterschiede durch die verschiedenen Maßnahmen erzielt werden können und treffen ihre eigenen, dann besser informierten Schlussfolgerungen. Es wichtig darauf hinzuweisen, dass das Politiklabor die sozialen Interaktionen in den Vordergrund stellt. Epidemiologische und medizinische Zusammenhänge sind sehr einfach modelliert und bedienen sich öffentlich zugänglicher Wissensquellen. Daraus ergeben sich zahlreiche Möglichkeiten der interdisziplinären Zusammenarbeit. Das Modell bietet viele Erweiterungsmöglichkeiten. Wir arbeiten daran.“ Auf einer nächsten Webseite kann man dann direkt mit dem Simulationsmodell arbeiten [62]. Es ist außerordentlich interessant, die unterschiedlichen Parameter des Modells zu verändern und zu beobachten, wie sich diese Änderungen auswirken.

Digitalisierung

10

Es ist gegenwärtig möglich, alle Informationen, die existieren, in digitaler Form zu erfassen. Eine Digitalkamera ist eine Kamera, die als Aufnahmemedium anstatt eines Films ein digitales Speichermedium verwendet; das Bild wird zuvor mittels eines elektronischen Bildwandlers digitalisiert. Ihr Preis liegt zwischen 100 und 2000 EUR. Die erste Kamera wurde 1975 von Steven J. Sasson, einem US-amerikanischer Ingenieur, bei Kodak konstruiert (Abb. 10.1). Liegen die Informationen in analoger Form vor, so kann man diese Informationen auch mit geeigneten Hilfsmitteln digitalisieren. Am bekanntesten ist vielleicht die Möglichkeit, geschriebene Dokumente zu scannen. Man kann davon ausgehen, dass beliebige Informationen in digitaler Form vorliegen. Die Möglichkeit der Weiterverarbeitung auf Computersystemen ist ein Prinzip, das allen Erscheinungsformen der Digitalen Revolution und der Digitalen Transformation im Wirtschafts-, Gesellschafts-, Arbeits- und Privatleben zugrunde liegt. Tatsächlich erhöht die technisch vernetzte digitale Kommunikation die

Abb. 10.1 Eine Digitalkamera der Firma Sony

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_10

121

122

10 Digitalisierung

Vielfalt technisch-organisatorischer Lösungsmöglichkeiten erheblich. Daher schafft sie keine langfristig stabilen Strukturen, sondern erhöht deren Flexibilität und Komplexität und reduziert ihre Berechenbarkeit durch die von ihr angestoßenen Prozesse disruptiven Wandels.

10.1

Die Grundlagen der Digitalisierung

Für die massenhafte Speicherung und Verarbeitung existieren seit den 1960er-Jahren immer leistungsfähigere Speichermedien und seit den 1970er-Jahren Mikroprozessoren. Es wird geschätzt, dass 2007 bereits 94 % der weltweiten technologischen Informationskapazität digital war (nach lediglich 3 % im Jahr 1993). Die zu digitalisierende Größe kann alles sein, was mittels Sensoren messbar ist. Typische Beispiele sind: • • • •

der Schalldruck bei Tonaufnahmen mit einem Mikrofon, die Helligkeit bei Bild- und Videoaufnahmen mit einem Bildsensor, die Texte eines gescannten Dokumentes, die Kräfte, bei denen das Gewicht oder die hervorgerufene Beschleunigung gemessen werden, • die Temperatur, • die magnetische oder elektrische Feldstärke. Ein Sensor misst die physikalische Größe und gibt sie in Form einer elektrischen Spannung oder eines elektrischen Stromes weiter. Dieser Messwert wird anschließend mit einem Analog-Digital-Wandler in einen digitalen Wert umgesetzt. Dieser Vorgang kann einmalig oder in regelmäßigen zeitlichen Abständen erfolgen. Von hier an sind die Messgrößen digitalisiert und können von einem Computersystem weiterverarbeitet oder gespeichert werden. Wie die digitalisierten Werte anschließend im System intern dargestellt werden, hängt vom jeweiligen System ab. Hierbei muss zunächst die speicherunabhängige Kodierung und anschließend die Speicherung von Informationsblöcken unterschieden werden. Die Kodierung und das Format hängen von der Art der Information, den verwendeten Programmen und auch der späteren Nutzung ab. Die Speicherung kann im flüchtigen Arbeitsspeicher oder dauerhaft, zum Beispiel in Datenbanksystemen oder unmittelbar als einzelne Datei, in einem Dateisystem erfolgen. Hierbei sind Dateiformate von wesentlicher Bedeutung, die sowohl die binäre Kodierung als auch Metadaten standardisieren. Beispiele sind Textdateien in ASCII oder die UnicodeKodierung, Bildformate oder Formate für Vektorgrafiken, die zum Beispiel die Koordinaten einer Kurve innerhalb einer Fläche oder eines Raumes beschreiben (Tab. 10.1). Mit Blick auf die Prozess-Digitalisierung sind Schnittstellen zwischen der digitalen Welt und der Außenwelt von entscheidender Bedeutung. Digitale Information wird auf analoge

10.1

Die Grundlagen der Digitalisierung

123

Tab. 10.1 Beispiele für die Nutzung des Unicodes Unicode

Symbol

Bedeutung

03E0

Griechischer Buchstabe sampi

0429

Kyrillischer Großbuchstabe shcha

04BC

Kyrillischer Großbuchstabe Abchasisches che

05D8

Hebräischer Buchstabe tet

060F

Arabisches Zeichen misra

0F16

Tibetischer Schriftzug lhag rtags

1254

Äthiopische Silbe qhee

14D9

Kanadische Silben y-cree loo

189A

Mongolischer Buchstabe manchu ali gali gha

4F86

Chinesisch-japanisch-koreanische Einheitsgrafik

A98B

Javanesischer Buchstabe nga lelet raswadi

Geräte ausgegeben oder an physischen Gütern angebracht, um von Menschen oder der gleichen Maschine zeitversetzt oder von anderen Maschinen erneut gelesen werden zu können. Hierzu zählen neben klassischen Techniken wie der Ausgabe digitaler Information auf Trägermaterialien wie Papier mittels menschenlesbaren Zeichen (und deren Rückverwandlung durch Texterkennung) auch spezialisierte Techniken wie Strichcodes, 2D-Codes (zum Beispiel der QR-Code) oder Funknetze, die im Internet der Dinge auch ohne Sichtkontakt und ohne elektrische Verbindung zur Kommunikation zwischen Geräten verwendet werden (zum Beispiel über Wireless Local Area Networks [WLAN] oder mit Radio Frequency Identification [RFID]). Von realen Objekten oder Prozessen können digitale Zwillinge modelliert werden, mit denen virtuelle Simulationen durchgeführt werden können, ohne die Realität zu beeinflussen. • Digitale Daten erlauben die Nutzung, Bearbeitung, Verteilung, Erschließung und Wiedergabe in elektronischen Datenverarbeitungssystemen. • Digitale Daten können maschinell und damit schneller verarbeitet, verteilt und vervielfältigt werden. • Sie können durchsucht werden. • Der Platzbedarf ist deutlich geringer als bei anderen Formen der Archivierung. • Auch bei langen Transportwegen und nach vielfacher Bearbeitung sind Fehler und Verfälschungen (zum Beispiel Rauschüberlagerungen) im Vergleich zur analogen Verarbeitung gering oder können ganz ausgeschlossen werden. • Ein weiterer Grund für die Digitalisierung analoger Inhalte ist die Langzeitarchivierung. Geht man davon aus, dass es keinen ewig haltbaren Datenträger gibt, ist ständige Migra-

124

10 Digitalisierung

tion notwendig. Fakt ist auch, dass analoge Inhalte mit jedem Kopiervorgang an Qualität verlieren. Digitale Inhalte bestehen hingegen aus diskreten Werten, die entweder lesbar und damit dem digitalen Original gleichwertig oder nicht mehr lesbar sind, was durch redundante Abspeicherung der Inhalte bzw. Fehlerkorrektur-Algorithmen verhindert wird. • Schließlich können analoge Originale durch Erstellung digitaler Benutzungskopien geschont werden. Denn viele Datenträger, darunter Schallplatten, analog vorliegende Spielfilme und Farb-Diapositive, verlieren allein durch die Wiedergabe oder auch nur einfache Alterungsprozesse an Qualität. Auch gedruckte Bücher oder Zeitungen und Archivalien leiden unter Benutzung und können durch Digitalisierung geschont werden.

10.2

Einige Anwendungen

Um ein Farbbild digital zu repräsentieren, wird eine höhere Quantisierung benötigt. Bei Digitalisaten im RGB-Farbraum wird jeder Farbwert eines Pixels in die Werte Rot, Grün und Blau zerlegt, und diese werden einzeln mit derselben Quantisierung gespeichert (maximal ein Byte/Farbwert = 24 Bit/Pixel).

Alle Textverarbeitungssysteme bieten die Möglichkeit, sowohl den Hintergrund als auch den Text einzufärben. Die Digitalisierung von Audiodaten wird oft als „Sampling“ bezeichnet. Zuvor in analoge elektronische Schwingungen verwandelte Schallwellen aus einem Mikrofon werden stichprobenartig schnell hintereinander als digitale Werte gemessen und gespeichert. Diese Werte können umgekehrt auch wieder schnell hintereinander abgespielt und zu einer analogen Schallwelle zusammengesetzt werden, die dann wieder hörbar gemacht werden kann. Aus den gemessenen Werten würde sich eigentlich bei der Rückumwandlung eine eckige Wellenform ergeben: Je niedriger die Sampling-Frequenz ist, umso eckiger ist die Wellenform bzw. das Signal. Dies kann durch mathematische Verfahren reduziert werden. Die Bittiefe bezeichnet beim Sampling den „Raum“ für Werte in Bits, die unter anderem für die Auflösung des Dynamikumfangs notwendig sind. Ab einer Samplingfrequenz von 44,1 kHz und einer Auflösung von 16 Bit spricht man von CD-Qualität. Schallplatten können berührungslos softwaregestützt gelesen und digitalisiert werden, indem ein hochauflösendes optisches Bild des Tonträgers von einem Programm abgetastet wird. Dieses Verfahren wird bei der Rekonstruktion historischer Tonaufnahmen verwendet.

10.2

Einige Anwendungen

125

Man kann also seine Schallplatten, die man in vielen Jahren gesammelt hat, ohne Probleme auf den Flohmarkt schaffen oder verschenken, wenn man sie vorher digitalisiert hat. Bei der Digitalisierung von archäologischen Objekten handelt es sich um die digitale Erfassung archäologischer Objekte in Schrift und Bild. Alle verfügbaren Informationen (Klassifizierung, Datierung, Maße, Eigenschaften etc.) zu einem archäologischen Objekt (Gefäß, Steinwerkzeug, Schwert) werden digital erfasst, durch elektronische Abbildungen und Zeichnungen ergänzt und in einer Datenbank gespeichert. Anschließend können die Objekte in Form eines Datenimports in ein Objektportal wie z. B. museum-digital integriert werden, wo die Objekte für jeden frei recherchierbar sind. Anlass für die Digitalisierung von archäologischen Objekten ist meist die Erfassung größerer Bestände wie archäologische Sammlungen an Museen oder der für die Bodendenkmalpflege zuständigen Ämter, um sie der Öffentlichkeit zu präsentieren. Da im musealen Alltag nie alle Objekte einer Sammlung in Form von Ausstellungen oder Publikationen gezeigt werden können, stellt die Digitalisierung eine Möglichkeit dar, die Objekte dennoch der breiten Öffentlichkeit und auch der wissenschaftlichen Welt zu präsentieren. Außerdem wird so eine elektronische Bestandssicherung vorgenommen, ein in Hinblick auf den Einsturz des historischen Archivs der Stadt Köln nicht unwesentlicher Aspekt. Bereits 1916 postulierte Albert Einstein „Gravitationswellen“. Diese Verzerrungen der Raumzeit ergeben sich als direkte Folge seiner „Allgemeinen Relativitätstheorie“. Am 14. September 2015 gelang in den USA der erste direkte Nachweis von Gravitationswellen mit den Advanced-LIGO-Detektoren. Das gemessene Signal stammte von zwei Schwarzen Löchern, die sich umkreisten, sich dabei immer näher kamen und schließlich miteinander verschmolzen (Abb. 10.2). Am 17. August 2017 empfingen Astronomen erstmals sowohl elektromagnetische Strahlung als auch Gravitationswellen von einem Ereignis: In der 130 Mio. Lichtjahre entfernten Galaxie NGC 4993 waren zwei Neutronensterne zusammengestoßen und miteinander verschmolzen. Damit begann ein neues Zeitalter der Gravitationswellen-Astronomie. Das Ergebnis ihrer Digitalisierung ist in Abb. 10.3 dargestellt. Im Gesundheitswesen bieten digitale Anwendungen aus der Telemedizin neue Möglichkeiten, die Effektivität und Effizienz der Untersuchungen und Behandlungen zu steigern, die Versorgung der Patienten zu verbessern und die Transparenz der Leistungs- und Wertschöpfungsprozesse zu erhöhen. Ziel ist es, durch eine intelligente elektronische Datennutzung medizinisches Wissen und therapeutische Möglichkeiten breiter und einfacher verfügbar zu machen sowie Ärzte, Schwestern, Pfleger und andere Leistungserbringer von administrativen und routinemäßigen Tätigkeiten zu entlasten, um so die Qualität der Gesundheitsversorgung auch im ländlichen Raum deutlich zu verbessern. Basis der Digitalisierung sind die medizinischen Daten des Versicherten, die dank moderner Informations- und Kommunikationstechnologien zwischen Ärzten und Patienten sowie zwischen den einzelnen Leistungserbringern ausgetauscht werden. Die Digitalisierung ermöglicht es, die Diagnostik und Behandlung zu modernisieren und maßgeblich weiterzuentwickeln. Sie trägt zur Erleichterung der Kommunikation zwischen den einzel-

126

10 Digitalisierung

Abb. 10.2 Ein Museum für digitale Kunst in Tokio Abb. 10.3 Gravitationswellen

nen Akteuren des Gesundheitswesens bei und ermöglicht es dem einzelnen Patienten, seine Gesundheit stärker zu steuern, etwa durch Apps und Informationen im Internet. An diesen Fragestellungen ist abzulesen, wie raumgreifend der Wandel ist, dem die Digitalisierung in der Medizin unterliegt. Auch die jeweilige Rolle des Patienten, die Beziehung zu den Behandelnden und das Gesundheitssystem insgesamt sind diesem Einfluss ausgesetzt. Ärzte werden spüren, wie sich ihr Berufsbild und auch ihr Selbstverständnis an die neuen Gegebenheiten anpassen. Beim Thema Digitalisierung ist das deutsche Gesundheitswesen im internationalen Vergleich weit abgeschlagen. In anderen Ländern sind Telemonitoring, Video-Sprechstunden und elektronische Patientenakten längst an der Tagesordnung – in Deutschland werden viele dieser Neuerungen nicht oder nur in Teilbereichen genutzt [70].

10.2

Einige Anwendungen

127

Zur Digitalisierung der Produktionstechnik gehören „Entwurfs- und Codeerstellungsverfahren“ (CAD, CAM), „Fertigungsverfahren“ (zum Beispiel mit Hilfe von CNC-Maschinen oder 3D-Druck) und Montageverfahren (zum Beispiel mit Industrierobotern). Die zunehmende Vernetzung erfordert die Gestaltung gemeinsamer Standards, damit sich die immer komplexeren Produktionssysteme steuern lassen. Digital gesteuerte Lagertechnik, Navigationssysteme und digitale Verkehrsleitsysteme stellen spezielle Zweige der technischen Entwicklung dar. Die Digitalisierung in der Landwirtschaft schreitet schon voran, seit es den PersonalComputer gibt. Waren es zuerst die Buchführung und Schlagdokumentation im Betriebsbüro, die mittels Agrarsoftware zeitsparender erledigt werden konnten, so bewirken seit den 1990er-Jahren verschiedene Entwicklungsschübe wie Precision Farming, Smart Farming und zuletzt Digital Farming, dass Computer- und Sensortechnik in aktuellen Landmaschinen weitverbreitet sind. Auch autonome Fahrzeuge, Traktoren und Feldroboter gibt es in der Landwirtschaft inzwischen nicht nur als Prototypen. Die landwirtschaftliche Gemeinschaft hat mehrere Jahre damit verbracht, eine Betriebsbeschreibung für die digitale Landwirtschaft zu erstellen. Die Landwirtschaft ist eines der komplexesten Systeme, die analysiert werden können, und das meiste, was vorgeschlagen wurde, sind Lösungen wie Wetter und Bilddaten. Digital Farming ist die Anwendung von Methoden der Präzisionsortung und agronomischen Informationen in Entscheidungsqualität, um das gesamte Spektrum der Anbauprobleme im Betrieb zu beleuchten, vorherzusagen und zu beeinflussen. Hier ein Blick auf die einzelnen Teile der Definition: Bei der Präzision geht es um Geolokalisierungsdienste, die mit dem Global Positioning System (GPS) und seinen Erweiterungen verbunden sind. Es handelt sich um die Überlagerung dieser Geolokalisierungsdienste auf einer digitalen Karte für Präzisionserfassung, Identifizierung, vorausschauende Entscheidungsfindung und Maßnahmen (Abb. 10.4). Informationen von hoher Entscheidungsqualität werden zeitnah und innerhalb der Entscheidungsschleife des Ereignisses bereitgestellt. Sie werden von fortschrittlichen Sensoren, beschreibenden Modellen und prädiktiven Algorithmen geliefert, die den erforderlichen Einblick in das agronomische Problem liefern. Der Anbau ist ein durchgängiger, kontinuierlicher Entscheidungsprozess in Echtzeit, der zeitnahe Entscheidungen und Maßnahmen erfordert. Er erstreckt sich von der Aussaat bis zur Ernte. Heute geht es beim Anbau um die sachkundigen, aber subjektiven Beobachtungsfähigkeiten des Einzelnen. In Zukunft wird es um die objektiven, vorausschauenden Fähigkeiten und die Präzision des digitalen Ökosystems gehen. Bei der digitalen Landwirtschaft muss es sich auch um ein funktionierendes System handeln. Aus diesem Grund stellen die folgenden Anforderungen sicher, dass das System auf Millionen von Hektar skalierbar ist, für mehrere Kulturen eingesetzt werden kann, eine End-to-End-Lösung bietet, in einem Ökosystem existiert und die verschiedenen agronomischen und wirtschaftlichen Bedürfnisse von Hunderten oder sogar Tausenden von Beteiligten gleichzeitig unterstützt. Die digitale Landwirtschaft auf der nächstniedrigeren Ebene muss die zeitnahe Bereitstellung von Informationen aus den Datenbeständen, die ein Feld ausmachen, organisieren,

128

10 Digitalisierung

Abb. 10.4 Auch in der Landwirtschaft ändert sich das Berufsbild

analysieren und orchestrieren. Es muss darum gehen, das Feld in differenzierbare, geografisch verortete und individuell homogene Einheiten von Produktionsmitteln zu unterteilen. Bei dieser Anforderung geht es um jede Einheit als produktives Gut. Die präzise Lokalisierung stellt sicher, dass die über diese Einheit gesammelten Informationen an ein und demselben Ort gemessen, erfasst, analysiert und verarbeitet werden und sich von allen anderen umliegenden Gütern unterscheiden lassen. Es geht darum, individuell homogen und identisch in Größe, Ausdehnung und Tiefe zu sein, damit das System dieselbe Einheit wiederholbar analysieren kann. Das bedeutet, dass jede Variable für eine produktive Einheit auf der gesamten Grundfläche und in der Tiefe denselben Variablenwert hat. Für jedes Produktionsmittel können Vorhersagen und Rezepte erstellt werden, die Produktion wird individuell überwacht. Jede produktive Einheit der Anlage kann separat und präzise identifiziert und analysiert werden. Daraus werden Maßnahmen abgeleitet, die ergriffen werden, um ein vorhergesagtes Ergebnis zu erzielen. Die Summe der Ergebnisse für alle diese homogenen Einheiten bildet ein Feld, und die Summe aller Vorhersagen, Vorschriften, Kosten und Erträge ist die Wirtschaftlichkeit des Feldes. Indem die digitale Landwirtschaft das Feld als eine Summe produktiver Vermögenswerte betrachtet, kann sie fortschrittliche Daten und Analysealgorithmen in Echtzeit auf die Verwaltung jedes einzelnen Vermögenswerts und damit auf das gesamte Feld anwenden. Bei der digitalen Landwirtschaft geht es nicht um Genetik, Wettervorhersage usw. Diese Faktoren sind zwar für die Vorhersagen äußerst wichtig, werden aber extern generiert und als Inputs verwendet. So würde beispielsweise bei der Saatgutauswahl die Auswahl des Saatguts auf der Grundlage von Saatgutprofilen geprüft, die von den Agrarunternehmen entwickelt und hergestellt wurden. Die Bodenbedingungen, die Hydratation und andere bekannte Informationen werden von den Sensoren oder aus den historischen Aufzeichnungen für die Region und das Feld gewonnen. Die Daten der Region und des Feldes sind

10.2

Einige Anwendungen

129

historisch und gemessen, und diese Daten werden als Grundlage für die Vorhersage verwendet. Bei der digitalen Landwirtschaft geht es um die Nutzung bekannter Feld-, Kultur-, Nährstoff-, Schutz- und Hydratationsdaten für die Vorhersage. Die Digitalisierung im Bildungswesen ist sehr umfangreich. Die Verwendung von Taschenrechnern, Handys, Tablets und Computern gehört zum Alltag, die Verwendung von Computern und Mathematiksoftware wurde bereits in einem früheren Kapitel dargestellt. Der Fernunterricht wurde seit der COVID-19-Pandemie wichtig und gehörte längere Zeit zum Alltag der meisten Bildungseinrichtungen (Abb. 10.5). Die grundlegenden Vorteile der Digitalisierung liegen in der Schnelligkeit und Universalität der Informationsverbreitung. Bedingt durch kostengünstige Hard- und Software zur Digitalisierung und der immer stärkeren Vernetzung über das Internet entstehen in hohem Tempo neue Anwendungsmöglichkeiten in Wirtschaft, Verwaltung und Alltag. Wenn die Logik von Produktions- und Geschäftsmodellen, Wertschöpfungsketten, Wirtschaftszweigen, Verwaltungsroutinen, Konsummustern oder auch die Alltagsinteraktion und die Kultur einer Gesellschaft dadurch tiefgreifend verändert werden, spricht man von digitaler Transformation. Diese zieht Chancen, aber auch Risiken nach sich. Die Digitalisierung stellt neue Anforderungen an das Rechtssystem, wobei die Rechtswissenschaft erst vor einigen Jahren begonnen hat, sich mit diesem Problem zu befassen. Die Theorie des unscharfen Rechts geht davon aus, dass sich das Recht insgesamt in einer digitalisierten Umwelt grundlegend ändert. Nach ihr relativiert sich die Bedeutung des Rechts als Steuerungsmittel für die Gesellschaft deutlich, da sich die Ansprüche der Gesellschaft zusätzlich an immateriellen Gütern orientieren, welche die Nationengrenzen überschreiten. Durch die Fortschritte in den digitalen Techniken können immer bessere Kopien, Reproduktionen und sogar Fälschungen hergestellt werden. Urheberrechtsverletzungen und Fälschungen können zu einem erheblichen wirtschaftlichen Schaden führen. So wurde Anfang der 1990er-Jahre ein international tätiger Fälscherring in New York entdeckt, der gefälschte

Abb. 10.5 Das Bildungswesen der Zukunft?!

130

10 Digitalisierung

Kunstwerke mit einem Verkaufswert von 1,8 Mrd. US$ produziert hatte. In den gleichen Zeitraum fiel die ab 1997 beginnende Krise der Musikindustrie durch die unautorisierten Musikdownloads aus dem Internet, die auf CD-Rohlinge gebrannt und so auch illegal vertrieben werden können. Die Zahl der Rohlinge stieg von 1999 bis 2004 in Deutschland von 58 auf 303 Mio., während im gleichen Zeitraum die Zahl bespielter Original-CDs von 210 auf 146 Mio. zurückging. Neuartige Urheberrechtsprobleme werfen Metamedien wie Suchmaschinen auf, die Inhalte (Texte, Bilder usw.) aus Primärmedien selektieren, abgreifen, neu kombinieren und verbreiten. Gegen Google Books wurde eine Sammelklage von US-amerikanischen Verlagen und Autoren angestrengt, doch auch aus europäischen Staaten kam Kritik am Verhalten des Google-Konzerns. Medien berichten von einem „schleichenden Niedergang der Buchbranche“. Ein weiteres Urheberrechtsproblem finden sich im 3D-Druck: Mit der Erstellung einer 3D-Druckvorlage (in der Regel in Form einer digitalen Vorlage oder CAD-Konstruktion) liegt ein Werk im Sinne des Urhebergesetzes vor und ist geschützt. Der Herstellung einer solchen Vorlage durch einen 3D-Druck stellt eine Vervielfältigung dar. Ein unrechtmäßiger Verkauf durch Dritte (bzw. ohne Einwilligung des Urhebers) kann einen Verstoß gegen das Urhebergesetz darstellen. Die Digitale Revolution hat große Fortschritte der Wissenschaft auf verschiedensten Gebieten ermöglicht: • • • • • • •

Erfolge in der Genom-Entschlüsselung, Voraussagen der Klimaforschung, komplexe Modelle in Physik und Chemie, Nanotechnologie, neurophysiologische Grundlagen der Sprachentwicklung und der kognitiven Funktionen, ökonomische Simulationen, vergleichende Studien in Sprach- und Literaturwissenschaften.

Eigentlich hat jede wissenschaftliche Disziplin von den Entwicklungen der Computertechnologie profitiert.

Bildverarbeitung

11.1

11

Die Vorhersage von Erdbeben

Wir beginnen mit einem sehr interessanten Beispiel: „Dank Künstlicher Intelligenz zu verbesserter Erdbebenanalyse“ [71]. Weltweit gibt es täglich ein paar Hundert Erdbeben, jedes Jahr mehr als eine Million. Die meisten sind mit einer Stärke von 1 bis 2 auf der Richterskala jedoch so schwach, dass sie nur durch empfindliche Instrumente wahrgenommen werden können. Erst Beben der Stärke 4 verursachen merkliche Erschütterungen, bei Stärke 5 kann es Schäden an Gebäuden geben. Beben dieser Stärke gibt es mehr als 10.000 in einem Jahr. Sogar Beben mit einer Stärke von mehr als 7 passieren mehr als einmal pro Monat, Beben stärker als 8 etwa einmal pro Jahr. Das stärkste, jemals gemessene Erdbeben war das Valdivia-Beben und fand am 22. Mai 1960 in Chile statt. Es hatte eine Stärke von 9,5 und löste einen 25 m hohen Tsunami aus. Übrigens bebt die Erde auch in Deutschland beinahe täglich. Zwischen dem 1. Januar und dem 30. Mai 2019 wurden 114 Beben mit einer Stärke zwischen 1 und 2,8 registriert. Während die Beben in Deutschland aber keine Schäden verursachen, kosten sie Menschen in vielen Ländern der Erde nicht nur ihren Besitz, sondern auch ihr Leben. Dabei sind es aber nicht immer die Hauptbeben, die am stärksten sind und die größten Schäden auslösen, oft sind es die eigentlich schwächeren Nachbeben, die weit katastrophalere Auswirkungen haben. Dabei könnten viele Schäden sicher abgemildert und Leben gerettet werden, wenn man diese Beben vorhersagen könnte. An einem Ort, der von einem Erdbeben bedroht wird, treffen zwei Arten von seismischen Wellen ein: Raumwellen und Oberflächenwellen. Die zuerst ankommenden Wellen werden als Primärwellen oder P-Wellen bezeichnet. Danach folgen die Sekundärwellen oder S-Wellen. Beide Wellentypen durchlaufen den ganzen Globus und sind somit Raumwellen. Schließlich treffen die Oberflächenwellen ein, die in Rayleigh-Wellen und Love-Wellen unterteilt werden.

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_11

131

132

11 Bildverarbeitung

• P-Wellen verhalten sich in den Gesteinen wie Schallwellen in der Luft. Sie sind aber mit einer Fortpflanzungsgeschwindigkeit von etwa 5 km pro Sekunde wesentlich schneller als Schallwellen. P-Wellen breiten sich in fester Materie als periodische Verdichtung und Streckung der Materie aus und sind genauso wie Schallwellen sogenannte Longitudinalwellen. Die Teilchen des Gesteins schwingen in Fortpflanzungsrichtung der Welle hin und her. • Mit etwas weniger als die halbe Geschwindigkeit von P-Wellen breiten sich S-Wellen aus. Weil bei ihnen die Gesteine in einer senkrechten Ebene zur Fortpflanzungsrichtung schwingen und eine biegende oder scherende Bewegung durchlaufen, nennt man sie Transversal- oder Scherwellen. Sie ähneln den transversalen Bewegungen von Lichtwellen. Weder in Flüssigkeiten noch in Gasen können sie sich fortpflanzen, da in diesen keine Scherbewegung möglich ist. • Einige P- und S-Wellen gelangen an die Oberfläche und werden dort reflektiert. Es bilden sich Rayleigh-Wellen. Sie sind Oberflächenwellen und breiten sich entlang der Erdoberfläche aus. Für ihre Schwingungen benötigen sie eine freie Oberfläche, wie die Wellen auf dem Meer. Ihre Fortpflanzung erfolgt in Ellipsen auf einer vertikalen Ebene. Sie verursachen die meisten Schäden und sind nach dem Physiker John William Rayleigh (1842–1919) benannt. • Die Teilchenbewegung der seismischen Oberflächenwellen erfolgt auf einer horizontalen Fläche im rechten Winkel zur Fortbewegungsrichtung. Es findet keine vertikale Versetzung statt. Da sie oft über große Amplituden verfügen, ihre größten Ausschläge also sehr groß sind, richten sie durch horizontale Scherungen des Untergrundes starke Schäden an Gebäuden an. • Die zuerst an einem bestimmten Punkt der Oberfläche ankommenden P-Wellen erreichen diesen Punkt in einem steilen Winkel und rufen vertikale Bodenbewegungen hervor, die jedoch keine größeren Zerstörungen bewirken. Danach folgen die S-Wellen mit einem relativ heftigen seitlichen Rütteln des Bodens. Zeitgleich mit ihnen oder kurz danach treffen die Love-Wellen ein. Der Untergrund beginnt nun stärker, im rechten Winkel zur Wellenausbreitung, zu beben. Schließlich laufen die Rayleigh-Wellen ein und erzeugen dabei Bodenbewegungen sowohl in Längsrichtung als auch in der Vertikalen. Sie rufen bei großen Erdbeben die vielbeschriebene rollende Bewegung des Untergrundes hervor. Die Abfolge der unterschiedlichen Oberflächenwellen bildet den wesentlichen und verheerenden Teil eines Erdbebens. Love- und Rayleigh-Wellen halten fünfmal länger an als P- und S-Wellen. Jedes Erdbeben lässt in seiner Intensität nach, je weiter es sich von seinem Ausgangspunkt, dem Erdbebenherd, entfernt. Durch die Reibung zwischen den sich bewegenden Gesteinspartikeln während eines Erdbebens wird ein Teil der Wellenenergie nach und nach in Wärme umgewandelt. Daher werden durch seismische Wellen ins Schwingen geratene Gesteinsmassen je nach Höhe der im Herd erzeugten Wellenenergie früher oder später zur Ruhe kommen.

11.2 Tumore, Alzheimer, Herzkrankheiten

133

Abb. 11.1 Erdbeben der Stärke 3,6 in der Schweiz

Die analoge Aufzeichnung in Abb. 11.1 muss digitalisiert werden, damit man sie als Bild darstellen und entsprechend auswerten kann. Wissenschaftler am Geophysikalischen Institut (GPI) des KIT, an der University of Liverpool und an der University of Granada haben gezeigt, dass Künstliche Intelligenz die Daten ebenso genau auswerten kann wie der Mensch. Sie setzten dazu ein faltendes neuronales Netz (Convolutional Neural Network) ein und trainierten es mit einem relativ kleinen Datensatz zu 411 Erdbebenereignissen im Norden von Chile. Das CNN bestimmte daraufhin die Einsatzzeiten von unbekannten P-Phasen und S-Phasen mindestens so genau wie ein erfahrener Seismologe beim manuellen Picken; es war weit genauer als ein klassischer Pickeralgorithmus.

11.2

Tumore, Alzheimer, Herzkrankheiten

In Deutschland erkranken jährlich ca. 4500 Menschen an einem Gliom, dem häufigsten und bösartigsten Hirntumor bei Erwachsenen. Da diese Art Tumor äußerst widerstandsfähig ist, sind Chemo- oder Strahlentherapie nur begrenzt wirksam, und die Tumore können auch durch eine Operation oft nicht vollständig entfernt werden. Daher forschen Wissenschaftler seit Langem mit Hochdruck nach neuen Behandlungsansätzen. Einer der wichtigsten Faktoren bei der Beurteilung der Wirksamkeit einer neuen Therapie bei Hirntumoren ist die Wachstumsdynamik, die über Standard-Magnetresonanztomographien (MRT) ermittelt wird. Diese Aufnahmen sind jedoch fehleranfällig und führen beim manuellen Messen der Tumorausdehnung leicht zu abweichenden Ergebnissen. „Das kann die Beurteilung des Therapieansprechens und in der Folge die Reproduzierbarkeit und Präzision von wissenschaftlichen Aussagen, die auf Bildgebung beruhen, negativ beeinflussen“, erklärt Martin Bendszus, der Ärztliche Direktor der Abteilung Neuroradiologie am Universitätsklinikum Heidelberg.

134

11 Bildverarbeitung

Abb. 11.2 Magnetresonanztomographie

Ein Team des Universitätsklinikums Heidelberg (UKHD) und des Deutschen Krebsforschungszentrums (DKFZ) hat ein neues, maschinelles Verfahren zur automatisierten Bildanalyse von Hirntumoren entwickelt. Dafür haben die Wissenschaftler Algorithmen und neuronale Netzwerke entworfen, die das Therapieansprechen bei Hirntumoren anhand von MRT-Aufnahmen verlässlicher und präziser wiedergeben können als traditionelle radiologische Verfahren (Abb. 11.2). Anhand einer Referenzdatenbank mit MRT-Untersuchungen von knapp 500 Hirntumorpatienten des Universitätsklinikums Heidelberg lernten die Algorithmen, die Hirntumore automatisch zu erkennen und zu lokalisieren. Außerdem konnten die Algorithmen die einzelnen Bereiche (kontrastmittelaufnehmender Tumoranteil, peritumorales Ödem) volumetrisch vermessen und das Therapieansprechen präzise beurteilen. Die Ergebnisse des Forschungsprojekts wurden in Kooperation mit der European Organisation for Research and Treatment of Cancer (EORTC) umfassend validiert. „Die Auswertung von über 2000 MRT-Untersuchungen von 534 Glioblastom-Patienten aus ganz Europa zeigt, dass unser computerbasierter Ansatz eine zuverlässigere Beurteilung des Therapieansprechens ermöglicht, als es mit der herkömmlichen Methode der manuellen Messung möglich wäre“, erklärt Philipp Kickingereder aus der Abteilung Neuroradiologie am Universitätsklinikum Heidelberg. „Wir konnten die Verlässlichkeit der Beurteilung um 36 % verbessern. Das kann für die auf Bildgebung basierende Beurteilung der Wirksamkeit einer Therapie in klinischen Studien von entscheidender Bedeutung sein. Auch die Vorhersage des Gesamtüberlebens war mit unserem neuen Verfahren exakter möglich.“ Hier wird ein anderes Problem sichtbar. Es ist nicht so einfach, größere Mengen an relevanten Bildern zu erhalten. Hier müssen viele Organisationen zusammenarbeiten! Die Forscher hoffen, dass diese Technik schon bald in klinischen Studien und künftig auch in der klinischen Routine zur standardisierten und vollautomatischen Beurteilung des

11.2 Tumore, Alzheimer, Herzkrankheiten

135

Therapieansprechens von Hirntumoren eingesetzt werden kann. Dazu konzipierten und evaluierten sie eine Softwareinfrastruktur, damit die Technik in bestehende radiologische Infrastruktur integriert werden kann. „Damit schaffen wir die Voraussetzungen für einen breiten Einsatz und eine vollautomatisierte Verarbeitung und Analyse von MRT-Untersuchungen bei Hirntumoren innerhalb weniger Minuten“, erläutert Klaus Maier-Hein aus der Abteilung Medizinische Bildverarbeitung am Deutschen Krebsforschungszentrum. Zurzeit wird die neue Technologie am NCT Heidelberg als Teilaspekt einer klinischen Studie zur besseren Behandlung von Glioblastom-Patienten erneut evaluiert. „Für Präzisionstherapien ist eine standardisierte und verlässliche Beurteilung der Effektivität der neuen Behandlungsansätze von herausragender Bedeutung. Hier kann die von uns entwickelte Technologie möglicherweise einen entscheidenden Beitrag leisten“, erklärt der Leiter der Neurologischen Klinik des Universitätsklinikums Heidelberg, Wolfgang Wick. Philipp Kickingereder sagt, dass er und seine Kollegen mit dieser Arbeit das große Potenzial von künstlichen neuronalen Netzwerken in der radiologischen Diagnostik belegen konnten. Klaus Maier-Hein hofft, die Technologie zur automatisierten Hochdurchsatzanalyse von medizinischen Bilddaten weiter voranzubringen und „sie neben dem Einsatz bei Hirntumoren auch auf andere Krankheiten wie z. B. Hirnmetastasen oder multiple Sklerose übertragen zu können.“ Üblicherweise wird mit der Mammographie Brustkrebs diagnostiziert. Radiologen erkennen etwa 80 % der vorhandenen Tumore – die restlichen 20 % werden aus verschiedenen Ursachen übersehen. Tests mit DeepMind haben gezeigt, dass auch die zuvor übersehenen Tumore treffsicher erkannt werden können. Vergleichstests haben gezeigt, dass dank DeepMind rund 9,4 % mehr positive Befunde in den USA gestellt werden konnten und in Großbritannien immerhin 2,7 %. Auch die Zahl der falschen positiven Befunde hat sich reduziert. So sank die Zahl in den USA um 5,7 % und in Großbritannien um 1,2 % [23]. Forscher haben eine lernfähige Künstliche Intelligenz darauf trainiert, Symptome der Alzheimererkrankung zu erkennen. Diese Vorzeichen sind in speziellen Hirnscans sichtbar, können von Medizinern aber kaum ausgemacht werden. Im Pilotprojekt erwies sich die KI mit einer Trefferquote von 100 % als sehr erfolgreich [27]. Wissenschaftler des Boston Children’s Hospital haben einen Katheter entwickelt, der sich autonom durch die Blutgefäße und das Herz bewegt. Im Herzen angelangt, sucht der RoboterKatheter selbständig das vorher von den Ärzten definierte Ziel. Die Spitze des Katheters verfügt dazu über Tastsensoren und eine Minikamera, die eine Orientierung ermöglichen, die der von Nagetieren in der Nacht ähnelt. Die Sensortechnik, die sich hauptsächlich tastend durch das schlagende Herz bewegt, wird von selbstlernenden Algorithmen gesteuert. Während der Bewegung zum Ziel berührt die Spitze des Katheters mit ihren Tastsensoren regelmäßig die Gefäßwände. Die so gewonnenen Daten werden von einer Künstlichen Intelligenz ausgewertet, die anhand des jeweils abgetasteten Gewebes erkennt, wo sich der Roboter aktuell befindet. Anschließend wird aus diesen Informationen die nächste Bewegung errechnet, bis das Ziel im Herzen erreicht ist. Um Verletzungen zu verhindern, verfügt die Katheterspitze außerdem über Drucksensoren, die die Anpressstärke regulieren und so

136

11 Bildverarbeitung

Punktierungen der Gefäßwände vermeiden. Die ebenfalls vorhandene Kamera ermöglicht außerdem die Kontrolle durch Ärzte, die im Normalfall während des operativen Eingriffs aber nicht aktiv werden müssen [23]. Laut der im Fachmagazin Science Robotics veröffentlichten Studie verliefen erste Tierversuche mit dem Operationsroboter sehr erfolgreich. Verwendet wurden dafür Schweine, deren Herz große Ähnlichkeiten mit dem menschlichen Organ aufweist. Während der Tests musste sich der Katheter autonom von der Herzspitze durch die linke Herzkammer zu einer defekten Aortenklappe navigieren und dort eine künstliche Herzklappe implantieren. Gewählt wurde diese Anwendungsmöglichkeit, weil defekte Aortenklappen auch in der Humanmedizin ein häufig vorkommendes Problem sind. Um die Ergebnisse des Roboters vergleichen zu können, wurden parallel dazu dieselbe Operation von Chirurgen komplett manuell und über einen per Joystick von außen gesteuertem Katheter durchgeführt. Die Ergebnisse des Roboter-Katheter zeigen großes Potenzial. 89 von 90 Operationen wurden erfolgreich abgeschlossen, und dies sogar schneller als bei den Chirurgen, die ihren Katheter per Joystick durch das Herz navigiert haben. Lediglich die Chirurgen, die die Operation komplett manuell durchgeführt haben, waren noch schneller. Pierre Dupont, Professor für operative Eingriffe an der Harvard Medical School, erklärt, dass die Ergebnisse der Versuche ziemlich beeindruckend sind, wenn man bedenkt, dass der Roboter sich dabei im blutgefüllten, schlagenden Herzen bewegt und ein nur Millimeter kleineres Ziel erreichen muss. Die wandfolgende Autonome Navigation kann laut den Autoren der Studien auch bei anderen minimalinvasiven Prozeduren, beispielsweise in Gefäßen, Atemwegen, dem Verdauungstrakt oder im Gehirn, eingesetzt werden. In der Praxis könnte der Roboter die endoskopischen Operationswerkzeuge bis zum Ziel navigieren, wo dann die Chirurgen übernehmen und die eigentliche Operation durchführen. Dies soll dabei helfen, dass ähnlich wie beim Autopiloten im Flugzeug Routineaufgaben automatisiert werden, damit der Mensch genügend Energie für die wirklich schwierigen Abschnitte des Eingriffs besitzt.

11.3

Erkennung von Viren

Ein DeepBreath-Algorithmus erkennt COVID-19 anhand des Atems auch bei Patienten ohne Symptome. Wissenschaftler der ETH Lausanne (EPFL) haben zwei Künstliche Intelligenzen vorgestellt, die COVID-19 erkennen können. Laut dem Team um Mary-Anne Hartley nutzt DeepChest dazu Ultraschallbilder der Lunge, ähnlich wie eine kürzlich vorgestellte KI, die Parkinson im Frühstadium anhand von Bildern der Netzhaut erkennt. Die Basis von DeepChest sind Lungen-Ultraschallbilder von Tausenden COVID-19-Patienten, die im Universitätsspital Lausanne (CHUV) behandelt wurden [24]. DeepBreath erkennt COVID-19 hingegen anhand von Atemgeräuschen, die mit einem digitalen Stethoskop abgehört werden. Alain Gervaix, Kinderarzt und Infektiologe, analy-

11.4

Medizinische Anwendungen

137

siert bereits seit 2017 Atemgeräusche seiner Patienten, um das sogenannte Pneumoskop, ein intelligentes digitales Stethoskop, zu entwickeln. Die Idee dafür erhielt Gervaix, weil er bemerkte, dass er durch Abhorchen der Lunge anhand der Geräusche Asthma, eine Bronchitis oder eine Lungenentzündung erkennen kann. Erste Ergebnisse des DeepBreath-Algorithmus deuten darauf hin, dass bereits vor dem eigentlichen Ausbruch von COVID-19 Veränderungen im Lungengewebe erfolgen. Dies würde besonders dabei helfen, Menschen mit einer asymptotischen COVID-19-Infektion zu erkennen, die ebenfalls infektiös ist. Studien zeigen, dass bei bis zu 80 % aller SARSCoV-2-Infektionen keine Symptome auftreten. Laut Hartley „wollen die Wissenschaftler robuste und vertrauenswürdige Instrumente schaffen, die auch nach der Pandemie noch von Nutzen sind.“ Einsatzbereit sein soll die Anwendung von DeepBreath bereits Ende des Jahres.

11.4

Medizinische Anwendungen

Auch im Bereich der Medizin hält die Künstliche Intelligenz mehr und mehr Einzug. Dabei soll sie den Mediziner bei Diagnose und Therapie zum Wohle des Patienten unterstützen, ohne den Bezug zu ihm zu verlieren. Bei der Darmspiegelung mit KI-Unterstützung ändert sich für den Patienten nichts. Wie bisher wird nach der Darmreinigung das flexible Koloskop in den Darm eingeführt. Die Bilder aus dem Darminneren werden auf einen Monitor ausgegeben und vom Arzt auf Veränderungen hin untersucht. Die einfach per Knopfdruck zugeschaltete Software erkennt jedoch problematische Stellen zusätzlich. So können bis zu 15 % vom Arzt nicht wahrgenommene Veränderungen weitergehend begutachtet und im Zweifelsfall entfernt werden. Es gibt aber auch schon Systeme, die ohne Koloskop auskommen und einen kleinen Roboter mit Kamera und Operationswerkzeug im sauberen Darm bewegen [69]. Abb. 11.3 zeigt die Anwendung dieser Vorgehensweise – das Bild stammt aus der „Neuen Züricher Zeitung“. Eine wichtige Eigenschaft der Bildverarbeitung durch Computerprogramme besteht darin, dass man die Aufnahmen stark vergrößern kann; sie können das Niveau eines Mikroskops erreichen. Die Kombination von 3D-Druck und Bildverarbeitung hat man jetzt auf die Herstellung künstlicher Herzen ausgedehnt. Wissenschaftler der Universität Tel Aviv haben im Fachmagazin Advanced Science einen Prototyp eines künstlichen Herzens vorgestellt. Das Herz aus dem 3D-Drucker besteht aus menschlichem Gewebe, derzeit können sich die Zellen aber noch nicht synchron zusammenziehen. Das Organ besitzt die Größe eines Hasenherzens und verfügt ansonsten über alle Eigenschaften eines menschlichen Herzens und hat bereits einzelne Kammern. Es handelt es sich dabei um das erste vollständige Herz, das Wissenschaftler per 3D-Druck aus menschlichem Gewebe erzeugen konnten. In Zukunft könnten so gefertigte Organe Personen helfen, die aktuell noch auf schwer verfügbare Spenderorgane warten müssen.

138

11 Bildverarbeitung

Abb. 11.3 Innere Organe des Menschen

Laut Tal Dvir, Biotechnologe und Leiter der Studie, ist das Herz aktuell mit dem Herz eines menschlichen Fötus vergleichbar. Neben der höheren Verfügbarkeit bietet das künstliche Herz noch den Vorteil, komplett kompatibel mit dem Empfänger zu sein. Bei Spenderorganen kommt es in vielen Fällen dazu, dass das Organ vom Körper abgestoßen wird und die Funktion des Immunsystems beim Empfänger unterdrückt werden muss. Da das künstliche Herz aus Fettzellen des späteren Empfängers besteht, ist eine vollständige Biokompatibilität gegeben. Im Zuge der Studie haben die Wissenschaftler Fettgewebe aus dem Bauch eines Patienten per Biopsie entnommen und dann die zellulären und azellulären Bestandteile voneinander getrennt. Die Fettzellen wurden dann zu pluripotenten Stammzellen umprogrammiert, die verschiedene Typen von Körperzellen, darunter auch Herzzellen, beinhalten. Aus dem azellulären Material wie Glykoproteinen und Kollagen haben die Wissenschaftler ein Hydrogel erzeugt, das als Stützgewebe für das künstliche Herz genutzt wurde. Anschließend haben die Wissenschaftler aus den Endothel- und Herzmuskelzellen und dem Hydrogel eine Bio-Tinte erzeugt, aus der der 3D-Drucker Gewebeteile (cardiac patches) erstellt hat. In der Vergangenheit wurden diese Gewebeflicken nach Herzinfarkten eingesetzt, um abgestorbene Stellen menschlicher Herzen mit neuen Zellen zu versorgen. Nun ist es erstmals gelungen, aus den Flicken ein vollständiges neues Organ zu erzeugen. Laut Dvir ist es „grundsätzlich möglich, mit der Technologie auch ein größeres Herz für Menschen herzustellen.“ Bevor Herzen aus dem 3D-Drucker kranken Personen helfen können, werden aber noch einige Jahre Forschungsarbeit nötig seien. Das aktuell hergestellte Herz gleicht optisch zwar bereits einem natürlichen Herzen, die Funktion ist aber noch nicht vollständig gegeben.

11.4

Medizinische Anwendungen

139

Grundsätzlich kontrahiert der künstliche Herzmuskel zwar bereits, die zur Pumpfunktion nötige Koordination zwischen den einzelnen Herzkammern funktioniert aber nicht. Sollten die Wissenschaftler dieses Problem lösen, könnten Herzen aus dem 3D-Drucker auch in der Praxis genutzt werden. Die israelischen Wissenschaftler gehen davon aus, dass Tierversuche mit Hasen und Ratten innerhalb eines Jahres erfolgen können. Klinische Studien mit Menschen sollen erst in einigen Jahren erfolgen. Aktuell gehören Herzkrankheiten weltweit zu den häufigsten Todesursachen, die aufgrund von mangelnden Spenderorganen, auch wenn sie erkannt wurden, oft nicht behandelt werden können. Forschern des Massachusetts Institute of Technology (MIT) haben mit Hilfe einer Künstlichen Intelligenz ein ganz besonderes Antibiotikum entdeckt, das anders als die meisten Antibiotika keine herkömmliche Variation eines bereits bekannten Arzneimittels ist. Die Forscher tauften das hocheffektive Antibiotikum Halicin. Der Name leitet sich von dem Computer HAL 9000 aus dem Kultfilm 2001 ab [28]. Das Antibiotikum tötet Bakterien ab, indem es deren Fähigkeit einschränkt, ein elektrochemisches Potenzial aufrechtzuerhalten, mit dem Moleküle zur Energiespeicherung produziert werden. Die Ergebnisse der Tests mit dem entwickelten Mittel sind erstaunlich. So konnten beispielsweise E.-coli-Bakterien selbst nach 30 Tagen keine Resistenzen gegen das neue Antibiotikum entwickeln. Zum Vergleich: Beim konventionellen Antibiotikum Ciprofloxacin passten sich die Bakterien bereits nach drei Tagen an das Medikament an. Die Algorithmen sind in der Lage, molekulare Strukturen mit gewünschten Eigenschaften, wie in diesem Fall das Abtöten von Bakterien, zu finden. Die neuronalen Netzwerke des Systems erlernen die Darstellung der Moleküle automatisch und ordnen diese in bestimmte Bereiche ein, womit sich das Verhalten sehr treffsicher vorhersagen lässt. Die Forscher trainierten daraufhin das System mit 2500 Molekülen, von denen 1700 denen bereits bekannter Arzneimittel entsprachen und die restlichen 800 auf natürliche Produkte zurückfielen. Mit dieser Basis hat der Computer eine Bibliothek aus rund 6000 möglichen Kombinationen entwickelt, worunter sich auch das neu entdeckte Antibiotikum Halicin befand, welches sich im Test tatsächlich als hochwirksam und effizient herausstellte. Bis das neue Antibiotikum in der Humanmedizin eingesetzt werden kann, wird es erfahrungsgemäß noch einige Zeit dauern. Bei Mäusen konnte Halicin jedoch bereits beweisen, dass es einen problematischen Bakterienstamm, mit dem sich US-Soldaten häufig im Mittleren Osten infizieren, problemlos bekämpfen kann. Die Forscher sind sehr zuversichtlich, dass das neue System sehr positiv auf die zukünftige Arzneimittel-Entwicklung auswirken wird. Nur um das Potenzial des Systems zu sehen, haben die Forscher das neuronale Netz mit einer Datenbank mit mehr als 100 Mio. Molekülen gefüttert. Bereits nach kurzer Zeit schlug das Programm bereits 23 potenziell hochwirksame neue Medikamente vor. In Zukunft soll das System aber nicht nur völlig neue Arzneimittel entwickeln, sondern auch bestehende Medikamente so modifizieren, dass sie weniger Nebenwirkungen und eine erhöhte Wirkfähigkeit besitzen. Ein neues Berechnungsmodell prognostiziert präzise den Leistungsverlust von Sportlern bis in das hohe Alter. Eine Arbeitsgruppe um Bergita Ganse, Stiftungsprofessorin für inno-

140

11 Bildverarbeitung

vative Implantatentwicklung an der Universität des Saarlandes, hat ein Berechnungsmodell entwickelt, das den körperlichen Abbau von Menschen im Alter bestimmen soll. „Wir haben uns gefragt, ob es uns gelingen kann, die Leistungsfähigkeit eines Sportlers bis ins Seniorenalter hinein prognostizieren zu können, und zwar mit einer einzigen Messung“, erklärt Ganse. Laut der Publikation im Fachmagazin Geroscience trainierten die Wissenschaftler dazu ein Programm mit Daten von fast 5000 schwedischen Leichtathleten, deren Leistungen in der Swedish Veteran Athletics Datenbank zwischen 1901 und 2021 dokumentiert wurden. Insgesamt konnten die Wissenschaftler für ihre Studie 21.000 Datenpunkte verwenden. Im Mittel waren von jedem Sportler also vier Messdaten vorhanden. Berücksichtigt wurden ausschließlich Laufdisziplinen, weil sich bei anderen Disziplinen wie Speer- oder Diskuswurf das Gewicht der Wurfgeräte je nach Alter der Sportler ändert. Dies erschwert die Vergleichbarkeit und würde eine Prognose des Leistungsabfalls im Alter ungenauer machen. „Läufer hingegen laufen 100, 200, 800 Meter, egal, ob sie 23, 40 oder 70 Jahre alt sind“ [25]. Wie Ganse erklärt, ist es den Wissenschaftlern als zentrales Ergebnis der Studie gelungen, ein Modell zu entwickeln, das den Leistungsabfall der Sportler bis ins Seniorenalter mit hoher Genauigkeit vorhersagt. Die dabei erreichte Präzision ist deutlich höher als bei älteren Modellen, die in den meisten Fällen auf einem linearen Abfall der Leistungsfähigkeit basieren. „Überrascht hat uns dabei die Feststellung, dass Athleten, die sehr leistungsstark und jung waren, relativ gesehen den größten Leistungsabfall zu verzeichnen hatten, was auch auf ältere Athleten mit geringerer Ausgangsleistung zutrifft. Die niedrigste Abnahmerate haben wir bei leistungsstarken Athleten mit hohem Ausgangsalter festgestellt“. Die Studie zeigt überdies, dass Menschen auch im höheren Alter noch mit Sport anfangen sollten. Personen, die in ihrer Disziplin in fortgeschrittenerem Alter eine gute Zeit liefen, waren mit hoher Wahrscheinlichkeit auch im noch höheren Alter deutlich leistungsfähiger als ihr Altersdurchschnitt. Die Bildverarbeitung hat gegenwärtig vielleicht die größte Bedeutung für das tägliche Leben, für die Medizin und den Einsatz von Robotern u. v. a. m. Es gibt ausgezeichnete Lehrbücher, Softwarepakete, Gerätesysteme und die Möglichkeiten zu einer umfassenden und soliden Weiterbildung.

11.5

Weitere Anwendungen

In vielen Städten und Ländern werden wichtige Sraßen und Plätze durch Kameras gesichert. Mit Hilfe eines lernenden Programms kann man die Steuerung der Verkehrsampeln so einstellen, dass die Wartezeit der Fahrzeuge verringert wird; damit wird die Abgasmenge zum Teil wesentlich reduziert. Auch Staus lassen sich auf diese Weise vermeiden oder verringern (Abb. 11.4). Singapore macht seinem Ruf als extrem saubere Stadt alle Ehre. Selbst skeptische Naturen werden weder auf den Straßen noch in den U-Bahnen, nicht einmal in öffentlichen Toiletten,

11.6

Die Grundlagen der Bildverarbeitung

141

Abb. 11.4 Steuerung des Straßenverkehrs

auf Müll oder Zigarettenkippen stoßen. Grund dafür ist die rigorose Politik, die der Stadtstaat in Sachen Sauberkeit seit Jahren konsequent verfolgt: Auf Verstöße gegen Vorschriften, die das achtlose Wegwerfen von Zigarettenkippen oder Müll in der Öffentlichkeit unter Strafe stellen, folgen drakonisch anmutende Geldstrafen. Das Prinzip zeigt Wirkung: Wer Müll auf die Straße wirft, bezahlt 1000 Singapore-Dollar. Ausländer haben das Land am nächsten Tag zu verlassen. • Aufgrund des erreichten Niveaus in der Bildverarbeitung kann man blinde Personen sehr unterstützen. Man gibt ihnen eine Kamera, die die ganze Umgebung erfasst. Diese erkennt, wenn Straßen überquert werden können oder wenn Hindernisse auf dem Weg auftreten. Sie führt ihren Träger sicher zum Einstieg eines Busses oder einer Straßenbahn. Zusätzlich ist die Kamera mit einem sonst bei Autos verwendeten Navigationssystem ausgestattet. Auf diese Weise kommt die behinderte Person relativ gut zum Ziel. Ihr Leben ist beschwerlich, aber doch relativ sicher. Manche derartige Systeme reagieren sogar auf akustische Eingaben. • Ein modernes Auto verfügt heute über eine größere Anzahl von Kameras und Mikroprozessoren. Beim autonomen Fahren ist diese Ausrüstung voll verantwortlich für das sichere Fahren. Insbesondere erkennt es alle Verkehrszeichen und richtet sich danach. Die gleiche Einrichtung kann man auch in ein normales Fahrzeug einbauen. Der Fahrer denkt, dass er seine Fahrweise selbst bestimmt; die Beachtung der Gebots- und Verbotsschilder wird aber durch das vorhandene Computersystem erzwungen.

11.6

Die Grundlagen der Bildverarbeitung

Man kann immer von einer Rastergrafik ausgehen; das ist ein Bild, das bereits in digitaler Form vorliegt. Als Pixel werden die einzelnen Farbwerte der Rastergrafik bezeichnet sowie

142

11 Bildverarbeitung

Abb. 11.5 Ein typisches Pixelbild

die zur Erfassung oder Darstellung eines Farbwerts nötigen Flächenelemente bei einem Bildsensor bzw. bei einem Bildschirm mit Rasteransteuerung (Abb. 11.5) [59]. Jedes Pixel ist gekennzeichnet durch seine Form, seine Koordinaten und seinen Farbwert. Die im Pixel verwendete Kodierung der Farbe definiert sich unter anderem über den Farbraum und die Farbtiefe. Der einfachste Fall ist ein Binärbild, bei dem ein Pixel einen Schwarz-Weiß-Wert speichert. Die Bildschirmauflösung gibt an, aus wie vielen Pixeln die Bilddarstellung besteht. Je größer die Auflösung ist, desto mehr Details sind auf dem Bildschirm zu sehen oder desto mehr Platz steht für die Darstellung von Objekten zur Verfügung. Die Auflösung wird in unterschiedlichen Schreibweisen, Werten und Einheiten angegeben. Bei einer Digitalkamera verwendet man z. B. 12 Megapixel. Dabei handelt es sich um das Produkt aus den Seitenlängen (Breite × Höhe), beispielsweise 4256 × 2848 Pixel. Bei der Bildschirmauflösung ist aber nicht das Produkt interessant, sondern die Anzahl der Pixel pro Seitenlänge. Da wir die Breitbilddarstellung bevorzugen, sind unsere Bildschirme breiter als höher. Bekannte Bildschirmauflösungen sind VGA (640 × 480), Super-VGA (800 × 600) und Full-HD (1920 × 1080). Sowohl die Pixeldichte (und damit die örtliche Abtastrate) als auch die Größe der im Pixel gespeicherten Informationen (Farbtiefe, Farbkanäle, Lage, Form) sind in der Praxis begrenzt, weshalb ein Pixel nur eine Annäherung der Wirklichkeit darstellen kann. Die Pixel eines Bildsensors oder Bildschirms bestehen üblicherweise aus Flächen jeweils einer Grundfarbe (Rot, Grün und Blau). Bei Flüssigkristallbildschirmen (LCD = liquid crystal display) wird jedes sichtbare Bildelement mit einem Farbwert angesteuert. Die für die Grundfarben des Pixels zuständigen Flächen (Subpixel) sind oftmals aneinander anliegend

11.6

Die Grundlagen der Bildverarbeitung

143

angeordnet. Die im Vergleich zum Pixel feinere Subpixelstruktur kann dazu genutzt werden, um die horizontale Auflösung bei der Rasterung zu erhöhen (Subpixel-Rendering). Ferner sind auch dreieckige, unregelmäßig große, alternierend angeordnete oder zusätzliche weiße Subpixel möglich. Die physische Größe eines Pixels hängt vom Gerät ab. Die Pixeldichte eines Bildschirms oder Scanners wird in Pixel per inch (ppi) bzw. dots per inch (dpi) angegeben. Handelsübliche Computerbildschirme erreichen eine Pixeldichte von ungefähr 100 ppi, entsprechend 0,3 mm pro Pixel. Bei Fernsehern ist die Pixeldichte meist niedriger und bei neueren Smartphones um ein Vielfaches höher, während die Sensoren von Scannern und Digitalkameras mehrere Tausend ppi erreichen können. Die Anzahl der in Bildsensoren maximal verwendbaren Pixel wird oft in Megapixeln angegeben, wobei aber meist nur die Farbpunkte eines Bayer-Sensors gemeint sind und nicht die Bildpunkte. Das Seitenverhältnis eines Pixels auf dem Bildschirm (pixel aspect ratio) muss nicht zwingend 1:1 sein; die meisten Videonormen schreiben unregelmäßige Pixelseitenverhältnisse vor. Die Pixelgröße sowie der Pixelabstand im Verhältnis zur Bildauflösung haben entscheidenden Einfluss auf die Lesbarkeit und Erkennbarkeit von Texten und Grafiken auf Computermonitoren und Fernsehern (Abb. 11.6). Abb. 11.6 Eine Schwarz-Weiß-Darstellung

144

11.7

11 Bildverarbeitung

Die Bearbeitung von Bildern

Nach dem Scannen eines Bildes steht für das Bild eine digitale Form zur Verfügung, die man mit Hilfe von geeigneter Software weiter bearbeiten kann. Scanner sind meistens gleich in einen Drucker integriert. Ihre Qualität ist so gut, dass viele Behörden gescannte Dokumente akzeptieren. Wir erinnern an die Darstellung (rot, grün, blau) durch drei Bytes. Ihr Inhalt liegt zwischen (0,0,0) und (256,256,256). (0,0,0) liefert Schwarz, (256,256,256) entspricht Weiß. Sind die Byteinhalte gleich, dann erhält man unterschiedliche Graustufen. (127,127,127) liegt in der Mitte zwischen ganz schwarz und ganz weiß. In Abb. 11.7 wurden rot (oberer Kreis), grün (linker Kreis) und blau (rechter Kreis) jeweils mit dem Wert 30 verwendet. Durch die Überlagerung der verschiedenen Farben kommen schon ganz unterschiedliche Farbstufen zustande (Abb. 11.8 und 11.9).

Abb. 11.7 Die Verwendung von Farben mit dem Wert 30

Typography

LaTeX Design

Coding

Abb. 11.8 Die Erhöhung der Farbwerte auf 60

Typography

LaTeX Design

Coding

11.7

Die Bearbeitung von Bildern

145

Abb. 11.9 Die Erhöhung der Farbwerte auf 90

Typography

LaTeX Design

Coding

Mit dem Wert 90 erscheinen keine Schattierungen, die jeweiligen Farben sind deutlich ausgeprägt. Man kann sehen, dass der Kontrast der einzelnen Farben zunimmt. Das in [59] verwendete Programm PixelMath und jedes ähnliche Programm erlaubt unterschiedliche Operationen. Man kann ein Pixel mit den Bildschirmkoordinaten (x, y) vergrößern oder verkleinern. Man ersetzt die Werte (x, y) beispielsweise durch (2 · x, 2 · y), um das Bild zu vergrößern oder man verwendet (x/2, y/2, um das Bild zu verkleinern. Das kann man auch für die Werte einzeln tun, also ersetzt (x, y) durch (x/2, y) u. v. a. m. Man kann beispielsweise eine Bildergalerie herstellen, in der alle Bilder die gleiche Größe haben. Man muss aber beachten, dass sich die Anzahl der Pixel nicht erhöht, nur der Abstand zwischen ihnen wird kleiner oder größer. Das kann natürlich zu Effekten führen, die die Bildqualität ändern. Da ein kartesisches Koordinatensystem vorliegt, kann man alle Transformationen durchführen, die durch Formeln der Analytischen Geometrie ausgedrückt werden können. Man kann auch Polarkoordinaten verwenden, dort kann man sehr schön Effekte ausdrücken, die kreisförmig von einem Punkt ausgehen. Als Beispiel schauen wir uns die FischaugenProjektion (fisheye projection) an. Verwendet man Kugelkoordinaten, dann wird jeder Punkt im Raum durch (r , ϕ, θ ) bestimmt. Der Kugelradius r hat theoretisch keinen Einfluss auf die Abbildungsfunktion. So können alle Objekte auf genau einen Abstand skaliert werden, und es entsteht eine Umgebungskugel. Für den Radius der Umgebungskugel wählt man die Brennweite des Objektivs (r = f ). Bei kartesischen Koordinaten liegt die Bildebene bei z = f und berührt die Umgebungskugel am Pol (θ = 0). Auf das Bild werden ebene Polarkoordinaten angewendet. Die Lage eines Bilddetails ist durch (r , φ) beschrieben. In dieser geometrischen Anordnung lassen sich die Abbildungsfunktionen gut veranschaulichen und meist auch konstruieren.

146

11 Bildverarbeitung

Die Objektkoordinaten ϕ (Azimut) und θ (Polarwinkel) bilden sich in den Bildkoordinaten φ (Azimut) und r (Radius) ab. Das Prinzip ist das gleiche wie beim azimutalen Kartennetzentwurf der Erde. Dort gilt φ = ϕ. Jedoch wird die Umgebungskugel im Gegensatz zur Erdkugel von innen betrachtet. Die Vorderseite der Bildebene zeigt die Umgebung dann spiegelbildlich. Für die hier erforderliche rückwärtige Betrachtung sind die Bildkoordinaten (polar und 2D-kartesisch) anders orientiert, so dass die Azimut-0◦ -Richtung und der Azimut-Umlaufsinn sich zwischen Umgebung und Bild unterscheiden kann. Azimut-Winkelabstände werden unverfälscht abgebildet, und Abbildungsfunktion und Azimut beeinflussen sich nicht. Damit liegt eine azimutale Abbildung vor. Die Abbildungsfunktion g beschreibt, wie ein Objekt im Polarwinkel θ auf dem Bild um Radius r aus der Mitte verschoben erscheint. Das Objektiv hat die (zentrale) Brennweite f . Mit f = 1 wird aus g die normierte Abbildungsfunktion h. r = g(θ, f ) = f · h(θ ).

(11.1)

Seitliche Objekte erscheinen, auf dem Bild verglichen mit der Mittenlage, in anderer Größe, die sich meist auch meridional und sagittal unterscheidet. dh dθ h(θ ) . sagittale Skalierung: Sθ = sin(θ )

meridionale Skalierung: S M =

(11.2) (11.3)

Daraus lassen sich Raumwinkelskalierung S , lineare (effektive) Skalierung S und die Deformation D ableiten: S = Sm · Sθ  S = S Sm D= . Sθ

(11.4) (11.5) (11.6)

Die Fischaugen-Transformation ist durch das folgende Gleichungssystem definiert: winkeltreu: r = 2 · f · tan

θ 2

a¨ quidistant: r = f · θ θ fl¨achentreu: r = 2 · f · sin 2 orthografisch: r = f · sin(θ ).

(11.7) (11.8) (11.9) (11.10)

11.7

Die Bearbeitung von Bildern

147

Es gibt eine Vielzahl von Möglichkeiten, die verwendeten Parameter und Winkelfunktionen zu ändern, so dass eine Vielzahl von interessanten Projektionen entsteht für viele unterschiedliche Anwendungen. • Wissenschaftler und Ressourcen-Manager (z. B. Biologen, Förster, Geographen und Meteorologen) verwenden Fischaugen-Objektive, um in der Ökophysiologie einen halbkugelförmigen Bereich der Pflanzenvegetation zu erfassen oder die potenzielle kurzwellige Einstrahlung aus der Horizontüberhöhung (sky view factor) sowie der daraus abzuleitenden langwelligen Ausstrahlung zu prognostizieren. Aus der Analyse dieser Bilder können relevante Strukturparameter von Baumkronen abgeleitet werden wie Blattflächenindex (LAI), Blattwinkelverteilung und bodennahe Lichtverfügbarkeit. • Fischaugen-Objektive helfen auch bei der Auswertung des Waldzustands, der Erfassung der Überwinterungsplätze von Monarchfaltern und der Verwaltung von Weinbergen. • In der Topoklimatologie kann aus Horizontüberhöhung von Bodensenken die Entstehung von tiefen Frösten bei Inversionswetterlagen abgeleitet werden sowie Aussagen über Ursachen von Kaltluftsee-Phänomenen gemacht werden. • Aus Daten der aus georeferenzierten Fischaugen-Aufnahmen gewonnenen Parameter des sky view factors werden in der Stadtklimatologie meteorologische Zusammenhänge der Strahlungsbilanz städtischer Wärmeinseln untersucht. • Meteorologen bestimmen die Bewölkung (Bedeckungsgrad des Himmels). • Astronomen nehmen einen großen Teil des Himmels auf und erfassen damit Sternbilder, Milchstraße, Meteore, Polarlichter und die Lichtverschmutzung. • Viele Planetarien verwenden Fischaugen-Projektionsobjektive, um den Nachthimmel oder andere digitale Inhalte auf das Innere einer Kuppel zu projizieren. • Überwachungskameras mit Fischaugen-Objektiv können einen ganzen Raum auf einmal erfassen. Im Gegensatz zu schwenkbaren Kameras gibt es keinen zeitweise toten Bereich und keinen anfälligen Antrieb. • Video-Türsprechanlagen mit besonders großem Bildwinkel (Türspion-Funktion). • Beim IMAX-Dome-System (zuvor OMNIMAX‘) erfolgt die Filmaufnahme durch ein ’ Zirkular-Fischaugen-Objektiv und die Projektion des Kinofilms durch eine ähnliche Optik auf eine halbkugelförmige Leinwand. • Fotografen und Videofilmer verwenden Fischaugen-Objektive, um die Kamera für Action-Aufnahmen so nah wie möglich an die entscheidende Stelle zu bringen und dabei auch noch den Gesamtzusammenhang aufzunehmen. Z. B. wird beim Skateboarden auf das Brett fokussiert, und der Skater ist trotzdem im Bild zu sehen. • Das erste Musikvideo, das vollständig mit einem Fischaugen-Objektiv aufgenommen wurde, war der Song „Shake Your Rump“ von den Beastie Boys im Jahr 1989. • Flugsimulatoren und visuelle Gefechtsimulatoren verwenden Fischaugen-Projektionsobjektive, um eine lückenlose Umgebung für Piloten, Fluglotsen oder militärisches Personal zum Trainieren zu erstellen

148

11 Bildverarbeitung

• In der Computergrafik können Zirkular-Fischaugen verwendet werden, um ein Environment Mapping der physischen Welt zu erstellen. Ein komplettes 180-Grad-FischaugenBild kann die Hälfte eines kubischen Environment Mappings mit einem entsprechenden Algorithmus füllen. Environment Maps können verwendet werden, um 3D-Objekte eingebettet in virtuellen Panoramen wiederzugeben. Viele Bildtransformationen werden in der Malerei verwendet, beispielsweise die ZylinderAnamorphose. Ein so transformiertes Bild schaut normal aus, wenn es in einem zylindrischen Spiegel reflektiert wird. Ein berühmtes Beispiel ist Holbeins Bild „Die Gesandten“ (Abb. 11.10). • Im 17. Jahrhundert kam es zu einer Wiederbelebung der phantastischen anamorphotischen Bildsprache. Magische und religiöse Konnotationen wurden weitgehend aufgegeben, und die Bilder wurden als wissenschaftliche Kuriosität verstanden. Zwei wichtige Werke über Perspektive wurden veröffentlicht: Perspective (1612) von Salomon de Caus und Curious Perspective (1638) von Jean-Francois Niceron. Beide enthielten umfangreiche wissenschaftliche und praktische Informationen über anamorphotische Bilder. In Nicerons Werk werden drei Arten des großflächigen Anamorphismus erläutert: optisch

Abb. 11.10 Schräg unten befindet sich ein anamorphes Bild des Stehenden

11.7

Die Bearbeitung von Bildern

149

(horizontaler Blick), anoptisch (Blick nach oben) und katoptisch (Blick nach unten, z. B. von einem Zwischengeschoss aus). Auch eine konische Perspektive wird beschrieben. Gegen Ende des Jahrhunderts wurden die Techniken zur Erstellung anamorpher Bilder durch Charles Ozanams Mathematical Recreations weithin bekannt. Zwischen 1669 und 1685 wurden sowohl die perspektivische als auch die spiegelbildliche Anamorphose von den Jesuiten dem Kaiser K’ang-hi und den Mönchen der Pekinger Mission in China vorgestellt. Die chinesische Produktion anamorpher Bilder fand jedoch bereits während der späten Ming-Dynastie in großem Maßstab statt. Im Gegensatz zu dem im Westen verwendeten Rastersystem wurden die Bilder meist freihändig erstellt. Da sich die chinesischen Anamorphosen in erster Linie auf erotische Themen konzentrierten, ist ein jesuitischer Einfluss unwahrscheinlich. Es gilt als wahrscheinlich, dass die chinesischen katoptischen Techniken, die technisch nicht mit der geometrischen Anamorphose verwandt sind, die europäische Spiegelanamorphose beeinflussten und nicht umgekehrt. Barocke Wandmalereien nutzten häufig den Anamorphismus, um tatsächliche architektonische Elemente mit illusorischen gemalten Elementen zu kombinieren, um bei Betrachtung von einem bestimmten Standort aus einen nahtlosen Effekt zu erzielen. Die Kuppel und das Gewölbe der Kirche St. Ignazio in Rom, gemalt von Andrea Pozzo, stellten den Gipfel der Illusion dar. Da sich benachbarte Mönche über die Lichtverschmutzung beschwerten, wurde Pozzo beauftragt, die Decke so zu bemalen, dass sie wie das Innere einer Kuppel aussah, anstatt eine echte Kuppel zu bauen. Da die Decke flach ist, gibt es nur eine einzige Stelle, an der die Illusion perfekt ist und eine Kuppel unverzerrt aussieht. • Im 18. und 19. Jahrhundert hielt der Anamorphismus Einzug in den Bereich der Unterhaltung und des Zeitvertreibs und erfuhr die größte Verbreitung der Technik. Im 19. Jahrhundert erwachte das Interesse am Anamorphismus für architektonische Illusionen wieder, und auch klassische Themen kamen in Mode. Nachdrucke von Stichen aus der Renaissance wurden populär, ebenso wie politische, obszöne und populäre Themen. Edgar Allan Poes Kurzgeschichte „Ligeia“ beschreibt einen Raum, der mit „einfachen Monstrositäten“ gefüllt ist, die sich in „eine endlose Abfolge von … grässlichen Formen“ auflösen, während der Erzähler durch den Raum geht. Diese massenhafte Popularisierung sollte sich später auf die Surrealisten auswirken (Abb. 11.11). • Im 20. Jahrhundert wollten einige Künstler die Technik der Anamorphose aus ästhetischen und konzeptionellen Gründen erneuern. Während des Ersten Weltkriegs setzte Arthur Mole, ein amerikanischer Werbefotograf, anamorphotische Techniken ein, um patriotische Bilder von riesigen, versammelten Gruppen von Soldaten und Reservisten zu schaffen. Von einem Turm an ihrer Basis aus betrachtet, lösten sich die versammelten Menschen in erkennbare Bilder auf. Der surrealistische Künstler Salvador Dali setzte in seinen Gemälden und Werken extreme Verkürzungen und Anamorphosen ein. Ein Glasboden in einem Raum neben seinem Atelier ermöglichte radikale perspektivische Studien von oben und unten. Im Dali-Theater und -Museum gibt es eine dreidimensionale anamorphotische Wohnzim-

150

11 Bildverarbeitung

Abb. 11.11 Monstrositäten

merinstallation, das Mae West Lips Sofa (Abb. 11.12), das aus einem bestimmten Blickwinkel wie das Gesicht des Filmstars aussieht. • Im 20. Jahrhundert begannen die Künstler, mit der Perspektive zu spielen, indem sie unmögliche Objekte zeichneten. Zu diesen Objekten gehörten Treppen, die immer nach oben führen, oder Würfel, bei denen die Rückseite auf die Vorderseite trifft. Solche Werke wurden durch den Künstler M. C. Escher und den Mathematiker Roger Penrose populär gemacht. Obwohl sie als unmögliche Objekte bezeichnet werden, können solche Objekte wie der Necker-Würfel und das Penrose-Dreieck durch anamorphotische Illusion in 3D modelliert werden. Bei Betrachtung aus einem bestimmten Winkel erscheinen solche Skulpturen als die sogenannten unmöglichen Objekte (Abb. 11.13). • Der Ames-Raum wurde 1946 von dem amerikanischen Wissenschaftler Adelbert Ames Jr. erfunden. Bei Betrachtung durch ein Guckloch scheint der Raum eine normale Perspektive zu haben. Aus allen anderen Blickwinkeln erkennt man jedoch, dass der Raum aus unregelmäßigen Trapezen aufgebaut ist. Ähnliche Effekte wurden bereits in der Renaissance durch die Verwendung der beschleunigten Perspektive im Bühnenbild erzielt. Dazu gehörten Inszenierungen von Scamozzi (1588–1589), Furtenbach (1625), Sabbattini (1637) und Troili (1672). Einer der interessantesten Effekte eines Ames-Raums besteht darin, dass die verzerrte

11.7

Die Bearbeitung von Bildern

Abb. 11.12 Das Mae West Lips Sofa

Abb. 11.13 Eine unmögliche geometrische Konstruktion

151

152

11 Bildverarbeitung

Abb. 11.14 Verzerrungen in allen Richtungen

Perspektive Menschen und Gegenstände viel größer oder kleiner erscheinen lassen kann, als sie tatsächlich sind. Aus diesem Grund werden Ames-Räume im Kino häufig für praktische Spezialeffekte verwendet. Ein bekanntes Beispiel sind die Häuser im Auenland in den Filmen Der Herr der Ringe und Der Hobbit. Durch den Einsatz der erzwungenen Perspektive erschien die Figur des Gandalf viel größer als die Figuren von Frodo und Bilbo, ohne dass digitale Effekte zum Einsatz kamen (Abb. 11.14). • Cinemascope, Panavision, Technirama und andere Breitwandformate nutzen die Anamorphose, um ein breiteres Bild aus einem schmaleren Filmbild zu projizieren. Die Firma IMAX nutzt noch extremere anamorphotische Transformationen, um bewegte Bilder aus einem flachen Filmbild auf die Innenseite einer halbkugelförmigen Kuppel zu projizieren, in ihrem Omnimax- oder IMAX Dome-Verfahren. Die Technik der anamorphotischen Projektion ist häufig bei Texten zu sehen, die in einem sehr flachen Winkel auf die Fahrbahn geschrieben sind, z. B. Busspur oder Kinderüberquerung, damit sie von Autofahrern leicht gelesen werden können, die sonst Schwierigkeiten hätten, schräg zu lesen, wenn sich das Fahrzeug dem Text nähert; wenn sich das Fahrzeug fast über dem Text befindet, kann man seine wahre, ungewöhnlich längliche Form erkennen. In ähnlicher Weise wird in vielen Sportstadien, insbesondere beim Rugby-Fußball in Australien, für Firmenmarken geworben, die auf die Spielfläche aufgemalt sind; aus dem Blickwinkel der Fernsehkamera erscheinen die Schriftzüge als senkrecht im Spielfeld stehende Zeichen. Viele Schriftzüge auf Schaufenstern sind im Prinzip anamorphotisch, da sie spiegelverkehrt auf die Innenseite des Fensterglases geschrieben wurden [3, 59].

11.7

Die Bearbeitung von Bildern

153

Darstellungen mathematischer Formeln machen keine Schwierigkeiten: Man berechnet jeweils x ⇒ f (x), (x, y) ⇒ f (x, y) bzw. (x, y, z) ⇒ f (x, y, z). Die Bildverarbeitung ist für sich genommen schon ein grenzenloses Gebiet. Hier sind noch einige Konzepte gegeben, mit denen man sich vertraut machen kann, • Stereogramme • Autostereogramme • Steganographie: Der Einsatz von Steganographie hat Geheimhaltung und Vertraulichkeit zum Ziel. Informationen werden so verborgen, dass ein Dritter bei Betrachtung des Trägermediums keinen Verdacht schöpft. Damit ist zugleich erreicht, dass die verborgenen Informationen nicht Dritten bekannt werden, d. h., die Geheimhaltung ist (wie bei der Kryptographie) gewährleistet [55]. Die Einordnung der Steganographie wird in der Regel auf zwei mögliche Weisen vorgenommen: Entweder wird sie als Unterkapitel der Kryptographie betrachtet oder als eigenständiger Wissenschaftsbereich. Für Letzteres spricht, dass die Zielsetzung der Kryptographie (Geheimhaltung) nicht mit der Zielsetzung der Steganographie (vertrauliche Geheimhaltung durch Verbergen der Geheimhaltung) übereinstimmt. In der Praxis werden Kryptographie und Steganographie häufig kombiniert, da z. B. Chiffretexte für die Steganographie interessante statistische Merkmale aufweisen (Abb. 11.15). Das Einfügen der Nachricht ist nicht schwierig [59]. Die Pixel der zu versteckenden Nachricht werden nach einer bestimmten, meist durch eine mathematische Funktion definierten Vorschrift in das zweite Bild eingetragen und können dann auf der Empfängerseite wieder zusammengesetzt werden. • Sehr reizvolle Bilder entstehen durch die unterschiedlichen Fraktale, auch die Bildung von Mosaikbildern ist eine interessante Kunst. Designer arbeiten heute kaum noch mit

Abb. 11.15 Eine im Bild versteckte Nachricht

154

11 Bildverarbeitung

dem Zeichenbrett, sondern auf dem Bildschirm. Ein wesentlicher Vorteil besteht darin, dass man mit dem Zeichnen neuer Entwürfe nicht von vorn beginnen muss, sondern unvollendete, noch vorhandenen Entwürfe weiterverarbeiten kann. Sehr bedeutsam ist die Bildverarbeitung auch für die Arbeit der Polizei geworden. Die Erkennung von Mustern, der Vergleich von Gesichtern und Fingerabdrücken gehören zum Standard. Überwachungskameras und die Auswertung ihrer Bilder haben die Kleinkriminalität in wichtigen Geschäftsbereichen fast eliminiert. Für längere Abwesenheit kann man Überwachungskameras auch zu Hause installieren. Auch Kleidungsstücke aller Art werden am Computer entworfen. Graphics Suite X5 von CorelDRAW ist ein Programm, das das Arbeiten mit per Hand gezeichneten Grafiken sowie das Erstellen von virtuellen Textilien erleichtert. Verschiedene Funktionen wie das Umkolorieren eingescannter Kleiderzeichnungen oder von Fotografien sowie eine Baukastenfunktion erleichtern die Arbeit als Modedesigner. Londoner Forscher haben ein Programm auf den Stil von Künstlern trainiert. So können sie Werke rekonstruieren, die lange als unwiederbringlich verloren galten. In der Frühphase seiner Karriere war Pablo Picasso (1881–1973) offenbar so knapp bei Kasse, dass er sich keine neuen Leinwände leisten konnte. Also übermalte er bestehende Werke. So geschah es mit dem Werk „Die einsame kauernde Nackte“, die 1903 hinter der „Mahlzeit des Blinden“ verschwand. Im Hintergrund von Picassos berühmtem Bild „Das Leben“ ist die kauernde Frau noch zu sehen, aber es sollte mehr als hundert Jahre dauern, bis das Original wieder auftauchte (Abb. 11.16). Ausgangspunkt war eine Durchleuchtung des Originals per RöntgenFluoreszenz-Spektroskopie. Da auf diese Weise aber nur die Umrisse der kauernden Frau aufgedeckt werden konnten, war ein weiterer Schritt nötig. George Cann und Anthony Bourached, Forscher am University College London und Gründer von Oxia Palus, trainierten ein Convolutional Neural Network mit sämtlichen Bildern aus Picassos „Blauer Periode“. Daraus generierte die KI den typischen Stil, Pinselstrich und Farbwahl Picassos während dieser Schaffensphase und übertrug sie auf die Umrisse. Das Ergebnisse wurde dann auf einem 3D-Drucker in Originalgröße ausgedruckt – fertig war der neue alte Picasso. Jetzt

Abb. 11.16 Pablo Picasso: Die einsame kauernde Nackte

11.7

Die Bearbeitung von Bildern

155

hat das Londoner Start-up Oxia Palus einen weiteren Schritt der Rekonstruktion erreicht: Es hat das übermalte Bild rekonstruiert und mit einem 3D-Druck wiederhergestellt. Schon 2019 haben Cann und Bourached einen weiblichen Akt unter Picassos „altem Gitarrenspieler“ entdeckt und rekonstruiert – damals allerdings noch, ohne ihn auszudrucken. Nach dem gleichen Prinzip hat Oxia Palus mittlerweile auch übermalte Bilder von Leonardo da Vinci und Amedeo Modigliani rekonstruiert. Die Bilder wurden in Los Angeles vom Dienstleister Hero Graphics ausgedruckt. Das Werk Modiglianis ist über die Londoner Morf-Galerie in limitierter Auflage für 22.222,22 EUR zu erwerben. Die Käufer bekommen dabei nicht nur ein gerahmtes Stück Leinwand, sondern auch eine digitale Dokumentation der Herstellung sowie ein NFT als Echtheitszertifikat (Abb. 11.17). Auf ähnlichem Weg lassen sich aber auch ganz neue Werke alter Meister schaffen. Eine niederländische Werbeagentur hatte 2016 alle 346 bekannten Werke von Rembrandt statistisch analysiert und aus diesen Daten so etwas wie einen typischen Rembrandt destilliert – ein nach rechts blickendes Porträt eines mittelalten Mannes [18]. Es ist natürlich überhaupt nicht nötig, sich an früheren Gemälden zu orientieren. Gegenwärtig kann man sehen, dass eine neue Richtung „Malerei auf dem Bildschirm“ entsteht [8, 68] und alle anderen Künste (Musik, Dichtung) genauso betrifft. Unmittelbar ersichtlich sind viele Vorteile: Die digitale Kunst benötigt kein weiteres Material, keine Leinwand, keine Farben. Alle Zwischenergebnisse können gespeichert werden und später vielleicht als Vorlage für eine andere Versionen dienen u. v. a. m.

Abb. 11.17 Ein Bild im Stil von Modigliani (1884–1920)

Robotik

12

Roboter sind für Viele ein Kernpunkt der Künstlichen Intelligenz; besonders das Thema „Selbstfahrende Autos“ ist die Grundlage der Diskussionen um autonome, vom Menschen unabhängige Systeme. Die Meinungen schwanken sehr stark. Das Themengebiet der Robotik befasst sich mit dem Versuch, das Konzept der Interaktion eines Systems mit der physischen Welt auf Prinzipien der Informationstechnik sowie auf eine technisch machbare Kinetik zu reduzieren. Der Begriff des „Roboters“ beschreibt dabei ein System, das beide Konzepte in sich vereint, indem sie die Interaktion mit der physischen Welt auf der Basis von Sensoren, Aktoren und Informationsverarbeitung umsetzt. Kernbereich der Robotik ist die Entwicklung und Steuerung solcher Roboter. Sie umfasst Teilgebiete der Informatik, der Elektrotechnik und des Maschinenbaus. Ziel der Robotik ist es, durch Programmierung eine gesteuerte Zusammenarbeit von Roboter-Elektronik und Roboter-Mechanik herzustellen. Den Begriff wurde von dem Science-Fiction-Autor Isaac Asimov erfunden, erstmals erwähnt wurde er in dessen Kurzgeschichte Runaround im März 1942 im AstoundingMagazin. Nach Asimovs Definition bezeichnet Robotik das Studium der Roboter oder auch der Maschinen. • Schon in der Antike wurden erste Versuche mit Automaten durchgeführt (Abb. 12.1). Bekannt sind automatische Theater und Musikmaschinen von Heron von Alexandria. Mit dem Niedergang der antiken Kulturen verschwanden die wissenschaftlichen Erkenntnisse dieser Zeit. Um 1205 verfasste Al-Dschazari,¯ ein arabischer Ingenieur und Autor des 12. Jahrhunderts, sein Werk über mechanische Apparaturen, das „Buch des Wissens von sinnreichen mechanischen Vorrichtungen“, das auch als „Automata“ im westlichen Kulturbereich bekannt wurde. Leonardo da Vinci soll von den klassischen Automaten von Al-Dschazar¯i beeinflusst worden sein. So sind von ihm Aufzeichnungen und Skizzen aus dem 15. Jahrhundert bekannt, die als Pläne für Androiden interpretiert werden können. Der technische Kenntnisstand reichte allerdings nicht aus, um derartige Pläne zu realisieren. Um 1740 konstruierte und erbaute Jacques de Vaucanson einen flötenspielenden © Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_12

157

158

12 Robotik

Abb. 12.1 Eine Wasserorgel aus der Antike

Automaten, eine automatische Ente sowie den ersten programmierbaren vollautomatischen Webstuhl. • Ende des 19. Jahrhunderts wurden verstärkte Anstrengungen im Militärwesen unternommen (fernbedienbare Boote, Torpedosteuerungen). Der Schriftsteller Jules Verne (1828– 1905) schrieb eine Geschichte über eine Mensch-Maschine. 1920 führte der Schriftsteller ˇ Karel Capek den Begriff Roboter für einen Androiden ein. Nach Ende des Zweiten Weltkrieges erfuhr der Bereich der Robotik rasante Fortschritte. Ausschlaggebend dafür waren die Erfindung des Transistors 1947 in den Bell Laboratories, integrierte Schaltkreise und in weiterer Folge die Entwicklung leistungsstarker und platzsparender Computer (Abb. 12.2). • Ab etwa 1955 kamen erste NC-Maschinen auf den Markt (Geräte zur Steuerung von Maschinen), und 1954 meldet George Devol (1912–2011) in den USA ein Patent für einen programmierbaren Manipulator an. Dieses Datum gilt als Geburtsstunde für die Entwicklung von Industrierobotern. Devol war auch Mitbegründer der Firma Unimation, die 1960 den ersten hydraulisch betriebenen Industrieroboter vorstellte. 1968 wird am MIT der erste mobile Roboter entwickelt. In Deutschland wurde die Robotertechnik erst ab Anfang der 1970er-Jahre produktiv eingesetzt. Um 1970 wurde auch der erste autonome mobile Roboter Shakey (der Zittrige) am Stanford Research Institute entwickelt. • Im Jahr 1973 wurde an der Waseda-Universität Tokio die Entwicklung des humanoiden Roboters Wabot 1 gestartet. Im selben Jahr baute der deutsche Robotikpionier KUKA den weltweit ersten Industrieroboter mit sechs elektromechanisch angetriebenen Achsen,

12 Robotik

159

Abb. 12.2 Eine Drohne

bekannt als FAMULUS. Ein Jahr später (1974) stellte die schwedische ASEA ihren vollständig elektrisch angetriebene Roboter (IRb6) vor. • Im Jahr 1986 startete Honda das „Humanoid Robot Research and Development Program“. Ergebnis waren die humanoiden Roboterversionen P1 bis P3. Eine Weiterentwicklung stellte Honda 2004 in Form des humanoiden Roboters ASIMO vor. 1997 landete der erste mobile Roboter auf dem Mars (Sojourner). • Auch die Spielzeugindustrie hat sich der Robotik nicht verschlossen. Beispiele für derartige Erzeugnisse sind Lego Mindstorms, iPitara, Robonova oder der Roboterhund Aibo der Firma Sony. Die immer weiter zunehmende Automatisierung und Digitalisierung, verbunden mit ebenfalls wachsender Erfassung und zunehmendem Austausch von Daten, erfordert nach Auffassung von Zukunftsforschern und Philosophen grundlegende Fragestellungen zur Rolle der Menschen in diesem Prozess und in diesen Zusammenhängen. Bereits 1942 formulierte z. B. Asimov einen entsprechenden Kodex, die „Roboter-Gesetze“. • Es werden mittlerweile alternative Techniken zum Rad als Fortbewegungsmittel in der menschlichen Umgebung erforscht, wie zum Beispiel das Gehen auf sechs, vier, zwei oder auch einem Bein. Während Industrieroboter in einer auf sie angepassten Umgebung meist handwerkliche oder Handhabungsaufgaben erledigen, sollen derartige Serviceroboter Dienstleistungen für und am Menschen erbringen. Dazu müssen sie sich in der menschlichen Umgebung bewegen und zurechtfinden können. • Wie ein Spiel anmutend, aber mit ernsthafter wissenschaftlicher Forschung als Hintergrund sind Roboter-Fußballspiele zwischen Mannschaften gleichartiger Roboter. Ziel der Forscher ist es, bis 2050 eine Fußballmannschaft aus autonomen zweibeinigen Robotern zu entwickeln, die gegen den Fußball-Weltmeister antreten kann.

160

12 Robotik

• Industrieroboter werden meist in für den Menschen zu gefährlichen oder unzumutbaren Umgebungen eingesetzt. Moderne Roboter erledigen heute stupide Fließbandarbeit schneller und wesentlich genauer als ein Mensch und können ihn in immer mehr Bereichen ersetzen. Autos werden heutzutage mit starker Beteiligung von Robotern gebaut, und auch ein moderner Mikroprozessor wäre ohne einen Roboter nicht mehr herstellbar. Serviceroboter werden seit einiger Zeit eingesetzt, um den Menschen den Alltag zu erleichtern oder um sie zu unterhalten, wie zum Beispiel der Robosapien. Es gibt Haushaltsroboter, die in der Lage sind, Staub zu saugen, den Boden zu wischen oder den Rasen zu mähen. Sie sind zwar nur auf eine einzige Aufgabe spezialisiert, können diese aber relativ autonom durchführen. Forschungsroboter erkunden unter anderem ferne Planeten oder Katastrophengebiete und dringen in Vulkane oder Abwasserrohre vor. Sie werden auch für unterschiedlichste Detektionsmissionen im marinen Bereich verwendet. Es gibt Konzepte und erste Prototypen für Kryobots und Hydrobots, die zukünftig in der Raumfahrt eingesetzt werden. Auch gibt es Überlegungen, Roboter für Proben-RückholMissionen und Asteroidenbergbau einzusetzen. • In der Medizin werden Roboter für Untersuchungen, Operationen und Rehabilitation eingesetzt und verrichten einfache Aufgaben im Krankenhausalltag. Ein Prototyp für winzige Nanoroboter, die sich im Blutkreislauf bewegen können, wurden bereits 2004 an der ETH Zürich an einem Auge getestet. Sie werden durch Magnetfelder von außen gesteuert. Der Assistenzroboter FRIEND, der am Institut für Automatisierungstechnik der Universität Bremen entwickelt wurde, soll behinderte und ältere Personen bei den Aktivitäten des täglichen Lebens (zum Beispiel dem Zubereiten einer Mahlzeit) unterstützen und ihnen eine Reintegration ins Berufsleben ermöglichen. • Erste Unterhaltungsroboter wie der Roboter-Hund Aibo von Sony sind ein Schritt zum elektronischen Haustier. Neben Aibo gibt es weitere Roboterprodukte der Spielzeugund Unterhaltungsindustrie, die mit einem Computer in einer meist einfachen Sprache programmiert werden können, um zum Beispiel einer Lichtquelle oder einem Strich auf dem Boden zu folgen oder farbige Bauklötze zu sortieren. • Ein interessantes Hobby ist der Eigenbau von Robotern. Dies kann unterstützt durch vorbereitete Roboterbausätze erfolgen oder aber nach freier Phantasie. In diesem Fall muss man beispielsweise ein autoähnliches Fahrzeug selbst konstruieren, mit geeigneten Sensoren Entfernungen zum Ziel oder die Farbe des Untergrundes bestimmen und aus diesen Messergebnissen einen Kurs ermitteln, den das Fahrzeug fahren soll. Die eigentliche Aufgabe besteht darin, die Sensordaten mit Geschwindigkeit und Richtung des Fahrzeugs zu verknüpfen. Das erfolgt in einem Mikrocontroller, der selbst programmiert werden muss. Die erforderliche Elektronik wird in unterschiedlicher Ausführung angeboten. Bekannte, aber auch sehr aufwendige Vorbilder sind die Rover. • Roboter sind auch ein beliebter Science-Fiction-Gegenstand. Dort gibt es menschenartige Roboter, die über Künstliche Intelligenz verfügen. Eine zusätzliche, bereits in sehr einfacher Form realisierte Variation des Roboters ist der Cyborg als Verschmelzung von Roboter-Technologie mit der menschlichen Anatomie.

12 Robotik

161

Androiden, künstliche menschenähnliche Wesen, können Roboter sein, Roboter müssen aber nicht unbedingt Androiden sein. Ein erster weitentwickelter Ansatz ist der Roboter ASIMO der Firma Honda. • Roboter sind auch zunehmend in der Bildung ein wichtiges Thema. Es gibt Roboter für die Grundschule, Roboter für die Sekundarschule oder für weiterführende Schulen, Roboter für die Hochschulen und Roboter für Berufsausbildung. Eine Sonderform der Roboter für Bildung sind Rover, die zum Beispiel im Rahmen von Raumfahrtbildung an Einrichtungen in Deutschland entwickelt und erprobt werden. Meist sind diese spezialisierten Roboter als Rover für ein konkretes Ziel oder einen Wettbewerb vorgesehen. Auf der Maker Faire 2016 in Berlin wurde ein Rover mit dem Namen „EntdeckerRover“ ER2 vorgestellt, der für Bildung und Freizeit geeignet ist und auch für die verschiedenen Bildungsbereiche angepasst werden kann. Andere Systeme gibt es meist in Plastik von anderen Herstellern und Projekten. • Roboter und die Sonderform Rover unterstützen in Deutschland und Österreich meist die Bildung im Bereich der MINT-Fächer. Es geht also auch um die Förderung von Naturwissenschaft und Technikbildung bzw. Technologiewissen sowie die Themen Informatik und Mathematik. Mathematik hat insbesondere Bedeutung für anspruchsvolle Roboter und Rover, wie zum Beispiel im Raumfahrt- und Luftfahrtbereich. • Sicherheitsrichtlinien für Roboter ergeben sich aus dem jeweiligen Einsatzbereich und dem Robotertyp. Industrieroboter werden durch gesetzlich vorgeschriebene Sicherheitsvorkehrungen wie Käfige, Gitter, Lichtschranken oder andere Barrieren abgesichert. Mit zunehmender Autonomie jedoch benötigen gegenwärtige oder zukünftige, komplexere Robotersysteme den Umständen entsprechend angepasste Sicherheitsvorkehrungen. Durch den vielfältigen Einsatz von Robotern ist es jedoch schwierig, universelle Sicherheitsregeln für alle Roboter aufzustellen. Auch die vom Science-Fiction-Autor Isaac Asimov in seinen Romanen aufgestellten „Drei (bzw. vier) Regeln der Robotik“ (Robotergesetze) können nur als ethische Richtlinien für eine mögliche Programmierung verstanden werden, da unvorhersehbare Situationen vom Roboter nicht kalkulierbar sind. Je autonomer ein Roboter im Umfeld des Menschen agiert, desto größer ist die Wahrscheinlichkeit, dass Lebewesen oder Gegenstände zu Schaden kommen werden. Ebenso ist die Vorstellung umstritten, dass Roboter dem Menschen Schutz bieten können, – nicht zuletzt aufgrund der Unschärfe des Begriffes Schutz. Dass hier keine absoluten Werte programmiert werden können, zeigt sich parallel in der Diskussion über das Spannungsverhältnis zwischen Schutz und Bevormundung. Diese Problematik wird zum Beispiel im Film I, Robot thematisiert, wo aufgrund einer berechneten „Überlebenswahrscheinlichkeit“ ein Mann durch einen Roboter aus einem ins Wasser gestürzten Auto gerettet wird, während ein Kind in einem ebenfalls sinkenden Auto ertrinkt. Juristen sind im Umfeld dieser neuen, sich schnell entwickelnden Technologien sehr gefragt. Es ist erstaunlich, dass erst ab 2012 Gesetze bzgl. der Robotik verabschiedet wurden, dann aber gleich eine ganze Menge.

162

12 Robotik

„Ein Roboter ist ein technisches System mit einem eingebetteten Computersystem; die Systeme stehen miteinander in Wechselwirkung. Dabei hat das Computersystem die Aufgabe, das technische System, in das es eingebettet ist, zu steuern, zu regeln oder zu überwachen“ (EuGH, 3. Juli 2012 – C-128/11 = NJW 2012, 2565). Ein eingebettetes System enthält immer „eingebettete Software“. Ohne diese Software wäre ein Roboter nicht zu verwenden. Bereits vor der EuGH-Entscheidung (EuGH, 3. Juli 2012 – C-128/11 = NJW 2012, 2565) zur Weiterveräußerung von Gebrauchtsoftware wurde im TRIPS-Abkommen und WIPOUrheberrechtsvertrag (WCT) festgelegt, dass Hardware mit eingebetteter Software frei gehandelt werden darf (Vander, CR 2011, 77 (78–79)). Es besteht zudem auch Einigkeit darüber, dass eingebettete Software auch nicht als wesentliches Element einer Vermietung zu zählen ist und somit für Vermietung von Hardware (z. B. Roboter), die von einer eingebetteten Software gesteuert wird, kein Vermietrecht in Sinne von § 69 c Abs. 3 UrhG explizit übertragen werden muss, auch wenn einige Autoren auf eine Einzelfallbetrachtung verweisen (Grützmacher in Wandtke/Bullinger, UrhR, 3. Auflage 2009, § 69 c Rn. 48). Im Ergebnis bleibt daher festzuhalten, dass Roboter veräußert und vermietet werden dürfen, ohne dass es zusätzlicher Rechte bedarf. In Deutschland lassen sich Patente durch das Patentgesetz (PatG) schützen, in der EU schützt das Europäische Patentübereinkommen (EPÜ) Patente. Das PatG definiert im ersten Abschnitt (§§ 1 – 25 PatG) ein Patent. Gem. § 1 Abs. 1 PatG werden Patente für Erfindungen auf allen Gebieten der Technik erteilt, sofern sie neu sind, auf einer erfinderischen Tätigkeit beruhen und gewerblich anwendbar sind. Nach § 3 Abs. 1 PatG und Art. 54 EPÜ gilt eine Erfindung als neu, wenn sie nicht zum Stand der Technik gehört. Der Stand der Technik umfasst alle Kenntnisse, die vor dem für den Zeitrang der Anmeldung maßgeblichen Tag durch schriftliche oder mündliche Beschreibung, durch Benutzung oder in sonstiger Weise der Öffentlichkeit zugänglich gemacht worden sind; vgl. § 3 Abs. 1 S. 2 PatG. Bei Robotern muss also der Patentanmelder darlegen, dass sein Roboter neue Funktionen hat, welche nicht zum Stand der Technik gehören (z. B. zur Lauffähigkeit von Robotern). Des Weiteren muss es sich um eine Erfindung handeln. Patentierbare Erfindungen sind technische Lehren zum planmäßigen Handeln, die einen kausal übersehbaren Erfolg unter Einsatz beherrschbarer Naturkräfte ohne Zwischenschaltung verstandesmäßiger Tätigkeiten reproduzierbar herbeiführen (BGH, 27. März 1969 – X ZB 15/67 = BGHZ 52, 74; NJW 1969, 1713; GRUR 1969, 672). Eine technische Weiterentwicklung eines Roboters ist nur dann eine patentierbare Erfindung, wenn sie sich für „den durchschnittlichen Fachmann, der den gesamten Stand der Technik kennt“ (eine Rechtsfiktion, keine reale Person), nicht in naheliegender Weise aus dem Stand der Technik ergibt, vgl. § 4 S. 1 PatG, Art. 56 S. 1 EPÜ. D. h., es fehlt an Erfindungshöhe, wenn man von diesem Fachmann erwarten kann, dass er, ausgehend vom Stand der Technik, auf diese Lösung alsbald und mit einem zumutbaren Aufwand gekommen wäre, ohne erfinderisch tätig zu werden. Im Bereich der Robotik sind somit nur Erfindungen patentierbar, die einen deutlichen Fortschritt in der Entwicklung von Robotertechnologien darstellen. Dies muss sich aber nicht auf den Roboter als Ganzes

12 Robotik

163

beziehen, sondern kann sich auch auf einzelne Komponenten, wie ein Roboterarm oder eine Funktionsweise zur Fortbewegung beziehen. Zudem muss die Erfindung gem. § 5 Abs. 1 PatG, Art. 57 EPÜ auf irgendeinem gewerblichen Gebiet anwendbar sein. Dabei wird der Begriff der gewerblichen Anwendbarkeit vom Europäischen Patentamt weit ausgelegt und ist in der Praxis von untergeordneter Bedeutung. Ausreichend ist es, dass die Erfindung in einem technischen Gewerbebetrieb hergestellt oder sonst verwendet werden kann. Es kommt auch nicht darauf an, ob man mit der Vorrichtung oder dem Verfahren „Geld machen“ kann, maßgebend ist allein, dass der beanspruchte Gegenstand außerhalb der Privatsphäre verwendet werden kann. Die meisten Erfindungen im Bereich der Robotik sind auf einen kommerziellen Erfolg ausgerichtet, sei es z. B. bei der Erschaffung von Haushaltshilfen oder Roboter für Operationen. Dies liegt schon in der Natur der Sache, da die Erfindung von Robotertechnologien enorme Investitionen verlangen und diese von den Investitionsgebern mit Gewinn zurückgefordert werden. Die maximale Laufzeit eines Patents beträgt gem. § 16 PatG und Art. 63 Abs. 1 EPÜ 20 Jahre ab dem Tag nach der Anmeldung. Gemäß § 16a PatG, Art. 63 Abs. 2 b) EPÜ i. V. m. VO (EWG) Nr. 1768/92 kann allerdings für Erfindungen, die erst nach aufwendigen Zulassungsverfahren wirtschaftlich verwertet werden können, ein ergänzendes Schutzzertifikat erteilt werden, das die Patentlaufzeit dann um maximal fünf Jahre verlängert. Durch die langen Entwicklungszyklen in der Robotik sollte dies regelmäßig Anwendung finden. Nach § 1 Abs. 2 und 3 PatG und Art. 52 Abs. 2 und 3 EPÜ können wissenschaftliche Theorien und mathematische Methoden, wie Baupläne für einen Roboter, nicht als Patent geschützt werden. Das Gleiche gilt für Design und Erscheinungsbild eines Roboters, da ästhetische Formschöpfungen nicht patentrechtlich geschützt werden können. Ein Fehlverhalten eines Roboters, stammt es nun aus dem Autonomiebestreben oder einem sonstigen Grund, zieht immer eine Reihe von Haftungsfragen nach sich. Diese können sich zum einen aus einer vertraglichen Pflichtverletzung gem. § 280 Abs. 1 BGB, zum anderen aus dem Deliktsrecht nach § 823 BGB gegenüber fremden Dritten oder auch aus dem Produkthaftungsgesetz ergeben. Wird ein Roboter im Rahmen eines Vertragsverhältnisses (z. B. Miete) bei einer anderen Vertragspartei tätig und erzeugt der Roboter dabei Schäden bei dieser Partei, so stellt dies sicherlich eine Pflichtverletzung i. S. v. § 280 BGB dar. Ein durch die Medien bekannt gewordener Fall ist die Verwendung des ROBODOC von Integrated Surgical System, welches zu zahlreichen Schadensersatzforderungen geführt hat (BGH, 13. Juni 2006 – VI ZR 323/04 = BGHZ 168, 103; NJW 2006, 2477). Gem. § 249 S. 1 BGB hat der Schuldner, der zum Schadensersatz verpflichtet ist, den Zustand herzustellen, der bestehen würde, wenn der zum Ersatz verpflichtende Umstand nicht eingetreten wäre. Dabei soll der Schädiger allen Schaden ersetzen, der durch das zum Ersatz verpflichtende Ergebnis eingetreten ist (sogenannte Totalreparation). Außer der Regel der Totalreparation wird in § 249 S. 1 BGB noch ein weiterer Grundsatz des Schadensrechts ausgedrückt, nämlich das Prinzip Herstellung oder des Naturalersatzes. Hierbei soll der Schädiger den Zustand in Geld herstellen, der ohne das Schadensereignis bestünde.

164

12 Robotik

Eine in der Zukunft sicherlich immer wichtigere Frage wird sein, wer für die von einem Roboter auf Basis Künstlicher Intelligenz gefällte Entscheidung haftet. So ist sicherlich zu vertreten, dass derjenige haften muss, der die Roboter verwendet, da er für die Verkehrssicherheit des eingesetzten Roboters haftet und für entsprechende Sicherungsmaßnahmen sorgen muss. In einem vertraglichen Verhältnis ergeben sich diese sicherlich aus den allgemeinen Sorgfaltspflichten des Schuldverhältnisses, vgl. § 280 Abs. 1 BGB, gegenüber Dritten sicherlich aus dem Deliktsrecht, §§ 823 ff. BGB. Grundsätzlich könnte der Hersteller nach dem Produkthaftungsgesetz (ProdHaftG) haften. Voraussetzung der Produkthaftung ist gem. § 1 Abs. 1 S. 1. ProdHaftG ist unter anderem, dass ein Fehler der schadensursächlichen Sache vorlag (sprich im Roboter). Ein solcher Fehler könnte ggf. vorliegen, wenn der Hersteller keine geeigneten Sicherheitsmaßnahmen in der Programmierung der Steuerungssoftware des Roboters eingebaut hat. Der Hersteller haftet jedenfalls nicht, wenn der Roboter den schadenursächlichen Fehler zum Zeitpunkt des Inverkehrbringens noch nicht aufwies (Palandt-Sprau-Kommentar zum BGB 69. Auflage 2009 § 1 ProdHaftG Rn. 17) und wenn der Fehler nach dem Stand der Wissenschaft und Technik zu dem Zeitpunkt, zu dem der Hersteller das Produkt in den Verkehr brachte, nicht erkannt werden konnte, vgl. § 1 Abs. 2 Nr. 5 ProdHaftG. Dennoch muss der Hersteller von Robotern Sicherungsmaßnahmen in einen Roboter (und vor allem in der Software) einbauen, so dass selbst nach einem KI-Lernprozess keine Schäden auftreten können. In der Science-Fiction-Literatur wurden z. B. hierzu von Isaac Asimov die drei Gesetze der Robotik entwickelt (Asimov, Alle Roboter-Geschichten, 3. Auflage 2011, Kurzgeschichte Herumtreiber (englisch Runaround) S. 276–295). Ob solche eher philosophischen Gesetze ausreichend sind, lässt sich heute noch nicht beurteilen, sicher ist aber, dass dem Hersteller und Entwickler von Robotern eine entsprechende Pflicht zur Verkehrssicherheit trifft. Die Aufrechterhaltung dieser Verkehrssicherungspflichten trifft dann aber nicht mehr den Hersteller, sondern den Halter bzw. Eigentümer des Roboters. Hier finden die Grundsätze zum Umgang mit gefährlichen Sachen Anwendung. Als eine gefährliche Sache wird z. B. ein KFZ gesehen, von dem eine gewisse Betriebsgefahr ausgeht. Der Hersteller produziert ein Auto, welches die entsprechenden Anforderungen zur Zulassung eines KFZ erfüllt, während der Halter dafür sorgen muss, dass sich das Fahrzeug ständig in verkehrssicherem Zustand befindet (BGH, 14. Oktober 1997 – VI ZR 404/96 = NJW 1998, 311). Insbesondere gilt dies bei einer Garantenstellung gegenüber Dritten (BGH, 24. April 1979 – VI ZR 73/78 = NJW 1979, 2309). Gleiches sollte auch für die Herstellung und Verwendung von Robotern Anwendung finden. Man muss also als Hersteller von Robotern und als deren Betreiber immer wieder einmal einen Juristen konsultieren und auftretende Probleme diskutieren. Mitarbeiter des Wissenschaftlichen Zentrums in der Republik Kabardino-Balkarien haben einen Raupenroboter in Form eines Schildkrötenpanzers entwickelt, berichtet die Nachrichtenagentur RIA Nowosti. Dieser soll vor allem der russischen Nationalgarde Rosgwardija helfen, Menschenmengen auf Kundgebungen zu zerstreuen. Das Gefährt soll sich nach Angaben der Entwickler schneller fortbewegen als Fußgänger oder die berittene Polizei.

12 Robotik

165

Der Roboter ist ungefähr halb so groß wie ein Mensch und mit Elektroschockern, Netzwerfern und schnell erhärtendem Schaum bewaffnet. Seine stromlinienförmige Form soll Verletzungen bei Menschen vermeiden und gleichzeitig verhindern, dass Protestierende das Gerät umkippen. Die Wissenschaftler schlagen zwei Optionen vor. Die erste sieht vor, dass sich der Roboter mit 60 km/h fortbewegt und Menschenmengen durchtrennt. Bei der zweiten Option agiert der Roboter als Schildträger, um Barrieren zu errichten und die randalierende Menge aufzuteilen. Die Erfindung soll zudem in der Lage sein, sich zu vernetzen und gemeinsam auf Basis eines Algorithmus nach dem Vorbild staatenbildender Insekten wie Wespen zu agieren. Die meisten Unfälle mit Robotern entstehen während der Wartung oder Programmierung des Roboters, nicht etwa im geregelten Betrieb. Am 21. Juli 1984 wurde in Michigan, USA, der erste Mensch von einem Industrieroboter getötet. Der Roboter bewegte Werkstücke einer Druckgussmaschine. Der 34 Jahre alte Fabrikarbeiter hatte bereits 15 Jahre Arbeitserfahrung im Druckgießen und erst drei Wochen vor dem Unfall eine einwöchige Roboterschulung abgeschlossen. Er wurde zwischen der vermeintlich sicheren Rückseite des Roboters und einem Stahlpfosten zu Tode gedrückt, als er gegen jede Warnung in den Gefahrenbereich des Roboters kletterte, um verstreute Produktionsreste zu entfernen. Das amerikanische „National Institute for Occupational Safety and Health (NIOSH)“ bietet Richtlinien für Roboterkonstruktion, Training und Anleitung der Mitarbeiter an. Man sieht hieran, dass die Herstellung und der Einsatz von Robotern ein fester Bestandteil der technischen Welt geworden sind. Hier werden die Vorteile der Anwendung dieser Systeme und die damit verbundenen Probleme sichtbar. • In vielen Ländern haben Kinder, Jugendliche und Studenten Gelegenheit, an RobotikProgrammen teilzunehmen. Sie bilden Teams, von denen jedes vor der Aufgabe steht, einen mit Motoren und Sensoren ausgestatteten Roboter so zu programmieren, dass er auf einem Spielfeld in einem bestimmten Zeitrahmen autonom oder per Fernsteuerung vorgegebene Aufgaben lösen kann, zum Beispiel Objekte zu sortieren und an bestimmte Orte zu bringen. In einem Teil der Programme umfasst die Aufgabe auch den Entwurf und Bau des Roboters; in anderen kommen vorgefertigte Roboter zum Einsatz. Die Teamarbeit mündet in Wettbewerben, von denen viele auf internationalem Niveau durchgeführt werden. • Vom Menschen erschaffene künstliche Wesen haben in der Literatur eine lange Tradition, bekannte Beispiele sind der durch Magie erschaffene Golem oder alchimistisch erzeugte Homunculi. Eine mit der Tochter von Kaiser Maurikios vom iranischen Hofstaat verwechselte roboterartige Gliederpuppe wird im persischen Epos Schahname des Dichters Firdausi erwähnt. Die Vorstellung von Robotern im Sinne von Maschinenmenschen bzw. autonomen Maschinenwesen, die durch menschliche Wissenschaft und Technik verwirklicht werden, entwickelt sich jedoch erst in der Neuzeit. In der Literatur des 18. Jahrhunderts werden täuschend menschenähnliche Automaten beschrieben, die durch eine kunstvolle

166

12 Robotik

Mechanik zum (scheinbaren) Leben erweckt werden. E. T. A. Hoffmann erzählt in „Die Automate (1819)“ von einem mechanischen Orakel, das an den sogenannten Schachtürken angelehnt ist. Die Schachmaschine bestand aus einer in türkischer Tracht gekleideten Figur eines Mannes, der hinter einem Tisch mit Schachbrett saß. Die Figur hat mit vielen bekannten Schachspielern der damaligen Zeit gespielt und meistens gewonnen. Der Türke begann immer die Partie, hob den linken Arm, bewegte die Schachfigur und legte den Arm dann wieder auf ein Polster zurück. Bei jedem Zug des Gegners blickte er auf dem Brett umher. War der Zug falsch, schüttelte er den Kopf und korrigierte die Position der Figur. Bei Gardez (Bedrohung der Dame) nickte er zweimal, bei Schach dreimal mit dem Kopf. Alle Bewegungen waren von einem Geräusch ähnlich dem eines ablaufenden Uhrwerks begleitet. Kempelen, der Erfinder, der jedem, der es sehen wollte, das Innere der Maschine und ihre Mechanik gerne zeigte, stand während des Spiels etwas abseits und blickte in einen kleinen Kasten, der auf einem Tisch stand. Er ließ unausgesprochen die Möglichkeit offen, dass eine Übermittlung durch einen Menschen an das Gerät erfolgte, lehnte es jedoch stets ab, einen Hinweis auf das zugrunde liegende Funktionsprinzip zu geben. Über eine mögliche magnetische Übertragung der Zugbefehle wurde seitens der Betrachter ebenso gerätselt wie über die Möglichkeit, die Maschine könne eigenständig bzw. zumindest für einen Abschnitt von mehreren Zügen ohne jede menschliche Einwirkung die Berechnungen ausführen. Da der Automat sehr stark spielte, muss ein guter Spieler in ihm gesessen haben. • In den Groschenheften des ausgehenden 19. Jahrhunderts findet sich beispielsweise die Fiktion eines dampfgetriebenen Maschinenmenschen „The Steam Man of the Prairies“ von Edward S. Ellis, 1868). Da sich das Wort Roboter für die künstlichen Menschen noch nicht eingebürgert hat, werden solche Figuren noch als Automat oder mechanischer Mensch bezeichnet. Im Jahre 1886 publizierte der Schriftsteller Auguste de Villiers de L’Isle-Adam den Roman „L’ Eve future“, in dem ein weiblicher Automat als Lebensgefährtin eines vornehmen Lords dienen soll. ˇ Zum ersten Mal wurde die von Josef Capek geprägte Bezeichnung „Roboter“ 1921 in dem Drama „R.U.R.“ verwendet. Die in dem Theaterstück vorgestellten Roboti sind Kunstmenschen auf der Basis von synthetischem Protoplasma, doch die Bezeichnung wurde bald auch auf die zeitgenössische Vorstellung mechanisch konstruierter Automaten übertragen. Durch die Erzählungen Isaac Asimovs wurde der Begriff Roboter einem größeren Publikum bekannt. 1942 beschrieb er in „Runaround“ zum ersten Mal die drei Robotergesetze, die auch heute noch häufig in der Science-Fiction-Literatur rezipiert werden. 1950 veröffentlicht er mit „Ich, der Robot“ eine Sammlung von Kurzgeschichten zu diesem Thema. Isaac Asimov war fortschrittsgläubig und sah im Roboter zumeist einen Gehilfen bei alltäglichen Verrichtungen und einen Assistenten, der die Menschen dabei unterstützt, das Weltall zu bevölkern, zum Beispiel in seinen Kurzgeschichten „Vernunft“ („Reason“, 1941) und „Runaround“ (1942).

12 Robotik

167

• Jack Williamson beschrieb im Jahr 1939 mit „After World’s End“ („Jenseits von Raum und Zeit“) einen humanoiden Roboter, der sich energisch gegen die Menschheit wendet. Jack Williamson begann danach im Jahr 1947 mit „The Humanoids“ oder „With Folded Hands“ und im Jahr 1952 mit „Wing 4“ eine Reihe von Romanen über humanoide Roboter, die ihre Aufgabe, den Menschen zu dienen und sie zu beschützen, ein wenig zu gründlich durchführen, was die Freiheit der Menschen stark einschränkt. Philip K. Dick beschrieb 1953 in seiner Kurzgeschichte „Second Variety“ (Variante Zwei, verfilmt als Screamers) nichthumanoide und humanoide Killerroboter, und 1955 in seiner Kurzgeschichte „Autofac“ (Autofab oder Krieg der Automaten) eine von den Menschen unerwünschte selbständige Entwicklung von um die Rohstoffe konkurrierenden Roboterfabriken zu Nanorobotern. Der polnische Autor Stanisław Lem veröffentlichte ab den 1950er-Jahren den Erzählzyklus „Kyberiade“. Hauptfiguren sind Klapauzius und Trurl, zwei menschengleiche, denkund empfindungsfähige Roboterwesen, die selbst als Konstrukteure von Maschinen tätig sind und in einer überwiegend von Robotern bevölkerten Welt existieren. • Auch in die Kinderliteratur fanden Roboterfiguren Einzug. 1967 wurde das Buch „Robbi, Tobbi und das Fliewatüüt“ veröffentlicht, in dem der Roboter ROB 344-66/IIIa und der Erfinder Tobias Findteisen gemeinsame Abenteuer erleben. Ellis Kaut veröffentlichte 1974 das Kinderbuch „Schlupp vom grünen Stern“ über einen kleinen Roboter vom Planeten Balda 7/3, der unerwünscht eine Seele und Gefühle entwickelt und deshalb auf einen Müllplaneten geschossen werden soll, stattdessen aber auf der Erde landet. Die Augsburger Puppenkiste verfilmte 1986 Schlupp als Marionettenstück. • In dem im Mai 2019 erschienenen Roman „Maschinen wie ich“ des britischen Schriftstellers Ian McEwan, publiziert durch den Diogenes Verlag, geht ein junges Liebespaar eine verzwickte Dreiecksbeziehung mit einem Androiden namens Adam ein. In dem Roman „Die Nacht war bleich, die Lichter blinkten“ von der Autorin Emma Braslavsky, der im August 2019 im Suhrkamp Verlag erschien, verkauft ein Robotik-Unternehmen menschengleiche Roboter als künstliche Lebenspartner, um zivilisatorische Probleme wie soziale Einsamkeit und Beziehungslosigkeit zu bekämpfen. Ein todkrankes Mädchen schließt in dem Roman „Klara und die Sonne“ Freundschaft mit einem weiblichen Androiden namens Klara, geschrieben hat das im März 2021 im Blessing-Verlag erschienene Buch der Schriftsteller und Literaturnobelpreisträger Kazuo Ishiguro. Der Roman ist aus der Ich-Perspektive des Roboters verfasst, wie die Androidin Klara die Welt der Menschen sieht. In dem KI-Roman „Die Erfindung des Ungehorsams“ (Unionsverlag) von Martina Clavadetscher, der mit dem Schweizer Buchpreis 2021 ausgezeichnet wurde, tritt eine Frau auf, die in einer Sexpuppenfabrik in China arbeitet, wo künstliche Frauenkörper hergestellt werden. Für ihren Roman ließ sich die Schriftstellerin vom Lebenswerk der Mathematikerin Ada Lovelace inspirieren, die sie als Urmutter der Programmierung und des Computers begreift. Von einem Computer, dem Wissenschaftler ein menschliches Bewusstsein verleihen wollen, handelt der Roman „Dave“ der Schriftstellerin Raphaela Edelbauer, der den Österreichischen Buchpreis 2021 zuerkannt bekam.

168

12 Robotik

Hier ist noch ein großer Spielraum für die weitere Schaffung phantastischer Gestalten (Abb. 12.3). • Der 1897 entstandene Kurzfilm „Gugusse et l’Automate“ des Filmpioniers Georges Méliès zeigte wahrscheinlich zum ersten Mal einen Roboter auf der Kinoleinwand. Der heute verschollene Film handelte von einer Auseinandersetzung zwischen dem Clown Gugusse und einem „Automaten“. 1911 erschien der zehnminütige Kurzfilm „The Automatic Motorist“ von Walter R. Booth, in dem ein Roboter-Chauffeur vorkommt. In dem im Jahre 1919 erschienenen Episodenfilm „The Master Mystery“ mit dem Zirkuskünstler Harry Houdini findet sich ein weiteres frühes Beispiel für den Auftritt eines Roboters. Der 1921 veröffentlichte italienische Film „L’uomo meccanico“ von André Deed handelt von Ganoven, die einen ferngesteuerten Roboter in ihre Gewalt bringen, um mit seiner Hilfe Verbrechen zu begehen. Zu den bekanntesten Roboterdarstellungen der Stummfilmära gehört der weibliche Maschinenmensch in Fritz Langs „Metropolis“ von 1927. Der erste Roboter, der im Fernsehen auftrat, war I Tobor in der Science-Fiction-Serie „Captain Video and His Video Rangers“ (ab 1949). • Bekannte Robotergestalten der 1950er-Jahre sind der riesenhafte Wächter Gort aus dem Film „Der Tag, an dem die Erde stillstand“ (1951) und der Roboter Robby aus „Alarm im Weltall“ (1956). Robby war in der Folgezeit in einer ganzen Reihe von Filmen und Fernsehsendungen zu sehen und diente außerdem als Vorbild für viele Spielzeugroboter. Die Star-Wars-Saga (1977–2005) zeigt mit R2D2 und C3PO Roboter in einer komödiantischen Rolle. Die beiden Figuren sind gleichzeitig charakteristische Beispiele für unterschiedliche Robotertypen: Während der „Protokolldroide“ C3PO ein humanoider Roboter ist, ist R2D2 ein „Astromech-Droide“ ohne menschenähnliches Aussehen. In der Serie „2Star Trek – The Next Generation“ (1987–1994) ist der Androide Data ein Führungsoffizier, der sich oft mit der Frage seiner eigenen Menschenähnlichkeit auseinandersetzt. In „Nummer 5 lebt!“ entwickelt ein Militärroboter eine naive Persönlichkeit. Filme wie „Terminator“ und „I, Robot“ bieten weitere bekannte Beispiele für die Darstellung von Androiden und humanoiden Robotern, die den Menschen feindlich entgegentreten oder helfend zur Seite stehen. • Auch Industrieroboter (nichthumanoide Roboter) finden den Weg auf die Leinwand. In Filmen wie „James Bond 007 – Stirb an einem anderen Tag“, „Thunderbirds“, „Tomb Raider – Die Wiege des Lebens“ und „Sakrileg“ wurden KUKA-Industrieroboter in Szene gesetzt. Der Dokumentarfilm „Plug & Pray“ thematisiert die Auswirkungen des zunehmenden Einsatzes von Robotern auf das Selbstbild des Menschen. Er stellt Roboter wie den japanischen Geminoid von Hiroshi Ishiguro, den italienischen ICub oder das deutsche MuCar-3 vor. Der Spielfilm „Robot & Frank“ von 2012 erzählt, unter Regie von Jake Schreier, von der entstehenden Freundschaft zwischen einem älteren Demenzkranken und einem Pflegeroboter. In der japanischen Stadt Yokohama wacht seit 2020 nach sechsjähriger Entwicklungszeit ein Riesenroboter namens Gundam, der 18 m hoch und 25 t schwer ist, als Touristen-

12 Robotik

169

attraktion über das dortige Hafengebiet. Der Riesenroboter, in dem sich ein Cockpit befindet und dessen Hände je zwei Meter lang sind, beruht als Figur auf einer ScienceFiction-Fernsehserie, kann sich bewegen und auf die Knie sinken. Hergestellt hat den Riesenroboter das Unternehmen „Gundam Factory Yokohama“ unter Geschäftsführer Shin Sasaki. • Das wohl prominenteste Beispiel für die Verwendung des Roboters in der Bildenden Kunst ist die Gruppe der „Family of Robots“ des koreanischen Videokünstlers Nam June Paik. Bereits 1964 entwickelte Paik zusammen mit dem japanischen Ingenieur Shuya Abe den Roboter K456, der Paik fortan bei Performances vertreten sollte – bis K456 in den first accident of the 21. century verwickelt wurde. In den 1980er-Jahren entstand die Family of Robots, zunächst mit „Mother“ und „Father“ (1983/86), welche um etliche Figuren erweitert wurden. Dabei handelte es sich vor allem auch um Figuren der Geschichte oder literarischen Fiktion, wie zum Beispiel Albert Einstein, Attila oder Edgar Allan Poe, aber auch Freunden von Paik: John Cage, Merce Cunningham oder Joseph Beuys. SHIFZ ist die abgekürzte Selbstbezeichnung der österreichischen Künstlervereinigung Syntharturalistische Kunstvereinigung. Sie wurde 1996 gegründet und thematisiert hauptsächlich das Verhältnis von Mensch und Maschine. Die Kunstgruppen monochrom und Shifz veranstalten Events, die sich künstlerisch mit Robotertechnologie beschäftigen. Sie veranstalten gemeinsam die Roboexotica, das Festival für Cocktail-Robotik. monochrom veranstaltet das Festival Arse Elektronika, das den kreativen Umgang mit Sex und Technologie als Kernthema hat, und präsentiert dort künstlerische Sexroboter. Der japanische Illustrator Hajime Sorayama zeichnet weibliche, chromglänzende Roboter in erotischen Posen. So wählte die amerikanische Rockband Aerosmith für ihr 2001 erschienenes Album Just Push Play eine Zeichnung von Hajime Sorayama als Albumcover. Für ihre Schallplatten Sign in, please (1984) und That’s the Stuff (1985) verwendete auch die Glam-Metal-Band Autograph von Sorayama gezeichnete Motive. Das Werk des Schweizer Malers H. R. Giger, berühmt für sein Filmdesign zu Ridley Scotts Alien, dominiert der von ihm geprägte Begriff der Biomechanoiden, eine Verschmelzung von Technik und Mechanik mit dem Kreatürlichen sowie Einflüssen des Phantastischen Realismus. Von 12. Juni bis 6. Juli 2019 stellte The Barn Gallery des St. John’s College der Universität Oxford unter dem Titel „Unsecured Futures“ verschiedene Zeichnungen und Gemälde des weiblichen Roboters Ai-Da aus. Entwickelt wurde der humanoide Roboter (drawing robot artist) mit dem Antlitz einer Frau, unterstützt durch ein Team aus Informatikern, Robotik-Experten und Designern, vom Galerist Aidan Meller. Ai-Da zeichnet mit Kreide und malt in Acryl. • Die deutsche Elektronikmusik-Band Kraftwerk gelangte 1978 mit ihrer Single „Die Roboter“ des Albums Die Mensch-Maschine auf Platz 18 der deutschen Charts. Für ihre Bühnenshow ließen die Musiker spezielle ferngesteuerte Roboter entwickeln, die mit den aus Plastik nachgebildeten Gesichtern der Bandmitglieder versehen waren. 1983 kam das Lied „Mr. Roboto“ der Band Styx in Deutschland auf Platz 8, in den USA auf

170

12 Robotik

Platz 3 der Charts. Es handelt von einem Gefängnis, das von Robotern bewacht wird. Musizierende und tanzende Roboter, unter der Dirigentschaft eines verrückten Wissenschaftlers, sind in dem Videoclip zu dem Stück „Zoolook“ des französischen Musikers Jean-Michel Jarre von 1984 zu sehen. In Herbie Hancocks Videoclip zu seinem elektronischen Instrumentalstück Rockit von 1983 tanzen Roboterbeine ohne Rumpf, mechanische Puppen versammeln sich um einen Frühstückstisch, und ein humanoides Wesen zuckt unruhig unter einer Bettdecke. Regie führte das Duo Godley & Creme, die Puppen und Roboter entwarf der Künstler Jim Whiting, der mit seinem Maschinentheater Unnatural Bodies ab 1988 große Erfolge erlebte. Das Instrumentalstück Rockit befindet sich auf Hancocks Album Future Shock. • Im Oktober 2018 inszeniert der Schriftsteller Thomas Melle an den Münchner Kammerspielen, in Zusammenarbeit mit Stefan Kaegi von der Theatergruppe Rimini Protokoll, das Theaterstück „Unheimliches Tal/Uncanny Valley“, in dem sich der Autor mit einem auf der Bühne sitzenden Roboter, einer mechanischen Nachbildung seines Selbst, über existenzielle Fragen unterhält. • Roboter im Sport Im Rahmen der Olympischen Sommerspiele 2020 präsentierte der Automobilhersteller Toyota den Basketball-Roboter Cue3, der eine Trefferquote von 100 % besitzt. Man kann hier bestimmt nicht alles lesen, anschauen oder anhören. Es zeigt aber, dass der Phantasie keine Grenzen gesetzt sind und sich die Robotertechnik in alle Richtungen weiterentwickelt. Abb. 12.3 Star Trek

12.1

12.1

Roboter in der Chirurgie

171

Roboter in der Chirurgie

Das ist sicher eines der interessantesten und wichtigsten Einsatzgebiete der Robotertechnik, das sich außerordentlich schnell entwickelt und immer mehr Anforderungen befriedigen kann. Eine wesentliche Forderung bei der Einführung neuer Technologien ist immer, dass die Kosten für die Anschaffung derartiger Geräte gedeckt und entsprechende Weiterbildungsmöglichkeiten gegeben sind. Die Möglichkeit der Herstellung solcher Geräte sollen vorhanden sein, ebenso die IT-Spezialisten für die Programmierung und Wartung dieser Systeme. Es soll auch darauf hingewiesen sein, dass es bereits Studiengänge „Medizinische Informatik“ oder „Digitale Medizin“ gibt. So kündigt beispielsweise die Fakultät für Informatik der Universität Augsburg das folgende Programm an: „Der interprofessionelle Studiengang Medizinische Informatik (Medical Information Sciences) baut auf dem gleichnamigen Bachelorstudiengang auf und ist an der Schnittstelle zwischen Informatik, Medizin und der Anwendung dieser beiden Disziplinen im Bereich der Medizinischen Informatik anzusiedeln.“ Die Medizinische Informatik versucht mit Hilfe moderner Informationstechnologien, das Gesundheitswesen organisatorisch und technisch zu unterstützen. Dazu entwickelt sie Modelle und Simulationen für die individualisierte Therapie und Diagnose. Daher vermittelt der Studiengang die notwendigen Kompetenzen, um geeignete Methoden, Systeme und informationstechnologische Werkzeuge für konkrete medizinische Fragestellungen entwickeln, auswählen und anwenden zu können. An den meisten Hochschulen hat das Studium einen starken Praxisbezug, um optimal auf die spätere Tätigkeit vorzubereiten [37]. Wichtige Studieninhalte der Medizinischen Informatik sind: • • • • • • •

medizinische Dokumentation, bildgebende Verfahren wie die Computertomographie, wissenschaftliche Modellierungen, computerassistierte Detektion, E-Health, Biosignalverarbeitung, Biometrie.

Je nach Hochschule spezialisiert das Studium der Medizinischen Informatik auch für bestimmte Fachbereiche, beispielsweise auf Zahnmedizintechnik. Ziel der Dental informatics ist es, IT-Anwendungen zu entwickelt, die den Zahnarzt während der Behandlung aktiv unterstützen sollen. Zahnmedizinische Informatik ist die Anwendung von Computer- und Informationswissenschaften zur Verbesserung der zahnmedizinischen Praxis, Forschung, Ausbildung und Verwaltung. Es wurden zahlreiche Anwendungen entwickelt, die die klinische Versorgung, die Ausbildung und die Forschung unterstützen. Die Zahninformatik

172

12 Robotik

beginnt, die Merkmale einer Disziplin zu zeigen: Es existiert eine Kernliteratur, und es gibt bereits ausgebildete Spezialisten und Ausbildungsprogramme. • Aufbau und Inhalt des Bachelor-Studiums Medizinische Informatik: Die Fachrichtung befähigt Absolventen, selbstständig im medizinischen Bereich IT-Lösungen zu entwickeln, Bildgebung im Zusammenhang mit diagnostischen Verfahren zu realisieren oder auch das Management der Daten von Patienten zu organisieren. Hierfür werden die Grundlagen der Informatik gelehrt. Dazu zählen beispielsweise Programmieren, Mathematik und Statistik, Algorithmen und Datenstrukturen oder auch die Entwicklung von Datenbanken. Auch die Planungskompetenz für die Entwicklung maßgeschneiderter Programme, das Software Engineering, wird gelehrt. In der Grundausbildung kommen auch Fundamentalkenntnisse aus der Medizin, wie z. B. deren wichtigste Teilbereiche, aber auch Diagnose- und Therapiesysteme hinzu. • Das Bachelor-Studium Analytische und Digitale Forensik: Tragisches Schicksal oder Verbrechen? Natürlicher Tod oder Mord? – Schon im 19. Jahrhundert löste Carl Remigius Fresenius einen aufsehenerregenden Mordfall, der zunächst gar nicht danach aussah, indem er eine Vergiftung mit Arsen feststellte. Der Gründer der Hochschule Fresenius fühlte sich verpflichtet, „für Recht, Wahrheit und Wissenschaft einzustehen“ – und prägte mit seiner Arbeit die forensische Analytik maßgeblich. Heute sind die Fragestellungen vielfältiger geworden, und auch die Analytik ist deutlich vielfältiger als damals: Der moderne Analytiker kennt sich nicht nur mit naturwissenschaftlichen Grundlagen aus, sondern ist vor allem in der digitalen Welt zu Hause. Ob Designerdrogen oder Cyberkriminalität, Umweltverschmutzung oder Hackerangriffe, Genanalyse oder Verschlüsselungstechnologien – die moderne Analytik umfasst alle Schritte von der richtigen Fragestellung über die Datenerhebung, -aufbereitung und -analyse bis hin zur Interpretation der Ergebnisse im Lichte verschiedener Fragestellungen. Analytisches Denken und Handeln, eingebettet in eine wissenschaftliche Vorgehensweise, sind auch heute die Grundlage für die Bekämpfung von Kriminalität. Dabei wachsen die reale und digitale Welt immer mehr zusammen – und erfordern Ermittler, die in beiden Welten zu Hause sind und sich zwischen ihnen bewegen können. Dieser Ermittler können Sie werden: Studieren Sie Analytische und Digitale Forensik (B.Sc.) an der Hochschule Fresenius – wo die Forensik seit 1848 zu Hause ist! In [38] werden 28 Studiengänge angezeigt. Wenn man mit interessierten Personen über dieses Problem spricht, trifft man oft auf Skepsis oder Ablehnung. Die gibt sich aber oft, wenn man erklärt, dass ein Arzt immer dabei ist. Und es überzeugt natürlich, wenn man dann einfach erklärt, dass der Roboter nicht müde wird, dass er ohne Pause 24 h tätig sein kann, dass er nicht zittert, nichts übersieht u. v. a. m.

12.2

12.2

Roboter helfen in der Pflege

173

Roboter helfen in der Pflege

In Science-Fiction-Filmen sind oft humanoide Roboter zu sehen, die älteren Menschen im Alltag helfen. Sie bewegen sich frei durch die Wohnung, erledigen den Abwasch, kochen, putzen, unterstützen die Pflegebedürftigen bei der Körperhygiene – und können sogar Unterhaltungen führen, ganz wie menschliche Pflegekräfte. In diesen fiktiven Szenarien wird in der Regel der Eindruck erweckt, dass durch den technischen Fortschritt die Menschlichkeit verloren geht und irgendwann alles von Robotern erledigt wird. Tatsächlich ist genau das Gegenteil der Fall: Die Digitalisierung bringt wieder mehr Menschlichkeit in die Pflege. Abgesehen von der immer wieder angemahnten schlechten Bezahlung der Fachkräfte ist heutzutage das größte Problem in der Pflege der Faktor Zeit. Gerade für ältere Menschen sind zwischenmenschliche Beziehungen enorm wichtig. Morgens Unterstützung beim Duschen zu erhalten, ist das eine. Aber im Anschluss noch mit den Pflegern über die eigenen Sorgen und Probleme (oder einfach nur das Wetter) zu sprechen, etwas völlig anderes. Und genau für diese zwischenmenschliche Kommunikation fehlt meistens die Zeit. Dieses Problem kann durch die Digitalisierung der Pflege erheblich reduziert werden. Das fängt bei einfachen Dingen wie elektronischen Patientenakten, automatisierter Pflegedokumentation oder vernetzter Tourenplanung an. Gerade solche administrativen Aufgaben nehmen in der Praxis viel Zeit in Anspruch. Bei Menschen, die pflegebedürftig sind, aber nach wie vor in ihren eigenen vier Wänden leben, steckt zudem viel Potenzial in der TelePflege. Denn ein 15-minütiger Face-Time-Anruf ist besser als gar kein Kontakt. Es geht aber nicht darum, dass Roboter menschliche Pflegekräfte ersetzen, sondern sie vielmehr unterstützen. Das fängt bei einfachen Robotern an, die beispielsweise den Fußboden reinigen können. Einen völlig anderen Ansatz verfolgen die Macher der Therapie-Robbe PARO, die speziell für Demenzkranke entwickelt wurde. Der Pflegeroboter Pepper dagegen unterstützt Fachkräfte in Pflegeeinrichtungen bei der Tagespflege. Er kann Witze erzählen, Märchen vorlesen, Musik spielen, einfache Fitness-Übungen vormachen usw. Inzwischen gibt es sogar Lösungen für Privathaushalte, wie etwa den Home Care Robot von Medisana, der Videotelefonate ermöglicht, regelmäßig an die Gesundheitskontrolle erinnert und im Notfall schnell Hilfe holen kann. „Bewegungsstörungen wie Zittern, Lähmungen oder Störungen der Muskelspannung betreffen viele Patienten, die an Schlaganfällen oder neurodegenerativen Erkrankungen wie Parkinson oder Multipler Sklerose leiden. Die Mobilitätseinschränkungen präzise und reproduzierbar zu erfassen, stellt eine große Herausforderung in der Diagnostik und Therapiekontrolle dar, da dies erfahrene Ärzte voraussetzt, die nicht immer vorhanden sind“, erläutert der Direktor der Neurologischen Klinik an der Universitätsmedizin Göttingen, Mathias Bähr. Das Projekt „Deep Movement Diagnostics“ setzt hier an. Wir werden unsere Expertise in den Bereichen der Körper- und Augenbewegungen bei Menschen und Affen, der Neurophysiologie und klinischen Neurologie sowie der Prothetik und Robotik bündeln, sagt Alexander Gail.

174

12 Robotik

Mit Hilfe modernster digitaler Methoden sollen Geh- und Greifbewegungen in bislang nicht umsetzbarer Präzision gemessen und modelliert werden, um darauf aufbauend diagnostische Werkzeuge für individualisierte Therapieansätze, beispielsweise bei Parkinson- oder Schlaganfallpatienten, zu ermöglichen. Dabei spielen die Untersuchungen zur Motorik bei Affen eine wichtige Rolle, sie sind die Grundlage für die spätere Anwendung am Menschen. „Unser Ziel ist es, ein preiswertes, leicht zu bedienendes System zu entwickeln, das flächendeckend zur Diagnose und Therapiekontrolle bei Bewegungsstörungen eingesetzt werden kann“, sagt Projektleiter Alexander Gail. „Leichte Anwendbarkeit und geringer Aufwand für die Durchführung der Untersuchungen sind wichtige Faktoren, um die Akzeptanz bei den Patienten zu erhöhen“, sagt Melanie Wilke, Direktorin des Instituts für Kognitive Neurologie. „Wir versprechen uns von den neuen videobasierten Methoden einen qualitativen Sprung gegenüber den derzeitigen klinischen Untersuchungstechniken.“ Neben der reinen Diagnostik will das Forscherteam komplexe Bewegungsabläufe bei gesunden Probanden und bei Affen untersuchen, um so die neurophysiologischen Grundlagen von Bewegungsstörungen besser zu verstehen.

12.3

Weitere interessante Anwendungen

Wissenschaftler an der University of California in San Francisco haben im Herbst 2018 eine Pilotstudie mit tiefen, künstlichen neuronalen Netzen im Journal Radiology vorgestellt, die anhand von Gehirnscans eine Alzheimererkrankung im Schnitt sechs Jahre vor der finalen Diagnose erkennen können. Häufig werden Alzheimererkrankungen von Ärzten erst dann diagnostiziert, wenn sich die ersten Symptome zeigen. Selbst erfahrenen Ärzten fällt es schwer, die bei Frühstadien auftretenden, kleinen Veränderungen im Gehirn zu erkennen und richtig einzuordnen. Deshalb könne die KI-gestützte Erkennung einen wichtigen Beitrag zur Früherkennung und damit zur Behandlung leisten. Das Netz erreichte eine Sensitivität von 100 %, bei einer Richtig-negativ-Rate von 82 %. Das Wiener KI-Labor Deep Insight veröffentlichte 2020 ein künstliches neuronales Netz, das darauf trainiert wurde, anhand von CT-Aufnahmen der Lunge zu klassifizieren, ob der Patient an COVID-19 leidet, sofern der Virus bereits die Lunge befallen hat. Das Netzwerk unterscheidet zwischen durch COVID-19 verursachten Veränderungen der Lunge, sonstigen pathologischen Befunden und Normalzustand (Abb. 12.4). In der Augenheilkunde konnte für KI-basierte Ansätze eine Überlegenheit gegenüber Fachspezialisten für verschiedenste klinischrelevante Aufgaben nachgewiesen werden. Dies umfasst unter anderem das Erkennen von Diagnosen anhand von Netzhaut-Bildgebung, die Berechnung der idealen Linsenstärke vor einer Operation des grauen Stars sowie das Erkennen von systemischen Risikofaktoren (beispielsweise Blutdruck) anhand von ophthalmologischen Bildaufnahmen. Im Direktvergleich zwischen Deep Learning und 13 menschlichen Spezialisten wurden 25.326 Fundusfotografien (Fotos des Augenhintergrundes) von Dia-

12.3 Weitere interessante Anwendungen

175

Abb. 12.4 Ein gesunder und ein von Krebs befallener Lungenflügel

betikern einer diagnostischen Bewertung der Diabetischen Retinopathie unterzogen. Die Sensitivität des Neuronalen Netzwerks lag bei 0,97 (0,74 bei den Spezialisten) und die Spezifität bei 0,96 (0,98). Das Projekt wurde als Nachweis herausragender menschlicher Leistungen in dem AI Index Report 2019 als Meilenstein gewürdigt. Interessanterweise konnte gezeigt werden, dass sich sogar das Geschlecht anhand von Farbfundusfotos mittels KI identifizieren lässt. Dies galt unter Fachspezialisten zuvor als unmöglich. Folgearbeiten konnten zeigen, dass KI-Anwendungen das Geschlecht an subtilen Unterschieden des Verlaufs der Gefäße erkennen können. In der Kardiologie sind Algorithmen in Gebrauch, die Langzeit-EKGs für einen Arzt auswerten und wichtige Rhythmusstörungen binnen Sekunden finden und auflisten. Für den medizinischen Laien gibt es niederschwellige mobile Anwendungen mit Algorithmen, die die Pulsfrequenz mittels Photoplethysmographie messen können (ähnlich der Pulsoxymetrie). Hier sind Arrhythmien, besonders Vorhofflimmern, bedeutsam, weil damit das Schlaganfallrisiko steigt. Mehrere Projekte zeigen, dass es bei KI nicht immer darum geht, ob die Maschine besser ist als der Mensch, sondern dass der Arbeitsaufwand für die Befundung durch Ärzte um fast 20 % reduziert werden kann. Beispielsweise konnte im August 2016 am Medical Institute der Universität Tokyo das Computerprogramm IBM Watson eine Fehldiagnose der Ärzte korrigieren. Die Ärzte diagnostizierten bei der Patientin eine akute myeloische Leukämie. Die Therapie blieb erfolglos, deswegen bat man Watson um Hilfe. Die KI benötigte 10 min, um die DNA der Frau mit 20 Mio. Krebsstudien abzugleichen. Watson erkannte eine sehr

176

12 Robotik

seltene Form der Leukämie, die bislang nur 41 Patienten betraf und heilbar ist. Die Behandlungsvorschläge von IBM Watson können jedoch auch fehlerhaft sein, etwa, wenn zu wenig Trainingsdaten zur Verfügung stehen. Entsprechende Berichte über fehlerhafte Empfehlungen, deren Anwendung die Patienten gefährde, wurden 2018 von einem Medizinfachportal veröffentlicht. Die Fehlfunktion soll laut IBM in einer späteren Version behoben worden sein. Wissenschaftler der Universität Stanford haben im Januar 2018 ein Programm vorgestellt, das mit einer Wahrscheinlichkeit von 90 % bei unheilbar kranken Patienten aus den Krankendaten berechnen kann, ob diese innerhalb der nächsten 3 bis 12 Monate versterben werden. Dies könne unheilbar kranken Patienten helfen, die letzten Monate würdevoll und ohne aggressive Behandlungsmethoden und eventuell daheim unter Palliativversorgung zu verleben. Die Armbanduhr Apple Watch zeichnet unter anderem die Herzfrequenz eines Menschen auf. Apple gab bekannt, dass Programme mit einer Wahrscheinlichkeit von 85 % aus der Analyse der Herzfrequenz Diabetes mellitus beim Träger der Armbanduhr feststellen können. Die Idee basiert auf der Framingham-Herzstudie, die bereits 2015 erkannte, dass man allein mit Hilfe der Herzfrequenz Diabetes diagnostizieren kann. Apple war es bereits früher schon gelungen, aus der Herzfrequenz einen abnormalen Herzrhythmus mit 97 %iger Wahrscheinlichkeit, Schlafapnoe mit 90 %, Hypertonie (Bluthochdruck) mit 82 % zu erkennen. Forscher der Mount Sinai School of Medicine demonstrierten im Januar 2018, wie aus psychologischen Gesprächsprotokollen mit Jugendlichen erkennbar ist, ob diese in den nächsten zwei Jahren an einer Psychose erkranken. Die natürliche Sprachverarbeitung half, in standardisierten Tests bis zu 83 % Genauigkeit zu erreichen, etwa anhand unorganisierter Gedankengänge, umständlicher Formulierungen, unklarer Assoziationen oder einer reduzierte Sprachkomplexität. Die subtilen Unterschiede seien nach einem Training mit vielen solchen Gesprächen zu erkennen. Forscher des MIT stellten im September 2018 ein Programm vor, das anhand von gesprochenem oder geschriebenem Text eine Depression bei Patienten diagnostizieren kann. An sich stellen Ärzte und Psychologen dem Patienten Fragen zu Lebensgewohnheiten, Verhaltensweisen und Befindlichkeiten, um aus Antworten die Depression zu diagnostizieren. Nach einem Training mit solchen Interviews erkannte das Programm auch anhand von Alltagsgesprächen eine Depression mit einer Trefferquote von 83 % – und bei der Einordnung der Schwere der Depression auf einer Skala von 0 bis 27 mit einer Trefferquote von 71 %. Die KI könnte Ärzte unterstützen oder App-Benutzer permanent überwachen, um im Notfall zu alarmieren. Die Forscher wollen aus der Sprache künftig auch eine Demenz erkennen. Die Gesundheitsapp Babylon Health soll laut Hersteller mit einem Sprachsystems (Chatbot), basierend auf einer KI, eine Diagnose im Gespräch mit Patienten erstellen können, die etwa zehnmal treffsicherer als Diagnosen eines Hausarztes sei. Die Entwicklung der App wurde auch vom britischen Gesundheitssystem mitfinanziert. Ziel war es, damit Kosten zu senken. Obwohl die App Arztbesuche deutlich reduzieren soll, fanden Patienten schnell

12.3 Weitere interessante Anwendungen

177

heraus, wie man mit der App durch falsche Symptombeschreibungen schneller Arzttermine erhält. Die App Ada des Berliner Unternehmens Ada Health unterstützt bei Diagnosestellungen anhand der Symptombeschreibung mit einem Programm. Laut Hersteller soll dies der Qualität gut ausgebildeter westlicher Ärzte entsprechen. Die App Ada sandte unerlaubt Marketing-Unternehmen wie Amplitude und Adjust mit Hauptsitz San Francisco (USA) sowie im Verlauf der App-Nutzung regelmäßig personenbezogene Daten von Facebook.com, auch wenn man kein Facebook-Konto hat. Die App wurde vom MIT ausgezeichnet und wird von der Bill & Melinda-Gates-Stiftung gefördert. 2019 verkündete Ada Health eine Kooperation mit Sutter Health. Insbesondere in Entwicklungsländern, wo es an medizinischem Personal mangelt, kann die App helfen, ein Gesundheitssystem aufzubauen. Geräte oder Software, die Künstliche Intelligenz verwenden, müssen in Europa als Medizinprodukte eine CE-Kennzeichnung erhalten und in den USA durch die FDA zugelassen sein. Ein Vergleich zwischen USA und Europa in den Jahren 2015 bis 2020 erbrachte eine schnell zunehmende Zahl von Zulassungen, wobei die CE-Markierung zahlenmäßig leicht dominiert (2019 USA 79, EU 100). Oft erfolgt die CE-Markierung vor der FDA-Zulassung, was auf ein weniger rigoroses Verfahren hindeuten könnte. Das Schwergewicht liegt bei der Radiologie. Nur 15 der Produkte wenden sich direkt an Privatpersonen (Patienten), der Rest an Fachpersonal (Ärzte). In diesem Zeitraum entfällt nur 1 % der Zulassungen auf die höchsten Risikoklassen, z. B. solche für die Diagnose von Brustkrebs [46]. Mehr noch in Europa als in Amerika finden die Autoren der Studie einen Mangel an Transparenz in der Gerätebeschreibung und dem Prozess der Bewertung. Sie spiegelt die ethische Verantwortung der Regulierer genauso wie der Hersteller wider. Auch wird eine öffentlich zugängliche Datenbank für CE-markierte Geräte und Software angemahnt. Es ist umstritten, ob die hohe Treffergenauigkeit der KI etwa zur Diagnose von Krankheiten, die in manchen Studien angegeben wurden, in der Praxis gültig sind. Die Werte beziehen sich in der Regel auf vorher festgelegte, mitunter nicht repräsentative historische Datensätze. Beispielhaft wird eine Studie von Googles Tochterfirma DeepMind zur automatisierten Vorhersage von Nierenversagen kritisiert, die auf einem Datensatz durchgeführt wurde, der nur zu 6 % von weiblichen Patienten stammte. Die fehlende Variation in den Datensätzen könnte zu Computerprogrammen führen, die in ihrer Generalisierung stark eingeschränkt sind und in realen Einsatzszenarien nicht die erwünschte Genauigkeit liefern. Da Künstliche Intelligenz und Maschinelles Lernen große Datenmengen beim Training benötigen und medizinische Daten als besonders sensibel gelten, wird dem Datenschutz große Bedeutung beigemessen. Beim Federated Learning und beim Swarm Learning wird der Algorithmus nicht zentral trainiert, sondern an lokalen Institutionen (z. B. Krankenhäusern), wo die Daten geschützt liegen bleiben. Außerdem kann dem Besitzer eines Modells besser garantiert werden, dass sein Modell nicht missbraucht, gestohlen oder verändert wird. Der Nutzer möchte die Gründe für eine algorithmische Entscheidung verstehen. Bei Künstlicher Intelligenz und Maschinellem Lernen sind Algorithmen oft komplett undurch-

178

12 Robotik

sichtig („Black Box“), typischerweise bei neuronalen Netzwerken und den entsprechenden Lernverfahren. Um dem entgegenzuwirken, entwickelte sich das Feld Explainable Artificial Intelligence. Im Gesundheitsbereich werden vertrauenswürdige Modellentwickler, umfangreiche externe Validierung mittels Studien und standardisierte Bewertungsverfahren diskutiert. Boris Babic von der University of Toronto wendet ein, dass Explainable Artificial Intelligence oftmals nur Post-hoc-Erklärungen für Black-Box-Algorithmen liefern würden. Diese Erklärungen seien nicht zuverlässig und könnten den Anwender in die Irre führen. Echte White-Box-Algorithmen, die tatsächlich nachvollziehbare Erklärungen liefern, seien hingegen in ihrer Komplexität deutlich beschränkt und daher für viele Anwendungsfälle kaum geeignet. Er hält es daher für einen Fehler, die Erklärbarkeit von Algorithmen etwa als Zulassungsvoraussetzung vorzuschreiben, da dies kaum Vorteile biete, dafür aber Innovationen bremse und zur Anwendung von Algorithmen mit geringerer Genauigkeit führe. Stattdessen sollten Algorithmen stärker in klinischen Studien getestet werden, um deren Effektivität und Sicherheit zu gewährleisten. In der Pharmaforschung hat sich das automatisierte Hochdurchsatz-Screening als Methode etabliert, sogenannte Hits und damit Kandidaten für Leitstrukturen zu finden. Britische Forscher der Universität Cambridge entwickelten die Automatisierung weiter. Der Forschungsroboter Eve, der 2015 in Journal of the Royal Society Interface vorgestellt wurde, verwendet statistische Modelle und Maschinelles Lernen und produziert und testet damit Annahmen, prüft Beobachtungen, führt Experimente aus, interpretiert Ergebnisse, ändert Hypothesen und wiederholt dies immer wieder. Dadurch könne der Roboter vielversprechende Substanzen vorhersagen und damit das Finden von Leitstrukturen effizienter machen. Mit Hilfe dieses Roboters fanden die Forscher 2018 heraus, dass Triclosan, das auch in Zahnpasta

Abb. 12.5 Schwarzer Hautkrebs

12.3 Weitere interessante Anwendungen

179

verwendet wird, Malaria-Infektionen in zwei kritischen Stadien, nämlich dem Befall der Leber und des Bluts, bekämpfen könnte. Mit der Entdeckung durch die KI könnte nun ein neues Medikament entwickelt werden. Der neue Coronavirus Sars-CoV-2 beschäftigt mittlerweile auch die Künstliche Intelligenz. Sie wird dabei helfen, Infektionen mit dem Virus auf Röntgenbildern der Lunge zu erkennen. Davon ist jedenfalls der Radiologe Haibo Xu vom Zhongnan-Krankenhaus in Wuhan überzeugt – der Stadt, in der der Virus wohl erstmals auf den Menschen übersprang. Jetzt will ein Team testen, ob und wie die Software das medizinische Personal bei der Diagnose neuer Fälle unterstützen kann. Der Virus ist neu, die Idee ist es nicht: Vergangenes Jahr entwickelten deutsche Wissenschaftler einen Algorithmus, der schwarzen Hautkrebs im direkten Vergleich besser erkennen konnte als Ärzte und Ärztinnen. Ähnliche Ergebnisse gab es bereits 2017 in den USA. Andere Studien wandten Künstliche Intelligenz erfolgreich zur Analyse von Gewebeproben bei Brustkrebs und bei Röntgenaufnahmen von Lungenentzündungen an. Schwarzer Hautkrebs wird auch als malignes Melanom bezeichnet. Zu viel Sonne bzw. ultraviolettes (UV-)Licht kann das Risiko für schwarzen Hautkrebs erhöhen. Menschen mit heller Haut oder besonders vielen Muttermalen haben ein erhöhtes Risiko für schwarzen Hautkrebs (Abb. 12.5).

Künstliche Intelligenz in der Finanzwirtschaft

13

Im Gegensatz zur Physik und zu vielen Ingenieurwissenschaften gibt es für die Finanzwirtschaft keine geschlossene mathematische Theorie, aus der man alle Regeln und Gesetze ableiten kann. Formeln und Gleichungen sind nur für kleine, singuläre Aufgaben vorhanden.[17] Man verfügt über immense Datenmengen und versucht, daraus zukünftige günstige oder ungünstige Entwicklungen abzuleiten. Die Digitalisierung aller Informationen, die für die Finanzwelt vorhanden sind und ihre sofortige Verfügbarkeit über das Internet dominieren als Grundlage für alle Entscheidungen. Dazu gehören beispielsweise für die Aktien der DAX, der Dow Jones, der TecDax und der Nasdaq. Bei Rohstoffen werden die Kurse für Gold, Silber, Öl und Erdgas angegeben. Die Webseite https://www1.oanda.com/currency/converter/ zeigt die Kurse für alle Währungen an, die es gibt und die gehandelt werden dürfen. Dann gibt es noch eine Überschrift HotStuff; in dieser Tabelle werden die am meisten gesuchten Aktien des Tages mit ihren Gewinnen und Verlusten aufgeführt. Schon die Titelleiste zeigt die Breite der Informationen: Aktien, News, Indizes, Fonds, ETFs, Zertifikate, Hebelprodukte, Anleihen, Rohstoffe, Kryptowährungen und Devisen. Weltweit gilt die Künstliche Intelligenz als vielversprechende Innovation für das Finanzwesen. Hier ist man mit Veröffentlichungen sicherlich etwas zurückhaltender, weil natürlich ein wirksames, auf neuronalen Netzen beruhendes System in der Branche sehr vorteilhaft ist. Auf alle Fälle werden, gerade aufgrund der Datenmengen, die für viele Jahre vorhanden sind, neuronale Netze und die damit realisierbaren Systeme eine große Rolle spielen. Das hilft auch, Betrug vorzubeugen und ressourcenintensive, repetitive Prozesse und Kundenservices ohne Qualitätseinbußen automatisiert zu bearbeiten: Banken und Versicherer aus der DACH-Region haben das Potenzial der Künstlichen Intelligenz in Zeiten der Digitalisierung erkannt, schöpfen es aber noch nicht flächendeckend aus. Die Mehrheit der Befragten (62 %) hält die Künstliche Intelligenz zwar für eine wichtige Innovation, die in den nächsten fünf Jahren in der Finanzbranche an Gewicht gewinnen wird – zwischen Vision und Ist-Zustand ist aber noch eine deutliche Differenz zu sehen. Aktuell sehen nur 9 % der Entscheider ihr © Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_13

181

182

13 Künstliche Intelligenz in der Finanzwirtschaft

Unternehmen digital sehr gut vorbereitet für den Einsatz von KI-Technologien. Banken und Versicherer fangen gerade erst an, sich mit konkreten Einsatzfeldern der rasant fortschreitenden Technologie auseinanderzusetzen. Die Schere zwischen Erwartung und Umsetzung klafft weit auseinander. KI-Pilotprojekte gibt es bei den Finanzunternehmen viele – ein Transfer dieser Ideen in das tägliche, operative Geschäft gelingt jedoch nur den wenigsten. Auch Unternehmen, die bereits selbst KI-Kompetenz besitzen, wissen häufig nicht, wie sie das Thema sinnvoll angehen sollen [5]. Aktuell blicken Versicherer und Banken in der DACH-Region (Deutschland, Österreich, Schweiz) vor allem mit einer konventionellen Geschäftsperspektive auf den möglichen Einsatz von KI-Lösungen: 79 % der Befragten wollen Geschäftsprozesse digital effizienter machen, fast drei Viertel generell Kosten einsparen (73 %), und jedes zweite Unternehmen erwartet, mit Hilfe von KI die Einhaltung aller vorhandenen Vorschriften zu sichern (50 %). Aber auch für neue Felder, etwa Chatbots, Automatisierung und vorausschauendes Marketing setzt bereits etwas mehr als die Hälfte der Befragten (55 %) die neue Technologie ein. Viele weitere Chancen bleiben jedoch ungenutzt: So lässt sich die Komplexität von Risikobewertungen und Entscheidungsunterstützungen im Controlling durch Automatisierung stark verringern, wenn die zugrundeliegenden Daten wirklich intelligent analysiert werden. Um zum europäischen Durchschnitt aufzuschließen, prüfen viele Finanzunternehmen derzeit, welche neuen Projekte besonders für den Einsatz von KI geeignet sind. Doch auch wenn diese identifiziert und definiert sind, ist der Weg zur Umsetzung oft noch weit: 69 % der befragten Unternehmen machen den Mangel an verfügbaren Daten als Hindernis für eine Adaption aus. Gut zwei Drittel der befragten Unternehmen kämpfen außerdem mit Budgetrestriktionen und unzureichender Finanzierung für entsprechende Projekte (67 %), 64 % der Unternehmen mangelt es schlicht an Mitarbeitern mit Kompetenz, um Fragen zur Etablierung von KI zu beantworten: • Welcher Geschäftsbereich bietet einen angemessenen Anknüpfungspunkt für die Etablierung von KI-Projekten im operativen Geschäft? • Welche Abteilung stellt die Finanzierung des Integrationsprozesses sicher? • Sind Projekte rund um Künstliche Intelligenz als Teilbereich der IT anzusehen oder als strategisch relevantes Thema auf eigenständige Führungsstrukturen angewiesen? [5] Daten sind auf manchen Teilgebieten fast über 100 Jahre hinweg mehr als reichlich vorhanden. Hier besteht das Problem darin, alles in einem System unterzubringen, in vertretbarer Zeit und mit vernünftigem Aufwand. Ob ein Gremium geschaffen werden kann, das über verschiedene Banken hinweg an diesen Problemen arbeitet, kann man zurzeit nicht klar sagen. Normalerweise befinden sich die verschiedenen Banken in einer konkurrierenden Situation. Die Zusammenarbeit würde allerdings das Problem der Ressourcen klären. Eigenständige Führungsstrukturen sind auf jeden Fall zu empfehlen, da ja die IT-Bereiche so schon ausgelastet sind mit allen Problemen des Online-Banking. Gelingt es allerdings einer großen

13 Künstliche Intelligenz in der Finanzwirtschaft

183

Bank, diese Probleme zu bewältigen, dann hätte sie einen großen Vorteil gegenüber der Konkurrenz. Die Studie zeigt auch: KI für das Tagesgeschäft und in etablierten Prozessen zu nutzen, etwa im Hinblick auf Personalisierung oder neue Geschäftsmodelle, hat bislang eine vergleichsweise geringe Priorität für Finanzdienstleister. Zudem ist die oft noch geringe allgemeine Verständlichkeit im Finanzsektor eine nicht zu unterschätzende Hürde. Klassische mathematische Anwendungen lassen sich noch mit einem vergleichsweise einfachen Algorithmus abbilden, geschlossene Modelle wie tiefe neuronale Netze sind aber deutlich anspruchsvoller und damit schwerer zu durchdringen. Das resultiert in einer weiteren Problematik: Der Finanzdienstleistungssektor ist stark reguliert. Die Unternehmen sind verpflichtet, Aufsichtsbehörden und internen Auditoren ihre Prozesse und Entscheidungen detailliert zu erläutern. Hier gilt KI noch als Black-Box-Technologie, so dass viele Unternehmen hier mit Zurückhaltung agieren, nicht nur im Banking. Ein weiteres großes Feld, das durch KI revolutioniert werden könnte, ist die Risikoabschätzung. Diese ist in vielen Bereichen des Finanzwesens von enormer Bedeutung. KISysteme können für die Berechnung des Ausfallrisikos bei der Kreditvergabe eine Vielzahl von Informationen heranziehen. Algorithmen können aus Fällen von Kreditentscheidungen und dem Rückzahlungsverhalten der Kunden lernen, daraus Muster erkennen und Profile erstellen. Bei einer neuen Kreditanfrage vergleicht das System die Daten der Kunden, prüft auf Muster und stuft seine Kreditwürdigkeit anhand der Analyse ein. Die Prüfung kann für die Entscheidung der Kreditvergabe herangezogen werden. Die maschinelle Prüfung bringt nicht nur Erkenntnisse und mehr Sicherheit. Sie kann auch als Argument herangezogen werden, einen Kredit abzulehnen. Die finale Entscheidung bleibt weiterhin beim Kreditgeber. Diesem wird jedoch die Möglichkeit gegeben, schnell und datenbasiert zu entscheiden. Künstliche Intelligenz kann außerdem ein mächtiges Instrument in der Marktforschung sein. Es können Nachrichten aus aller Welt, Aktivitäten der Medien und Studien ausgewertet werden, um Prognosen zu stellen und frühzeitig Anlagetrends zu erkennen. Mit Hilfe solcher Analysewerkzeuge können geopolitische Ereignisse berücksichtigt und die Stabilität von Märkten abgeschätzt werden. Aus den Analysen können Bewertungen für Wertpapiere erstellt und Mitarbeitern für ihre Entscheidungen zur Verfügung gestellt werden. Leistungsfähige Systeme können diese Einschätzung in Echtzeit vornehmen, was großes Potenzial für den Hochfrequenzhandel an der Börse birgt. Know Your Customer-Programme können mit Hilfe Künstlicher Intelligenz Neukunden überprüfen. Die Algorithmen erkennen verdächtige Muster und Aktivitäten und können so auf Geldwäsche und Wirtschaftskriminalität aufmerksam machen. Die Vorprüfung von Kunden ist ein kritischer Arbeitsschritt für viele Unternehmen und Institutionen im Finanzsektor. Daher wird in die Recherche und Prüfung viel Zeit und Kraft investiert. Ein weiteres Beispiel ist die Schadensregulierung im Versicherungsgeschäft. KI-Systeme können mit Daten aus einer Vielzahl von Versicherungsfällen, insbesondere Betrugsfällen, trainiert werden. Außergewöhnliche Fälle können markiert und den Mitarbeitern zur weiteren Prüfung vorgelegt werden.

184

13 Künstliche Intelligenz in der Finanzwirtschaft

Die Bundesanstalt für Finanzdienstleistungsaufsicht hat am 15. Juni 2021 aufsichtliche Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen von Finanzunternehmen publiziert. Sie sollen zu einem verantwortungsvollen Einsatz von Big Data und Künstlicher Intelligenz (Big Data und Artificial Intelligence – BDAI) führen und die Kontrolle des damit einhergehenden Risikos ermöglichen. Hintergrund des Prinzipienpapiers: Technologien wie BDAI werden zunehmend auch von Unternehmen des Finanzmarkts angewendet. Bereits 2018 hatte die BaFin in ihrer Studie „Big Data trifft auf Künstliche Intelligenz“ darauf hingewiesen, dass sich daraus Chancen für die Unternehmen, aber auch für Verbraucherinnen und Verbraucher ergeben, dass es aber auch gelte, die Risiken zu beherrschen, die BDAI-Anwendungen mit sich brächten [7]. Dabei liegt allen regulatorischen Fragen rund um BDAI ein grundsätzliches Problem zugrunde: Nach wie vor ist es schwierig, BDAIVerfahren von Verfahren der klassischen Statistik abzugrenzen. Unter Risikogesichtspunkten lassen sich aber drei Merkmale herausstellen, die bei modernen BDAI-Methoden von besonderer Bedeutung sind: • Erstens sind die verwendeten Algorithmen häufig im Vergleich zu klassischen statistischen Verfahren besonders komplex. Das erschwert oder verhindert ihre Nachvollziehbarkeit. • Zweitens lassen sich immer kürzere Rekalibrierungszyklen beobachten. Dies liegt an der Kombination aus stetig weiterlernenden Algorithmen und daran, dass nahezu täglich neue Daten zur Verfügung stehen. Dadurch verschwimmen mehr und mehr die Grenzen zwischen Kalibrierung und Validierung. • Drittens erhöht sich durch den Einsatz von BDAI-Methoden der Grad der Automatisierung. Dadurch lassen sich Prozesse immer leichter hochskalieren, und die Auswirkung des einzelnen Algorithmus nimmt zu. Um die Prinzipien möglichst genau formulieren zu können, wurde der auf Algorithmen fußende Entscheidungsprozess stark vereinfachend in zwei Phasen unterteilt: die Entwicklungsphase und die Anwendungsphase. In der Entwicklungsphase geht es darum, wie der Algorithmus ausgewählt, kalibriert und validiert wird. Hierfür gibt es Prinzipien zur Datenstrategie und zur Dokumentation der unternehmensinternen und externen Nachvollziehbarkeit. In der Anwendungsphase müssen die Ergebnisse des Algorithmus interpretiert und in Entscheidungsprozesse eingebunden werden. Dies kann automatisch geschehen, aber auch, indem laufend Experten einbezogen werden. In jedem Fall muss eine funktionierende Geschäftsordnung etabliert sein, die unter anderem ausreichende Kontrollmechanismen und eine entsprechende Rückkopplung zur Entwicklungsphase umfasst. Flankiert werden diese beiden Phasen durch übergeordnete Prinzipien, etwa zur Notwendigkeit einer klaren Verantwortungsstruktur und eines adäquaten Risiko- und Auslagerungsmanagements (Abb. 13.1). Hier sieht man den Übergang zur Theorie der fraktalen Systeme. Die DAX-Kurven sind selbstähnlich. Die Kurven sehen immer gleich aus, egal, ob die Werte täglich, wöchentlich,

13 Künstliche Intelligenz in der Finanzwirtschaft

185

Abb. 13.1 Diese Informationen bzgl. des DAX werden in Echtzeit angeboten

monatlich oder jährlich eingezeichnet werden. Diese Übertragung der Theorie der Fraktale auf die Finanzwirtschaft geht auf Benoît Mandelbrot zurück (Abb. 13.2). In einer Gründungsserie für das renommierte Journal Quantitative Finance fasste er seine Sichtweise der Märkte zusammen. Hierbei beschrieb er einen fraktalen rekursiven Konstruktionsprozess für Preiszeitreihen, der Trends rekursiv in kleinere Trends zerlegt. Abb. 13.2 Benoît Mandelbrot (1924–2010)

186

13 Künstliche Intelligenz in der Finanzwirtschaft

Die Beantwortung der Frage, was ein Trend ist, scheint nicht schwierig zu sein. Mathematisch ist das aber nicht so einfach. Wenn man Trends definieren will, muss man zwei Dinge festlegen: die genaue Messmethodik sowie die Skala, mit der gemessen wird. Der gleitende Durchschnitt (auch gleitender Mittelwert) ist eine Methode zur Glättung von Zeitbzw. Datenreihen. Die Glättung erfolgt durch das Entfernen höherer Frequenzanteile. Im Ergebnis wird eine neue Datenpunktmenge erstellt, die aus den Mittelwerten gleich großer Untermengen der ursprünglichen Datenpunktmenge besteht. m(t) =

n−1 1 x(t − i). n

(13.1)

i=0

Bei vielen Werten aus dem Börsenalltag werden die Werte n = 38 für einen Monat und n = 200 für ein halbes Jahr gewählt. Starke Ausschläge der Werte nach oben und unten können sich kompensieren, wenn sie gleich oft auftreten und etwa die gleiche Größe besitzen. Die strukturierte monatliche Investition in Aktien, die historisch im Preis gestiegen sind, erscheint hiermit klar. Offensichtlich nutzt dieser Effekt überlange Trends in den Realdaten aus [4]. Analog verhält es sich mit Aktienpreisen, die ebenfalls als fraktal angenommen werden dürfen. 1968 verallgemeinert Mandelbrot mit van Ness das für die Finanzmathematik grundlegende Modell eines Random Walks, in dem er neben dem Zuwachs von Renditen (Drift) und deren Schwankung (Volatilität) einen weiteren Parameter, den sogenannten Hurst-Exponenten, einführt. Mit diesem Parameter lässt sich das Skalierungsverhalten der Preise beschreiben. Hierbei können Werte < 0,5 als Mean Reversion interpretiert werden, während Werte > 0,5 als Trending verstanden werden können. Nur im Grenzfall, wo der Hurst-Exponent gleich 0,5 ist, darf man von effizienten Märkten sprechen. In diesem Fall wäre die Zeitreihe statistisch trendfrei, d. h., sie hätte keinen Bezug zur Vergangenheit. Gegen Ende seiner Laufbahn skizziert Mandelbrot ein Konstruktionsprinzip für Trends, das dem Konstruktionsprinzip von Fraktalen folgt. Ausgehend von einem Haupttrend wendet er eine Unterteilungsvorschrift an, die diesen Haupttrend in drei kleinere Trends unterteilt. In einem nächsten Schritt werden diese kleineren Segmente wiederum weiter in noch kleinere Trends zerlegt. Das Ganze führt auf ein Fraktal, in dem Trends durch kleinere Trends beschrieben werden können (Abb. 13.3). In einem Artikel wird gezeigt, dass man bekannte Faktor-Strategien wie Momentum (stark gestiegene Aktien), Low Volatility (Aktien, die schwach schwanken) und Value (Aktien, die aufgrund von wirtschaftlichen Kennzahlen als günstig angesehen werden), durch systematische trendbasierte Strategien beschreiben und ersetzen kann. Hierzu wird für alle Aktien lediglich der zuletzt sichtbare Trend ausgewertet und dann nach Steigung sortiert. Die Unterschiede in den Strategien können durch verschiedene Wavelet-Skalen, mit denen man die letzten sichtbaren Trends ausrechnet, beschrieben werden. Diese Sichtweise von Investment-Stilen (Faktor-Investments) ist zudem nahezu vollständig, d. h., man ist in der Lage, Marktrenditen mit hoher statistischer Güte durch diese

13 Künstliche Intelligenz in der Finanzwirtschaft

187

Abb. 13.3 Mittlere Trendlängen

Investment-Stile zu beschreiben. Diese Stile sind zusätzlich in unterschiedlichen Marktregimen dominant, d. h., sie erzeugen in unterschiedlichen Phasen Überrenditen. Beispielsweise ist die Investition in defensive Aktien dann attraktiv, wenn der Markt sich in einer Abwärtsphase befindet, während Value oftmals sehr hohe Renditen erzeugt, wenn Märkte als billig gelten und Marktteilnehmer davon ausgehen, dass sich die Kurse erholen. Bei Momentum spielen die Gewinnrevisionen von Unternehmen dagegen eine dominante (aber nicht ausschließliche) Rolle. • Der Aufstieg der Künstlichen Intelligenz erfordert neue Gedanken und neue Inhalte für die Ausbildung im Finanzwesen. KI-Experten sind jetzt schon ein Engpass; die Firmen im Finanzwesen konkurrieren mit technologisch orientierten Firmen, Neugründungen und anderen Bereichen. Die Anwendung von effizienten Algorithmen führt zu Gewinnen, die über den allgemeinen marktüblichen Werten liegen. • Algorithmische Bonitätsprüfungen können Kreditentscheidungen unterstützen oder vollständig automatisieren. • Algorithmen können ungewöhnliche Muster erkennen und damit zur Erkennung von Betrug oder sogar zur Vorbeugung beitragen. • Algorithmen können so trainiert werden, dass sie den Handel mit Derivaten optimal ausführen können. • Algorithmen können dazu benutzt werden, Fonds zu gestalten und zu verwalten, die zur Altersversorgung bestimmt sind.

188

13 Künstliche Intelligenz in der Finanzwirtschaft

Die Algorithmen arbeiten besser und effektiver als Menschen aufgrund folgender Faktoren: • Es ist die Bewältigung großer Datenmengen möglich. • Die Instabilität der Finanzmärkte folgt keinen konstanten Gesetzen. • Viele auftretende Relationen sind nichtlinear. Winzige Änderungen in den Ausgangsdaten können zu gewaltigen Veränderungen im Markt führen. • Die hohe Dimensionalität vieler Probleme kann durch Programme bewältigt werden. • Die traditionelle Ökonometrie beschäftigte sich vornehmlich mit Regressionsproblemen. Klassifikationsprobleme können aber mit Lernverfahren wesentlich besser bewältigt werden. • Die Lernverfahren der Künstlichen Intelligenz können gleichzeitig strukturierte und nicht strukturierte Daten behandeln. Eine wesentliche Weiterentwicklung der Hardware war die Entwicklung von Grafikprozessoren (GPU). GPUs übernehmen die Berechnungen für 2D- und 3D-Grafiken. Dadurch wird die CPU (Central Processor Unit) entlastet. Diese kümmert sich um alle Rechenaufgaben, die nichts mit Grafik zu tun haben. Im Vergleich von GPU und CPU baut eine GPU meistens auf sehr viel Rechenkerne, um viele Aufgaben gleichzeitig bewältigen zu können. Das Berechnen von einzelnen Pixeln ist im Vergleich nicht sehr aufwendig, allerdings müssen Millionen von Pixeln gleichzeitig berechnet werden. Verbaut wird der Grafikprozessor entweder direkt auf der CPU, auf der Hauptplatine oder als Steckkarte für den Computer. Auf einer Steckkarte können auch mehrere GPUs verbaut sein – zum Beispiel bei der PowerColor Radeon R9. Heute teilen sich drei große Hersteller den Markt für die Produktion von Grafikprozessoren: Intel, AMD und Nvidia. Für die Zukunft werden zwei Möglichkeiten angeführt. • Das Monopol: Eine finanzielle Institution erreicht eine dominierende Position, weil sie als Erste in der Lage ist, hochwertige KI-Methoden zuerst anzuwenden. • Das Oligopol: eine Marktform, die durch wenige Marktteilnehmer gekennzeichnet ist. Man beschäftigt sich zurzeit intensiv mit folgenden Problemen: • Datenschutz: Die großflächige Anwendung von KI-Methoden erfordert die Nutzung privater Daten. Das bringt das Risiko mit sich, dass Daten gestohlen oder unzulässig benutzt werden. • Voreingenommenheit: Die Algorithmen können diese Eigenschaften annehmen, wenn sie bereits in den Daten vorhanden ist. • Die Erklärbarkeit der Ergebnisse ist ein großes Problem. Teilweise wird sie von den Investoren gefordert, teilweise ist sie gesetzlich vorgeschrieben. Obwohl dieses Gebiet intensiv untersucht wird, sind gegenwärtig keine Fortschritte zu sehen.

13 Künstliche Intelligenz in der Finanzwirtschaft

189

• Gewöhnungseffekt: Dieser Effekt kann auftreten, wenn viele das Gleiche tun. Hierzu kann man die Materialien zur Finanzkrise 2008 studieren. Eine ähnliche Situation kann auftreten, wenn viele Firmen die gleichen oder ähnliche Programme benutzen. • Die Rechtsprechung und die Finanzpolitik müssen mit diesen Entwicklungen Schritt halten und nicht ihnen hinterherhinken.

Künstliche Intelligenz und Ausbildung

14.1

14

Die Ausbildung von KI-Fachleuten

Das Hauptproblem bei der Schaffung intelligenter Systeme ist die interdisziplinäre Zusammenarbeit von Institutionen zum Erzielen einer kritischen Masse an Ressourcen und Kenntnissen. Wenn man die Hardware einmal beiseite lässt, dann bleibt das Problem, dass man in einem bestimmten Bereich, in dem man intelligente Systeme einführen will, genügend Fachleute hat, die informatikgerecht die Probleme des Bereiches modellieren und programmieren. Außerdem muss die Einführung derartiger Systeme sehr umsichtig vorgenommen werden. Sehr schnell gerät man in die Situation, dass das alte System nicht mehr da ist, das neue aber noch nicht funktioniert. Das kann eine verlustträchtige Situation sein. Eine gute Position nimmt hier das DFKI ein [14]. Sie bieten beispielsweise das folgende Zertifikat an: „Künstliche Intelligenz (KI), Maschinelles Lernen und Autonome Systeme werden die Entwicklung von Unternehmen in den kommenden Jahren entscheidend beeinflussen. Was bedeutet dies für das eigene Unternehmen? Kann man mit KI die zukünftige Wertschöpfung eines Unternehmens unterstützen? Welche KI-Konzepte, welche Grundlagen, Methoden und konkreten Anwendungen verbergen sich hinter den oft strapazierten Schlagworten? Welche Grundlagen muss man beherrschen, mit welchen Forschungsinstituten und Unternehmen kann man im Bereich Künstliche Intelligenz zusammenarbeiten, und wo gibt es bereits erfahrbare Beispiele guter Praxis? Antworten auf diese Fragen gibt der bisher einzigartige Zertifikatslehrgang „Ausbildung zum KI Manager“ in Berlin – die erste Ausbildung im Bereich Künstliche Intelligenz mit Zertifikat.“ Der praxisorientierte Zertifikatslehrgang wird von führenden Experten des Deutschen Forschungszentrums für Künstliche Intelligenz DFKI, von SAP, von IBM Watson und ausgewählten Partnereinrichtungen durchgeführt. Der Lehrgang wird mittels einer digitalen Lernumgebung durchgeführt. Teilnehmer können thematische Schwerpunkte setzen und diese in den jeweiligen Modulen mit den © Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_14

191

192

14 Künstliche Intelligenz und Ausbildung

Dozenten diskutieren und weiterbearbeiten. Durch vielseitige Praxisübungen und Gruppenarbeiten wird der Wissenstransfer abgerundet und sichergestellt. Teilnehmer werden somit befähigt, das erlernte Wissen in den eigenen Unternehmensalltag mitzunehmen und anzuwenden. Mit erfolgreichem Prüfungsabschluss erhalten die Teilnehmer ein BitkomPersonenzertifikat. Der berufsbegleitende Zertifikatslehrgang „Ausbildung zum KI Manager“ setzt sich aus fünf Modulen zusammen, in denen Teilnehmer die Grundlagen von Künstlicher Intelligenz und hybrider Wertschöpfung durch Heuristiken, wissensbasierte Systeme und Maschinelles Lernen vermittelt bekommen. Anwendungsbeispiele zu Künstlicher Intelligenz und Praxiserfahrungen aus Forschung und Entwicklung sowie von Unternehmen und Start-ups sind integraler Bestandteil der Ausbildung. Die Teilnehmer erproben KI-Dienste und Services im Internet, reflektieren diese vor dem Hintergrund ihrer eigenen Geschäftsfelder und werden befähigt, Use Cases zur Generierung KI-basierter, hybrider Wertschöpfung für das eigene Unternehmen zu konzipieren und kritisch zu reflektieren. Die fünf Module der Ausbildung zum KI Manager: • Was ist Künstliche Intelligenz: Historie, Beispiele, Gesellschaft, Ethik (2 Tage) • Grundlagen und Voraussetzungen von KI: Methoden, Werkzeuge, Hands-on, Maschinelles Lernen, Data Mining (2 Tage) • Hybride Wertschöpfung durch KI-Grundlagen, Methoden. Anwendungen Industrie 4.0 und Smart Services (1 Tag) • Künstliche Intelligenz in Forschung und (Geschäfts-)Anwendung. Cognitive AR, Retail Solutions, Watson, Leonardo (2 Tage) • Entwicklung von Geschäftsfeldern, Veränderung von Unternehmenskultur, Gestaltung von Transformationsprozessen (1 Tag). Die Industrie- und Handelskammer (IHK) hält über die IHK Akademie in München und Oberbayern sowie über die verschiedenen regionalen Standorte eine Reihe von Angeboten für die technische Fort- und Weiterbildung bereit – so auch für KI und Themen rund um den Umgang mit Daten. Die IHK Region Stuttgart hat im Jahr 2019 schon zu einer Reihe von Workcamps und anderen Veranstaltungen zu KI eingeladen. Die IHK Rhein-Neckar hat KI und analytische Plattformen sowie „Von Big Data zu Smart Data“ thematisiert. Der Arbeitskreis Künstliche Intelligenz (AKKI) der IHK Lübeck hat zusammen mit der dortigen Universität und dem MEVIS schon mehrmals Ringvorlesungen zum Thema abgehalten. Ein Blick in die jeweiligen Fort- und Weiterbildungsmaßnahmen der IHK vor Ort kann sich also auch für kleinere Unternehmen lohnen. Bei einer übergeordneten Qualifikation für den jeweiligen Unternehmensbereich – einem Diplom als Betriebswirt etwa – lohnt ein vollwertiges Informatikstudium mit Spezialrichtung KI kaum, wohl aber vielleicht für den einen oder anderen Nachwuchs in der IT-Abteilung. Entsprechende deutsche Hochschulangebote hat die WirtschaftsWoche zusammengefasst.

14.2

Die Anwendung der Künstlichen Intelligenz in der Ausbildung

193

Die Berliner Beuth Hochschule für Technik wirbt sogar auf YouTube für den neuen Studiengang Humanoide Robotik. Die TU München (TUM) hat vor Kurzem den interdisziplinären Masterstudiengang „Robotics, Cognition, Intelligence“ eingeführt. Die Bergische Universität Wuppertal hat ein „Interdisziplinäres Zentrum Machine Learning and Data Analytics“, kurz IZMD, ins Leben gerufen. Bachelor-Studiengänge mit KI-Bezug gibt es unter anderem in Stuttgart, Marburg, Göttingen, in Karlsruhe, in Deggendorf sowie an der Hochschule Beuth Berlin, Master-Studiengänge an der LMU München, der Hochschule Darmstadt, den Universitäten Marburg, Potsdam und Bielefeld, der TU Chemnitz und an der Stuttgarter Hochschule der Medien. Seminare und Unterstützung im Bereich KI und Data Science bieten auch Beratungshäuser wie die All for One Group mit Hauptsitz in Filderstadt bei Stuttgart an. Zur führenden IT- und Consulting-Gruppe in der DACH-Region gehört eine Reihe von Tochterunternehmen und Niederlassungen, darunter die B4B Solutions und Allfoye Managementberatung GmbH, die Unternehmenskunden in puncto Change Management unterstützen, um die Herausforderungen der Digitalen Transformation zu meistern.

14.2

Die Anwendung der Künstlichen Intelligenz in der Ausbildung

Dieses Gebiet wird heftig diskutiert und ist sehr umfangreich. es sollen nur einige Beispiele angegeben werden, die sich direkt auf die Ausbildung in einem bestimmten Fach beziehen. Der 3D-Druck von Körperteilen leitet eine neue Ära in der Anatomie-Ausbildung ein. Vor allem in Ländern, wo die Exhumierung von Leichen ein Problem darstellt, kann der 3D-Drucker die medizinische Ausbildung grundlegend verändern. Das erste Produkt für diesen Anwendungsbereich dürfte die 3D Printed Anatomy Series’ der Monash University sein [1]. Die Serie der mit einem 3D-Drucker erstellten Körperteile arbeitet ohne Körperteile von Verstorbenen, bietet aber dennoch alle wichtigen Teile eines Körpers, die für die wissenschaftliche Lehren in der Anatomie erforderlich sind (Sehnen, Bänder, Muskeln, Knochen usw.). Laut Professor Paul McMenamin, dem Direktor des Centre for Human Anatomy Education der Universität in Monash, führe der Einsatz des preiswerten Anatomie-Kits zu einer Verbesserung der Kenntnisse künftiger Ärzte und anderer medizinischer Fachkräfte. Die Technik könnte seinen Angaben zufolge sogar zur Entwicklung neuer chirurgischer Behandlungsverfahren führen. Das Anatomie-Kit dürfte besonders in Entwicklungsländern für erhöhtes Interesse sorgen. Dort ist der Umgang mit Leichen oft aus religiösen oder kulturellen Gründen problematisch. Die 3D-gedruckten Körpermodelle des Anatomie-Kits sind schnell und relativ kostengünstig herzustellen. Außerdem unterliegen sie keiner ständigen Veränderung. Das bedeutet, dass mit der Anschaffung eines 3D-Druckers und der digitalen CAD-Dateien weltweit jederzeit neue Modelle produziert werden können (Abb. 14.1).

194

14 Künstliche Intelligenz und Ausbildung

Abb. 14.1 Die 3D-Nachbildung einer Hand

In einem ersten Schritt werden echte Körperteile per Computertomograph oder einem Oberflächen-Laserscanner eingescannt. Anschließend werden die Körperteile aus einem gipsartigen Pulver oder Kunststoff mit lebensechten Farben in höherer Auflösung ausgedruckt. Die Kombination von Künstlicher Intelligenz und 3D-Druck kann auch dazu beitragen, die Palette der kompatiblen Materialien zu erweitern und damit die Anforderungen von Industriezweigen wie der Luft- und Raumfahrt zu erfüllen, die meist Hochtemperaturmaterialien benötigen. Das vom Fraunhofer-Institut IWS im Jahr 2017 gestartete Projekt „futureAM“ ist ein perfektes Beispiel dafür. Professor Dr.-Ing. Frank Brückner, Leiter des Geschäftsfeldes „Generieren und Drucken“ am Fraunhofer IWS und AMCD (Additive Manufacturing Center Dresden), erklärt: „Flugzeugtriebwerke könnten bei höheren Temperaturen deutlich effizienter arbeiten, wenn die meisten Materialien bei Temperaturen über 1.200 Grad nicht versagen würden.“ Wo kommt hier nun KI zum Einsatz? Dies erklärt uns Prof. Dr.-Ing. Frank Brückner folgendermaßen: „Die Verarbeitung neuer Hochleistungswerksstoffe ist sehr komplex und bedarf einer feinen Abstimmung aller Prozessparameter. Deshalb überwachen wir den 3DDruck-Prozess mit einer Vielzahl verschiedener Sensoren. Mittels KI werten wir diese Flut an Daten dann aus und identifizieren verborgene, für den Menschen nicht erkennbare Zusammenhänge“. Genau hier liegt also der Vorteil Künstlicher Intelligenz: Sie kann im Vergleich zu uns Menschen ein Vielfaches an Daten verarbeiten – und das alles noch deutlich schneller. Dank dieser Arbeit können die Forscher komplexe Legierungen verarbeiten und die genauen Eigenschaften der Werkstoffe erhalten. Auch zur Verbesserung des 3D-Druckprozesses kann KI beitragen. So zum Beispiel lässt sich die Druckbarkeit eines Objekts bereits vor der Durchführung analysieren, um sicherzustellen, dass es für den 3D-Druck überhaupt geeignet ist. Aber auch Qualitätsvorhersage sowie Qualitätskontrolle des Druckprozesses können Fehler im Endprodukt vermeiden und damit zu einem besseren Ergebnis führen (Abb. 14.2). Das Start-up Printsyst versucht, dies mit Hilfe ihrer KI-Engine umzusetzen – in diesem Fall speziell im Bereich der Luftfahrtindustrie. Das Ziel des patentierten KI-Algorithmus des Unternehmens liegt darin, die Funktionalität der Teile zu identifizieren und die Erfolgsrate

14.2

Die Anwendung der Künstlichen Intelligenz in der Ausbildung

195

Abb. 14.2 Komplizierte Formen machen keine Schwierigkeiten

des Druckens zu verbessern. Dabei lernt die integrierte Lösung von Printsyst grundsätzlich aus Erfahrungswerten, die aus früheren Projekten stammen, in denen Objekte additiv hergestellt wurden. Um die sehr strengen Industriespezifikationen, die in der Luftfahrt gelten, zu erfüllen, werden spezifische Druckparameter vorgeschlagen, die sich in der Vergangenheit bei bereits gedruckten Teilen bewährt haben und in der Zukunft mit hoher Wahrscheinlichkeit einen erfolgreichen ersten Druck liefern. Ebenfalls auf Basis gesammelter Erfahrungsdaten kann Printsysts Lösung die Kosten für benötigte Komponenten genau abschätzen und somit neben der Produktivität auch die Lieferbereitschaft erhöhen, bei möglichst geringen Kosten. Eitan Yona, Mitbegründer von Printsyst, erläutert an einem Beispiel: „Wir reduzieren den durchschnittlichen 3D-Druckvorbereitungsprozess von 30 min auf 5 s bei jedem einzelnen Auftrag. Durch die Reduzierung dieser Zeit erhöhen wir die Auslastung des Druckers, und durch die Beseitigung von Fehlern reduzieren wir die Iterationen.“ Wir sehen also, dass aufgrund der hohen Komplexität, die ein manueller Prozess mit sich bringen kann, der Einsatz von KI durchaus sinnvoll ist. So können beispielsweise alle Parameter durch den Algorithmus in Sekundenschnelle eingestellt und optimiert werden – es lassen sich im Vergleich zur manuellen Bearbeitung mit Hilfe von KI somit deutlich bessere Ergebnisse erzielen. Ein weiteres Anwendungsfeld im Bereich der Qualitätsoptimierung ist die bereits oben angesprochene Druckbarkeitsanalyse (Teilebewertung), die vor dem Druck stattfindet. Das oben bereits erwähnte Unternehmen AMFG hat in ihrem umfangreichem Softwarepaket eine Eigenschaft realisiert, die sicherstellt, dass ein 3D-gedrucktes Teil letztendlich auch wirklich für den 3D-Druck geeignet ist. Dies ist besonders für Unternehmen, die mit additiver Fertigung effizient arbeiten, sehr wichtig. Auch hier gilt, dass zuvor gewonnene Daten verarbeitet werden und so die Druckbarkeit eines Teils vorhergesehen werden kann. Wenn das Teil beispielsweise viele Schwachstellen hinsichtlich Stabilität, Form oder auch Belastbarkeit hat, können durch ein Verhindern des Drucks enorme Kosten gespart werden.

196

14 Künstliche Intelligenz und Ausbildung

Es gibt viele kleinere Systeme für die Ausbildung in verschiedenen Fächern (Chemie, Physik, Biologie, Fremdsprachen). Die werden im Wesentlichen im Selbststudium von einzelnen Personen genutzt. Es fehlt oft eine generelle Anwendung in den Schulen von Klasse 1 bis Klasse 12 oder 13. Es ist dringend erforderlich, eine entsprechende Didaktik auszuarbeiten und die Systeme in die Schulen zu bringen.

Künstliche Intelligenz in der Kunst

15

Die Anwendung intelligenter Software für das Malen und Zeichnen wurde schon ausführlich im Kapitel über die Bildverarbeitung diskutiert. Deshalb sollen in diesem Kapitel nur noch die Anwendungen von Methoden der Künstlichen Intelligenz in der Musik und der Architektur behandelt werden.

15.1

Künstliche Intelligenz und Musik

Musik ist die lebendigste und sinnlichste aller menschlichen Künste. So ist es kein Wunder, dass die Computerwissenschaft schon sehr früh versucht hat, mit Maschinen Klänge zu erzeugen oder Künstlichen Intelligenzen das Komponieren von Melodien beizubringen. Der Einsatz von Computern und Algorithmen für die Produktion von Musik hat eine lange Geschichte. Mit der Weiterentwicklung der Künstlichen Intelligenz und des Maschinellen Lernens werden auch die Möglichkeiten der maschinell erzeugten Musik immer ausgefeilter. Computer können aus realen, menschlichen Musikbeispielen Regeln und Richtlinien ableiten. • Die Illiac Suite, die später in Streichquartett Nr. 4 umbenannt wurde, ist eine 1957 entstandene Komposition, die als erste von einem elektronischen Computer komponierte Partitur gilt. Sie wurde vom Forscher Lejaren Hiller in Zusammenarbeit mit Leonard Issacson, beide Professoren an der an der University of Illinois, programmiert. Dafür nutzten sie den Computer ILLIAC I (Illinois Automatic Computer). Die Illiac Suite besteht aus vier Sätzen, die vier Experimenten entsprechen: Der erste handelt von der Erzeugung von Cantus Firmi, der zweite erzeugt vierstimmige Segmente mit verschiedenen Regeln, der dritte beschäftigt sich mit Rhythmus, Dynamik und Spielanweisungen und der vierte mit verschiedenen Modellen und Wahrscheinlichkeiten für generative Grammatiken oder

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_15

197

198











15 Künstliche Intelligenz in der Kunst

Markov-Ketten. Auf dem Papier war die Illiac Suite ein echtes Meisterwerk, doch in der Realität klingt das Stück sehr gequält und nicht ganz ausgegoren. 1965 brachte der Erfinder Ray Kurzweil ein von einem Computer erstelltes Klavierstück zur Uraufführung, das in der Lage war, in verschiedenen Kompositionen Muster zu erkennen, zu analysieren und neue Melodien zu erschaffen. Dieser Computer wurde erstmals in Steve Allens CBS-Game-Show „I’ve Got a Secret“ eingesetzt. 1980 entwickelte Professor und Komponist David Cope an der University of California ein System mit dem Namen EMI (Experiments in Musical Intelligence). Es basierte auf der Idee der Markov-Ketten, also darauf, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben. Cope verwendete ein Programm, um bestehende Musikpassagen zu analysieren und daraus neue Stücke zu schaffen, was als echter Durchbruch galt. Durch die Analyse verschiedener Werke konnte EMI einzigartige strukturierte Kompositionen im Rahmen verschiedener Genres generieren. Insgesamt hat das System über tausend Werke geschaffen, die auf den Werken von 39 Komponisten mit unterschiedlichen Musikstilen basierten. Aiva Technologies ist eines der führenden Unternehmen im Bereich der Musikkomposition. Es wurde 2016 in Luxemburg und London von Pierre Barreau, Denis Shtefan, Arnaud Decker und Vincent Barreau gegründet. Ihre KI trägt den Namen „Aiva“ (Artificial Intelligence Virtual Artist), der man beigebracht hat, klassische Musik zu komponieren. Nachdem Aiva bereits ihr erstes Album namens „Genesis“ sowie zahlreiche Einzeltitel veröffentlicht hat, hat das Programm offiziell den weltweiten Status eines Komponisten erhalten. Sie wurde bei der französischen und luxemburgischen Gesellschaft für Urheberrechte (SACEM) registriert, bei der alle ihre Werke mit einem Urheberrecht auf ihren eigenen Namen registriert sind. Shimon ist ein Marimba spielender Roboter vom Georgia Tech Professor Gil Weinberg, der singt, tanzt, Texte schreibt und sogar einige Melodien komponieren kann. Weinberg und seine Studenten haben Shimon mit Datensätzen von 50.000 Texten aus Jazz, ProgRock und Hip-Hop trainiert. Noah 9000 ist ein Musikprojekt von Michael Katzlberger, CEO der Wiener Kreativagentur TUNNEL23. 9000 ist eine Anspielung auf die neurotische Künstliche Intelligenz „HAL 9000“ aus dem Meisterwerk von Stanley Kubrick, „2001: Odyssee im Weltraum“ aus dem Jahre 1968. Für dieses Projekt wurde das Programm unter anderem mit Klaviersonaten von Ludwig van Beethoven trainiert. Um das perfekte Stück zu erschaffen, kann es manchmal viele Hundert oder Tausend Iterationen dauern, bis für das menschliche Gehör richtige, wohlklingende Töne erzeugt werden. Die wohl interessanteste Herausforderung in der Produktion moderner Musik liegt ja nicht nur in der Komposition selbst, sondern auch in der Instrumentierung und der Klanggestaltung. Katzlberger wählte als Kurator 10 von Programmen generierte Tracks für das Album Spring 9000 aus rund 2000 KIKompositionen aus. Es ist der Versuch, mit Künstlicher Intelligenz Musik zu erschaffen, die sich menschlich anfühlt.

15.2

Künstliche Intelligenz und Architektur

199

Jeder kann das Steelpan über Virtual Piano spielen. Sie müssen nicht in der Lage sein, Noten zu lesen und müssen auch noch nie Steelpan gespielt haben. Die Notenblätter von Virtual Piano enthalten Buchstaben, die den Tasten einer QWERTY-Tastatur entsprechen. Es ist also schnell und einfach zu erlernen. Sie können sofort mit dem Steelpan spielen [65]. Die Plattform virtualpiano.net ermöglicht es, auf der Computertastatur, dem Handy oder einem Tablet Klavier zu spielen [64].

15.2

Künstliche Intelligenz und Architektur

Es gibt viele Möglichkeiten, wie die Künstliche Intelligenz das Gebiet der Architektur verändert [52]. • Programme können jetzt Gebäudeberechnungen und Umweltanalysen zu einer einfachen Aufgabe machen. Heutzutage sind so viele Daten für einen Architekten verfügbar, dass das Abrufen von Informationen wie Temperatur- und Wetterdaten, Materialbewertungen usw., für deren Kompilierung sonst viel Zeit erforderlich wäre, viel einfacher ist. • Die Anwendung intelligenter Systeme kann die Zeit für die Planung und Gestaltung einer Struktur durch Building Information Modeling (BIM) erheblich verkürzen. • Computer Aided Design (CAD) war maßgeblich an der Erstellung von 2D- und 3DModellen von Gebäuden beteiligt. BIM geht noch einen Schritt weiter und integriert Produktinformationen, Zeit und Kosten, so dass ein Architekt den gesamten Umfang eines Projektes erhält. BIM arbeitet mit anderen Planungssoftwareprogrammen zusammen, um ein vollständiges Bild einer Struktur zu erhalten, einschließlich Konzeptentwurf, Detailentwurf, Analyse, Dokumentation, Fertigung, Bau, Betrieb und Wartung nach dem Bau des Gebäudes sowie Sanierungs- oder Abbruchpläne. • Durch eine angemessene Nutzung können Programme diese Daten nutzen und Trends oder Ineffizienzen erkennen. Auf diese Weise können Architekten bessere und länger anhaltende Projekte entwerfen, ohne dabei viel Zeit für die Datenanalyse zu verlieren. • Intelligente Technik gibt Architekten auch die Möglichkeit, intelligente Beleuchtung oder intelligente Regenwasser-Managementsysteme in die Pläne zu integrieren. Nichts davon war noch vor einem Jahrzehnt möglich. Durch die Verbreitung der Technologie wird es kleineren Praxen erlaubt, größere Projekte zu übernehmen, da sie das Internet und alle ihnen zur Verfügung stehenden Ressourcen nutzen können, um Vorschläge zu entwickeln. • Etwa 7 % der Arbeitskräfte der Welt sind in der Bauindustrie beschäftigt, doch ist sie traditionell eine der am wenigsten technologisch fortgeschrittenen Branchen. Es gibt jedoch ein großes Potenzial für die Integration von KI in das Bauwesen, und sie könnte die Baukosten um bis zu 20 % senken.

200

15 Künstliche Intelligenz in der Kunst

• In Unternehmen, Büros und auf dem Campus wird seit Langem die Videosicherheit verwendet, um zu überwachen, wer kommt und geht. Aufgrund des hohen Volumens an gesammeltem Filmmaterial kann es jedoch vorkommen, dass Dinge übersehen werden, wenn niemand das Video ansieht. Ein intelligentes, in ein Gebäude integriertes Sicherheitssystem hingegen kann schnell scannen, verdächtige Aktivitäten automatisch erkennen und Warnmeldungen an den Bauherrn senden. • KI-basierte Energiemanagement-Plattformen können Nutzungsmuster festlegen, um ideale Bedingungen für Mieter zu schaffen, die dadurch sowohl Energie als auch Geld sparen können. Das Nest Thermostat ist ein Beispiel für ein solches System, das bei Verbrauchern beliebt ist – es passt sich an, um ein Gebäude auf einer sicheren und optimalen Temperatur zu halten, und kann den Benutzer warnen, wenn die Temperatur sinkt oder auf ein gefährliches Maß ansteigt. KI-Geräte können auch Daten von Sensoren aufnehmen und analysieren, um Lecks oder Fehlfunktionen zu überwachen. Sie machen es einfacher denn je, die Leistung und Effizienz eines Gebäudes im Auge zu behalten. Die KI kann auch in Form von intelligenten Schließsystemen eingesetzt werden, die den Zutritt zu bestimmten Bereichen einschränken können, es sei denn, der Benutzer verfügt über eine Schlüsselkarte oder einen Code. Neben dem Einsatz von autonomen oder teilautonomen Baumaschinen zur Unterstützung von Aushub- und Vorbereitungsarbeiten können Computer Baustellen analysieren und potenzielle Risikofaktoren identifizieren, wodurch Sicherheitsrisiken und die damit verbundenen Verzögerungen verringert werden. Über Video-Feeds werden weltweit Daten über das Verhalten und die Nutzungsmuster von Menschen gesammelt. Beispielsweise wird die KI bereits zur Optimierung der Abläufe in Museen und Flughäfen eingesetzt. Unternehmen könnten Gebäude entwerfen, die sich integrieren, um ganze intelligente Städte zu schaffen, basierend darauf, wie Menschen mit ihrer Umgebung interagieren und wie sie sich im öffentlichen Raum fühlen.

Abb. 15.1 Die Architektur der Zukunft

15.2

Künstliche Intelligenz und Architektur

201

Von der Chinesischen Mauer bis zu den ägyptischen Pyramiden ging es bei der architektonischen Innovation darum, das Beste aus der verfügbaren Technologie herauszuholen. Wenn sich die menschlichen Bedürfnisse und Technologien weiterentwickeln, ist die KI bereit, die architektonischen Errungenschaften der Menschheit auf die nächste Ebene zu bringen (Abb. 15.1).

Künstliche Intelligenz im Rechtswesen

16

Auch das Rechtswesen beginnt, die Künstliche Intelligenz in ihre Überlegungen einzubeziehen, in Deutschland relativ zögerlich und zurückhaltend, obwohl auf diesem Gebiet auch bereits Forschungen existieren, die vor mehr als 30 Jahren begannen und mit der Person von Professor J. van den Herik aus den Niederlanden verbunden sind. Man kann gegenwärtig die Universität Leiden als ein Zentrum der Verbindung von Künstlicher Intelligenz und Rechtswesen ansehen. Es gibt in Leiden die folgenden Institute: • • • • • • • • •

Law Institute for the Interdisciplinary Study of the Law Van Vollenhoven Institute Constitutional and Administrative Law Institute of Private Law Child Law eLaw – Center for Law and Digital Technologies Europa Institute Welche Chancen und Gefahren ergeben sich aus der institutionellen und normativen Vielfalt im Bereich der Grundrechte für einen wirksamen Schutz dieser Rechte in einer pluralistischen Welt? [61] Das Forschungsprogramm „Effektiver Schutz der Grundrechte in einer pluralistischen Welt“ (EPFR) wurde in seiner jetzigen Form 2015 ins Leben gerufen. Es baut auf einer starken Tradition anregender und qualitativ hochwertiger Menschenrechtsforschung an der Universität Leiden auf und ist bestrebt, diesen Forschungszweig weiter auszubauen und zu stärken. Das Programm ist einzigartig in den Niederlanden, da es das einzige eigenständige Forschungsprogramm zu Grundrechten an einer niederländischen Rechtsfakultät ist.

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_16

203

204

16 Künstliche Intelligenz im Rechtswesen

Das EPFR-Programm erforscht die Dynamik der institutionellen und normativen Vielfalt im Bereich des Grundrechtsschutzes vor dem Hintergrund des soziokulturellen, politischen und wirtschaftlichen Pluralismus, der ein herausragendes Merkmal der heutigen Welt ist, sowohl global als auch lokal. Der Schwerpunkt des Programms liegt auf den folgenden aktuellen und sich überschneidenden Themen: • Viele handschriftliche und illustrierte Archive enthalten eine Fülle von Informationen, sind aber weitgehend unerforscht, weil sie komplex und für Computer schwer zu entziffern sind. Das Ziel dieses Projekts ist die Entwicklung einer digitalen Umgebung, die diese Herausforderung löst und heterogene Archivinhalte mit anderen digitalen Quellen verbindet [16]. Im Mittelpunkt des Projekts steht eine der wichtigsten Sammlungen des Naturalis Biodiversity Center: das Archiv und die Sammlung der Natuurkundige Commissie, die eine reiche verbale und bildliche Darstellung der Natur, der Kulturen und der Wirtschaft des indonesischen Archipels (1820–1850) enthält. Die Forscher werden ein fortschrittliches System zur Handschriften- und Bilderkennung (Monk) einsetzen, das durch kontextbezogene Informationen über Arten, Standorte und Lebensräume ergänzt wird. Das taxonomische Fachwissen von Naturalis wird in Kombination mit wissenschaftsgeschichtlichen Methoden genutzt, um das System weiter zu verfeinern. Das Ergebnis des Projekts wird Brill in die Lage versetzen, das System als Online-Dienst für den Bereich des Kulturerbes anzubieten. Dies wird sowohl Kuratoren von illustrierten handschriftlichen Archiven als auch Forschern dienen, die das Verständnis dieser Sammlungen fördern wollen. Mit der fortschreitenden Digitalisierung wird auch das juristische Arbeitsumfeld immer weiter verändert [51], von der Einführung der elektronischen Akte in der Verwaltung über ausgefeilte Softwarelösungen bis hin zum Einsatz spezieller Algorithmen [66]. Laut einer Umfrage des Freie Fachinformation Verlags aus 2020 ist die größte Motivation unter Juristen, sich mit Legal Tech auseinanderzusetzen, die Steigerung der Effizienz bei gleichzeitiger Kostenreduktion und Erhalt der Wettbewerbsfähigkeit. Dabei gaben immerhin rund 30 % der Befragten konkret an, dass die Einführung individueller LegalTech-Lösungen geplant sei. Dies zeigt, dass an Legal Tech kein Weg mehr vorbeiführt. Vor allem in der Corona-Krise haben einige der Legal-Tech-Start-ups erheblichen Zuwachs verzeichnen können. Gestrichene Flüge, Bahnfahrten oder Pauschalreisen führten dazu, dass immer mehr Verbraucher ihren Rechtsanspruch durchsetzen wollten – mit möglichst geringen Kosten und wenig Risiko. Legal Tech steht allgemein für IT-gestützte Anwendungen, die juristische Arbeitsprozesse unterstützen. So sollen Arbeitsabläufe effizienter und damit kostengünstiger werden. Der Einsatz verschiedener Softwareprogramme und Datenbanken ist mittlerweile in vielen Kanzleien Alltag. Die Software arbeitet weitestgehend mit Wenn-dann-Regeln. Mit Künstlicher Intelligenz geht man noch einen Schritt weiter: Künstliche Intelligenz beschäftigt sich mit der Automatisierung intelligenten Verhaltens und maschinellen Lernens. Hier arbeiten Algorithmen zwar auch zunächst mit Regeln, im Unterschied zur Software passen sie diese

16 Künstliche Intelligenz im Rechtswesen

205

aber immer wieder aufgrund von bereits gelösten Problemstellungen und Daten an und versuchen, Muster zu erkennen. So können sogar komplette Rechtsdienstleistungen abgebildet und menschliche bzw. juristische Entscheidungsprozesse nachempfunden werden. Eine Vielzahl junger Unternehmen hat das Thema entdeckt und weiß es wirtschaftlich zu nutzen. Plattformen wie flightright.de, die sich auf Fluggastentschädigungen spezialisiert haben, oder wenigermiete.de, deren Kerngeschäft unzulässige Mieterhöhungen sind, strömen auf den juristischen Markt. Der Lockdown mit seinen Folgen hat sein Übriges dazu getan, dass Rechtsportale bei Verbrauchern hoch im Kurs stehen. Das Unternehmen RightNow wirbt beispielsweise mit Rückerstattungsforderungen an Fitnessstudiogebühren während der pandemiebedingten Schließung oder Entschädigungsforderungen für Datenpannen im Impfzentrum. Die Vorteile für die Verbraucher liegen auf der Hand: Sie erhalten eine schnelle Einschätzung ihrer Erfolgsaussichten zur Durchsetzung ihrer Forderungen bei geringen Kosten oder sogar komplett kostenfrei. Kritisch erscheint dabei, dass diese Programme eine anwaltliche Erstberatung nicht ersetzen können, dies aber den Kunden nicht unbedingt bewusst ist. Dabei sind sie deutlich günstiger und somit auch verlockend. Verbraucherschützer bemängeln zudem teilweise eine mangelnde Kostentransparenz. So sind die im Erfolgsfall fälligen Provisionen nicht immer transparent auf den Webseiten dargestellt und können unter Umständen sogar höher als bei einer Kanzlei ausfallen. Die IT-Kenntnisse der Juristen werden sich mit der technologischen Entwicklung weiterentwickeln. IT-Kompetenz wird weit über die Bedienung eines Computers hinausgehen und ein wesentlicher Bestandteil des Anwaltsberufs sein. Anwälte sind genauso technologieaffin wie andere Berufsgruppen auch. Der Nachwuchs, der aktuell an den Universitäten studiert, gehört zur Gruppe der Digital Natives und ist mit den neuen Technologien aufgewachsen. Die Ausbildung sollte interdisziplinärer sein. Insbesondere der Fachbereich Jura muss das Thema Digitalisierung direkt in den Lehrplan integrieren. Letztlich sind für den Einsatz von Deep-Learning-Systemen auch längst nicht alle regulatorischen Fragen geklärt. Erst im April dieses Jahres hat die EU-Kommission einen Entwurf für eine Verordnung zur Festlegung von harmonisierten Regeln für KI veröffentlicht. Die Bundesrechtsanwaltskammer sieht das als einen ersten wichtigen Schritt an, äußert jedoch auch Nachschärfungsbedarf. Auf dem Rechtsmarkt schwelt währenddessen weiterhin der Streit zwischen Legal-TechUnternehmen und Anwaltskammern, denn insbesondere Beratungsdienstleistungen dürfen aus Schutz vor unqualifizierter Rechtsberatung nur von Rechtsanwälten erbracht werden. Dass dies nicht immer eindeutig ist, zeigt das kürzlich gefällte Urteil des Bundesgerichtshofs zu den Online-Vertragsangeboten von Smartlaw. Der BGH urteilte zugunsten des OnlineAnbieters von Verträgen, die klagende Anwaltskammer sieht nach wie vor die Gefahr einer Falschberatung für die Verbraucher. Und obwohl das Urteil vielleicht ein kleiner Sieg für die Anbieter automatisierter Vertragsangebote ist, machte der BGH deutlich, dass dies kein Ersatz für eine anwaltliche Rechtsberatung sei. Selbst wenn in Zukunft einige Legal-TechUnternehmen ebenfalls konsolidiert werden oder teilweise wieder verschwunden sind: Es bringt Bewegung in den Markt.

206

16 Künstliche Intelligenz im Rechtswesen

Langfristig werden KI und Algorithmen in bestimmten Rechtsfragen den Kanzleien durchaus Konkurrenz bieten können. Ersetzen werden sie diese jedoch nicht. Es geht darum, die Entwicklung der KI im Einsatz in der Juristerei aktiv mitzugestalten – technisch, ethisch, regulatorisch und kulturell. Gerade in der Corona-Krise wurden viele Prozesse im Rechtsbereich digitalisiert, was sonst wesentlich längere Zeit in Anspruch genommen hätte. Dieser Effekt muss weiter genutzt werden. Denn letztlich wird es auf eine Kombination aus Mensch und Maschine hinauslaufen, die sich gegenseitig ergänzen. Um dieses Ziel zu erreichen, braucht es vor allem Experten und Fachkräfte auf diesem Gebiet, die die Kanzleien auf diesem Weg unterstützen. Gut geschultes Personal und Knowhow werden also auch in Zukunft der Innovationstreiber bleiben – nur die Art und Weise, wie dieses eingesetzt wird, wird sich verändern. LawBot, der Chatbot für Rechtsfragen, der von einer Gruppe von Jurastudenten der Universität Cambridge ins Leben gerufen wurde, erweitert seine Möglichkeiten durch den Start in sieben Ländern und fügt eine Funktion zur Vorhersage des Ergebnisses eines Falles hinzu, mit der die Gewinnchancen eines vom Bot analysierten Rechtsstreits eingeschätzt werden können. Bisher konzentrierte sich LawBot-X auf das englische Strafrecht, aber die neue Version unterstützt nun auch die USA, Kanada, Hongkong, Singapur, Australien und Neuseeland sowie eine chinesische Sprachoption. Darüber hinaus kann es die von den Nutzern bereitgestellten Informationen analysieren, bevor es mit Hilfe von Data-Science-Techniken die Gewinnchancen einer Klage berechnet. Laut Geschäftsführer Ludwig Bull prognostiziert das System den Ausgang der Klage zurzeit mit einer Genauigkeit von 71 %. „Wir sind stolz darauf, diesen Dienst der Öffentlichkeit zur Verfügung zu stellen. LawBotX ist sowohl für die Grundlagenforschung im Bereich der Anwendung von KI auf Rechtsdienstleistungen als auch für die Förderung der Rechtsstaatlichkeit von Bedeutung.“ Das bedeutet, dass die KI, sobald sie die Situation des Nutzers kennengelernt hat, in der Lage sein wird, tatsächliche Anwälte im richtigen Land oder der richtigen Gerichtsbarkeit auszuwählen, die Hilfe leisten können. Die Marketingleiterin von LawBot, Rebecca Agliolo, sagte: „Nach dem Erfolg des ersten Pilotprojekts von LawBot freuen wir uns, eine Plattform zur Analyse der Qualität der Ansprüche der Nutzer auf den Markt bringen zu können. Wir haben uns von Entscheidungsbäumen zu datengesteuerter Intelligenz entwickelt.“ LawBot wurde gegründet, um das komplexe Recht rund um Sexualdelikte zu erklären. Er wurde dann auf insgesamt 26 schwere Straftaten erweitert. In den USA gibt es auch umfangreiche Bemühungen, um die Künstliche Intelligenz im Rechtswesen ansässig zu machen. Zu Beginn dieses Jahres sagte Ginni Rometty, Vorsitzende, Präsidentin und CEO von IBM, auf der @Work Talent + HR Conference von CNBC: „Ich erwarte, dass KI innerhalb der nächsten fünf bis zehn Jahre 100 % der Arbeitsplätze verändern wird. Dies wird eine Qualifizierung in großem Umfang erfordern, und die Unternehmen müssen dies auf eine Art und Weise tun, die alle einbezieht – auch Menschen, die vielleicht keinen vierjährigen Hochschulabschluss haben. Das letzte Mal, dass wir einen

16 Künstliche Intelligenz im Rechtswesen

207

so großen Paradigmenwechsel erlebt haben, war, als das Internet eingeführt wurde. Die Entwicklung ist nicht wirklich eine Frage des „Ob“, sondern eher des „Wann“ und „Wie“. „Viele mögen keine Veränderungen. Vor allem Anwälte sind dafür bekannt. In den zwei Jahrzehnten, in denen ich mit Anwälten aus den gesamten Vereinigten Staaten zusammenarbeite, habe ich festgestellt, dass Anwälte unter allen professionellen Dienstleistern zu denjenigen gehören, die sich am stärksten gegen Veränderungen sträuben. Ich finde es faszinierend, dass eine Gruppe von ausgebildeten Logikern nicht immer den Unterschied zwischen optionalen und obligatorischen Änderungen erkennt. Ob es ihnen nun gefällt oder nicht, Anwaltskanzleien sind Unternehmen, und die erfolgreichsten Kanzleien achten auf betriebswirtschaftliche Grundlagen wie Kapitalrendite (ROI), Marketing und so weiter [50].“ Das Erkennen von Veränderungen und die Anpassung an diese sind seit jeher das Markenzeichen erfolgreicher Unternehmen – und werden es auch in Zukunft sein. Nehmen wir zum Beispiel E-Discovery. Es gab eine Zeit, da war der Einsatz von E-Discovery-Tools in Unternehmen selten. Es war schlichtweg undenkbar, dass eine Firma, die über ein regelrechtes Lager von Mitarbeitern verfügte, die Dokumente durchforsteten, jemals von einer Firma, die E-Discovery-Technologie einsetzte, überholt werden könnte. Heute ist das genaue Gegenteil der Fall: Eine Firma, die große Mengen an Dokumenten prüft und dabei keine Technologie einsetzt, wäre ein Außenseiter. Das E-Discovery-Muster hat sich relativ schnell verändert. Im Juni 2007 wurde das erste iPhone von Apple veröffentlicht. Bis dahin war Apple vor allem für Computer und iPods bekannt. Steve Jobs erkannte jedoch schon früh den Wert der Kombination von Computertechnologie und Smartphones. Im Geschäftsjahr 2007 erwirtschaftete Apple einen Umsatz von 24,6 Mrd. US$, wobei das noch junge iPhone nur einen relativ geringen Anteil ausmachte. Allein im vierten Quartal 2019 erzielte Apple dagegen einen Umsatz von fast 63 Mrd. $. Heute, nur 12 Jahre nach der Markteinführung, macht das iPhone fast 70 % des Umsatzes von Apple aus (der schätzungsweise bei über 400 Mrd. US$ liegt). Die Fähigkeit, den kommenden Wandel zu erkennen und proaktiv darauf zu reagieren, hat Apple zu einem Powerhouse-Unternehmen gemacht. Apple hätte den Kopf in den Sand stecken und sich weiterhin auf iPods und Macs konzentrieren können. Hätte es das getan, wäre Apple heute vielleicht gar nicht mehr im Geschäft. Das iPhone war zunächst ein iPod in einem Telefon. Jetzt bietet es den Nutzern Zugang zu Siri, einer engen Anwendung von KI. Von Diensten wie der Zeiterfassung über die Vertragsprüfung bis hin zu Kurzanalysen und Recherchen entstehen ständig neue Technologieunternehmen, die den Bedürfnissen der Anwälte gerecht werden. Einige dieser Technologieunternehmen gehen schnell unter, und das, obwohl ihre Ideen oft zuvor sehr erfolgversprechend sind. Dazu kommt noch die unter Anwälten weitverbreitete Angst vor Veränderungen. Das Ergebnis ist, dass die Fortschritte, die der Rechtsbereich machen könnte, um seine Gesamteffizienz zu steigern, fast nicht vorhanden sind.

208

16 Künstliche Intelligenz im Rechtswesen

LawGeex ist eine automatisierte Plattform zur Vertragsprüfung, die mit Hilfe von KI die einfache Frage „Kann ich das unterschreiben?“ beantwortet. Die Idee ist einfach: Ein Vertrag wird an ein Unternehmen geschickt und auf die KI von LawGeex hochgeladen, die den Vertrag dann überprüft. Wenn Probleme festgestellt werden, wird der Vertrag an ein juristisches Team weitergeleitet, das die fragwürdigen Formulierungen hervorhebt. Die Zeitersparnis ist immens. Noch wichtiger ist jedoch, dass die Genauigkeit unvergleichlich ist. In einer Studie über Vertraulichkeitsvereinbarungen (Non-Disclosure Agreements, NDAs) wurden fünf Verträge von 20 erfahrenen Anwälten analysiert. In Hongkong gibt es über zweieinhalbtausend Start-ups, die fast 10.000 Menschen beschäftigen. Unternehmen wie Zegal zapfen diesen großen Pool an Talenten an und verändern das Spiel für Unternehmen, die sich bisher vor komplexen Rechtsdokumenten gescheut haben [72]. „Historisch gesehen war das Thema Recht für einzelne Unternehmen, insbesondere für kleine und mittlere Unternehmen und Anwaltskanzleien, ein einschüchternder Bereich“, sagt Tai Hung-Chou, CTO von Zegal. „Wir bieten einen Ort, an dem Kunden und Anwälte zusammenarbeiten können, um Verträge zu entwerfen und auszuführen – alles online. In Zukunft werden wir mit fortschrittlicher natürlicher Sprachverarbeitung und künstlicher Intelligenz den Zugang zu einer Vielzahl von Präzedenzfällen ermöglichen, die während des Entwurfsprozesses eingefügt werden können.“ Im Laufe der folgenden Jahrzehnte kamen zu den Case Reporters eine Fülle von Sekundärquellen hinzu, darunter Abhandlungen, Restatements und verschiedene juristische Fachzeitschriften. Die Case Reporters selbst wurden durch Pocket Parts ergänzt, d. h. durch Broschüren, die in spezielle Taschen auf der Rückseite der Reporters eingelegt wurden und die die im Reporter enthaltenen Fälle aktualisierten. Anwälte eines bestimmten Alters werden sich an die Pocket Parts erinnern, vielleicht mit Nostalgie oder vielleicht mit Grauen [29]. Aber im Großen und Ganzen, so erklärt Don MacLeod von Debevoise, änderten sich die Dinge die längste Zeit über nicht allzu sehr. Das Recht war in Büchern zu finden, die in verstaubten Regalen der juristischen Fakultät, der Anwaltskanzlei oder der juristischen Bezirksbibliothek standen. Dort und in den Köpfen erfahrener Anwälte wurde das Wissen aufbewahrt. Junior Associates mussten in die Bibliothek gehen, sich in den Wagen setzen, die Bücher durchgehen und den Partnern Bericht erstatten. Dann schlug, wie MacLeod es ausdrückt, der Asteroid ein, nämlich das Aufkommen computergestützter juristischer Datenbanken wie Westlaw und LexisNexis, in denen Fälle kontinuierlich veröffentlicht, aktualisiert und mit Anmerkungen versehen wurden. Diese Dienste kamen in den 1970er-Jahren auf den Markt und erfreuten sich während der PCRevolution in den 1980er-Jahren großer Beliebtheit. Heute dominieren juristische Online-Recherchedienste, die über das Internet (im Gegensatz zu speziellen Terminals) zur Verfügung gestellt werden, die Landschaft. Jurastudenten und Anwälte führen den größten Teil ihrer juristischen Recherchen online durch. Das Zelten in der Bibliothek ist nicht mehr nötig. „Heute können wir auf eine Vielzahl von

16 Künstliche Intelligenz im Rechtswesen

209

Informationen zugreifen und sie schnell und umfassend analysieren, was früher nicht möglich war“, sagt MacLeod. Und jetzt haben wir rund um die Uhr und mobil Zugang zu Informationen, egal wo wir sind. Juristische Online-Recherchedienste haben die Arbeit von Anwälten in einem Ausmaß verändert, das sich die Kunden von John B. West nie hätten vorstellen können. Man kann mit Fug und Recht behaupten, dass die juristische Recherche heute insgesamt schneller, einfacher und genauer ist als je zuvor. Doch leistungsstarke neue Instrumente bringen neue Herausforderungen und Chancen mit sich, denen wir uns nun zuwenden. Juristische Recherchen werden immer komplexer und anspruchsvoller sein als Recherchen im Bereich der Verbraucher. Aber diese höheren Erwartungen aus dem Verbraucherbereich wandern in den juristischen Bereich und führen dazu, dass Anwälte nach Recherchetools suchen, die schneller und intuitiver sind. „Es gibt so viel neues Maschinelles Lernen, das jetzt in das einfließt, was man in die Suchleiste eingibt“, sagt Tonya Custis. „Mit Westlaw Edge analysieren wir Ihre Suche linguistisch. Suchen Sie nach einer Gruppe von Fällen zu einem bestimmten Thema? Sind Sie auf der Suche nach einem ALR-Artikel mit einer Frage im Titel? Suchen Sie die Antwort auf eine bestimmte, enge Frage? Wir haben intelligente Programme eingesetzt, um die Absicht der Nutzer herauszufinden, damit Sie genau das bekommen, wonach Sie suchen.“ Mit anderen Worten, laut Khalid Al-Kofahi ist Westlaw Edge besser in der Lage, zwischen verschiedenen Arten von Anfragen zu unterscheiden und entsprechend zu reagieren. Aber das ist noch nicht alles, fährt Al-Kofahi fort. Westlaw Edge unterstützt die Rechercheure bei der Formulierung der richtigen Fragen und hilft den Anwälten, ein scher fassbares Thema oder eine Entscheidung zu finden, die ihnen auf der Zunge liegt und an die sie im Moment nicht denken können – was nur eine Möglichkeit ist, wie Westlaw Edge den Anwälten Zeit spart und ihr Vertrauen in ihre Recherchen erhöht. Natürlich bezieht Westlaw Edge einen Großteil seiner Leistungsfähigkeit aus den Verbesserungen, die ein Team von Anwaltsredakteuren an den Fällen vorgenommen hat. Andere juristische Recherchetools nutzen ebenfalls Künstliche Intelligenz, aber sie wenden keine Künstliche Intelligenz auf die Informationen an, die von Hunderten hochqualifizierter und erfahrener Anwaltsredakteure, die für Thomson Reuters arbeiten, durch Organisation und Kommentierung verbessert wurden. Nehmen wir zum Beispiel die prädiktive TypeaheadFunktion von Westlaw Edge, bei der ein Benutzer eine natürlichsprachliche Abfrage eingibt und Vorschläge für Recherchefragen erhält, die den Benutzer dann genau zu dem Teil des Dokuments führen, der die Fragen beantwortet. Manchmal enthalten die Antworten auch West-Headnotes, was nur eine Möglichkeit ist, wie Westlaw Edge künstliche und menschliche Intelligenz miteinander verbindet. „Die Technologie würde ohne die redaktionellen Verbesserungen von Westlaw nicht auf dieselbe Weise funktionieren“, erklärt Leann Blanchfield. „Wenn man die Technologie hat, sie aber mit Inhalten ohne Verbesserungen vergleicht, erhält man nicht die gleichen Ergebnisse. Der Kreislauf funktioniert in beide Richtungen: Die Datenverbesserung hilft der Technologie, und die Technologie hilft der Datenverbesserung. Künstliche Intelligenz und andere Tools ermöglichen es Blanchfield

210

16 Künstliche Intelligenz im Rechtswesen

und ihrem Content-Team, den riesigen Ozean juristischer Inhalte schneller zu durchforsten und Fälle und andere Behörden genauer und einheitlicher zu kennzeichnen.“ Litigation Analytics nutzt Künstliche Intelligenz, um eine riesige Menge historischer Daten zu durchforsten, und vermittelt Anwälten ein umfassendes Bild davon, wie ein Richter über eine bestimmte Forderung entscheiden könnte, wie lange eine solche Entscheidung dauern könnte und eine ganze Reihe anderer Faktoren, die Anwälten bei der Entwicklung einer Prozessstrategie und der Beratung von Mandanten über das weitere Vorgehen helfen können. Das Tool nutzt Grafiken und Datenvisualisierung, um diese Informationen für Anwälte in einem ästhetisch ansprechenden, leicht verständlichen Format darzustellen. „Anwälte formulieren ihre Strategie für Rechtsstreitigkeiten oft auf der Grundlage ihrer eigenen Erfahrungen und Erkenntnisse“, erklärt Khalid Al-Kofahi. „Das ist in Ordnung, aber wir glauben, dass wir es besser machen können. Bei Legal Analytics geht es darum, Anwälten neben persönlichen Erkenntnissen auch Daten an die Hand zu geben. Es geht darum, Anwälten Statistiken zur Verfügung zu stellen, die sich auf die Wahrscheinlichkeit beziehen, dass ein Gericht oder ein Richter einem Antrag stattgibt, einen Antrag ablehnt, über einen Antrag in einem bestimmten Zeitraum entscheidet – was auch immer.“ Die Einschätzung der Wahrscheinlichkeit einer bestimmten Entscheidung war in der Vergangenheit aufgrund der schieren Menge der zu analysierenden Daten eine Herausforderung, so Barb McGivern, Vice President of Strategy and Marketing bei Thomson Reuters: „Stellen Sie sich viele Räume vor, die vom Boden bis zur Decke mit Zetteln gefüllt sind: die Gerichtsprotokolle. Sie wollen wissen, wie der Richter über Ihren Antrag entscheiden wird, und irgendwo in diesen riesigen Räumen liegt Ihre Antwort. Das war das Problem von Big Data in der Rechtswissenschaft. Aber jetzt kann Legal Analytics mit Hilfe der neuesten Technologien diese Erkenntnisse an die Oberfläche bringen und sie mit Hilfe von Visualisierungs- und anderen Tools übersichtlich darstellen.“ „Ich freue mich sehr darauf, mit Kunden über Litigation Analytics zu sprechen“, sagt Jon Meyer. „Heutzutage versuchen Anwälte anhand von Anekdoten herauszufinden, wie erfolgreich ein bestimmtes Argument vor einem bestimmten Gericht oder Richter sein könnte – aber mit Litigation Analytics haben wir jetzt die Daten, um fundierte Entscheidungen zu treffen.“ Mit Litigation Analytics können Anwälte schnell verstehen, wie Richter mit einem viel höheren Maß an Vertrauen entscheiden könnten – basierend auf umfassenden, empirischen Informationen, nicht auf Vermutungen oder Bauchgefühl. Ein weiterer Bereich, der Anwälte beunruhigt: ob sie sich auf gutes Recht berufen. Seit vielen Jahren weist KeyCite, der Zitationsdienst von Westlaw, auf mögliche Probleme hin. Eine rote Flagge in KeyCite zeigt an, dass der betreffende Fall nicht mehr geltendes Recht ist (in mindestens einer Rechtsfrage), und eine gelbe Flagge in KeyCite bedeutet, dass der Fall eine negative Vorgeschichte hat, beispielsweise Kritik von einem anderen Gericht. KeyCite Overruling Risk, eine weitere Funktion, die in Westlaw Edge hinzugefügt wurde, führt ein orangefarbenes Warnsymbol ein: ein Indikator dafür, dass ein Fall implizit überstimmt werden kann, weil er sich auf eine überstimmte oder anderweitig ungültige frühere

16 Künstliche Intelligenz im Rechtswesen

211

Entscheidung stützt. Diese Funktion ermöglicht es Anwälten, den Status eines Falles auf eine Weise zu überprüfen, die zuvor nicht möglich war. In der Vergangenheit, so Mike Dahn, Senior Vice President of Westlaw Product Management, war für eine Statusmarkierung ein ausdrücklicher Verweis auf den markierten Fall in einer nachfolgenden Instanz erforderlich. Dies war gut, um Fälle zu erfassen, die direkt aufgehoben oder ausdrücklich verworfen wurden. Aber die vielen Fälle, in denen spätere Entwicklungen in der Rechtsprechung diesen Fall in schlechtes Recht verwandelt haben, wurden damit nicht erfasst. Dank KeyCite Overruling Risk werden Anwälte nun auf Situationen aufmerksam gemacht, in denen ein Fall aufgrund neuer Entwicklungen in der Rechtsprechung möglicherweise nicht mehr gültig ist. Die Anwälte werden auf die Behörden verwiesen, die ihren Fall in Frage stellen, so dass sie feststellen können, ob diese Behörden zutreffend sind – und das Risiko, schlechtes Recht zu zitieren, wird drastisch reduziert.

Zukünftige Entwicklungen

17

Bereits jetzt sieht man große Änderungen auf allen Gebieten. Diese Entwicklungen werden anhalten und zu einem umfassenden Wandel in allen Lebensbereichen führen. „Angesichts dieser Entwicklungen ist nicht erstaunlich, dass aktuell 62 % der Personalverantwortlichen davon ausgehen, dass KI das Arbeitsleben in den kommenden fünf Jahren grundlegend verändern wird. Unsere Arbeitswelt und Berufsbilder werden sich stark ändern. So ergab die Forschungsarbeit von Erik Brynjolfsson, Direktor der Massachusetts Institute of Technology (MIT) Initiative on the Digital Economy, dass maschinelles Lernen selten ganze Berufe ersetzt. Stattdessen übernimmt oder transformiert es bestimmte Arbeitsprozesse innerhalb eines Berufsbildes. Einzelne Jobs werden sicherlich verschwinden. Überwiegend jedoch werden viele Aufgaben von Mensch und KI gemeinsam übernommen werden, ganz im Sinne einer KI als persönlicher Assistent. Maschinen können zwar Aufgaben mit hohem Arbeitsaufkommen und Routineaufgaben übernehmen. Bei abstrakten Prozessen, bei denen Fähigkeiten wie Empathie, Urteilsvermögen, Kreativität, Inspiration und Führungsqualität gefragt sind, arbeiten sie jedoch weniger gut. Dazu gehören Bereiche wie Innovation und Personalführung.“ [11] Angesichts dieser Entwicklungen wird deutlich, wie wichtig es ist, dass Menschen flexibel und offen für sich verändernde oder neue Aufgaben sowie für kontinuierliches Lernen sind. Da sich die Künstliche Intelligenz ständig weiterentwickelt, muss die Kompetenz der Mitarbeiter diesen Fortschritten auch folgen. Es gilt daher, Weiterbildungsstrategien zu entwickeln, um das Potenzial von KI auch nutzen zu können. Hier sind nicht nur die ITMitarbeiter, sondern auch die Fachabteilungen gefragt. Salesforce bietet beispielsweise über eine Lernplattform Trailhead zahlreiche kostenfreie Weiterbildungsmöglichkeiten an. Sie zeigen, wie diese Technologien unsere Bemühungen um bessere Arbeitsplätze und Lebensbedingungen, erfolgreichere Unternehmen und fortschrittliche Gesellschaften bestmöglich unterstützen können. Die Auswirkungen der weiteren Entwicklung der Künstlichen Intelligenz können sehr vielseitig sein und werden je nach Wirtschafts- und Gesellschaftskontext in den nächsten © Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7_17

213

214

17 Zukünftige Entwicklungen

Jahrzehnten sehr unterschiedlich bewertet werden. In den meisten industrialisierten Volkswirtschaften ist ein (bedingungsloses) Grundeinkommen sehr wahrscheinlich – nicht zuletzt, da es von der aktuellen Wirtschaftselite sogar vorangetrieben wird. Wer zahlt die Steuern? Na, die Roboter und Algorithmen! [13] „Das Zukunftsbild im technologischen Bereich wird oft als Transmodern Liberty‘ ’ bezeichnet. Der Begriff setzt sich aus den Elementen einer Transmodernen Gesellschaft sowie einer neuen Qualität des Freiheitsbegriffs zusammen und ist eine optimistische Variante der Zukunft. Mein Szenario beinhaltet unter anderem folgende Aspekte: • Technologie macht Menschen menschlich. Was widersprüchlich klingt, ist mein voller Ernst. Der richtige Einsatz der Technologie, allen voran Künstliche Intelligenz, könnte im besten Fall dazu führen, dass erstmals in der Geschichte der Menschheit alle Menschen menschlich sein dürfen. Was heißt menschlich? Für mich heißt das, sich nicht tagtäglich um die Versorgung existenzieller Bedürfnisse kümmern zu müssen. Dieses Privileg war seit Beginn der Menschheit (wenn überhaupt) einer kleinen Elite vorbehalten. Doch wenn die Grundbedürfnisse durch automatisierte Prozesse gedeckt werden können, entsteht zumindest die Möglichkeit, dass Erwerbsarbeit obsolet wird – stattdessen gehen Menschen „arbeiten“, weil es ihren individuellen Stärken und Interessen entspricht und sie dadurch einen Beitrag zur Gesellschaft leisten.“ • Sapiens 2.0 wird geboren. „Oft spreche ich in meinen Vorträgen über den Homo Prospectus als zukunftsdenkenden Menschen. Das ist ein Bestandteil einer neuen Form der Menschlichkeit; damit sind nicht genetisch optimierte Menschen gemeint, sondern diejenigen mit einem kosmopolitischen Mindset und dem Verständnis der Transmodern Liberty. Sie basieren auf einer aktualisierten Fassung der Aufklärung und des Humanismus, erkennen jegliches Leben als gleichwertig an und sind ohne äußere Zwänge frei in der Entfaltung der eigenen Biographien.“ • Automatisierung der Diplomatie und Global Governance: „Neben der Produktion alltäglicher Güter und der Infrastruktur muss natürlich auch die Staatsführung automatisiert werden. Wem nützt es, wenn innerhalb einiger geschlossener Nationalstaaten die Wirtschaft automatisiert wird, der Nachbarstaat aber regelmäßig diplomatische Krisen verursacht? Hier erkennen wir zunehmend den Trend zu einer echten Tianxia, also einem global inklusiven Politiksystem: Es erkennt einerseits die kulturellen und historischen Verschiedenheiten der Menschen und Territorien an, nivelliert andererseits aber menschliche Abgründe wie Gier, Hass oder Rache durch kluge Diplomatie. Wenn ein Computer im Go gegen einen Menschen gewinnt, wird er ja wohl auch bald eine diplomatische Krise moderieren können. Fragen Sie mal die Menschen in Krisen- und Kriegsgebieten, die haben schon heute keine Lust auf Terror.“

17 Zukünftige Entwicklungen

215

• Zurück in die Gegenwart: „Künstliche Intelligenz wird die Welt mindestens genauso stark verändern wie Strom oder die Bändigung des Feuers. Das sage nicht ich, sondern Google CEO Sundar Pichai 2018, doch ich stimme ihm zu. Gleichzeitig setze ich mich dafür ein, mehr Aufklärung zu schaffen und das Thema zu entmystifizieren. Die Erwartungen für das laufende Jahrzehnt reichen von der Angst vor einem Terminator-Szenario oder Komplettautomatisierung bis zu Unverständnis für dieses lästige Informatik-Gequatsche‘ und dem verheerenden ’ Digitalisierungsnotstand in Deutschland. Damit muss endlich Schluss sein. Wir brauchen mehr Aufklärung, bessere Bildung, mehr Information, aber auch beherzte Diskussionen zur Primetime.“ [15] Die „Sieben tödlichen Sünden“ der zukünftigen Entwicklung: [15] • • • • • • •

Sünde 1: Über- und Unterschätzen, Sünde 2: magische Vorstellungen, Sünde 3: konkrete Leistung versus generelle Kompetenz, Sünde 4: Ein Wort – ein Koffer voller Bedeutungen Sünde 5: Exponentialismus, Sünde 6: Hollywoodszenarien, Sünde 7: das Tempo der Implementierung.

Die Hollywood-Szenarien haben in den letzten Jahrzehnten im Film und im Fernsehen einen breiten Raum eingenommen. In [49] spricht man über außerirdische Rassen (Abb. 17.1). Zu einer ersten Gruppe von außerirdischen Rassen gehören die in den Darstellungen von ETs allgegenwärtigen Grauen aus dem Sternsystem Zeta Reticulum und der Orion-Konstellation. Sie werden in den meisten Forschungen erwähnt, die mit Entführungen und UFO-Abstürzen zu tun haben. Das Forscherteam, das bereits die ersten lebenden Roboter (sogenannte Xenobots, die aus Froschzellen bestehen und einfache Aufgaben erledigen können) entwickelt hatte, entdeckte nun, dass die am Computer entworfenen und von Hand zusammengebauten Organismen in einer Petrischale umherschwimmen und einzelne Zellen finden können. Weiterhin können sie Hunderte dieser Zellen zusammentreiben und mit ihrem Mund, der an die Computerspiel-Figur Pac-Man erinnert, zu Mini-Xenobots zusammenbauen. Diese entwickeln sich innerhalb von ein paar Tagen zu neuen Xenobots, die genauso aussehen und sich genauso bewegen. Außerdem können diese neuen Xenobots ebenfalls umherschwimmen, Zellen finden und Kopien von sich selbst bauen. Dieser Vorgang lässt sich beliebig oft wiederholen, wie die Wissenschaftler in ihrer Arbeit beschreiben, die im Fachjournal Proceedings of the National Academy of Sciences veröffentlicht wurde. Joshua Bongard, Robotik-Experte und einer der Studienleiter, erklärte dazu, dass sich die Xenobots mit dem richtigen Design spontan selbst replizieren können. Normalerweise würden sich diese embryonalen Stammzellen zu der Hautschicht eines Krallenfrosches

216

17 Zukünftige Entwicklungen

Abb. 17.1 Der Phantasie sind keine Grenzen gesetzt

(Xenopus laevis) entwickeln. Diese Zellen würden dann normalerweise an der Außenseite der Kaulquappe sitzen, Krankheitserreger abwehren und Schleim absondern. Doch im experimentellen Design ihrer Versuche setzen die Forscher die Zellen einer neuen Umgebung und einem neuen Kontext aus. Michael Levin, einer der Forscher, erklärte das so, dass sich den Stammzellen dadurch die Möglichkeit eröffnet, sich an genetischen Code zu erinnern, um sich damit auch zu anderen Zellen entwickeln zu können. Sam Kriegmann, ein weiterer an der Studie beteiligter Wissenschaftler, erläutert das: „Dies sind Froschzellen, die sich auf eine Weise replizieren, die sich sehr von der Art und Weise unterscheidet, wie Frösche dies tun. Kein Tier und keine Pflanze, die der Wissenschaft bekannt ist, repliziert sich auf diese Weise.“ Man habe lange Zeit geglaubt, dass man alle Möglichkeiten der Fortpflanzung von Lebensformen erforscht habe und kenne. Doch den Wissenschaftlern zufolge sei dies etwas, was noch nie zuvor beobachtet wurde. Die Zellen haben zwar das Genom eines Frosches, doch da sie sich nicht zu Kaulquappen entwickeln, können sie ihre kollektive Intelligenz nutzen, um so etwas Außergewöhnliches zu bewerkstelligen. Bereits in früheren Versuchen waren die Forscher über die Möglichkeit erstaunt, Xenobots so konstruieren zu können, dass sie einfache Aufgaben erledigen. Umso verblüffter waren die Forscher nun festzustellen, dass sich diese vom Computer entworfene Ansammlung von Zellen spontan zu vermehren begann. Aus dem vollständigen Froschgenom ergab sich laut Levin kein Hinweis darauf, dass

17 Zukünftige Entwicklungen

217

die Zellen zusammenarbeiten und aus den eingesammelten Zellen funktionsfähige Kopien von sich selbst verdichten können. Ein Meilenstein in Richtung Organzucht wurde in China erreicht. Forscher züchteten erstmals Mensch-Affen-Embryos [63]. Das aus etwa 3000 Zellen bestehende Elternteil hat die Form einer Kugel und bildet selbständig Nachkommen. Üblicherweise sterbe dieses System schnell ab, so dass es in der Regel schwierig sei, es dazu zu bringen, sich weiterzuvermehren. Doch die Forscher nutzen ein Programm für Künstliche Intelligenz an einem Supercomputer-Cluster und testeten mit einem evolutionären Algorithmus in einer Simulation Milliarden verschiedener Körperformen, von Kugeln über Pyramiden bis hin zur Gestalt von Seesternen. So fanden sie eine Form, die es den Zellen ermöglichte, bei der auf ihrer Bewegung beruhenden kinematischen Replikation möglichst effektiv zu arbeiten. Wie Kriegmann, einer der Studienautoren, erläutert, ließ sich dadurch herausfinden, wie man die Form der ursprünglichen Elternteile anpassen kann: „Die KI hat nach monatelanger Arbeit einige merkwürdige Designs gefunden, darunter eines, das an Pac-Man erinnert. Es ist sehr unintuitiv. Es sieht sehr einfach aus, aber es ist nichts, was sich ein menschlicher Ingenieur ausdenken würde.“ Doch in der Praxis habe sich gezeigt, dass gerade dieses System funktioniert: Die Eltern-Xenobots waren in der Lage, Kinder zu bauen, die dann Enkel zusammenbauen, welche wiederum Urenkel und diese dann Ur-Ur-Enkel erzeugen. Mit dem richtigen Design konnte die Zahl der Generationen erheblich erweitert werden. Bisher war die kinematische Replikation nur auf der Ebene einzelner Moleküle bekannt, wurde aber nie auf der Ebene ganzer Zellen oder Organismen beobachtet. Mit der Arbeit der Forscher hat sich dies jetzt geändert. Man habe entdeckt, dass es innerhalb lebender Systeme einen riesigen, bisher unbekannten Raum gibt. Den Forschern zufolge berge „das Leben überraschende Verhaltensweisen direkt unter der Oberfläche“. Stammzellenforscher züchteten Embryonen, die aus Teilen von Menschen und Affen bestanden und in der Kulturschale erstaunlich lange überlebten. Die Züchtung solcher Mischwesen entfachte eine Debatte um ethische Fragen bei der Forschung an solchen Chimären. Bereits vor fast zwei Jahren hatte der Stammzellenforscher Juan Carlos Izpisua ´ Belmonte eine Ankündigung gemacht, die für einige Kontroversen sorgte: Im Juli 2019 ´ dass er zusammen mit chinesischen Wiserklärte Ispiz´ua der spanischen Zeitung El Pais, senschaftlern Embryonen gezüchtet habe, die teils Mensch, teils Affe waren. Nun erschien die dazugehörige Veröffentlichung in der Fachzeitschrift Cells, die die Debatte um ethische Fragen bei dieser Art der Forschung erneut entfachen dürfte. Mit seinem Team hatte der Stammzellenforscher Embryonen von Javaner-Affen angezüchtet. Diesen pflanzten sie nach sechs Tagen in sehr wandlungsfähige menschliche Stammzellen ein. Die Zellen fusionierten dann tatsächlich, und es entstanden 132 Embryonen aus Teilen von Mensch und Affe. Nach zehn Tagen lebten noch 103 der Mensch-AffenChimären, nach 19 Tagen immerhin noch drei. Erstaunlich ist der Versuch nicht nur wegen der damit verbundenen ethischen Fragen, sondern auch, dass er überhaupt funktionierte. Bisher haben Chimären-Embryonen noch nie so lange überlebt. Frühere Versuche von Misch-Embryonen aus Mensch und Maus sowie

218

17 Zukünftige Entwicklungen

Mensch und Schwein waren gescheitert. Grund dafür war vermutlich die hohe Artenbarriere. Die Chimäre aus Affe und Mensch überlebte hingegen recht lange. Doch dies weckt natürlich auch die Befürchtung, dass diese Entdeckung für ethisch mehr als fragwürdige Zwecke missbraucht werden könnte: Würde man den Chimären-Embryo einer menschlichen oder tierischen Leihmutter einpflanzen, könnte sich möglicherweise eine neue, eigenständige Lebensform entwickeln. Izpisua ´ versicherte, dass er dies nicht vorhabe, zudem hätten Ethikkommissionen seine Experimente zuvor begutachtet. Mit seinen Experimenten verfolge er das Ziel, die Embryonalentwicklung besser zu verstehen. Er arbeite zudem seit Langem daran, in Schweinen menschliche Organe und Gewebe für kranke Menschen zu züchten: „Es ist unsere Verantwortung als Wissenschaftler, unsere Forschung gut zu durchdenken und allen ethischen, rechtlichen und sozialen Richtlinien zu folgen.“ Nach Aussage des Direktors des Zentrums für Reproduktionsmedizin am Universitätsklinikum Münster, Stefan Schlatte, stellt die Arbeit in der Chimärenforschung einen Durchbruch dar. Dank der Grundlagenforschung in diesem Bereich werde man die Bildung von Organen und Geweben im menschlichen Embryo viel besser verstehen. Solche Studien müssen jedoch unter dem strikten Vorbehalt stattfinden, dass keinesfalls die Geburt eines Mischwesens angestrebt wird. Rüdiger Behr, der Leiter der Abteilung Degenerative Erkrankungen am Leibniz-Institut für Primatenforschung in Göttingen, erklärte der Süddeutschen Zeitung, dass in einen Affenembryo eingebrachte menschliche Stammzellen möglicherweise Organe mit völlig neuen Eigenschaften entstehen: In solchen Chimären, beispielsweise Schwein-Mensch-Mischwesen, bestünden jedoch gute Chancen, Organe für Transplantationen herzustellen. Ob die Rettung solcher todkranken Menschen jedoch als Rechtfertigung für die Erschaffung solcher Chimären ausreiche, sei noch eine offene Frage. Dies müsse jeder Einzelne für sich, die Gesellschaft als Ganzes und dann schließlich rechtlich verbindlich der Gesetzgeber entscheiden, so Behr. Doch Michael Coors, Leiter des Instituts für Sozialethik an der Universität Zürich, fordert, dass dieser Entscheidungsprozess nun endlich beginnen müsse, denn es bestehe ein dringender rechtlicher Regelungsbedarf für diese Art der Forschung. Angesichts der Tatsache, dass Izpisua ´ seinen Versuch bereits vor zwei Jahren ankündigte, kommen die Tatsachen nun nicht gerade überraschend. Umso erstaunlicher sei, dass der Prozess kaum fortgeschritten sei. Dabei gehe es nicht nur um Mischwesen, sondern auch um die Instrumentalisierung der verwendeten Tiere und das potenzielle Leid, die man solchen Chimären möglicherweise zufüge. Einige Menschen mögen mit Entsetzen auf die Vorstellung von sich selbst replizierenden Nanorobotern blicken, doch die Wissenschaftler erklärten, dass es ihnen in erster Linie um das Verständnis der Prozesse geht. Die millimetergroßen lebenden Maschinen, die sich ausschließlich im Labor befinden, sind nach dem Ende der Versuche leicht zu eliminieren und wurden zudem von Ethikexperten auf verschiedenen Ebenen geprüft. Bongard sagte, dies sei nichts, was ihn nachts wach halte. Hingegen habe man die moralische Verpflichtung, die Bedingungen selbstreplizierender Systeme zu verstehen, unter denen man diese

17 Zukünftige Entwicklungen

219

kontrollieren, lenken oder eindämmen könne. In diesem Zusammenhang verweist er auch auf die Corona-Krise: „Die Geschwindigkeit, mit der wir Lösungen entwickeln können, ist von großer Bedeutung. Wenn wir Technologien entwickeln können, die von Xenobots lernen, und der KI schnell sagen können: Wir brauchen ein biologisches Werkzeug, das X und Y bewirkt und Z unterdrückt, dann könnte das sehr nützlich sein. Heute dauert das sehr lange.“ Mit der neuen Technologie könne man in Zukunft die Entwicklung von Problemlösungen beschleunigen – etwa durch den Einsatz von lebenden Maschinen beim Entfernen von Mikroplastik aus Gewässern oder der Entwicklung neuer Medikamente. Das Team sieht in ihrer Forschung auch vielversprechende Möglichkeiten im Bereich der regenerativen Medizin. Levin erklärte dazu: „Wenn wir wüssten, wie wir Ansammlungen von Zellen dazu bringen können, das zu tun, was wir von ihnen wollen, dann wäre das letztlich regenerative Medizin – die Lösung für traumatische Verletzungen, Geburtsfehler, Krebs und Alterung. Bisher könne man noch nicht vorhersagen oder kontrollieren, welche Zellgruppen sich bilden oder woraus sich diverse Probleme in der Medizin ergeben. Mit Xenobots habe man jetzt eine neue Plattform, mit der man dies lernen und erforschen könne. Den Einsatz von Robotern auf dem Mond und auf dem Mars haben wir ja schon selbst erlebt, sie wird sich weiter fortsetzen. Schließlich wird man außerhalb der Erde Fabriken haben, die wieder Roboter und Raketen bauen, die weiter im Weltraum vordringen. Es ist fast unmöglich, die zukünftige Entwicklung etwas genauer vorherzusagen; es ist schon außerordentlich schwierig, die Gegenwart zu verstehen. Wenn man einige Newsletter geeigneter Zeitschriften abonniert hat und die Neuausgaben von Büchern verfolgt, dann möchte man täglich einige neue Abschnitte hinzufügen. So habe ich einige Probleme weggelassen und muss den Leser bitten, die Entwicklung selbst weiter zu verfolgen. Zum Beispiel habe ich die Programmierung ziemlich außer Acht gelassen. Es wurde lediglich erwähnt, dass viele KI-Programme in Python programmiert wurden; es könnten aber auch beliebige andere Programmiersprachen verwendet werden. Es ist aber doch wohl selbstverständlich, dass DeepMind das Programmieren selbst zum Gegenstand von Lernprozessen macht [40]. In der Einleitung zu dieser Arbeit wird gesagt: „Die Programmierung ist ein leistungsfähiges und allgegenwärtiges Problemlösungsinstrument. Die Entwicklung von Systemen, die den Programmierer unterstützen oder sogar selbständig Programme erstellen können, könnte das Programmieren produktiver und zugänglicher machen, doch bisher hat sich die Einbeziehung von Innovationen in der KI als schwierig erwiesen. Neuere groß angelegte Sprachmodelle haben eindrucksvoll bewiesen, dass sie in der Lage sind, Code zu generieren und einfache Programmieraufgaben zu lösen. Allerdings schneiden diese Modelle immer noch schlecht ab, wenn sie bei komplexeren, unbekannten Problemen, die Problemlösungsfähigkeiten erfordern, die über das einfache Übersetzen von Anweisungen in Code hinausgehen, eingesetzt werden. So Sind Beispielsweise Wettbewerbsorientierte Programmieraufgaben, die ein Verständnis von Algorithmen und komplexer natürlicher Sprache erfordern, nach wie vor eine große Herausforderung.

220

17 Zukünftige Entwicklungen

Um diese Lücke zu schließen, stellen wir AlphaCode vor, ein System zur Codegenerierung, das neuartige Lösungen für diese Probleme erstellen kann, die tiefere Überlegungen erfordern. Bei der Auswertung aktueller Programmierwettbewerbe auf der Codeforces-Plattform erreichte AlphaCode in Programmierwettbewerben mit mehr als 5000 Teilnehmern im Durchschnitt eine Platzierung von 54,3 % Teilnehmern. Wir haben festgestellt, dass drei Schlüsselkomponenten entscheidend für eine gute und zuverlässige Leistung sind: • (1) ein umfangreicher und sauberer Datensatz für Programmierwettbewerbe zum Trainieren und Bewerten, • (2) große und effiziente, auf Stichproben basierende Architekturen, • (3) groß angelegte Modellstichproben, um den Suchraum zu erkunden, gefolgt von einer Filterung auf der Grundlage des Programmverhaltens bei einer kleinen Menge von Eingaben.“ Diese Arbeit hat 13 Hauptautoren. Die umfangreichste Arbeit zur Zukunft der KI trägt den Titel „KI 2041 – Zehn Zukunftsvisionen“ [30]. Es wird sicher interessant sein, in zwanzig Jahren dieses Buch wieder zur Hand zu nehmen.

Literatur

1.

2. 3. 4.

5.

6. 7.

8. 9. 10. 11. 12. 13.

14.

3D-Druck in der Anatomie-Ausbildung: Chance für die dritte Welt? url: https://www.3dgrenzenlos.de/magazin/zukunft-visionen/3d-druck-anatomie-ausbildung-chance-dritte-welt2755963 (besucht am 09. 03. 2022). Amazon - Geschichte. url: https://de.wikipedia.org/wiki/Amazon#Geschichte (besucht am 09. 03. 2022). Anamorphosis. url: https://en.wikipedia.org/wiki/Anamorphosis (besucht am 10. 03. 2022). W. Berghorn. Fraktale Märkte: Wie berechnet man einen Trend? url: https://www.fondsdiscount. de/magazin/news/fraktale-maerkte-wie-berechnet-man-einen-trend-4892/ (besucht am 10. 03. 2022). M. Berns. Künstliche Intelligenz im Finanzsektor. url: https://www.pwc.de/de/ finanzdienstleistungen/kuenstliche-intelligenz-im-finanzsektor.html (besucht am 10. 03. 2022). Big Data Software in Japan. url: https://sourceforge.net/software/big-data/japan/ (besucht am 09. 03. 2022). Big Data und künstliche Intelligenz: Neues Prinzipienpapier der BaFin. 2021. url: https://www.bafin.de/SharedDocs/Veroeffentlichungen/DE/Meldung/2021/meldung_210615_ Prinzipienpapier_BD_KI.html (besucht am 09. 03. 2022). C. Bot. Digitale Kunst. url: https://de.wikipedia.org/wiki/Digitale_Kunst (besucht am 10. 03. 2022). dict.cc Deutsch-Englisch-Wörterbuch. url: https://browse.dict.cc (besucht am 09. 03. 2022). G. Dueck. Schwarmdumm - So blöd sind wir nur gemeinsam. 2. Aufl. Goldmann, 2018. isbn: 978-3-442-15950-5. F. Engelhard. „Die Zukunft der KI - und ihr Einfluss auf die Geschäftswelt“. In: (2019). Fondequip - Fonds für wissenschaftliche und technologische Ausrüstungen. url: https://www. conicyt.cl/fondequip/sobre-fondequip/que-es-fondequip (besucht am09. 03. 2022). K. Gondlach. Wie wird die Künstliche Intelligenz die Zukunft verändern? 2021. url: https://www. kaigondlach.de/artikel/wie-wird-kuenstliche-intelligenz-die-zukunft-veraendern (besucht am 09. 03. 2022). Grundlagen der Künstlichen Intelligenz und Anwendungspotenziale für Unternehmen. url: https://www.bitkom-akademie.de/lehrgang/ausbildung-zum-ki-manager (besucht am 10. 03. 2022).

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7

221

222

Literatur

15. J. Gundlach. Algorithmenethik. 2022. url: https://algorithmenethik.de/ (besucht am 10. 03. 2022). 16. J. van den Herik. Making Sense of Illustrated Handwritten Archives. 2020. url: https:// www.universiteitleiden.nl/en/research/research-projects/science/making-sense-of-illustratedhandwritten-archives (besucht am 10. 03. 2022). 17. Y. Hilpisch. Artificial Intelligence in Finance - A Python-Based Guide. O’Reilly, Beijing - Boston - Farnham - Sebastopol - Tokyo 2021, 2021. isbn: 978-1-492-05543-3. 18. G. Honsel. Übermaltes Picasso-Werk durch 3D-Druck wiederhergestellt. 2021. url: https:// www.heise.de/hintergrund/Uebermaltes-Picasso-Werk-durch-3D-Druck-wiederhergestellt6233298.html (besucht am 10. 03. 2022). 19. How big data is helping make transport cleaner in Dubai. 2021. url: https://www.thestar.com. my/tech/tech-news/2021/10/29/how-big-data-is-helping-make-transport-cleaner-in-dubai (besucht am 09. 03. 2022). 20. B. W. Kernighan und D. M. Ritchie. Programmieren in C. 2. Aufl. Hanser, 1990. isbn: 978-3446-15497-1. 21. A. Khan. „Computers and Legal Affairs“. Ph.D. with High Commendation. Magisterarb. The University of The West Indies, 2005. 22. A. Kharpal. Everything you need to know about WeChat-China’s billion-user messaging app. url: https://www.cnbc.com/2019/02/04/what-is-wechat-china-biggest-messagingapp.html (besucht am 09. 03. 2022). 23. R. Klatt. Künstliche Intelligenz bewegt Roboter-Katheter autonom zum Herzen. 2019. url: https://www.forschung-und-wissen.de/nachrichten/medizin/kuenstliche-intelligenz-bewegtroboter-katheter-autonom-zum-herzen-13372909 (besucht am 10. 03. 2022). 24. R. Klatt. Künstliche Intelligenz erkennt Covid-19 frühzeitig am Atem. 2020. url: https:// www.forschung-und-wissen.de/nachrichten/medizin/kuenstliche-intelligenz-erkennt-covid19-fruehzeitig-am-atem-13374406 (besucht am 10. 03. 2022). 25. R. Klatt. Künstliche Intelligenz prognostiziert Leistungsverlust von Sportlern. 2021. url: https:// www.forschung-und-wissen.de/nachrichten/medizin/kuenstliche-intelligenz-prognostiziertleistungsverlust-von-sportlern-13375408 (besucht am 10. 03. 2022). 26. Korrelation. 2019. url: https://statistikgrundlagen.de/ebook/chapter/korrelation (besucht am 09. 03. 2022). 27. D. L. Google-KI schlägt Mediziner bei der Früherkennung von Brustkrebs. 2020. url: https://www.forschung-und-wissen.de/nachrichten/medizin/google-ki-schlaegt-medizinerbei-der-frueherkennung-von-brustkrebs-13373664 (besucht am 10. 03. 2022). 28. D. L. Künstliche Intelligenz entwickelt hocheffektives Antibiotikum. 2020. url: https:// www.forschung-und-wissen.de/nachrichten/medizin/kuenstliche-intelligenz-entwickelthocheffektives-antibiotikum-13373708 (besucht am 10. 03. 2022). 29. D. Lat. How artificial intelligence is transforming legal research. url: https://abovethelaw.com/ law2020/how-artificial-intelligence-is-transforming-legal-research (besucht am 10. 03. 2022). 30. K.-F. Lee und Q. Chen. KI 2041 - Zehn Zukunftsvisionen. Campus Verlag Frankfurt/New York, 2021. isbn: 978-3-593-51549-6. 31. D. Levy. Man kann mit Robotern eine Ehe führen. 2010. url: https://www.sueddeutsche.de/ digital/kuenstliche-intelligenz-man-kann-mit-robotern-eine-ehe-fuehren-1.342591 (besucht am 09. 03. 2022). 32. A. Litzbarski. In Chile bringen fast nur Start-ups die künstliche Intelligenz voran. 2019. url: https://www.gtai.de/gtai- de/trade/specials/special/chile/in-chile- bringen-fast-nur-startups-die-kuenstliche-intelligenz-22598 (besucht am 09. 03. 2022). 33. M. Mantel. Bestätigt: China betreibt schon zwei ExaFlops-Supercomputer. 2021. url: https://www.heise.de/news/Bestaetigt-China-betreibt-schon-zwei-ExaFlops-Supercomputer6271638.html (besucht am 09. 03. 2022).

Literatur

223

34. J. Marre. Der Grover-Algorithmus und die Suche nach dem heiligen Gral. 2018. url: http://www. quantencomputer-info.de/quantencomputer/quantencomputer-einfach-erklaert (besucht am 09. 03. 2022). 35. A. Maxmen und J. Tollefson. Üben für den Ernstfall. 2020. url: https://www.spektrum.de/news/ covid-19-pandemiesimulationen-konnten-uns-nicht-vorbereiten/1761094 (besucht am 09. 03. 2022). 36. V. Mayer-Schönberger und K. Cukier. Big Data: The Essential Guide toWork, Life and Learning in the Age of Insight (English Edition). John Murray (Publishers), 2017. isbn: 978-1-848-547933. 37. Medizinische Informatik. url: https://www.studycheck.de/studium/medizinische-informatik (besucht am 10. 03. 2022). 38. Medizinische Informatik Studium. url: https://www.studieren-studium.com/studium/ Medizinische_Informatik (besucht am 10. 03. 2022). 39. U. Mikolajewicz u. a. Die Simulation von Eiszeitzyklen mit einem komplexen Erdsystemmodell. Techn. Ber. Hamburg: Max-Planck-Institut für Meteorologie, 2003. url: https://www.mpg.de/ 847908/forschungsSchwerpunkt (besucht am 09. 03. 2022). 40. S. Nadis. A new programming language for high-performance computers. 2022. url: https://news. mit.edu/2022/new-programming-language-high-performance-computers-0207 (besucht am 10. 03. 2022). 41. Nervenzelle. url: https://studyflix.de/biologie/nervenzelle-2737 (besucht am 09. 03. 2022). 42. Netflix. url: https://de.wikipedia.org/wiki/Netflix (besucht am 09. 03. 2022). 43. B. Niehaus. Quantencomputer. 2021. url: https://de.wikipedia.org/wiki/Quantencomputer (besucht am 09. 03. 2022). 44. C. Posthoff und B. Steinbach. Mathematik - Ohne Sorgen an der Uni I - Nutze Microsoft Mathematics. bookboon.com, 2017. isbn: 978-87-403-1596-7. 45. C. Posthoff und B. Steinbach. Mathematik - Ohne Sorgen an der Uni II - Nutze Microsoft Mathematics. bookboon.com, 2017. isbn: 978-87-403-1949-1. 46. S. Rahmstorf. 3 Millionen Jahre Klimawandel in der Computersimulation. 2020. url: https:// scilogs.spektrum.de/klimalounge/3-millionen-jahre-klimawandel-in-der-computersimulation (besucht am 09. 03. 2022). 47. V. Rißka. Intel-Supercomputer: Aurora soll 2 ExaFLOPS liefern, ZettaFLOPS schon ab 2027. 2021. url: https://www.computerbase.de/2021- 10/intel- supercomputer- aurora- soll- 2 - exaflops - liefern- zettaflops- schon- 2027- kommen (besucht am 09. 03. 2022). 48. Roads & Transport Authority and Digital Dubai Launch ’Dubai in Motion’ at GITEX 2021. url: https://teletimesinternational.com/2021/rta-digital-dubai-dubai-in-motiongitex-2021/ (besucht am 09. 03. 2022). 49. M. E. Salla. Ein Bericht über ausserirdische Rassen die mit der Menschheit in Interaktion stehen. url: https://transinformation.net/ein-bericht-ueber-ausserirdische-rassen-die-mitder-menschheit-in-interaktion-stehen (besucht am 10. 03. 2022). 50. E. Sanchez. Artificial Intelligence and the Future of Law. url: https://growpath.com/future-oflaw-artificial-intelligence-for-lawyers (besucht am 09. 03. 2022). 51. Say Hello! Perconex GmbH. url: https://www.perconex.de/de/perconex-personaldienstleister. html (besucht am 10. 03. 2022). 52. Sieben Wege, wie künstliche Intelligenz die Architektur revolutioniert. 2019. url: https://blog. dormakaba.com/de/sieben-wege-wie-kuenstliche-intelligenz-die-architektur-revolutioniert (besucht am 10. 03. 2022). 53. Software für Simulation - aktuelle Marktübersicht. url: https://www.softguide.de/software/ simulation (besucht am 09. 03. 2022).

224

Literatur

54. Stampworld: Der vollständigste Briefmarken Katalog der Welt. url: https://www.stampworld. com/de (besucht am 09. 03. 2022). 55. Steganographie. url: https://de.wikipedia.org/wiki/Steganographie (besucht am 10. 03. 2022). 56. B. Steinbach und C. Posthoff. EAGLE-Starthilfe: Effiziente Berechnungen mit XBOOLE. Boolesche Gleichungen - Mengen und Graphen - Digitale Schaltungen. Leipzig: Edition am Gutenbergplatz, 2015. isbn: 978-3-95922-081-1. 57. B. Steinbach und C. Posthoff. Logic Functions and Equations - Examples and Exercises. Springer Science + Business Media B.V., 2009. isbn: 978-1-4020-9594-8. 58. B. Steinbach und C. Posthoff. Logic Functions and Equations - Fundamentals and Applications using the XBOOLE-Monitor. 3. Aufl. Springer Nature, 2022. isbn: 978-3-030-88944-9. url: https://link.springer.com/book/978-3-030-88944-9 59. S. L. Tanimoto. An Interdisciplinary Introduction to Image Processing - Pixels, Numbers, and Programs. The MIT Press, Cambridge, Massachusetts, 2012. isbn: 978-0-262-01716-9. 60. Tripadvisor. url: https://de.wikipedia.org/wiki/Tripadvisor (besucht am 09. 03. 2022). 61. J. Ubink. Effective Protection of Fundamental Rights in a pluralist world. url: https://www. universiteitleiden.nl/en/research/research-projects/law/effective-protection-of-fundamentalrights-in-a-pluralist-world (besucht am 10. 03. 2022). 62. B. Vermeulen, A. Pyka und M. Müller. An agent-based policy laboratory for COVID-19 containment strategies. url: https://inno.uni-hohenheim.de/corona-modell (besucht am 09. 03. 2022). 63. Versuche in China: Forscher erschaffen Mensch-Affe-Mischwesen. 2019. url: https://www.mdr. de/wissen/mensch-alltag/mensch-affe-mischwesen-100.html (besucht am 10. 03. 2022). 64. Virtual Piano. url: https://virtualpiano.net (besucht am 10. 03. 2022). 65. Virtual Steelpan: Play steelpan online using Virtual Piano. url: https://virtualpiano.net/virtualsteelpan (besucht am 10. 03. 2022). 66. W. Voermans. The Legitimacy and Effectiveness of Law & Governance in a World of MultilevelJurisdictions. url: https://www.universiteitleiden.nl/en/research/research-projects/law/thelegitimacy-and-effectiveness-of-law--governance-in-a-world-of-multilevel (besucht am 10. 03. 2022). 67. Von der Digitalen Agenda zur Digitalen Transformation. url: http://www.agendadigital.gob.cl/#/ (besucht am 09. 03. 2022). 68. Was ist Computerkunst? url: https://www.blitzgedanken.de/kunst/digitale-kunst/was-istcomputerkunst (besucht am 10. 03. 2022). 69. V. Watschounek. Darmspiegelung, unterstützt von Künstlicher Intelligenz. 2021. url: https:// wiesbaden-lebt.de/darmspieleglung-unterstuetzt-von-kuenstliche-intelligenz (besucht am 10. 03. 2022). 70. Wie viel Digitalisierung verträgt das Gesundheitswesen? url: https://4919758967.naturavitalis. de/Mediathek/Magazine/Wie-viel-Digitalisierung-vertraegt-das-Gesundheitswesen.html (besucht am 10. 03. 2022). 71. P. Wiesmayer. Dank Künstlicher Intelligenz zu verbesserter Erdbebenanalyse. 2019. url: https:// innovationorigins.com/de/erdbeben-analyse-kuenstliche-intelligenz (besucht am 09. 03. 2022). 72. Zegal. For all your company’s legals. url: https://zegal.com/en-hk (besucht am 10. 03. 2022). 73. Zukunft Mittelstand: Wo werden Quantencomputer eingesetzt? url: https://www.mittelstandheute.com/artikel/zukunft-mittelstand-wo-werden-quantencomputer-eingesetzt (besucht am 09. 03. 2022).

Stichwortverzeichnis

A Additionsschaltung, 22 Algorithmus, 26, 33 Alphazero, 81 Alzheimer, 135 Analytische Geometrie, 145 Antivalenz, 21 Äquivalenz, 21

C Church-Turing-These, 37 Cloud Computing, 90 Compiler, 28 Computeralgebra, 43 Mathematica, 45 Microsoft Mathematics, 44 CorelDRAW, 154 COVID-19, 136

B Berechenbarkeit, 37 Big Data Alipay, 103 Apache Software Projects, 100 Assoziationsanalyse, 99 Clusterbildung, 99 COVID-19, 102 Hadoop, 100 MapReduce, 100 prädiktive Analyse, 99 Regressionsanalyse, 99 Spark, 101 Terark, 103 WeChat, 103 Bildverarbeitung Hirntumor, 133 Pixel, 142 Browser, 33 Byte, 24

D Damenproblem, 59 Dartmouth-Konferenz, 25 Datenbank, 87 Brockhaus, 88 Datenbanksprache, 87 Managementsystem, 87 relationale Datenbank, 88 SQL, 87 Verwaltungssoftware, 87 Wörterbuch, 88 Dezimalsystem, 18 Digitale Revolution, 121 Digitale Transformation, 121 Digitalisierung Analog-Digital-Wandler, 122 Bildung, 129 digitale Transformation, 129 GPS, 127 Landwirtschaft, 127 RGB-Farbraum, 124

© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2022 C. Posthoff, Computer und Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-37768-7

225

226 Unicode, 122 Digitalkamera, 121 Disjunktion, 21 Dualsystem, 18

E E-Commerce, 90 Amazon, 90 eBay, 90, 94 Marketplace, 90 Markttransparenz, 91 YouTube, 93 Elektronische Akte, 204 Erdbeben, 131 Erfüllbarkeitsproblem, 57

F Färbungsproblem, 62 Fischaugen-Projektion, 145

G Gravitationswelle, 125

H Hirnforschung, 10 HTML, 33 HTTP, 33

I Informationstheorie, 67 vollständige Information, 68 Intelligenz, 9 Definition, 9 emotionale, 11 Künstliche, 9 kollektive, 11 menschliche, 10 Schwarm-, 11 soziale, 11 tierische, 15 umweltbedingte, 10 vererbte, 10 Intelligenzquotient (IQ), 15 Intelligenztest, 15 psychologischer Test, 15

Stichwortverzeichnis Internet, 32 JavaScript, 32 K Koloskopie, 100 Kompetenz, 13, 14 Komplexität, 51, 54 exponentielle, 51, 54 lineare Suche, 54 logarithmische, 54 polynomiale, 51, 54 Schmetterlingseffekt, 51 Konjunktion, 21 Korrelationskoeffizient, 97 Kovarianz, 97 Kybernetik, 67, 68 Regelungstechnik, 68 Rückkopplung, 68 L Lambda-Kalkül, 27 Legal Tech, 204 Lernen, 78 Bildverarbeitung, 79 natürliche Sprache, 79 Testdatensatz, 79 Trainingsdatensatz, 78 Überlernen, 79 Validierungsdatensatz, 78 Vorhersage-Genauigkeit, 79 Zeichenerkennung, 79 LINUX, 32 M Magnetresonanztomographie, 133 Maschinensprache, 28 Maxwell’sche Gleichung, 7 Megabyte, 24 Mersenne’sche Primzahl, 6 Moore’sches Gesetz, 5 MRT, 133 N Negation, 21 Netflix, 93 Netz

Stichwortverzeichnis Feed-forward, 77 fully-connected, 77 rekurrentes, 77, 78 Rückkopplung, 78 Short-cut, 77 Neuron, 73 Aktionspotenzial, 75 Gewicht, 76 Membranpotenzial, 75 Schwellwert, 73 Neuronales Netz, 73, 80 faltendes, 80

P Pearson’sche Rangkorrelation, 97 Perzeptron, 76 einfaches, 76 Polarkoordinate, 145 Problem des Handlungsreisenden, 64 Programmiersprache, 26, 28 ADA, 32 ALGOL, 29 Backus-Naur-Form (BNF), 29 BASIC, 30 C, 29 C++, 32 COBOL, 28 FORTRAN, 29 LISP, 29 MODULA, 31 PASCAL, 29 PL/1, 29 PROLOG, 31 SCHEME, 29 SIMULA, 30 SMALLTALK, 30 Programmierung, 26 logische, 31 objektorientierte, 30 Programmtestung, 26 Psychologie, 10 allgemeine, 10 differentielle, 10 Entwicklungs-, 10 kognitive, 10

227 Neuro-, 10

Q Quantenbit, 41 Quantencomputer, 39, 41 Quantenverschränkung, 41 Superpositionsprinzip, 41

R Rechtswesen, 203 Robotik, 157 Rucksackproblem, 65

S Sampling, 124 Bittiefe, 124 Spieltheorie, 67 Minimax-Theorem, 67 n-Personen-Spiel, 67 Standardabweichung, 97 Supercomputer, 24, 39

T Tripadvisor, 94 Turing-Award, 34 Turing-Maschine, 33 Einzelbandmaschine, 35 Endzustand, 36 Startzustand, 36 Turing-Test, 34

U Übersetzung, 82 Brailleschrift, 85 DeepL, 82 Google, 85 URL, 33

W Webserver, 33 Widerspruchsfreiheit, 59