Automatisierung: Wechselwirkung mit Kunst, Wissenschaft und Gesellschaft [1 ed.] 9783205231912, 9783205231899

137 76 4MB

German Pages [161] Year 2018

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Automatisierung: Wechselwirkung mit Kunst, Wissenschaft und Gesellschaft [1 ed.]
 9783205231912, 9783205231899

Citation preview

Wissenschaft Bildung Politik

Herausgegeben von der

Österreichischen Forschungsgemeinschaft Band 21

Automatisierung: Wechselwirkung mit Kunst, Wissenschaft und Gesellschaft

Herausgegeben von

Reinhard Neck Christiane Spiel

BÖHLAU VERLAG WIEN KÖLN WEIMAR

Bibliografische Information der Deutschen Nationalbibliothek: http://portal.dnb.de © 2018 by Böhlau Verlag Ges.m.b.H & Co. KG, Wien, Kölblgasse 8–10, A-1030 Wien Alle Rechte vorbehalten. Dieses Werk ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist unzulässig. Redaktion: Markus Vago, Wien Umschlaggestaltung: Miriam Weigel, Wien Satz und Layout: Ulrike Dietmayer, Wien Reproduktionen: Pixelstorm, Wien

Vandenhoeck & Ruprecht Verlage | www.vandenhoeck-ruprecht-verlage.com ISBN 978-3-205-23191-2

Inhalt Vorwort der Herausgeber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7i

Von Künstlicher Intelligenz zu Kollektiver Intelligenz Dirk Helbing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

Die wirtschaftlichen Folgen der Automatisierung Klaus Prettner / Niels Geiger / Johannes A. Schwarzer . . . . . . . . . . . . . .

31

Automatisierung im Recht – Zum Unterschied zwischen rechtlicher und technischer Rationalität am Beispiel vollautomatisierter Selbstfahrsysteme Stefan Kirste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

65

Das digitale Auge – Algorithmen in der Medizin Ursula Schmidt-Erfurth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

103

Wie sicher ist die schöne, neue und vernetzte Welt? René Mayrhofer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

119

Komponieren im Spannungsfeld von Intuition & Algorithmik Karlheinz Essl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 AutorInnenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

153

Vorwort Automatisierung im engeren, technischen Sinn bezieht sich auf die industrielle Fertigung und ist eng mit Begriffen wie Robotik oder neuerdings „Industrie_4.0“ verbunden. Im weiteren Sinn bezieht sich Automatisierung jedoch auf mechanisierte, normierte und vielfach optimierte Abläufe in allen Lebensbereichen, deren massive Zunahme Gegenstand vieler Diskussionen ist. Der Österreichische Wissenschaftstag 2017 widmete sich einigen der vielfältig ausgeprägten Aspekte der Automatisierung selbst – vom Wertpapierhandel über die Medizin bis zur Komposition in der Musik –, aber auch deren Folgen in Wirtschaft und Gesellschaft. Der Mensch als Mängelwesen ist auch hinsichtlich seiner kognitiven Ressourcen begrenzt. Bei Entscheidungen stellt sich die Frage, wie Individuen und Gruppen mit den gleichzeitigen Anforderungen von Unsicherheit, Informationsknappheit und Zeitnot umgehen können, oder salopp gesprochen, es schaffen, sie unter einen Hut zu bringen. In solchen Situationen soll die künstliche der natürlichen Intelligenz zu Hilfe kommen. Andererseits wird vielfach befürchtet, dass die künstliche Intelligenz den Menschen nicht nur einholen, sondern überholen wird und ihm dann die Auslöschung droht. Dirk Helbing fragt, ob dieses Schreckensszenario realistisch ist, und weist mit der Idee der Entwicklung einer Kollektiven Intelligenz auf mögliche Alternativen hin. Viel diskutiert werden, insbesondere in Hinblick auf die Digitalisierung, die wirtschaftlichen Folgen der Automation. Wirtschaft beruht auf Wertschöpfung durch Produktion, insbesondere von Dienstleistungen. Wenn diese Prozesse durch automatisierte Systeme übernommen werden, muss das tiefgreifende Konsequenzen für unser Wirtschaftssystem haben. Klaus Prettner, Niels Geiger und Johannes A. Schwarzer untersuchen, welche wirtschaftlichen Umwälzungen von der Automation zu erwarten sind. Wie werden sich ­unsere gewohnten Beschäftigungsverhältnisse ändern? Werden durch Automation mehr Arbeitsplätze vernichtet als geschaffen werden oder umgekehrt? Welche Formen der Beschäftigung werden verschwinden, welche neu entstehen? Auch in diesem Bereich stellen sich apokalyptische Szenarien als weder notwendig noch alternativlos dar.

8

Vorwort

Die Rechtsprechung durch Menschen ist nie irrtumsfrei. Es liegt also nahe, Computer damit zu betrauen, die doch Zugang zu einer fast unbegrenzten Menge an bereits gefällten Entscheidungen haben und frei von Vorurteilen sind. Was bleibt aber dann von der richterlichen Objektivität, Unabhängigkeit und Unparteilichkeit? Fiat iustitia pereat mundus, oder vielmehr pereat humanitas? Stephan Kirste untersucht vor dem Hintergrund rechtsphilosophischer Überlegungen die Möglichkeiten und Grenzen automatisierter richter­ licher Entscheidungsfindung und illustriert sie am Beispiel vollautomatisierter Selbstfahrsysteme. Eine für Menschen unüberschaubare Fülle an Informationen und Fallbeispielen steht dem Computer auch in der medizinischen Diagnostik zur Verfügung. Ursula Schmidt-Erfurth stellt die Frage, ob der Computer der treffsicherere Diagnostiker ist oder der Ärztin /dem Arzt zu schnelleren und besseren Diagnosen verhilft. Anhand von Forschungserfolgen in der Untersuchung von Erkrankungen des Auges zeigt sie die Potenziale automationsunterstützter Dia­gnose und Therapie auf, warnt aber auch vor Risiken des Missbrauchs durch unternehmerische und staatliche Eigeninteressen. Wenn Computer, Datenbanken und Datennetze zu entscheidenden Faktoren für die Wirtschaft, die Gesellschaft und die Wohlfahrt des einzelnen Menschen werden, sind Attacken auf diese Infrastruktur unausweichlich. Sowohl kritische Infrastruktur wie auch persönliche Daten und damit unsere Sicherheit und Privatsphäre sind gefährdet. René Mayrhofer zeigt aus Sicht des Informatikers und anhand von Beispielen diese Gefahren auf, aber auch mög­liche Wege zur künftigen Verbesserung. Kreativität wird vielfach als eine Fähigkeit betrachtet, durch die der Mensch dem Computer (noch) überlegen ist. Eine alternative Sicht dazu präsentiert der Musiker und Musiktheoretiker Karlheinz Essl. In einem lange vorhaltenden romantischen Verständnis galt Musik fast ausschließlich als das Ergebnis von subjektiver Inspiration mit individuellen Einfällen, die einer auserwählten ­Elite tondichterischer Genies vorbehalten blieb. An einer besonderen Begabung für diese Kunstform ist zwar auch heute nicht zu zweifeln, doch treten in unserer Zeit die technische Perspektive, der instrumentelle Vorrat für den Schaffensprozess und die Rolle der elektronischen Klangerzeugung in den Vordergrund, wie Essl anhand von musikalischen Schöpfungen „aus dem Computer“ demonstriert.

Vorwort

9

Als Resümee der Beiträge zum Wissenschaftstag 2017 ist festzuhalten, dass – wie auch auf anderen Gebieten – Angst vor der Zukunft keine gute Grundlage für die Auseinandersetzung mit den Folgen der Automatisierung ist. Dystopische Szenarien sind nicht unser Schicksal. Vielmehr empfiehlt sich eine offene Haltung gegenüber dem technischen Fortschritt, die die unbestreitbaren Erfolge der Einführung von automatisierten Prozessen anerkennt und nutzt, ohne vor den Risiken die Augen zu verschließen. Dies gilt insbesondere für die politischen Entscheidungsträger, die die Rahmenbedingungen in den verschiedenen Anwendungsgebieten der Automatisierung zu gestalten haben. Eine demokratische offene Gesellschaft bietet die besten Chancen, dass diese Entscheidungen im Interesse der Wohlfahrt der Menschen erfolgen können. Denn letztlich sind wir alle für unsere Zukunft und damit auch die Zukunft der Automatisierung verantwortlich. Wir danken den Referentinnen und Referenten für ihre mündlichen und schriftlichen Beiträge und den Mitarbeiterinnen und Mitarbeitern der Österreichischen Forschungsgemeinschaft für die engagierte und umsichtige Betreuung des Wissenschaftstags und des Buchprojekts.

Reinhard Neck Christiane Spiel

Von Künstlicher Intelligenz zu Kollektiver Intelligenz Dirk Helbing

Es geht heute um menschliche vs. Künstliche Intelligenz (kurz: KI). Und da muss man zunächst einmal damit starten, dass wir in einer völlig neuen Welt leben. Die meisten haben das noch gar nicht bemerkt, zumindest kennen sie nicht den Begriff dafür. Ich spreche von der „Aufmerksamkeitsökonomie“. In diesem System geht es darum, unsere Aufmerksamkeit zu überladen, um uns manipulierbar zu machen und uns abzulenken von den eigentlich wichtigen Themen. Ich versuche hier, dem etwas entgegen zu setzen. Leider gibt es heutzutage jede Menge Probleme, die ungelöst sind. Existenzielle Probleme. Dazu gehört der Klimawandel, dazu gehört die Finanz-, Wirtschaftsund Schuldenkrise, dazu gehören Konflikte, Massenmigration oder Terrorismus. Und all diese Probleme scheinen mir eine Grundursache zu haben: den Mangel an Nachhaltigkeit. Das heißt, wir überbeanspruchen die Ressourcen der Erde, und das führt dazu, dass die anderswo fehlen. Infolgedessen ist es so, dass alle diese Probleme entstehen. Wenn wir also in einer besseren Zukunft leben wollen, dann müssen wir zu allererst einmal dieses Grundproblem lösen. Wir wissen das eigentlich seit den 1970er Jahren, seit der Studie „Limits to Growth“1. Weil sie sehr kontrovers diskutiert wurde, gab der damalige US-Präsident Jimmy Carter eine eigene Studie in Auftrag. Sie ist bekannt geworden unter dem Titel „Global 2000“2 und kam zu ähnlichen Ergebnissen. Demzufolge werde es durch die Begrenztheit der Ressourcen unseres Planeten früher oder später zu einem Wirtschafts- oder Bevölkerungskollaps kommen. Keine schöne Aussichten, sozusagen die Apokalypse vor uns zu wissen. Darüber redet man natürlich nicht gern, schon gar nicht öffentlich. Die Frage ist also: Wie geht man damit um? 1 Donella Meadows, Dennis Meadows, Jørgen Randers und William W. Behrens III: The Limits to Growth. Universe Books 1972. 2 Global 2000. Bericht an den Präsidenten. Herausgegeben vom Council on Environmental Quality und dem US-Außenministerium. Gerald O. Barney, Study Director. Washington, U. S. Government Printing Office, 1980.

12

Dirk Helbing

Irgendjemand muss sich ja damit befassen. Manche glaubten, wir müssten vor allen Dingen wissen, wo all die Ressourcen unseres Planeten sind und wer sie konsumiert, und deswegen müssten wir massenhaft Daten über jeden sammeln und leistungsfähige Software-Tools bauen, um diese Daten auszuwerten. In­ zwischen leben wir in einem „Big Data“-Zeitalter. Innerhalb einer Minute fallen 700.000 Google-Anfragen an und 500.000 Facebook Posts. Auch wenn wir einkaufen gehen und uns bewegen, werden Daten gesammelt, und so entsteht insgesamt ein riesiges Meer an Daten. Um diese Daten auszuwerten und zu beherrschen, braucht es neue Tools – Künstliche Intelligenz zum Beispiel. Man erwartet, dass es innerhalb der nächsten 20 Jahre superintelligente Sys­ teme gibt. Es gibt sogar Leute, die so kühn sind zu behaupten, dass wir in diesem Jahrhundert noch erleben werden, dass Künstliche Intelligenz die Intelligenz aller Menschen auf der Erde übersteigen wird. Da bin allerdings etwas skeptisch. Was wir aber wissen ist, dass seit vielen Jahren Computer die besseren Schachspieler sind, dass Roboter in vielen Bereichen die besseren Arbeiter sind. Sie werden nicht müde, sind präzise, machen keinen Urlaub, beklagen sich nicht und müssen keine Steuern zahlen. Wahrscheinlich werden sie irgendwann die besseren Fahrer sein, die besseren medizinischen Diagnosen stellen und bessere Antworten geben – zumindest auf Fragen, auf die wir in der Vergangenheit bereits eine Antwort gefunden haben. Jüngst gab es wieder große Erfolge zu feiern. Eines der schwierigsten Strategiespiele, „Go“, wurde von Google Deep Mind bewältigt, und Google’s System wurde Weltmeister. Mittlerweile gibt es schon wieder etwas Besseres, nämlich Algorithmen, die ganz von alleine Schach oder Go spielen lernen können, ohne dass sie von Menschen angeleitet werden, indem sie nämlich millionenfach gegen sich selber spielen. Das heißt, wir haben jetzt gewissermaßen tatsächlich Künstliche Intelligenz, die uns über den Kopf wächst. Google und andere suggerieren nun, dass wir bald Systeme haben, die alle Probleme lösen können, auch jene, die uns Menschen über den Kopf gewachsen sind. Das ist natürlich ein bisschen optimistisch, weil viele der Probleme, die wir auf diesem Planeten haben, nicht daher kommen, dass wir zu dumm sind, sondern dass wir eine riesige Ungleichverteilung von Reichtum und Macht haben. Dazu werden wir nachher noch einmal kommen. Das heißt aber, wenn wir jetzt solche unglaublich mächtigen Künstliche-Intelligenz-Systeme bauen, wird das Problem vielleicht noch größer. Dessen müssen wir uns bewusst sein.

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

13

Auf jeden Fall, werden uns Roboter natürlich in allen möglichen Lebenslagen helfen. Ich will die Technologie hier gar nicht verteufeln! Aber wir müssen uns darüber im Klaren sein, dass Roboter irgendwann nicht nur andere Roboter bauen werden, sondern auch schlauere Roboter entwickeln können. Das heißt, wir stehen vor einer Roboter-Evolution, eine Evolution von Künstlicher Intelligenz. Manche beschwingt das dermaßen, dass sie sich fragen: Können wir nicht vielleicht – nachdem wir Autos und Fabriken automatisiert haben – sogar die ganze Gesellschaft wie eine riesige Maschine betreiben? Wenn man das versuchen wollte, müsste man wissen, was all die Einzelteile der Gesellschaft sind, wie sie sich verhalten und wie man sie, vor allen Dingen, steuern kann. Die Idee ist eigentlich schon relativ alt: Walt Disney selber hat von der perfekten Stadt geträumt, in Erweiterung der Vergnügungsparks sozusagen, in denen man logistisch alles perfekt durchoptimiert hat. Die Frage war also, warum man Städte eigentlich nicht genau bauen und betreiben kann? Dann gab es Firmen wie IBM, die sich daran gemacht haben, die InformationsSysteme zu kreieren, um sogenannte „Smart Cities“, „Smart Nations“ und einen „Smarter Planet“ zu betreiben. Hier geht es tatsächlich um die Automatisierung von Städten, Ländern und unseres Planeten. Daher sollte man sich noch einmal Bücher wie „The Grand Chessboard“ anschauen, welche die Welt als Schachbrett betrachten. Und wer tatsächlich diesen kühnen Traum verfolgt, der muss uns Menschen alle wie Schachfiguren bedienen können. In der Tat gibt es heute Schach-Roboter, welche die Figuren führen. Aber ginge auch die Verhaltenssteuerung von Menschen? Das ist gar nicht so weit hergeholt, denn tatsächlich gibt es Weltsimulationen, die auf digitalen Doubles von uns beruhen. Damit kann man verschiedene Szenarien durchspielen – und das ist auch der eigentliche Grund für die Massenüberwachung, nicht etwa der Terrorismus. Sie haben wahrscheinlich schon lange geahnt, dass mehr dahinter steckt. Es geht um die Prognose der Zukunft, und nicht nur das, sondern auch um die Gesellschaftssteuerung. Damit man die Gesellschaft steuern kann, muss man Menschen steuern, und das ist tatsächlich technologisch auf dem Weg. Das muss uns klar sein, und die Entwicklungen sind so weit gediehen, dass manche den freien Willen des Menschen bereits bestreiten. Richard Thaler, Nobelpreisträger für Ökonomie, hat sich mit Verhaltens­öko­ nomie und den menschlichen Schwächen beschäftigt. Davon gibt es viele.

14

Dirk Helbing

Aber aus meiner Sicht resultieren sie vor allem daraus, dass unser Gehirn so unglaublich effizient arbeitet. Es braucht nämlich nur so viel Energie wie eine 100 Watt-Glühbirne. Im Vergleich dazu braucht Googles Künstliche Intelligenz so viel Energie wie eine ganze Stadt, ein ganzes Atomkraftwerk. Was die Energieeffizienz angeht, liegen also Größenordnungen zwischen dem Menschen und Künstlicher Intelligenz. Unser Gehirn erzielt die Effizienz durch Vereinfachungen. Diese kann man aber austricksen. Die Frage ist also: Darf oder soll man die Schwächen des menschlichen Denkens gegen uns verwenden? Jedenfalls ist es so, dass nur etwa 5 % der Informationen, die auf uns ein­ strömen, bewusst verarbeitet werden. 95 % beeinflussen uns unterbewusst, aber wir merken gar nicht, dass dies der Fall ist. Das wird ausgenutzt, um uns zu „nudgen“, das heißt, anzustupsen oder zu schubsen, etwas Bestimmtes zu tun. Nudging wird oft euphemistisch als „liberaler Paternalismus“ verkauft, das heißt der Staat würde sich wie ein wohlwollender Vater verhalten und es gut mit den Bürgern meinen; letztlich seien sie aber frei, selbst zu entscheiden, ob sie sich schubsen lassen wollen oder nicht. Auf jeden Fall aber möchte man wirksamer regieren, und Nudging scheint aus Sicht der heutigen Politik das Mittel der Wahl. Die Idee des Social Engineerings ist nicht neu. Schon seit vielen Jahrzehnten – seit den 1930er Jahren mindestens – versucht man den Menschen zu beein­ flussen, zu lenken und zu steuern. Das kann man zum Teil auch unterbewusst. In den 1960er Jahren beispielsweise wurden TV-Spots ausgestrahlt, wo der Text der Nationalhymne eingeblendet wurde, aber die Buchstaben nicht in der richtigen Reihenfolge erschienen, sondern so, dass unmerklich andere Botschaften verbreitet wurden, als jene, die man bewusst wahrnahm. So wurden Botschaften wie „Trust the Government“, „God is real“, „God is watching“, „Rebellion is not tolerated“ verbreitet. Entsprechend kam die Idee auf: Können wir vielleicht Menschen programmieren, bestimmte Dinge zu machen? Damals war das nicht sehr effizient, aber jetzt haben wir „Neuromarketing“, und da werden die Nachrichten, die auf uns wirken, personalisiert. Dabei werden riesige Datenmengen über uns ausgewertet. Unter Berücksichtigung der menschlichen Psychologie und unserer Persönlichkeit werden wir dann sehr effektiv manipuliert.

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

15

Inzwischen gibt es einige Firmen, die wissen, was wir denken und wie wir wirkungsvoll beeinflusst werden können. Cambridge Analytica ist dabei noch eher eine der harmlosesten, und was ihre Wirksamkeit angeht, ist sie umstritten. Doch anscheinend kann man mit 300 Facebook-Likes unser Verhalten besser vorhersagen als unsere Freunde und Familie. Dabei ist Cambridge Analytica keineswegs eine High-end-Anwendung. Es gibt auch Plattformen wie „Crystal Knows“, die mit Slogans werben wie „See anyone’s personality“. Dort sind im Grunde genommen hunderte von Millionen Menschen auf eine Art virtuelle Psychocouch gelegt und auf ihre Charaktereigenschaften hin analysiert worden. Und jeder kann das einsehen. Man muss da nur die Nutzungsbedingungen akzeptieren, und man bekommt einen sehr detaillierten Einblick in die Charaktereigenschaften und Aktivitäten von Freunden, Kol­ legen, Konkurrenten, Nachbarn und Feinden. Das ist schon ziemlich erschreckend, denn jetzt gibt es Maschinen, die uns besser kennen als unsere Freunde. Unsere Freunde suchen wir uns natürlich gut aus, weil wir wissen, dass sie uns manipulieren können – wir müssen ihnen daher vertrauen können. Aber nun gibt es Firmen, die uns noch besser manipulieren können als unsere Freunde, und wir kennen diese nicht einmal. Wir wissen auch nicht, was sie mit unseren sensiblen Daten alles machen. Sie experimentieren jedenfalls mit uns, soviel kann man sicher sagen. Bereits in den 1930 er Jahren gab es Experimente zur Konditionierung, vor allem von Tieren. Sie erinnern sich bestimmt an die Skinner-Boxen, in denen Tiere bestimmten Anreizen bzw. Bestrafungen ausgesetzt wurden, um sie zu bestimmten Verhaltensweisen zu bringen. So richtet man im Prinzip Hunde ab. Und jetzt werden wir abgerichtet. Das heißt, wir werden selbst konditioniert. Wir sind die Versuchskaninchen. Die Skinner-Boxen, in die wir unmerklich ge­sperrt wurden, das sind die Filterblasen. Es wurde eine informationelle Pro­ jektionsfläche erzeugt, um uns zu beeinflussen. Wenn wir unseren Computer oder unser Smartphone benutzen, bekommen wir immer mehr personalisierte, individualisierte Informationen. Unsere Aufmerksamkeit wird bewusst ge­ steuert, und so kann man unsere Emotionen, unsere Meinungen, unsere Entscheidungen und unser Verhalten beeinflussen. Nicht perfekt, das würde ich nicht sagen, aber man versucht es jedenfalls, und es funktioniert immer besser.

16

Dirk Helbing

Hierbei verwendet man „deep learning“, das heißt maschinelles Lernen, das auf Big Data angewandt wird. Für jeden von uns gibt es eine Art Black Box, die anhand der Daten, die über uns heimlich gesammelt worden sind, lernt, sich so wie wir zu verhalten. Die meisten Daten, die über Sie gesammelt werden, kennen Sie übrigens gar nicht. Heutzutage wird im Prinzip jeder Klick im Internet von zahlreichen Firmen aufgezeichnet, und das enthüllt natürlich sehr viel über Sie. Ihre persönlich Black Box, die sich immer ähnlicher verhält wie Sie, das ist Ihr Digitale Double, mit dem man allerlei Experimente machen kann, etwa wie man Sie am besten dazu bringen kann, bestimmte Produkte zu kaufen oder bestimmte Parteien zu wählen oder bestimmte Menschengruppen zu lieben oder zu hassen – all das wäre möglich. Google ist eine der Firmen, die das schon sehr früh gelernt haben. Es braucht dafür natürlich Unmengen von Daten, aber die haben sie natürlich. Es stellt sich natürlich die Frage: „Wird das gut ausgehen?“ Was uns Sorgen bereiten muss, ist, dass man mit diesen Plattformen bereits sehr viele Dinge umsetzen kann, die in George Orwell’s „1984“oder in Aldous Huxleys „Brave New World“ beschrieben wurden, und viele Dinge, die wir vom Faschismus her kennen, insbesondere die Gleichschaltung. Zum Beispiel habe ich von einer einflussreichen Person eine E-Mail bekommen, in der steht: „Ich persönlich finde unter gesellschaftlichem Aspekt ja den Gedanken einer ‚Gleichschaltung‘ von Personen, Ansichten und Meinungen interessant.“ Mir läuft da ein kalter Schauer über den Rücken, und wenn man sich dann nochmal das neue Buch von Richard Thaler mit dem Titel „Misbehaving“3 anschaut, dann wird es einem auch ganz anders. Man sieht dort nämlich einen Vogelschwarm mit einer Lücke. Ein Vogel sitzt abseits. Es wird suggeriert, dass er sich offensichtlich verkehrt verhält. Der soll gefälligst in Reih’ und Glied. Dahinter steht die Vorstellung, dass die Gesellschaft wie ein Kristall ist, wo jeder einen vorgegebenen Platz einzunehmen hat, und wehe man spielt da nicht mit … Dann muss das angeblich korrigiert werden. Das ist Gleichschaltung. Aus meiner Sicht ist das Totalitarismus. Das können Sie vielleicht anders sehen. Aber die Technologien zur zentralisierten Verhaltenssteuerung sind erstaunlich weit fortgeschritten. Und dann sehen Sie das Ergebnis: Jeder starrt auf sein Handy, jeder läuft im Gleichschritt, alle Beine sind synchronisiert.

3 Richard Thaler: Misbehaving. W. W. Norton & Company, 2016.

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

17

Mittlerweile hat immerhin eine Diskussion über die Verhaltenssteuerung ein­gesetzt. Sogar Newsweek spricht von Gehirnwäsche. Es blühen uns mind control, social engineering, Täuschung, der programmierte Mensch, das Ende der Demokratie. Kein Wunder also, dass Cass Sunstein, einer der Väter des „Nudging“, jetzt ein Buch über „The Ethics of Influence“ 4 schreibt, wo das Titelbild einen Menschen zeigt, der von einem riesigen Stiefel zu zertreten werden droht. In der Tat wurden der Politik Instrumente schmackhaft gemacht, um Konsumenten dazu zu bringen, sich umweltfreundlich oder gesünder zu verhalten. Stattdessen ist aber ist etwas ganz anderes passiert. Zunächst hat man Social Bots für Propaganda mit personalisierten Informationen genutzt und damit auch Wahlen manipuliert. Lange Zeit hat man das nicht bemerkt. Man hat sich nur gewundert, warum die Wahlprognosen nicht mehr funktionieren, die sonst immer einigermaßen zuverlässig waren. Immerhin weiß man, wie Obama die US-Wahl gewann. Sie hatten über 40 Datenanalytiker, mit denen sie ermittelten, wer was wählen würde. Das hat natürlich die Anonymität der demokratischen Wahl ausgehöhlt. Später hat man angefangen, unentschiedene Wähler selektiv zur Wahl anzustupsen, und dann begann ein Stimmenfang mit personalisierten Nachrichten, die – wenn überhaupt – nur noch bedingt etwas mit dem Wahlprogramm zu tun hatten. Seit mindestens 2012 sind diese Methoden rund um die Welt im Einsatz. In Lateinamerika hat man die Wahlen gehackt, und es gibt gute Gründe anzunehmen, dass dies auch in Großbritannien geschehen ist, in der Türkei und in anderen Ländern – bis schließlich bekannt wurde, was da im Gange ist. Wahrscheinlich geschieht es immer noch. Jedenfalls ist kräftig gesündigt worden – gar keine Frage. Mittlerweile ist alles hoch automatisiert. Künstliche Intelligenz wird für flächen­deckende Propaganda eingesetzt. Im Prinzip ist das so etwas wie Cyber­­ waffen, die benutzt werden, um der Bevölkerung den Kopf zu ver­drehen. Nach Veröffentlichung des Digitalmanifests ist groß darüber in einem Interview mit Kosinski über Cambridge Analytica berichtet worden. Erst dann hat man verstanden, dass der überraschende Ausgang des Brexit Referendums wahrscheinlich von Bots mitverantwortet wurde. Wobei man nicht übertreiben darf: diese Bots und diese Künstliche-Intelligenz-Systeme sind nicht so effektiv, dass man jeden dazu bringen kann, beliebige Parteien zu wählen oder beliebige Sachen zu machen – aber einige Prozentpunkte kann man schon verschieben.

4 Cass R. Sunstein: The Ethics of Influence. Cambridge University Press, 2016.

18

Dirk Helbing

Zunächst wurde die Gesellschaft polarisiert, und zwar mit hoch kontroversen Thesen, mit denen die Gesellschaft in zwei etwa gleich große Lager geteilt wurde. Dann genügte es, 10 –20% der Unentschlossenen in die gewünschte Richtung zu stupsen, um die Wahl für sich zu entscheiden. Das war aber nicht nur die Manipulation einer demokratischen Wahl – es war auch eine Marktmanipulation, bei der die Märkte um drei Billionen EUR einbrachen. Einige Insider konnten das Geschäft ihres Lebens machen, während andere die Quittung zahlen mussten. Und doch hat meines Wissens bisher keine Staatsanwaltschaft begonnen, zu ermitteln, obwohl es ganz konkrete Verdachtsmomente gibt. Die Öffentlichkeit begann sich erst aufzuregen, als Trump zum Präsident gewählt wurde. Dann sprach man in der hohen Politik auf einmal von einer Invasion der Meinungsroboter, von bedrohter Demokratie oder sogar einer tödlichen Gefahr für die Demokratie, und plötzlich wurde den Meinungsrobotern angeblich der Kampf angesagt. Wir wissen aber bisher nicht, wie wirksam die getroffenen Maßnahmen sind oder ob überhaupt welche getroffen wurden. Man muss daher weiter aufmerksam sein. Auch in Deutschland wurde das „Nudging“ offensichtlich favorisiert, die Politik per Psychotrick. Über den überraschenden Wahlausgang im Jahr 2013 und wie er sich auf Deutschland und Europa auswirkte spricht derzeit kaum jemand. Seit die Politik aber technokratisch funktioniert und man sich nicht mehr die Mühe macht, die Politik dem Volk zu erklären und dieses mit an Bord zu nehmen, hat sich zum Beispiel der Populismus weit verbreitet. Die Diskussion konzentriert sich vor allem um die Erziehung von Verbrauchern durch einen Stups. Tatsächlich gibt es plötzlich eine neue Verbraucherpolitik. In der Broschüre dazu können Sie folgendes nachlesen: Verbraucher/innen verschieben gern Entscheidungen, sie orientieren sich am Status quo, empfinden Verluste stärker als Gewinne, handeln eher kurzals langfristig, überschätzen sich selbst und orientieren sich an Freunden! Die Verbraucher/innen sind also die Dummen, die man angeblich steuern muss. Die Politik fühlt sich legitimiert und berufen, einzugreifen und die Bürgerinnen und Bürger dazu zu bringen, das vermeintlich Richtige zu tun. Natürlich könnte man das Wort „Verbraucher/innen“ ohne weiteres durch „Politiker/innen“ oder „Wirtschaftsbosse“ ersetzen, und es wäre ebenso wahr – die Aussagen sind eigentlich Allgemeinplätze, die alle betreffen. Kein Wunder, dass es Leute gibt, die meinen, dass es vor allem unsere Politiker sind, die einen „Nudge“ bräuchten. Ich will das nicht beurteilen.

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

19

Sie sollten nur wissen, was technologisch heute möglich ist und passiert. In seiner letzten Correspondents’ Dinners Speech warnte Barack Obama eindringlich davor, dass wir jetzt in einer Welt leben, wo die fundamentalen Ideale liberaler Demokratien attackiert werden, wo Objektivität, freie Presse, Fakten und Evidenz unterminiert werden oder in vielen Fällen völlig ignoriert werden. Er fuhr fort, dass es in einem solchen Klima nicht mehr genug sei, den Leuten ein Megafon in die Hand zu geben, und forderte die Journalisten auf, die Gründe dafür zu enthüllen. Er selber konnte damals offensichtlich Ross und Reiter nicht beim Namen nennen – offensichtlich gibt es Akteure, die mächtiger sind als der damals sogenannte mächtigste Mann der Welt. In der Zwischenzeit sind wir in der postfaktischen Welt angekommen. Wir sprechen über alternative Fakten, und das geht so weit, dass Sie und ich, wenn wir im Internet denselben Weblink anklicken, unter Umständen unterschiedliche Inhalte zu sehen bekommen. Von den personalisierten Preisen kennen Sie das ja schon, aber dasselbe Prinzip wird auch bei Nachrichten immer mehr Anwendung finden. Es geht sogar so weit, dass man jetzt Videos, die Sie auf YouTube oder anderswo sehen, in Echtzeit manipulieren kann, und zwar sowohl die Gesichtsausdrücke als auch das Gesagte. Und es sieht praktisch vollkommen echt aus. Sie können als Laie also immer weniger entscheiden, ob die Informationen, die Sie angezeigt bekommen, verlässlich sind oder nicht. Wir können alle manipuliert werden. Und Politiker auch. Insofern kann man uns tatsächlich den Kopf verdrehen. Manche Leute finden das gut, weil sie sagen, wenn wir nur genügend Daten hätten, dann bräuchte es keine Theorie und Wissenschaft mehr, dann würden die Daten selber enthüllen, was die Wahrheit ist, und dann müssten wir nur noch das Richtige tun. Und deswegen hat man angefangen, wie verrückt Daten zu sammeln. Wir kennen das ja von der NSA, aber ich glaube, ehrlich gesagt, nicht, dass das die Schlimmsten sind. Man muss auch einen Blick auf die CIA und andere Geheimdienste richten, und auf Daten-Unternehmen selbstverständlich auch. Wenn Sie sich dafür interessieren, wieviel Daten es über Sie gibt, dann reicht die Schätzung von Megabytes bis mehrere Gigabytes pro Person pro Tag. Ein Megabyte sind eine Million Ziffern. Es sind jedenfalls wesentlich mehr Informationen, als sie Geheimdienste totalitärer Staaten früher brauchten. Sie werden also sehr detailliert vermessen. Wir sind schon längst gläsern. Wir sind

20

Dirk Helbing

wandelnde Sensorplattformen, selbst wenn wir die Handys ausschalten, sagte einst der CIA Direktor Gus Hunt. Man weiß, wo wir uns befinden und was wir tun. Google’s Ex-CEO Eric Schmidt sagte einst, es sei bekannt, was wir mögen, was wir denken, und „Wir wissen es, bevor Sie es wissen“. Da wird aber schon mit Nudging nachgeholfen. Wofür macht man das alles? Man möchte eine Art digitale Kristallkugel bauen, die es erlaubt, in Echtzeit zu sehen, was in der Welt passiert, und eine Prediction Ma­chine, mit der man dank Predictive Analytics die Zukunft vorhersagen kann. Aber damit die Vorhersage funktioniert, muss man die Gesellschaft und folglich unser Verhalten steuern. Die Frage, die dann aufkommt, ist: Könnte man mit so vielen Daten und so mächtigen Instrumenten die Welt regieren wie ein wohlwollender Diktator, könnte man einen optimalen Plan finden und um­ setzen, wo jedem die entsprechende Rolle zugewiesen wird? Könnte man damit unsere Weltprobleme lösen? Manche Leute glauben, dass ist tatsächlich der Fall. Ich bestreite das, denn wir wissen ja gar nicht, was die richtige Zielfunktion ist. Es gibt auch keine Wissenschaft, die es uns erlaubt, die richtige Zielfunktion zu finden: Ist es nun Bruttosozialprodukt oder Nachhaltigkeit, Power oder Peace, Lebenserwartung oder Lebensglück, was wir maximieren sollten, oder was? Es gibt viele andere Gründe, warum man an der Optimierung der Welt Zweifel haben kann. Künstliche Intelligenz Algorithmen optimieren in der Regel nicht. In vielen Fällen wissen wir nicht genau, was sie tun und wie sie zu ihren Ergebnissen kommen. Und wenn man gar nicht so viel Daten verarbeiten kann, wie in jeder Minute anfallen, wie will man da die Welt optimieren? Das stößt ja schon bei der Ampelsteuerung von Stadtverkehr an Grenzen. Dennoch behaupten manche, die beste Regierungsform sei die direkte Techno­ kratie. Und Larry Page von Google ist natürlich auch ganz vorne mit dabei, wenn er sagt: „Es gibt eine Menge Dinge, die wir gerne machen würden. Leider sind sie verboten.“ Vielleicht werden sie ja trotzdem irgendwo schon ausprobiert. Jedenfalls wird eifrig behauptet, die Demokratie sei eine veraltete Technologie. Sie habe zwar Reichtum, Gesundheit und Glück von Milliarden von Menschen auf der ganzen Welt gebracht, aber jetzt müsse etwas Neues her. Das Stichwort ist kreative Zerstörung. Tony Blair war einer der Ersten, die angefangen haben, die Demokratie anzuzählen. Inzwischen ist bekannt, dass Google den Staat neu programmieren möchte. Die großen IT-Unterneh­ men arbeiten jetzt an Betriebssystemen für die Gesellschaft – nicht nur für

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

21

Smartphones und Computer. Dabei geht um Automatisierung, aber nicht nur. Vieles von dem, was ich Ihnen hier erläutere, ist natürlich unglaublich, denn es kommt jetzt so viel zusammen, aber bitte nehmen Sie das ernst. Bei IBM gab es Leute, die den Watson Computer als nächsten Präsidenten haben wollten. Während der nächsten Präsidentschaftswahl im Jahr 2020 in Neuseeland soll dann wohl tatsächlich ein humanoider Roboter antreten. Es wundert daher nicht, dass auch Facebooks Mark Zuckerberg imperiale Ambitionen hat. Er ist nicht der Einzige. Auch in Europa gibt es Leute, die jetzt plötzlich Chinas politisches System loben. Dazu zählen anscheinend auch Kissinger und Trudeau. Ich kann es kaum glauben, aber ich habe persönlich die Gelegenheit gehabt, mit bestimmten Leuten zu reden, die allen Ernstes in diese Richtung zielen. Sie wollen Geschichte schreiben, und zwar durchaus in dem Sinne, ein neues Gesellschaftssystem auf den Weg bringen wollen, also die Demokratie abzuschaffen, weil China attraktiver als der Westen sei. Und damit das passiert, werden 50 Millionen EUR investiert in eine Firma, die ich hier ausgeblendet habe. Darüber hinaus gibt es eine ähnliche Firma, die global agiert. Das ist der bevorzugte Partner von Homeland Security. Da kann man lesen, dass diese Firma Aktivitäten von 64.000 sozialen Medien Providern aufzeichnet, wobei Facebook und Twitter nur zwei sind. Das sind erschreckende Datenmengen, die hier über jeden angehäuft werden. Sie können sich eine Sicherheitsanalyse Ihrer Firma machen lassen. Dazu müssen sie gar nicht das Passwort aushändigen. Diese Firma findet anscheinend trotzdem heraus, was bei Ihnen los ist. Sie ahnen schon, dass da Dinge im Gang sind, die Ihrer Aufmerksamkeit wahrscheinlich entgangen sind. All diese irrsinnigen Datenmengen, die da zusammenfließen, werden dann eingespeist in unglaublich leistungsfähige Superhirne, zum Beispiel auf der Basis von TrueNorth Chips oder Quantencomputern. Was diese heutzutage im militärischen Bereich schon leisten können, ist schwer zu sagen. Wenn ich aber schätzen sollte, wo man besonders gut hinschauen sollte, dann würde ich sagen: das CERN. Mehreren Zeitungsartikeln zufolge gibt es da das digitale Orakel, von dem ich vorhin gesprochen habe, schon. Warum muss man da besonders gut hinschauen? Weil das extraterritoriales Gelände ist. Man könnte da – wenn irgendein Missbrauch geschieht – noch nicht einmal Polizei oder Militär auf das Gelände schicken. Da müssten Sie vorher erst einen Krieg erklären. Jedenfalls ist das CERN – der Ort, wo das World Wide Web erfunden wurde – äußerst gut vernetzt. Es gibt zu einem Backupzentrum in Budapest

22

Dirk Helbing

zwei Leitungen mit 100 GBit /s Kapazität. Damit kann man 10mal so viele Daten sichern, als China über seine Bürger sammelt. Die Datenkapazität reicht also für die ganze Welt. Übrigens fließt die eine Leitung an Wien vorbei. Sie sind also für Habsburg 2.0 bestens gerüstet. Nun geht es aber noch einen Schritt weiter. Vor kurzem konnte man im Guardian lesen, dass ein Ex-Google-Mitarbeiter namens Levandowski Künstliche Intelligenz als Religion angemeldet hat. Warum muss man das ernst nehmen? Erstens: Religionen sind von Steuerzahlungen ausgenommen. Zweitens: Man muss sich nicht an die Verfassung halten – zumindest in den USA. Damit entzieht sich die KI-Religion dem Zugriff des Staates. Ich habe die Frage schon vor einigen Jahren gestellt: Möchte Google einen digitalen Gott schaffen? Tatsächlich gibt es Entwicklungen, die in diese Richtung zu deuten sind. Mit dem Loon Projekt möchte Google die letzten Winkel der Erde erschließen und damit omnipräsent sein. Darüber hinaus möchte Google gern allwissend sein. Mittlerweile dringt das Unternehmen mit seinen smarten Sensoren und digitalen Assistenten selbst in unsere Wohn- und Schlafzimmer vor. Mit der Allmacht ist es schon ein wenig schwieriger, aber ich habe vorher schon angedeutet, dass Google versucht, mit personalisierten Informationen unser Verhalten zu steuern. Auch wenn das nicht perfekt funktioniert, die Ambition ist jedenfalls vorhanden. Von der Beeinflussung von Wahlen habe ich bereits gesprochen. Die Macht, ihren Ausgang in Nord- und Südamerika sowie in Europa, Indien und Australien zu bestimmen, ist potenziell gegeben. 95 % unserer Suchanfragen laufen über Google. Dementsprechend sind wir sehr beeinflussbar. Weiterhin arbeitet Google an der Schaffung Künstlicher Intelligenz und möchte mit dem Projekt Calico überdies Herr über Leben und Tod werden. Letzten Endes geht es darum, den Tod zu überwinden; aber in einer angeblich überbevölkerten Welt bedeutet das nichts anderes, als dass Google auch darüber entscheidet wird, wer wann zu sterben hat. An entsprechenden Algorithmen wird ebenfalls schon gearbeitet. Sie sehen also, es scheint durchaus berechtigt, Google die Ambition nachsagen, Gott zu spielen. Zu allem Überfluss nennt sich das Unternehmen jetzt Alphabet, zu interpretieren als „alles von A bis Z“, oder um biblisch zu sprechen: „das A und O“. Ich bin übrigens bei Weitem nicht der Einzige, der das so sieht. Es gibt mehrere Bücher, die sich damit befassen, zum Beispiel von Yuval Noah Harari und Joël Cachelin. Aber wie gesagt – Levandowski bahnt bereits den Weg. Im Übrigen mischt auch der Papst kräftig mit, da er ja für göttliche An­ge­

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

23

legenheiten zuständig ist. Mit Ex-Google CEO Eric Schmidt gab es jedenfalls geheime Treffen. Sie können dazu stehen, wie Sie wollen: Sie können es toll finden oder gotteslästerlich oder bedrohlich. Aber Sie sollten sich mit der Frage befassen, wo das hinführen kann. Das Buch „QualityLand“ diskutiert das übrigens ziemlich klug in dem Kapitel namens „Hackfleisch“. Wenn Sie Fiction mögen, dann lesen Sie doch auch das Buch „iGod“. Es beschreibt, wo eine daten-getriebene und Algorithmen-gesteuerte Welt hinführen kann. Jedenfalls glaube ich, dass Sie jetzt Elon Musk besser verstehen, wenn er sagt: „Ich denke, wir sollten sehr vorsichtig sein mit Künstlicher Intelligenz – es könnte die größte Bedrohung für die Menschheit sein … We are summoning the demon!“ Fakt ist jedenfalls, • dass die Cyberkriminalität explodiert, weil KI-Systeme verwendet wer­­den, um systematisch Schwachstellen fremder Systeme aufzu­­spüren; • dass der technologische Totalitarismus, der mit dem Citizen Score und anderen Technologien in China Einzug hält, KI-basiert ist; • dass KI für den Informationskrieg eingesetzt wird, der immer bizarrere Züge annimmt; • dass der öffentliche Diskurs ganzer Populationen mittels KI von Firmen wie Google und Geheimdiensten gelenkt wird; • dass demokratische Wahlen mit KI manipuliert werden; und • dass autonome Waffensysteme mit KI realisiert werden. Ich sage Stopp – diese Ansätze sind nicht so leistungsfähig, wie man denkt. Bei Big Data gibt es oft das Problem des Überfittens und Scheinkorrelationen. Zum Beispiel korreliert die Anzahl der Waldbrände mit der Anzahl der Eis essenden Kinder. Hier ist der Grund einfach die externe Hitze, und wenn man Eis essende Kinder einsperren würde oder Eis zu essen verbieten würde, würde das die Zahl der Waldbrände nicht ändern. Dies ist vielleicht ein besonders absurdes Beispiel, aber ähnliche Fehler passieren bei der Big Data Analytics tat­sächlich andauernd. Wenn Sie glauben, Google würde so etwas sicher nicht passieren, dann schauen Sie sich nochmal Google Flu Trends an, das einmal das Vorzeigebeispiel für die Big Data Analytics war. Mittlerweile wurde der Service vom Netz genommen, weil er einfach nicht zuverlässig funktioniert. 23andMe bot Genanalysen an. Sie schickten eine biologische Probe ein und bekamen einen Brief zurück, in dem stand, welche Krankheiten Sie wahr­

24

Dirk Helbing

scheinlich bekommen werden und woran Sie vielleicht sterben werden. Das hat die Gesundheitsbehörde erst einmal vom Markt genommen. Denn wenn Sie eine zweite Probe an ein anderes Unternehmen geschickt haben, bekamen Sie vielleicht andere Resultate. Das zeigt, dass Big Data Analysen sensibel vom Datensatz und Algorithmus abhängen können und folglich nicht immer zuverlässig sind. Mit anderen Worten: Wenn Big Data das neue Öl ist, müssen wir erst einmal lernen, wie man es raffiniert, wie also Daten in nützliche Informationen verwandelt werden können, und wie man Informationen in Wissen verwandelt und das in Weisheit. Ähnliche Probleme gibt es mit Künstlicher Intelligenz. Die zugrundeliegenden Algorithmen sind so etwas wie eine Black Box. Wir wissen eigentlich nicht genau, wie sie zu ihren Schlussfolgerungen kommen. Selbst Google gibt zu, dass Bias durch Algorithmen – also insbesondere Diskriminierung – eine größere Gefahr ist als Killerroboter. Ich bin mir nicht sicher, ob Sie das beruhigt. Es wird oft angenommen, ein gutes KI-System kann von alleine jedes Problem zu lösen lernen. Das setzt jedoch voraus, dass der Lernalgorithmus konvergiert. Viele Probleme hängen aber mit skalenfreien Netzwerken zusammen, und hier kann es vorkommen, dass die Konvergenz mathematisch gar nicht möglich ist. Unter solchen Bedingungen können Sie sich anstrengen, wie Sie wollen. Sie werden nicht zu vernünftigen Ergebnissen kommen. Man könnte auch sagen, nicht alle Probleme sind berechenbar. Tatsächlich ist es so, dass die lebenswertesten Städte der Welt keineswegs in den führenden IT-Nationen liegen. Das Silicon Valley hat also nicht begriffen, was es braucht, um Lebensqualität zu produzieren oder gar das Paradies auf Erden, das uns oft von dort versprochen wird. Die Automatisierung von Städten generiert sie jedenfalls nicht. Ich hatte das Privileg, an dem Workshop „Disrupting Cities through Technology“ im Wilton Park teilzunehmen, wo es darum ging, Bilanz zu ziehen. Beteiligt waren die Vertreter von Smart Cities, Vertreter der Technologiefirmen, Homeland Security und viele andere Vertreter rund um die Welt. Die Schlussfolgerung war, dass es nicht funktioniert, den Menschen aus der Gleichung heraus zu nehmen und Städte nach dem Konzept des wohlwollenden Diktators zu organisieren. Einer der Bürgermeister meinte sogar, seine Stadt hätte gar nicht mehr funktioniert, wenn es nicht so viel Korruption in seinem Land gäbe. Selbst Brzezinski, der langjährige strategische Berater der USA, von dem das Buch „The Grand Chessboard“ stammt, musste am Ende seines Lebens seinen Plan für gescheitert erklären. Warum?

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

25

Städte als gigantische Logistiksysteme oder riesige Entertainmentparks zu sehen, greift zu kurz. Sie sind Orte des Experimentierens und Lernens, der freundschaftlichen Begegnung und des sozialen Austauschs, der Kreativität und Innovation, Partizipation und Ko-Kreation. Die Welt ist eben nicht einfach ein gigantisches Schachbrett. Wir sind Game Changers, welche die Regeln ändern. Die Komplexität der Welt und die sich ständig ändernden Regeln führen dazu, dass der ganze Ansatz der Daten-getriebenen und KI-gesteuerten Welt nicht funktioniert, um uns zu retten vor den existenziellen Bedrohungen der Welt, und noch weniger, um uns ein menschenwürdiges Leben zu bescheren. Die Frage ist also: Was machen wir jetzt? Elon Musk schlug vor, dass wir uns Chips ins Gehirn einbauen, damit wir mit der Künstlichen Intelligenz noch Schritt halten können. Eine kurze Frage: wer würde das denn ganz gerne machen? Nun gut, 10 % Nachlass heute, 20 %, 50 %! Keiner? Ich glaube auch, so einfach ist es nicht. Wenn wir uns einfach so upgraden könnten und damit wären alle Weltprobleme gelöst, wäre das schön. Ich denke aber, letzten Endes stehen wir vor einer riesigen gesellschaftlichen Transformation, die noch größer und schneller sein wird als die industrielle Revolution. Wie könnte das aussehen? Wohin könnte das führen? Ich bin der Meinung, dass wir Menschen durch die Institutionen unserer Ge­ sell­schaft in vielerlei Hinsicht downgegraded werden. Mit anderen Worten: uns werden die Flügel gestutzt. Wir werden in Boxen gesteckt. Die Schule ist so eine Box, unser Beruf ist so eine Box, usw. Wir haben Institutionen, die uns sagen, was wir wann zu tun oder zu lassen haben, und das schränkt uns ganz erheblich ein, gerade in Zeiten, wo wir unsere Wirtschaft und Gesellschaft neu erfinden müssen. Das heißt, die Gesellschaft von heute fußt auf Kontrolle, und das behindert uns bei der Freisetzung unseres kreativen Potenzials. Überlegen wir uns also, wie man Menschen kontrollieren kann und wie wir uns von den Kontrollmechanismen befreien können. Wer sind also die Leute /  Institutionen, die Kontrolle über uns ausüben? (siehe Abbildung 1, S. 26). Es stellt sich heraus, dass wir, die Bürger, in den wenigsten Fällen die Kontrolle ausüben. Und das ist das eigentliche Problem. Ich denke daher, wir brauchen jetzt eine neue Aufklärung. Wir müssen uns unseres kreativen Potenzials bewusst werden, auch wenn uns inzwischen von der Presse eingeredet wird, dass es keine Entscheidungsfreiheit gibt. Inzwischen gibt es jedoch Experimente, die den freien Willen zweifelsfrei beweisen. Und wenn

26

Dirk Helbing

Abbildung 1: Heutzutage werden Menschen von vielen Faktoren und Institutionen beherrscht, die sie in ihrer Entfaltung einschränken und die sie in der Regel kaum beeinflussen können.

wir noch einmal auf das Buch von Richard Thaler zurückkommen, dann muss man sagen, dass sie überhaupt nicht zentral gesteuert werden, sondern selbstorganisiert sind. Und diese Selbstorganisation funktioniert ganz wunderbar, viel besser, als das unsere technischen Systeme heutzutage können. Es braucht nur die richtigen Interaktionsregeln. Mit anderen Worten, wir müssen uns mit komplexen Systemen befassen. Komplexe Systeme entstehen unter anderem durch zunehmende Vernetzung, und weder Rechenleistung noch Daten halten mit der resultierenden System­ komplexität Schritt (s. Abbildung 2). Das heißt, obwohl wir die beste Tech­ nologie aller Zeiten und mehr Daten denn je haben, verlieren wir die Kontrolle, wenn wir versuchen, die Welt top-down zu kontrollieren. Wenn Sie die Zeitung aufschlagen, bekommen Sie wahrscheinlich auch das Gefühl, dass es immer mehr Chaos in der Welt gibt. Wir müssen einen anderen Kon­trollansatz wählen: den der verteilten Kontrolle und Selbstorganisation. Das kann durch­ aus funktionieren. Selbstorganisation ist in vielen Fällen effizient, wie auch die Nobelpreisträgerin Elinor Ostrom gezeigt hat. Die Frage ist nur: Wie lernen wir eine Gesellschaft zu bauen, die sich selber effektiv organisieren kann? Wir müssen endlich wegkommen von Top-Down-Power und Kontrolle hin zu Empowerment und Koordination – also weg von der Überregulierung, über

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

 27

Abbildung 2: Daten und Technologie können mit der explodierenden Systemkomplexität nicht Schritt halten. Verteilte Kontrolle und Selbstorganisation werden zunehmend an die Stelle von Top-Down-Kontrolle treten.

die sich jeder ständig beklagt. Ein Beispiel, das zeigt, wie gut Selbstorganisation funktionieren kann: eine Kreuzung in Ägypten, die von vielen verschiedenen Ver­kehrsteilnehmern ohne jegliche Ampel genutzt wird. Überraschenderweise muss keiner warten. Das Erfolgsgeheimnis ist das Systemdesign. Wir haben zwei Einbahnstraßen und einen Puffer dazwischen, der es den Verkehrsteilnehmern erlaubt, die Geschwindigkeit so zu adaptieren, dass sie zum richtigen Zeitpunkt eine Lücke im Verkehrsfluss finden. Es geht jetzt darum, unsere Welt mit digi­ talen und anderen Mitteln neu zu organisieren, damit unsere kreative Tätigkeit von selbst koordiniert wird. Digitale Assistenten könnten uns dabei helfen. Das Grundprinzip müsste eigentlich sein: Alles ist erlaubt, solange wir nicht anderen wehtun oder der Umwelt schaden. Dazu müssten wir tatsächlichen und potenziellen Schaden und Nutzen messen, also die sogenannten Exter­ nalitäten. Das kann man jetzt mit dem Internet der Dinge einfach und günstig machen und uns dann Feedback geben. Das heißt, was Schaden oder Schmerzen produzieren würde, müsste Widerstand erzeugen, so dass wir stattdessen etwas Vernünftigeres machen. Durch Kombination des Internets der Dinge mit Blockchain Technologie zum Beispiel könnte man jetzt ein solches System bauen. Damit kann man insbesondere Staus loswerden, auch in Innenstädten. Das funktioniert übrigens viel besser als zentrale Kontrolle bei komplexen Optimierungsproblemen.

28

Dirk Helbing

Meiner Meinung nach könnte man damit auch die Nachhaltigkeitsproblematik angehen. Im Laufe eines Lebens wirft jeder von uns etwa 50 Tonnen Abfall weg – das sind eigentlich wertvolle Ressourcen. Wenn die sich melden würden – stellen Sie sich für einen Moment einmal „smarten Müll“ vor, der sich meldet und Anreize gibt zur Wiederverwertung –, dann würden neue Marktkräfte entstehen, die von selbst zu einer Kreislaufwirtschaft und Sharing Economy führen würden. Um dorthin zu kommen, müssen wir begreifen, wie unsere Gesellschaft heute wirklich funktioniert. Im Grunde genommen ist es ähnlich wie bei der Sedimentation – da liegen mehrere Schichten übereinander. Oben ist die Schicht der Demokratie, doch im Falle von Deutschland beispielsweise liegen darunter noch das DDR-Regime, das Nazi-Regime, das Kaiserreich usw. Dabei wirken die alten Systeme immer noch bis zu einem gewissen Grade fort. Die alten Systeme streben immer wieder an die Oberfläche, kreieren Chaos und bedrohen die Demokratie. Wir müssen das also irgendwie anders organisieren. In Abbildung 3 sehen Sie ein neues Modell, wo die verschiedenen gesell­ schaft­­­lichen Kräfte nebeneinander existieren und einander gegenseitig be­ fruch­­ ten. Ich glaube, insgesamt müssen wir hin zu den Prinzipien von Befähigung, Koordination und Ko-Kreation kommen, d. h. statt uns gegen­ seitig zu be­kämpfen und auszutricksen: uns gegenseitig zu helfen, bessere Entscheidungen zu treffen, kreativer und innovativer zu sein, und besser zu kooperieren, um kombinatorische Innovation zum Nutzen aller zu entfesseln. Das braucht Offenheit und Interoperabilität in einem Innovations- und Informationsökosystem, das wir jetzt schaffen müssen. In dem demokratischen Kapitalismus der Zukunft müssen wir Breiten-In­­ no­­­vation entfesseln, damit wir endlich unsere existenziellen Probleme gelöst bekommen. Das Problem ist nur, dass die meisten Leute, die gute Ideen haben, nicht die Mittel haben, um sie zu realisieren. Das können wir ändern. Insbesondere müsste man das Geld anders einspeisen, nämlich von unten über eine sogenannte Investmentprämie, die auf jedermanns Konto überwiesen würde, aber nicht für den persönlichen Konsum gedacht wäre. Vielmehr müsste sie verteilt werden an Leute mit guten Ideen, Engagement in Umweltprojekten, sozialen Projekten oder Nachbarschaftsprojekten. Der Ansatz wäre gewissermaßen ein „���������������������������������������������������������������� Crowd funding für alle“, um die „Weisheit der Vielen“ zu entfesseln. Manchmal muss man das natürlich koordinieren, und dafür braucht es

Von Künstlicher Intelligenz zu Kollektiver Intelligenz

29

Abbildung 3: Vorschlag für eine neue Organisation der Welt

die „digitale Demokratie“. Hierbei geht es nicht darum, auf digitalen Abstimmungsplattformen andere zu überstimmen, sondern Plattformen zu bauen, welche das Wissen und die Ideen von vielen konstruktiv zusammenfügen, um kollektive Intelligenz zu erzeugen, also Lösungen, die für mehr Menschen funktionieren. Facebook ist ganz offensichtlich nicht der richtige Ansatz. Wenn wir diesen Weg beschreiten würden, dann könnten wir zu komplexen Problemen wesentlich bessere Lösungen finden. Das Interessante an kollektiver Intelligenz ist, dass die Kombination mehrerer Lösungen oft zu besseren Lösungen führt als sogar die beste Einzellösung, d.h. Diversität ist ein Gewinn. Man kann sich auch neuer Formate wie Städteolympiaden bedienen, wo es um das Finden von Lösungen zu unseren existenziellen Problemen ginge, wie Klimaschutz, Energieeffizienz, Resilienz, Nachhaltigkeit, Frieden und anderen Dingen, die uns auf den Nägeln brennen. Dabei würden wir in einen freundschaftlichen Wettbewerb treten. Die besten Lösungen würden identifiziert, und wir würden gegenseitig voneinander lernen. Die Lösungen wären Open Source und Creative Commons, d.h. jeder könnte sie verwenden und offen weiterentwickeln. Auf diese Art und Weise könnten wir, glaube ich, innerhalb von kurzer Zeit riesige Fortschritte in Richtung der Lösung unserer Weltprobleme machen. Ich glaube, über dieses partizipative und kooperative Gesellschaftsmodell werden wir am ehesten zu dem Paradies auf Erden kommen, von dem wir vorhin sprachen. Warum machen wir das nicht einfach?

Die wirtschaftlichen Folgen der Automatisierung Klaus Prettner, Niels Geiger und Johannes A. Schwarzer

Zusammenfassung Der technologische Wandel der letzten 200 Jahre ermöglichte es den heutigen Industrieländern, ein historisch einzigartiges Wohlstandsniveau zu erreichen. Nichtsdestotrotz haben technologische Veränderungen zu jeder Zeit Befürchtungen dahingehend ausgelöst, dass sie zu hoher Arbeitslosigkeit und zur Verarmung ganzer Bevölkerungsschichten führen könnten. Aus zwei Gründen ist dies bisher nicht geschehen: Erstens lösten die technologischen Entwicklungen ein starkes Wirtschaftswachstum aus, wodurch sich die Nachfrage so stark erhöhte, dass trotz der gestiegenen Arbeitsproduktivität durch technologischen Fortschritt das Arbeitsvolumen in den jeweiligen Tätigkeitsbereichen nicht in gleichem Maße abnahm. Zweitens kam es zu einem tiefgreifenden Strukturwandel, durch den das Schrumpfen des Beschäftigungsanteils mancher Sektoren (zuerst vor allem der Landwirtschaft, später auch der Industrie) mit der Entstehung völlig neuer Tätigkeitsbereiche (vor allem im Bereich der personalintensiven Dienstleistungen) einherging. Durch den starken Anstieg der Anzahl der Arbeitskräfte im Dienstleistungssektor wurde der Wegfall an Arbeit in schrumpfenden Sektoren (über-)kompensiert. Nun stellt die aktuelle Welle der Automatisierung eine Form der techno­ logischen Entwicklung dar, welche definitionsgemäß Arbeit für gewisse Aufgaben nicht nur teilweise, sondern vollständig ersetzt und somit obsolet werden lässt. Eine Erhöhung der Nachfrage nach automatisiert hergestellten Gütern oder Dienstleistungen kann somit zu keinen direkten positiven Beschäftigungseffekten führen. Wenngleich beschäftigungssteigernde indirekte Sekundäreffekte weiterhin wirksam sind, so sind die neuen Tätigkeitsbereiche, welche im Zuge der Automatisierung entstehen, oftmals weniger arbeitsintensiv, als es die Dienstleistungen in der Vergangenheit waren. Dadurch fallen auch die indirekten Kompensationsmechanismen der negativen Beschäftigungs­effekte der Automatisierung tendenziell schwächer aus. In diesem Beitrag gehen wir der Frage nach, wie sich die Automatisierung auf das

32

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Wirtschaftswachstum, die Beschäftigung und die Ungleichheit auswirkt, und zeigen mögliche Handlungsperspektiven für die Wirtschaftspolitik auf, um ungewünschten Auswirkungen vorzubeugen und entgegenzuwirken.

1. Einleitung und stilisierte Fakten zur Automatisierung Der außergewöhnlich rasch verlaufende technologische Wandel der letzten 200 Jahre ermöglichte es den heutigen Industrieländern, ein historisch einzigartiges Wohlstandsniveau zu erreichen. Noch nie waren beispielsweise die Lebens­erwartung und die durchschnittlichen Realeinkommen so hoch und die Kindersterblichkeit so niedrig wie derzeit. Nichtsdestotrotz haben technologische Veränderungen zu jeder Zeit Befürchtungen dahingehend ausgelöst, dass sie hohe Arbeitslosigkeit und die Verarmung ganzer Bevölkerungsschichten verursachen könnten. Aus zwei Gründen ist dies bisher nicht geschehen: Erstens lösten die technologischen Entwicklungen ein starkes Wirtschaftsbzw. Einkommenswachstum aus. Dadurch erhöhte sich die Gesamtnachfrage derart, dass trotz der gestiegenen Arbeitsproduktivität durch den technologischen Fortschritt das Arbeitsvolumen in den jeweiligen Tätigkeitsbereichen nicht in gleichem Maße ab-, sondern oftmals sogar zunahm. Zweitens kam es zu einem Strukturwandel, durch den das relative Schrumpfen des Beschäftigungsanteils mancher Sektoren (zuerst vor allem der Landwirtschaft, später auch der Industrie) mit der Entstehung völlig neuer Tätigkeitsbereiche (vor allem im Bereich der personalintensiven Dienstleistungen) und einem Anstieg des Beschäftigungsanteils in diesen neuen Tätigkeitsbereichen einherging. Die jüngere Entwicklung einer zunehmenden und vollständigen Automatisierung bestimmter Tätigkeiten������������������������������������������� führt sowohl innerhalb der ��������������� wirtschaftswissenschaftlichen Forschung selbst als auch insbesondere in der Politik zu der Sorge, dass dieser neuartige technologische Fortschritt wesentlich stärker zu einer Polarisierung der Arbeitswelt und damit auch der Gesellschaft führen könnte, als dies durch frühere Formen des technologischen Fortschrittes geschah. Dies betrifft insbesondere einen möglichen Wegfall vieler Arbeitsplätze im Bereich der niedrig- und mittelqualifizierten Tätigkeiten und eine damit einhergehende Erosion der Mittelschicht sowie eine allgemein zunehmende Verschiebung der Einkommensanteile am Volkseinkommen weg vom Produktionsfaktor Arbeit hin zum Produktionsfaktor Kapital (siehe beispielsweise Prettner, 2018).

Die wirtschaftlichen Folgen der Automatisierung

33

Diese neue Art des technologischen Fortschritts, die Automatisierung, wird im Allgemeinen definiert als „Operationen […], welche menschliche Arbeit vollständig ersetzen“ (eigene Übersetzung von Merriam-Webster, 2017). Somit führt diese Form des technologischen Fortschritts im Gegensatz zum Standardfall des arbeitsvermehrenden technologischen Fortschritts (siehe ­beispielsweise Romer, 1990) nicht zu einer Erhöhung der Produktivität einer Arbeitskraft, sondern lässt die Arbeitskraft insgesamt obsolet werden. Eine Erhöhung der Nachfrage nach automatisiert hergestellten Gütern oder Dienstleistungen kann deshalb zu keinen direkten positiven Beschäftigungseffekten in den jewei­ligen Teilprozessen der Produktionskette führen. Beispielsweise ist klar, dass, wenn Taxis nicht mehr von Menschen gesteuert werden, eine Erhöhung der Nach­ frage nach Taxifahrten keine direkten positiven Beschäftigungs­effekte hat. Hierdurch ist natürlich noch nicht gleichzeitig ausgeschlossen, dass andere indirekte Wirkungskanäle zur Kompensation der freigesetzten Arbeitskräfte existieren. Allerdings sind viele der neuen Produkte, welche im Zuge des technologischen Fortschritts des letzten Jahrzehnts entstanden, kaum arbeitsintensiv. Beispielsweise war der Marktwert von WhatsApp bei dessen Verkauf an Facebook 14 Milliarden Euro, was der Summe der damaligen Werte von ­Lufthansa und Hochtief (einer der größten internationalen Baukonzerne) entsprach. WhatsApp hatte zu diesem Zeitpunkt aber nur einen Mitarbeiterstand von ca. 50 Beschäftigten (Frankfurter Allgemeine Zeitung, 2014). Es ist daher fraglich, ob die Arbeitskräfte, die durch Automatisierung wegfallen, in neu entstehenden Arbeitsplätzen in anderen Branchen wiederbeschäftigt werden können. Ferner sind in diesem Zusammenhang bereits Auswirkungen auf die Entwicklung der ökonomischen Ungleichheit erkennbar: Technologische Verände­rungen der jüngeren Vergangenheit haben oft dazu geführt, dass einzelne In­novatoren durch die Bedienung großer Märkte hohe Gewinne erzielen konnten, während ein Großteil der arbeitenden Bevölkerung keine entsprechenden Einkommenszugewinne verbuchte (siehe beispielsweise Korinek und Ng, 2017). In historischer Perspektive ist die vollständige Automatisierung ein relativ neues Phänomen. Während die erste Firma, die Industrieroboter herstellte, in den späten 1950er Jahren gegründet wurde (Prettner und Strulik, 2017), war die Anzahl der weltweit operativen Industrieroboter 1 bis in die zweite Hälfte der 1980er Jahre hinein vernachlässigbar gering. In Abbildung 1 (s. S. 34) sind 1 Diese sind gemäß bzw. ISO 8373 definiert als ein������� “automatically controlled, reprogrammable, multipurpose manipulator, programmable in three or more axes, which can be either fixed in place or mobile for use in industrial automation applications”.

34

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Schätzungen der International Federation of Robotics (2015, 2017) für die Anzahl der weltweit operativen Industrieroboter 1 dargestellt. Insbesondere in den letzten zehn Jahren konnte hier eine starke Zunahme beobachtet werden. Pro­ gnosen der International Federation of Robotics (2017) gehen davon aus, dass die Zahl bis zum Ende des Jahrzehnts auf über 2,5 Millionen steigen könnte. Dieser Anstieg war insbesondere deutlich schneller als das Wachstum der gesamten Weltwirtschaftsleistung. Hierbei ist zu beachten, dass sich erhebliche internationale Unterschiede sowie Unterschiede zwischen einzelnen Branchen ergeben: Während beispielsweise in der Produktion von Automobilen und Elektro­nikgeräten vergleichsweise viele Industrieroboter einsetzt werden, ist die absolute Zahl in der Nahrungsmittelproduktion deutlich geringer (siehe International Federation of Robotics, 2017). Gleichzeitig ist die Diffusion von Industrierobotern in Deutschland und Japan schon sehr stark vorangeschritten, während die Roboterdichte (Roboter je 1000 Arbeitskräfte) in den USA deutlich unter dem europäischen Durchschnitt liegt und in vielen weniger entwickelten Ländern noch kaum Industrieroboter eingesetzt werden (siehe Abeliansky und Prettner, 2017; Acemoglu und Restrepo, 2017a: 41).

Abbildung 1: Anzahl der weltweit operativen Industrieroboter im Zeitraum 1973 –2016 gemäß der International Federation of Robotics (2015, 2017). Die Datenpunkte stellen die publizierten Werte dar. Eigene Darstellung.

Die wirtschaftlichen Folgen der Automatisierung

35

2. Historischer und theoriegeschichtlicher Überblick Bedenken bezüglich der Wirkungen des technologischen Fortschritts sind keineswegs auf die heutige Zeit beschränkt und fokussierten sich in der Vergangenheit vorwiegend auf die mit den Veränderungen einhergehenden Beschäftigungseffekte. Adam Smith äußerte bereits 1776 in seinem die Ökonomie begründenden Werk An Inquiry into the Nature and Causes of the Wealth of Nations die Sorge, dass die zunehmende Arbeitsteilung eine entsprechend zunehmende Eintönigkeit der Arbeit erzeugen würde (siehe im Folgenden insbesondere Hagemann, 1995 sowie Humphrey, 2004). Allerdings war Smith optimistisch, was die quantitativen Beschäftigungswirkungen anging, da die zunehmende Arbeitsteilung seiner Ansicht nach Hand in Hand mit einer Ausweitung des Marktes und der Produktion (und damit der Möglichkeiten, weiterhin eine Beschäftigung zu finden) einherging. Am bekanntesten und auch aus theoriegeschichtlicher Perspektive am bedeutendsten sind die sogenannten Ludditenaufstände, welche sich zwischen den Jahren 1811 bis 1816 in England ereigneten. Hierbei handelte es sich um gewaltsame Proteste, welche gegen die Einführung des mechanischen Webstuhls gerichtet waren und dessen Zerstörung als Ziel hatten. Unter dem Eindruck dieser Proteste revidierte David Ricardo in der dritten Auflage 1821 seines Buches On the Principles of Political Economy and Taxation seine bisherige Aussage, dass die Einführung einer neuen Technologie aufgrund ihrer Effizienzsteigerung für alle vorteilhaft sei. In dem neu hinzugefügten Kapitel 31 „On Machinery“ untersucht Ricardo die Bedingungen, unter welchen technologische Arbeitslosigkeit entstehen kann, ohne dass es in absehbarer Zeit zu einer Kompensation, also einer Wiederbeschäftigung der freigesetzten Arbeitskräfte, durch die Kräfte des Marktes kommt. Ricardos Analyse prägte die Debatte hierbei bis heute und führte zu bedeutenden Beiträgen bekannter Ökonomen wie beispielsweise Wicksell (1906), Hicks (1973) und Samuelson (1988). Entscheidend sind in dieser Analyse allerdings die zugrundeliegenden Annahmen. So ist beispielsweise bei Ricardo die Beschäftigungsmenge durch einen Lohnfonds bestimmt, dessen Höhe vereinfacht dargestellt dadurch gegeben ist, welcher Restanteil an der Gesamtproduktion an Nahrung für die Arbeitskräfte zur Verfügung steht, nachdem die Kapitaleigner ihren Anteil entnommen haben. Soll nun aufgrund der sich ergebenden Möglichkeiten des technologischen Fortschritts eine neue Maschine hergestellt werden, um diese später in der Produk­tion zu verwenden, so müssen für die Herstellung

36

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

ebendieser Maschine Arbeitskräfte aus der Nahrungsmittelproduktion abgezogen werden. Hierdurch wird der Lohnfonds aber niedriger ausfallen, da die absolute Menge an Nahrung, die die Kapitaleigner für sich beanspruchen, gleich bleibt (die Rendite auf das eingesetzte Kapital), während aber die gesamte Produktion an Nahrungsmitteln durch den Abzug eines Teils der Arbeitskräfte sinkt. Die Einführung der neuen Maschine führt somit zu einem anfangs geringeren Beschäftigungsvolumen, bzw. in Ricardos Modell unter der Annahme eines anfänglichen Lohns am Subsistenz­niveau sogar zum Hungertod eines Teils der Arbeitskräfte. Demgegenüber argumentierte Wicksell (1906), dass ein solch negativer Beschäftigungseffekt nicht eintreten müsse. Ricardos Annahme eines vollständig elastischen Arbeitsangebots bei Subsistenzlohn stellt Wicksell die Annahme eines unelastischen Arbeitsangebots gegenüber, sodass der nun vollkommen flexible Reallohn prinzipiell in der Lage ist, den Arbeitsmarkt immer zu räumen. Sollte die Einführung einer neuen Technologie mit einem geringeren Grenzprodukt der Arbeit und damit einem geringeren gleichgewichtigen Reallohn verbunden sein, so wäre eine solche Anpassung der ­Löhne nach unten das Mittel zum Zweck der Sicherung der Beschäftigung. Dieser flexible Reallohn löst das Beschäftigungsproblem allerdings nicht, falls der Reallohn unter das Subsistenzniveau fallen sollte. Daher plädiert Wicksell für eine Flankierung der Einführung neuer Technologien mit einer entsprechenden staatlichen sozialen Absicherung. Dieses Sicherungssystem wäre notwendigerweise aus Profiten finanziert, was allerdings insofern problemlos möglich wäre, da die Profite im Zuge der neuen Technologie steigen würden und nach Umverteilung beide Seiten immer noch durch die Einführung der neuen Technologie besser gestellt wären. In Wicksells Modell wäre somit generell auch eine Marktlösung möglich, in welcher die Kapitaleigner die Zustimmung der Arbeitskräfte zur Einführung einer neuen Technologie durch entsprechende direkte Zahlungen „erkaufen“. Allein schon anhand dieser beiden Beispiele zeigt sich, dass die Ergebnisse der jeweiligen modelltheoretischen Analyse stark von den zugrundeliegenden Annahmen abhängen. So schränkt Wicksell beispielsweise selbst ein, dass technologischer Fortschritt eher das Grenzprodukt der Arbeit erhöhen als senken sollte, sodass dann auch in seinem Modell für Arbeitskräfte und Kapitaleigner diese neue Technologie immer vorteilhaft wäre (siehe in diesem Zusammenhang auch ferner Samuel­son 1957, S. 912; 1962, S. 13). Wie bereits beschrieben, ist dies im Falle der Automatisierung aufgrund der extrem arbeitssparenden Natur dieses technologischen Fortschritts allerdings nicht

Die wirtschaftlichen Folgen der Automatisierung

37

der Fall, da die Automatisierung das Grenzprodukt der Arbeit, im Gegensatz zum arbeitsvermehrenden technologischen Fortschritt, nicht erhöht, sondern Arbeit als solche obsolet werden lässt. Weitere Fragestellungen, die die Analyse einer Traverse, also den Übergang von einer alten zu einer neuen Produktionstechnologie betreffen, sind, ob die neue Technologie mehr oder weniger Arbeit zur Herstellung und im Betrieb benötigt (Hicks, 1973) oder welche Effekte sich ergeben, wenn Maschinen nicht nur von Arbeit, sondern auch wieder mit Maschinen hergestellt werden (Lowe, 1976). In einem solchen Fall der zirkulären Produktion wirkt technologischer Fortschritt auf mehreren Ebenen der Wertschöpfung, d.h. von der Herstellung der Maschine an sich bis zur Herstellung von Zwischenund Endprodukten. Ob es im Zuge des technologischen Fortschritts zu einem Beschäftigungsund/oder Lohnrückgang kommen muss ist daher zumindest auf theoretischer Ebene von der konkreten Ausgestaltung des Modells abhängig. Somit stellt sich ganz grundsätzlich die Frage, welche Wirkungskanäle zur Kompensation der negativen Beschäftigungseffekte des technologischen Fortschritts existieren und wie diese im Lichte der Automatisierung zu bewerten sind. In Anlehnung an die Diskussion in der Literatur werden im Folgenden fünf verschiedene Wirkungskanäle besprochen, wobei einige schon in der bisherigen Darstellung angeschnitten wurden: i) das Maschinenherstellungsargument, ii) eine endogene Erhöhung der Nachfrage, iii) das Faktorsubstitutionsargument, iv) das Exportargument und v) die Rolle von Produktinnovationen.

Das Maschinenherstellungsargument Das Maschinenherstellungsargument betont den zusätzlichen Bedarf an Arbeitskräften in der Herstellungsphase der neuen Maschinen, welche den technologischen Fortschritt verkörpern. Allerdings ist der positive Beschäfti­ gungseffekt der Herstellung der Maschinen von zeitlich begrenzter Dauer, während in der Nutzungsphase über einen längeren Zeitraum negative Beschäftigungseffekte auftreten. Andererseits ergeben sich in der Nutzungs­ phase möglicherweise weitere Beschäftigungsmöglichkeiten, wie etwa die Wartung der Maschinen. Von entscheidender Bedeutung dieses Wirkungskanals ist, dass es überhaupt zur Bildung dieses zusätzlichen Realkapitals kommt, dass also die Anreize zu zusätzlichen Investitionen entsprechend hoch sind. Des Weiteren ist zu beachten, dass die voraussichtlich zunehmen-

38

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

de Automatisierung auch in der Herstellung von Maschinen und Robotern in Zukunft weniger positive Beschäftigungseffekte impliziert.

Kompensation durch eine endogene Erhöhung der Nachfrage Durch die Produktivitätseffekte der Automatisierung und die damit einhergehenden geringeren Produktionskosten ist prinzipiell eine Ausweitung der realen Nachfrage denkbar, soweit diese niedrigeren Kosten in die Preise der Güter und Dienstleistungen weitergegeben werden. Allerdings würde eine Erhöhung der Nachfrage, wenn diese vollständig auf den Tätigkeitsbereich entfällt, in dem die Automatisierung stattfindet, keinen direkten positiven Beschäftigungseffekt bewirken. Denkbar wären hier nur indirekte Zweitrundeneffekte, d.h. dass das höhere verfügbare Realeinkommen nun in Bezug auf andere Tätigkeitsbereiche (darunter die Maschinenherstellung) arbeitsnachfragewirksam wird. Führt das höhere verfügbare Realeinkommen in Bereichen������������������������������������������������������������������ zu zusätzlicher Nachfrage, welche durch eine hohe Arbeitsintensität charakterisiert sind (z.B. für Frisördienstleistungen, für schönheitschirurgische Eingriffe, für individuell betreute Selbstfindungskurse, etc.), so könnte der Beschäftigungseffekt theoretisch positiv ausfallen. Entscheidend für die quantitative Wirkung der Verteilung der Nachfrage ist also, wie arbeitsintensiv die jeweiligen Tätigkeitsbereiche sind, auf die die zunehmende Nachfrage entfällt. Der bloße Anstieg der Nachfrage ist daher eine notwendige, aber keine hinreichende Bedingung zur erfolgreichen Kompensation – wie es schon John Stuart Mill (1848, S. 78 ff.) treffend formulierte, stellt die Nachfrage nach Gütern nicht unbedingt eine Nachfrage nach Arbeit dar. Entscheidend ist hierbei, wie hoch die Kapital- bzw. Arbeitsintensitäten in den jeweiligen Sektoren sind, auf die die Nachfrage entfällt. Ferner ist bezüglich der mög­ lichen Kompensation freigesetzter Arbeitskräfte aus dem Sektor, der eine Auto­matisierung erfährt, in den anderen Sektoren, die hiervon nicht betroffen sind, zu bedenken, dass eine Umschulung auf neue Tätigkeitsbereiche oft nicht einfach durchführbar ist – schließlich bedarf es oftmals einer langen Ausbildung oder auch eines entsprechenden Talents, um gewisse Tätigkeiten ausführen zu können. Eine Mismatch-Arbeitslosigkeit ist daher zumindest kurzfristig wahrscheinlich. Soweit die Effizienzsteigerungen nicht zu einer Preissenkung der Produkte führen, wäre auch eine Erhöhung der Löhne für die im von Automatisierung

Die wirtschaftlichen Folgen der Automatisierung

39

betroffenen Sektor verbleibenden Arbeitskräfte möglich, soweit die Automatisierung nur einzelne Tätigkeiten betrifft und nicht alle Arbeitskräfte vollständig ersetzt. Ebenso wie bei der Preissenkung ist es dann aber entscheidend, in welchen Sektoren das zusätzliche Realeinkommen nachfragewirksam wird. Wird die Effizienzsteigerung weder in die Löhne noch in die Preise weitergegeben, sondern verbleiben diese als Gewinne im Unternehmen, so ist auch hier deren genaue Verwendung entscheidend. Für positive Beschäftigungseffekte wäre beispielsweise ein Anstieg der Investitionen wünschenswert. Diese Investitionen dürften sich dann allerdings auch nicht (zumindest nicht ausschließlich) auf den gleichen Sektor beziehen, der von Automatisierung betroffen ist, da sonst der Kapitalakkumulation keine oder nur geringe Beschäftigungseffekte folgen würden.

Das Faktorsubstitutionsargument Wie schon in der Diskussion der Ansätze von Ricardo und Wicksell angedeutet wurde, sind die Art der Produktionstechnologie und die Flexibilität der Reallöhne von enormer Bedeutung zur Beurteilung der Auswirkungen des technologischen Fortschritts. Soweit Arbeit und Kapital substituiert werden können und eine perfekte Flexibilität der Faktorpreise vorliegt, ist es aus theo­ retischer Sicht immer möglich, ein Gleichgewicht auf den Faktormärkten zu erreichen. Allerdings ist es fraglich, wie nachhaltig eine Reallohnsenkung die Automatisierung zu verhindern vermag. Gerade durch die ständige Weiterentwicklung der Automatisierungstechnologien wären wohl regelmäßige Absenkungen bzw. Mindersteigerungen des Reallohns notwendig, um die „alte“ Produktionsstruktur mit Kapital und Arbeit vor der „neuen“ mit Kapital und Robotern zu schützen. Oder, wie es Lederer schon 1931 treffend formulierte: „Es ist kein Lohnniveau denkbar, das die Durchsetzung des mechanischen Webstuhls hätte hindern können“ (für eine Diskussion siehe Hagemann, 2008). Reallohnsenkungen oder -mindersteigerungen können daher nur als kurzfristige Lösung angesehen werden – und dies auch nur mit weiteren Einschränkungen in Bezug auf die verteilungspolitischen Auswirkungen sowie unter Berücksichtigung möglicher keynesianischer Instabilitätsgefahren dieser Senkungen.

40

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Kompensation durch eine Erhöhung der Exportnachfrage Dieser Wirkungskanal zeigt den Vorteil der Einführung neuer Technologien, um auf den Weltmärkten eine entsprechende Wettbewerbsposition zu erreichen, auszubauen oder zu verteidigen. Dies könnte zum einen direkt geschehen, indem das durch die Automatisierung potentiell höhere Angebot an Gütern zu potentiell niedrigeren Preisen vermehrt auf dem Weltmarkt nachgefragt wird oder indirekt, indem die freigewordenen Arbeitskräfte in anderen Exportindustrien eine Wiederbeschäftigung finden. Hierbei gilt es selbstverständlich zu beachten, dass auch andere Faktoren wie der Wechselkurs eine wichtige Rolle spielen und dass dieses Argument letztlich partialanalytisch ist und somit nicht als allgemeine Lösung für alle Länder gelten kann. Die merkantilistischen Züge dieses Lösungsvorschlags sind ebenso als kritisch zu betrachten. Des Weiteren sind Exporte an sich ein Ressourcenübertrag an das Ausland und damit ein güterwirtschaftlicher Verlust, soweit nicht ebenso Importe heute oder zumindest zukünftig diesem Exportüberschuss gegenüberstehen. Werden die Güter überdies zu niedrigeren Preisen auf dem Weltmarkt verkauft, so kommt dies einem Terms-of-Trade-Verlust gleich, d.h. das reale Austauschverhältnis von Export- zu Importgütern verschlechtert sich, da nun mehr Güter pro Importeinheit exportiert werden, was einen Wohlfahrtsverlust des Inlands impliziert. Aus einem anderen Betrachtungswinkel heraus ist des Weiteren zu betonen, dass gerade die hohe internationale Mobilität des Faktors Kapital zur Folge haben dürfte, dass eine Verweigerung gegenüber neuen Technologien ebenso Jobverluste mit sich bringt, da dies zur Verlagerung der Produktion ins Ausland führen würde – ein Punkt, der ebenfalls bereits von Ricardo (1821) betont wurde.

Die Rolle von Produktinnovationen Generell ist hervorzuheben, dass eine wesentliche Grundlage einer erfolgreichen Kompensation der negativen Beschäftigungseffekte eine stetige Erneuerung der angebotenen Produktpalette ist, da neue Güter anfangs oftmals eine hohe Beschäftigungsintensität in der Produktion aufweisen (Acemoglu und Restrepo, 2016). Somit sind gerade Produktinnovationen, welche einen neuen Markt eröffnen und daher oftmals auch neue Investitionen benötigen,

Die wirtschaftlichen Folgen der Automatisierung

41

entscheidend für eine erfolgreiche Kompensation der negativen Beschäftigungseffekte neuer Technologien. Produktinnovationen haben daher mit das größte Potential, eine entsprechend hohe Nachfrage aufrecht zu erhalten und die freigesetzten Arbeitskräfte in neu entstehende Sektoren zu leiten. Wie aber bereits angedeutet, sind gerade die neuen Produkte, welche im Zuge bzw. parallel mit der Automatisierung entstehen, oftmals weniger arbeitsintensiv (Prettner und Strulik, 2017). Des Weiteren ersetzen manche neue Produkte bereits vorhandene ältere (beispielsweise wenn Streaming das klassische Fernsehen verdrängt).

3. Effekte der Automatisierung auf Beschäftigung und Verteilung Wie im vorangegangenen Abschnitt gezeigt wurde, geht die Diskussion über die Auswirkungen neuer Technologien weit zurück und erfährt gerade im Zuge der Automatisierung erneut erhöhte Aufmerksamkeit. Hier wird von vielen die zentrale wirtschaftliche Chance der Automatisierung darin gesehen, dass die Effizienzsteigerungen der demographischen Alterung und der damit einhergehenden Schrumpfung des Erwerbskräftepotentials entgegenwirken können, sodass mögliche negative Effekte auf den Wohlstand abgemildert werden (Abeliansky und Prettner, 2017; Acemoglu und Restrepo, 2017a). Andererseits sind die zentralen Befürchtungen, dass eine Kompensation der negativen Beschäftigungseffekte nicht vollständig und/oder nicht in annehmbarer Zeit möglich ist, sodass letztlich ein Anstieg der Arbeitslosigkeit nicht verhindert werden kann. Des Weiteren werden Bedenken geäußert, dass die Profiteure der Automatisierung vor allem jenen Bevölkerungsschichten angehören, die ohnehin bereits wirtschaftlich gut gestellt sind, wie Kapitaleigener und gut ausgebildete Arbeitskräfte (Acemoglu und Restrepo, 2017b; Lankisch et al., 2017; Prettner, 2018). Im Folgenden gehen wir gesondert auf die einzelnen Chancen und Risiken näher ein und beschreiben die bisher dazu vorhandenen theoretischen Überlegungen und die bisher dazu vorhandene empirische Evidenz. Eine oft hervorgebrachte Befürchtung, die sich in der Diskussion der potentiellen negativen Effekte neuer Technologien und insbesondere der Automatisierung findet, ist, dass die Arbeitslosigkeit drastisch zunimmt. Großes Aufsehen erlangte beispielsweise die bereits 2013 als Arbeitspapier veröffentlichte Studie von Frey und Osborne (2017), in der die Autoren schätzen, dass bis zu 47% aller Jobs in den USA einem hohen Automatisierungsrisiko un-

42

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

terliegen. Mit der gleichen Methode kamen Brzeski und Burk (2015) zum Ergebnis, dass in Deutschland sogar 59% aller Arbeitsplätze entsprechend gefährdet seien. Allerdings sind diese hohen Werte in der Literatur nicht unumstritten: In einer vom Grundaufbau ebenfalls ähnlichen Untersuchung erkennen Arntz et al. (2016) lediglich für 9% aller Jobs in den USA sowie im Mittel von 21 OECD-Ländern ein hohes Automatisierungsrisiko. Der höchste Wert für ein einzelnes Land liegt hier bei 12% für Österreich – und damit bei etwa gerade einem Viertel des Wertes, den Frey und Osborne (2017) für die USA bestimmten. Diese niedrigeren Werte für Österreich sind auch mit den Ergebnissen von Peneder et al. (2016) und Nagl et al. (2017) konsistent. Wie wir bereits gesehen haben, ist die Furcht vor drohender technologischer Massenarbeitslosigkeit kein spezifisch neues Phänomen im Zuge der Automatisierung. Im historischen Rückblick sowie unter Berücksichtigung der aktuellen Situation kann daher das Gegenargument angeführt werden, dass derzeit in vielen Industrieländern die Erwerbstätigenzahlen oft auf Rekordniveaus liegen. In Abbildung 2 illustrieren wir dies anhand der Daten für die USA, Deutschland2 (jeweils linke Skala) und Österreich (auf der rechten Achse abgetragen). Darüber hinaus weist die in Abbildung 3 dargestellte Erwerbstätigenquote – der Anteil Erwerbstätiger an der gesamten Wohnbevölkerung – über die letzten sechs Jahrzehnte in keinem der drei Länder einen Trend nach unten auf. Zusammengenommen ist dies also ein klares Indiz, dass trotz der zeitgleichen Zunahme der Anzahl an Industrierobotern mehr Menschen eine Beschäftigung gefunden haben, was die Befürchtung einer unmittelbar drohenden Massenarbeitslosigkeit einschränkt. Allerdings ist relativierend auf eine weitere Variable hinzuweisen, nämlich die Entwicklung der durchschnittlichen jährlichen Arbeitszeit pro Erwerbstätigem, die in Abbildung 4 dokumentiert ist. In allen drei dargestellten Ländern ist hier ein Rückgang zu erkennen, der insbesondere in Deutschland sehr stark ausgeprägt ist – von rund 2.400 Stunden im Jahr 1950 auf nur noch etwa 1.350 Stunden im Jahr 2016. Dadurch hat gerade in Deutschland das Arbeitsvolumen (gemessen als geleistete Arbeitsstunden) trotz steigender Bevölkerung und Erwerbstätigkeit im Zeitverlauf abgenommen. Es könnte also argumentiert werden, dass sich der technologische Fortschritt und die Automatisierung in gewissem Sinne doch in einem Verlust an Arbeit äußert, welcher sich aber nicht in Arbeitslosigkeit 2 Bei den Zahlen für Deutschland handelt es sich in Abbildung 2, Abbildung 3 und Abbildung 4 auch vor der Wiedervereinigung 1990 um rückgerechnete gesamtdeutsche Werte.

Die wirtschaftlichen Folgen der Automatisierung

Abbildung 2: Anzahl der Erwerbstätigen in den USA, Deutschland. In Millionen, 1950– 2016. Quelle: The Conference Board (2018), eigene Darstellung.

Abbildung 3: Erwerbstätigenquoten in den USA, Deutschland und Österreich, 1950 –2016. Quelle: The Conference Board (2018), eigene Berechnung und Darstellung.

43

44

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

bzw. in offiziellen Arbeitslosenquoten manifestiert. Hierbei ist allerdings keineswegs klar, ob dieser Rückgang an Arbeit mit versteckter Arbeitslosigkeit gleichzusetzen ist. Ganz grundsätzlich kann der Arbeitszeitrückgang auch als Resultat freiwilliger Entscheidungen in Abhängigkeit der individuellen Präferenzen gesehen werden – z.B. für mehr Freizeit, die sich dann im größe­ ren Wunsch nach geringeren Arbeitszeiten bzw. einer größeren N ­ achfrage nach Teilzeitarbeit äußert (der Einkommenseffekt überwiegt hierbei den Substitutionseffekt).

Abbildung 4: Anzahl der durchschnittlichen jährlichen Arbeitsstunden pro Erwerbstätigem, 1950– 2016. Quelle: The Conference Board (2018), eigene Darstellung.

In der aggregierten Betrachtung der Beschäftigungsentwicklung zeigt sich (zu­­mindest derzeit) noch keine massiv negative Auswirkung der Automatisierung. Allerdings bietet es sich an, einen näheren Blick auf die Veränderungen unterhalb der Makroebene zu werfen, denn bereits vergangene technologische Veränderungen haben nicht alle Beschäftigtengruppen gleich getroffen, und im Zuge der Automatisierung ist ähnliches zu beobachten und auch weiterhin zu erwarten. Der Einsatz eines Industrieroboters kann beispielsweise so starke Arbeitszeitverringerungen nach sich ziehen, dass die Tätigkeit eines Fabrikarbeiters oder einer Fabrikarbeiterin vollständig ersetzt wird. Demnach ist zweifellos zu erwarten, dass Individuen ihre Beschäftigung verlieren oder

Die wirtschaftlichen Folgen der Automatisierung

45

auch ganze Berufszweige durch die Automatisierung entfallen. Die aggregierten Daten weisen darauf hin, dass diese Effekte – zumindest bislang – gut kompensiert werden konnten, beispielsweise durch konsequente (Weiter-) Bildungs- und Umschulungsmaßnahmen. In der Tat lässt sich dies auch in der längerfristigen historischen Betrachtung seit der Industriellen Revolution beobachten: Arbeitsteilung und technologischer Fortschritt ermöglichten es, immer mehr Tätigkeiten mit immer größerem Kapitaleinsatz produktiver auszuführen, während gleichzeitig neue, komplexere Aufgabenfelder entstanden, in denen menschliche Arbeitskraft eine Beschäftigung fand. Die konsequente Fortführung der Automatisierung ist der Einsatz künst­ licher Intelligenz (KI) in der Produktion. Brynjolfsson und McAfee (2014) argumentieren, dass sich hierbei der bereits bei Robotern klar erkennbare Trend, dass einzelne Aufgaben vollständig durch Maschinen und ohne menschliche Arbeitskraft durchgeführt werden können, fortsetzt. In historischer Perspektive stellt der Einsatz von KI eine Premiere dar, denn diese jüngste „Welle“ im langen Automatisierungsprozess (Gordon, 2016) wird erwartungsgemäß auch die höchsten Qualifikationsstufen betreffen und kann so deren Tätigkeiten obsolet werden lassen (Acemoglu und Restrepo, 2017b). Über die genauen Auswirkungen des Einsatzes von KI zu sprechen, ist zum aktuellen Zeitpunkt der noch geringen Diffusion dieser Technologie sowie der zudem bestenfalls spärlichen Datenverfügbarkeit notwendigerweise spekulativ. Ganz allgemein gilt natürlich auch hier, dass die Beschäftigungseffekte davon abhängen, wie stark sich die Güternachfrage (und damit direkt oder indirekt die Nachfrage nach verschiedenen Arten menschlicher Arbeit) entwickelt (siehe beispielsweise Bessen, 2018). Selbst wenn der umfassende Einsatz von KI aber in der Zukunft zu einer vollständigen Automatisierung der gesamten Produktion führen sollte, wäre die entstehende Arbeitslosigkeit an sich nicht das dringendste Problem: Denn grundsätzlich wäre es in einer solchen Situation möglich, dass Menschen sich in ihrer reichlich vorhandenen Freizeit den Tätigkeiten widmen können, die sie glücklich machen, während keine Zeit und Anstrengung für Arbeit und die Generierung von Einkommen zum Erwerb materieller Güter aufgebracht werden muss. Das Problem, das sich in diesem hypothetischen Szenario ergibt, ist die Frage der Verteilung der vollständig auto­matisch produzierten Güter – und das dystopische Szenario wäre eine Welt, in der eine große Mehrheit der Bevölkerung nicht am materiellen Wohlstand, der den wenigen Eigentümerinnen und Eigentümern der automatisierten Produktion zufließt, teilhaben kann (siehe beispielsweise Ford, 2015).

46

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Interessanter als die Frage drohender Arbeitslosigkeit oder Beschäftigungsverluste erscheint daher die Untersuchung der möglichen Auswirkungen der Automatisierung auf die Einkommens- und Vermögensverteilung. Diese steht daher im Folgenden im Vordergrund und wird unter Rückgriff auf die bereits vorhandene aktuelle Literatur zu den Effekten von Robotern in diesem Zusammenhang diskutiert. Ganz grundsätzlich kann sich eine durch Automatisierung bedingte verringerte Nachfrage nach menschlicher Arbeit auf zwei Arten auswirken: ein Rückgang der Beschäftigung oder – bzw. meist eine Kombination von beidem – eine Verringerung des Lohns bzw. Lohnsteigerungen, welche hinter dem Produktivitätsfortschritt zurück bleiben. In beiden Fällen ist bei steigender Gesamtproduktion ein Rückgang der Lohnquote, d.h. des Verhältnisses des Lohneinkommens zum BIP, zu erwarten. Abbildung 5 stellt den Verlauf der Lohnquote von 1970-2015 in den USA, Deutschland und Österreich auf Grundlage von EU-KLEMS-Daten (Jäger, 2017) dar. Die Lohnquote wurde hier berechnet als Quotient aus nominalen Arbeitsentgelten und nominaler Bruttowertschöpfung (die im gesamtwirtschaftlichen Aggregat, wie hier verwendet, dem BIP entspricht). Aufgrund der nur sehr kurzen Reihe in Abbildung 5 zeigt Abbildung 6 zudem die US-amerikanische Entwicklung von 1950-2014 anhand der Daten von Feenstra et al. (2015). Hier liegt eine etwas andere Berechnungsmethode zugrunde, weshalb sich die Niveaus unterscheiden, allerdings ist gut zu erkennen, dass die Verläufe der US-amerikanischen Zeitreihen in Abbildung 5 und Abbildung 6 (S. 47) sehr ähnlich sind. In beiden Abbildungen ist deutlich zu erkennen, dass die Lohnquoten in allen drei Volkswirtschaften seit den 1970er Jahren tendenziell rückläufig waren. Dies ist ein Ergebnis, welches durch einfache Überlegungen zur Automatisierung, bzw. der zunehmenden Ersetzung menschlicher Arbeit durch Roboter, prognostiziert wird: Ein Teil des gesamtem Volkseinkommens, der vorher in Löhnen ausgezahlt worden war, fließt nun den Robotern, bzw. den Eigentümern dieses Kapitalguts, zu (Prettner, 2018). Hieraus muss zwar noch keine Veränderung der personellen Einkommens- und Vermögensverhältnisse resultieren, solange das Eigentum an Robotern breit in der Bevölkerung verteilt wäre. Allerdings ist es in der Realität so, dass insbesondere ein kleiner Teil an wohlhabenden Personen über Kapital- und damit Robotereigentum verfügt, während ein Großteil der Erwerbstätigen vornehmlich Lohneinkommen bezieht. In diesem Fall ist zu erwarten, dass die Automatisierung zu steigenden Einkommens- und Vermögensanteilen derjenigen führt, welche die höchsten

Die wirtschaftlichen Folgen der Automatisierung

47

Abbildung 5: Entwicklung der Lohnquote in den USA, Deutschland und Österreich, 1970– 2015. Quelle: Jäger (2017), eigene Berechnungen und Darstellung.

Abbildung 6: Entwicklung der Lohnquote in den USA, 1950–2014. Quelle: Feenstra et al. (2015).

Einkommen beziehen bzw. über das größte Vermögen verfügen. Beide Entwicklungen lassen sich historisch zumindest für die USA, und dort besonders deutlich, beobachten.3 3������������������������������������������������������������������������������������ Für Österreich sind in der World ������������������������������������������������� Health and Income Database (2018) noch keine entsprechenden Daten verfügbar; und auch für Deutschland sind die dargestellten Werte zum

48

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Abbildung 7 zeigt die Entwicklung des Anteils der 1 % mit dem höchsten Einkommen vor Steuern am gesamten Vorsteuereinkommen in den USA und Deutschland zwischen 1950 und 2014. Während sich dieser Anteil in Deutschland recht lange um etwa 10 bis 15 % bewegte, kann seit Mitte der 1990er Jahre ein steigender Trend ausgemacht werden. Ein noch deutlicherer Anstieg zeigt sich in den USA, wo ab Mitte der 1970er Jahre eine Zunahme dieses Einkommensanteils einsetzte, die bis zum Ende des Betrachtungszeitraums in etwa zu einer Verdopplung führte: Während 1975 etwas über 10 % des Vorsteuereinkommens in den USA dem 1 % mit den höchsten Einkommen zufloss, lag diese Quote 2014 bei über 20 %. Auch in vielen anderen Volkswirtschaften zeigt sich in den letzten Jahrzehnten eine Zunahme (siehe Atkinson et al., 2011; Atkinson, 2015; Bönke et al., 2015; Milanovic, 2016). Eine ähnliche Entwicklung bei insgesamt höherer Konzentration kann bzgl. der Vermögen in Abbildung 8 beobachtet werden: Während Ende der 1970er Jahre etwa 22 % des gesamten US-amerikanischen Vermögens vom wohlhabendsten 1 % gehalten wurde, lag diese Quote mit nahe 40 % gegen Ende des Betrachtungszeitraums fast doppelt so hoch. Wie beschrieben sind die Entwicklungen der Lohnquote sowie der personellen Einkommens- und Vermögensungleichheit mit den Effekten, die durch Automatisierung zu erwarten wären, kompatibel. Dies bedeutet aber noch nicht, dass die Automatisierung tatsächlich der kausale Verursacher dieser Entwicklungen ist (andere Erklärungsmöglichkeiten, wie die Globalisierung oder die zunehmende Relevanz von Vererbung für den Vermögensaufbau, siehe beispielsweise Autor et al., 2013; Alvaredo et al., 2017, sind ebenso denkbar und wirken letztlich komplementär). Um die Frage der kausalen Verursachung beantworten zu können, ist es daher nötig, eine tiefergehende wissenschaftliche Untersuchung als die reine Beobachtung von Zeitreihen und Trends vorzunehmen. Einige Beispiele hierfür finden sich bereits in der aktuellen Literatur (siehe unten), auch wenn die Literatur insgesamt noch sehr überschaubar ist und sich insbesondere zur Diffusion und zu weiteren Effekten des Einsatzes von KI nahezu keine Arbeiten finden (siehe Seamans und Raj, 2018, S. 5 f.). Einkommen derzeit nur vor Steuern gegeben. Ein ausführlicher deskriptiver Überblick der ökonomischen Ungleichheit in Deutschland findet sich bei Battisti et al. (2016) sowie ferner Dell (2005); die Situation in Österreich wird bei Mayrhuber et al. (2014) sowie Altzinger et al. (2017) näher dokumentiert. Eine detaillierte Betrachtung der US-amerikanischen Entwicklung findet sich beispielsweise bei Piketty und Saez (2003).

Die wirtschaftlichen Folgen der Automatisierung

Abbildung 7: Anteil des 1 % mit dem höchsten Einkommen am Gesamteinkommen vor Steuern in den USA und Deutschland, 1950  – 2014. Quelle: World Wealth and Income Database (2018), eigene Darstellung.

Abbildung 8: Anteil des wohlhabendsten 1 % am Gesamtvermögen der USA, 1950  – 2014. Quelle: World Wealth and Income Database (2018), eigene Darstellung.

49

50

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Unter Verwendung der Daten der International Federation of Ro­botics (siehe­ auch Abbildung 1, S. 34) betrachten Graetz und Michaels (2015) 17 Länder auf Makroebene und argumentieren, dass das Produktivitätswachstum zwischen 1993 und 2007 durch Robotereinsatz um 15 % erhöht wurde. Gleichzeitig argumentieren die Autoren, der Robotereinsatz habe durchschnittlich zu steigenden Löhnen geführt, aber das Volumen des Arbeitseinsatzes geringerer und mittlerer Qualifikationsniveaus gesenkt. Eine weitere Methode und Betrachtungsperspektive findet sich bei Jäger et al. (2016). Die Autoren analysieren eine zwischen 2001 und 2012 regelmäßig durchgeführte Umfrage unter 3.000 Industrieunternehmen in sieben europäi­schen Ländern (Deutschland, Frankreich, Niederlande, Österreich, Schweden, Schweiz, Spanien) und kommen dabei zum Ergebnis, dass die Arbeitsproduktivität in denjenigen Unternehmen, die Roboter einsetzen, zwar höher liegt, gleichzeitig aber weder ein negativer noch ein positiver Beschäftigungseffekt beobachtet werden kann. Acemoglu und Restrepo (2016) entwerfen ein Modell, um die Beschäftigungsauswirkungen von Robotern auf Grundlage einzelner Aufgaben analysieren zu können. Eine empirische Anwendung dieses Ansatzes zur Beschreibung der Entwicklung in den USA, wo bislang verglichen mit anderen Industrieländern, wie insbesondere Deutschland und Japan, noch relativ wenige Industrieroboter eingesetzt werden, findet sich in Acemoglu und Restrepo (2017a). Auf Grundlage der Daten der ���������������������������������� International Federation of Robotics���������������������������������������������������������������������� führen �������������������������������������������������������������� die Autoren eine ökonometrische Analyse durch, welche die kausalen Effekte einer zunehmenden Roboterdiffusion auf Beschäftigung und Löhne in unterschiedlichen Branchen und Regionen der US-amerikanischen Wirtschaft herausarbeitet. Das zentrale Ergebnis ist, dass Roboter in nahezu allen Tätigkeiten mit der Ausnahme von Managementaufgaben negativ auf Beschäftigung und Löhne wirken (siehe Acemoglu und Restrepo, 2017a, S.  33). Im Hinblick auf die im vorigen Abschnitt diskutierten Kompen­ sationsmechanismen ist zudem interessant, dass für Investitionen in andere Kapitalgüter (u.a. Computer) ein positiver Arbeitsnachfrageeffekt gemessen wird (siehe Acemoglu und Restrepo, 2017a, S. 32). Ferner zeigen sich deutliche Unterschiede im Grad der Betroffenheit je nach Aufgabenfeld: Insbesondere Routineaufgaben sind anfällig dafür, automatisiert zu werden. Allgemein stellen Acemoglu und Restrepo (2017a, S. 33) zudem fest, dass ein höherer Bildungsgrad das Risiko verringert, negativ von Automatisierung betroffen zu sein: Menschen mit einem Collegeabschluss sind nur geringfügig

Die wirtschaftlichen Folgen der Automatisierung

51

negativ betroffen, und für die Gruppe mit noch höherem Bildungsabschluss wird kein signifikanter Effekt gemessen (d.h. auch kein signifikanter positiver Effekt). Insgesamt schätzen Acemoglu und Restrepo (2017a, S. 36), dass Roboter in den USA bislang 360.000 bis 670.000 Arbeitsplätze ersetzt haben. Eine ähnliche Analyse wie bei Acemoglu und Restrepo (2017a), aber für Deutschland, und damit für ein Land mit einer aktuell deutlich höheren Roboterdichte­, findet sich bei Dauth et al. (2017). In ihrer Analyse kommen Dauth et al. (2017, S. 36) zum Ergebnis, dass eine zunehmende ­Roboterdichte eindeutig einen negativen Effekt auf Arbeitskräfte mittlerer Qualifikationsniveaus im Industriesektor, darunter insbesondere Fachkräfte, die zuvor für den Betrieb von Maschinen zuständig waren, nach sich zieht. Dies beinhaltet sowohl deutliche Lohneinbußen als auch Beschäftigungsverluste. Das Lohneinkommen Geringqualifizierter verringert sich den Schätzungen zufolge ebenfalls. An diesen Stellen erhöht der Robotereinsatz zwar die Arbeitspro­ duk­tivität, aber nicht die Löhne, sodass die Erträge aus der neuen Technologie Kapitaleignern z.B. in Form von Profiten zufließen, was die Lohnquote senkt (Dauth et al., 2017, S. 39). Während Acemoglu und Restrepo (2017a) für keine Qualifikationsstufe einen positiven Effekt verstärkten Robotereinsatzes identifizieren konnten, stellen Dauth et al. (2017, S. 36) fest, dass hochqualifizierte Arbeitskräfte (d.h. mit abgeschlossenem Hochschulstudium), insbesondere in den Bereichen des Managements, aber auch in technologischen und wissenschaft­lichen Berufen, signifikante Einkommenszuwächse durch den Robotereinsatz verzeichnen können. Interessanterweise betrachten Dauth et al. (2017, S.  20  f.) auch das Maschinenherstellungsargument näher, kommen diesbezüglich aber zu dem Ergebnis, dass aufgrund der geringen Arbeitsintensität in der Roboterherstellung dort keine direkten Beschäftigungsgewinne aus der zunehmenden Roboternutzung beobachtet werden können. Insgesamt stellen Dauth et al. (2017, S. 21, 24 f.) fest, dass die steigende Roboterdichte zwischen 1994 und 2014 für den Rückgang von 250.000 Arbeitsplätzen in der deutschen Industrie verantwortlich ist. Diese Verluste wurden im Aggregat dadurch kompensiert, dass viele neue Arbeitsplätze im Dienstleistungssektor entstanden. Insgesamt bestätigen diese theoretisch gestützten ökonometrischen Arbeiten die ursprüngliche Vermutung, dass der Robotereinsatz einen qualifika­ tionsverzerrten technologischen Fortschritt darstellt (Dauth et al., 2017, S. 6). Tabelle 1 zeigt die relativen Einkommen Vollzeitbeschäftigter in den USA, Deutschland und Österreich abhängig vom Qualifikationsniveau im Jahr 2015

52

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

(relativ zum auf 100 normierten Einkommen von Beschäftigten mit einem Abschluss der oberen Sekundarstufe). Hier zeigt sich deutlich, dass ein höheres Qualifikationsniveau mit höheren Einkommen einhergeht. Ein qualifikationsverzerrter technologischer Fortschritt, der niedrigere Qualifikationsniveaus stärker negativ betrifft als höhere, wird diese Diskrepanz und damit die Einkommensungleichheit erhöhen, zumindest solange sich die Komposition des Arbeitsangebots beispielsweise durch Weiterbildungsmaßnahmen nicht entsprechend ändert (siehe dazu näher den folgenden Abschnitt über mög­ liche wirtschaftspolitische Maßnahmen). Wenngleich die Auswirkungen des Einsatzes von KI aktuell noch nicht hinreichend erforscht wurden, liegt es nahe zu vermuten, dass vermehrter KI-Einsatz in der Produktion die Verteilungsfrage weiter in den Vordergrund rückt (siehe beispielsweise Korinek und Stiglitz, 2017, S. 3). Um diese Entwicklung weiter zu erforschen und die Wirkungsmechanismen besser zu verstehen, wird es erforderlich sein, weitere Daten – insbesondere auf Firmenebene – zu erheben (siehe Seamans und Raj, 2018, S. 5). USA

Deutschland

Österreich

Niedriger als obere Sekundarstufe

72

81

76

Obere Sekundarstufe

100

100

100

Bachelorabschluss oder vergleichbar

162

153

110

Masterabschluss oder Promotion

225

171

181

Tabelle 1: Durchschnittliches Einkommen Vollzeitbeschäftigter nach höchstem erlangtem Bildungsabschluss, 2015. Durchschnittseinkommen mit abgeschlossener oberer Sekundarstufe = 100. Quelle: OECD (2017), eigene Darstellung.

4. Mögliche Politikmaßnahmen Die bisher beschriebenen möglichen Effekte der Automatisierung legen den Schluss nahe, dass wirtschaftspolitische Maßnahmen getroffen werden können, um eine Kompensation etwaiger negativer Effekte der Automatisierung zu ermöglichen. Politikmaßnahmen sind insbesondere dann notwendig, wenn

Die wirtschaftlichen Folgen der Automatisierung

53

davon auszugehen ist, dass die endogenen, d.h. dem Markt inhärenten, Kompensationsmechanismen nicht oder nur eingeschränkt wirken oder wenn das allokative Ergebnis aus distributiver Sicht nicht zufriedenstellend ausfällt. Hieraus ergeben sich zwei unterschiedliche Blickwinkel, unter denen mög­liche Politikmaßnahmen analysiert werden müssen: Zum einen, ob ein Marktversagen vorliegt, und zum anderen, welche Verteilungswirkungen zu erwarten sind. Vermag die Feststellung eines Marktversagens noch objektiv möglich sein (indem z.B. ein Anstieg der Arbeitslosenquote beobachtet wird, welche sich nicht durch individuelle Entscheidungen wie eine freiwillige Arbeitslosigkeit erklären lässt), so ist die Bewertung der Verteilungswirkung einer Maßnahme nur möglich, wenn vorher entsprechend wünschenswerte Referenzwerte festgelegt werden. Aus rein ökonomischer Sicht ist beispielsweise unfreiwillige Arbeitslosigkeit oder auch Mismatch-Arbeitslosigkeit nicht wünschenswert, da das Produktionspotential nicht ausgeschöpft wird und somit Ressourcen letztlich nicht optimal genutzt werden. Andererseits ist aus rein ökonomischer Sicht eine effiziente Verteilung dann erreicht, wenn keine Tauschgewinne mehr möglich sind, d.h. wenn es nicht möglich ist, ein Individuum besser zu stellen, ohne einem anderen zu schaden (Pareto-Optimalität). Allerdings abstrahiert diese Analyseebene nicht nur von den gesellschaftlichen Auswirkungen der Ungleichheit, sondern auch von möglichen langfristigen ökonomischen Folgen. So gibt es beispielsweise starke Hinweise, dass eine hohe Ungleichheit negative Auswirkungen auf das langfristige Wirtschaftswachstum haben kann (Galor, 1993; Galor und Moav, 2004; Piketty, 2014; OECD, 2015). Somit wären auch unter dem Kriterium der Pareto-Optimalität intertemporale Tauschgewinne möglich. Eine Umverteilung von Reich zu Arm vergrößert demnach die Produktion in der Zukunft und stellt somit beide Gruppen besser oder überkompensiert zumindest die anfängliche Umverteilung. Unabhängig von dieser ökonomischen Perspektive unausgeschöpfter Tauschgewinne besteht ohne Zweifel die Möglichkeit, Einkommens- und Vermögensverteilung unter anderen Gesichtspunkten, wie eben einer gesellschaftlich oder politisch gewünschten Verteilung, zu beurteilen. Unter der Annahme, dass die Automatisierung zu einer unfreiwilligen Arbeitslosigkeit in bestimmten Bereichen geführt hat bzw. noch führen wird und dass die beobachtbare Ungleichheit nicht gewünscht ist, können folgende wirtschaftspolitische Maßnahmen angedacht werden.

54

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Nachfrageseite Ganz allgemein ist darauf hinzuweisen, dass die bisher (insbesondere im zweiten Abschnitt) diskutierten endogenen Kompensationsmechanismen meist auf einer Aufrechterhaltung bzw. Erhöhung der Gesamtnachfrage beruhen. Wie in der Diskussion aber bereits klar wurde, ist gerade in Bezug auf die Automatisierung fraglich, ob diese endogenen Wirkungsmechanismen entsprechend schnell und ausreichend greifen können. Der Grund ist, dass Menschen mit einem niedrigen Einkommen, welche tendenziell negativ von Automatisierung betroffen sind, einen großen Anteil ihres Einkommens konsumieren, während Menschen mit einem hohen Einkommen, die vergleichsweise weniger stark negative Effekte durch Automatisierung zu erwarten haben, einen Großteil ihres Einkommens sparen bzw. investieren, wobei deren Investitionen in inländisches Produktionskapital nur einen Teil der Investitionen ausmachen. Eine Konsequenz aus der Automatisierung könnten dann niedrige Zinsen, stagnierende Löhne und eine stark ungleiche Verteilung der Einkommen sein, ein Szenario, welches dem der „Säkularen Stagnation“ ähnelt (Eggertsson et al. 2017; Gasteiger und Prettner, 2017). Nachfrageseitig ist daher zu bedenken, dass, wenn die Automatisierung zu einem höheren Produktionspotential führt, auch Geld- und Fiskalpolitik entsprechend expansiv reagieren könnten – gerade auch weil davon auszugehen ist, dass die Akzeptanz neuer arbeitssparender Technologien in einem nachfragestarken Umfeld höher ist (Schwarzer 2014). Eine Flankierung des durch die Automatisierung getriebenen Anpassungsprozess�������������������������������������������� es auf der Angebotsseite durch eine entsprechend ausgerichtete Nachfragepolitik erscheint daher sinnvoll. Hierbei ist allerdings zu beachten, dass gerade die Fiskalpolitik eine Tendenz dazu haben könnte, politisch gewichtige Gruppen zu bevorzugen (vgl. beispielsweise Subventionen in der Landwirtschaft und im Bergbau). Andererseits sind zeitlich befristete Übergangslösungen für solch strukturelle Veränderungen durchaus denkbar, um den Anpassungsprozess zu erleichtern. Grundsätzlich ist eine Nachfragepolitik, welche auf den Erhalt bzw. die Sicherung bestehender Beschäftigungsmöglichkeiten abzielt, insbesondere dann gegenüber Transfers an Arbeitslose anzudenken, wenn Individuen aus der Arbeit an sich einen Nutzen – unabhängig vom Einkommen – ziehen (siehe beispielsweise Korinek und Stiglitz, 2017, S. 33). Eine nachfrageseitige Politik kann somit jedenfalls hilfreich sein, um strukturelle Veränderungen, die durch die Automatisierung getrieben sind, abzumildern.

Die wirtschaftlichen Folgen der Automatisierung

55

Angebotsseite Eine zentrale Politikmaßnahme, um den negativen Effekten der Automatisierung und hier vor allem dem Anstieg der Ungleichheit vorzubeugen, ist es, die Arbeitskräfte heute schon so zu qualifizieren, dass es ihnen möglich sein wird, in aufstrebenden Sektoren eingesetzt zu werden. Dies bedeutet grundsätzlich noch nicht, dass eine spezifische Qualifikation aufgrund einer Zukunftsprognose angestrebt werden sollte, sondern dass ganz allgemein die Fähigkeit zur Anpassung erhöht wird. Hierbei ist insbesondere die Investition in Bildung hervorzuheben (siehe Prettner und Strulik, 2017 für das theoretische Argument sowie Goldin und Katz, 2009 und Acemoglu und Autor, 2012 für empirische Evidenz). Konkret wären diesbezüglich folgende drei Punkte wichtig: Erstens ist es zielführend, jungen Menschen jene Fähigkeiten mitzugeben, die, zumindest derzeit noch, schwierig zu automatisieren sind. Aus heutiger Sicht erscheint es daher sinnvoll, vor allem in die Ausbildung im Bereich der Naturwissenschaften, im Hochtechnologiebereich, in der Softwareentwicklung und in der Lehrerinnen- und Lehrerausbildung im tertiären Bildungsbereich, sowie in die Kinderbetreuung, in die Altenbetreuung und generell in die Pflege im sekundären Bildungsbereich zu investieren.4 Zweitens könnten Umschulungsprogramme für Menschen, deren Tätigkeiten zunehmend automatisiert werden, einen Umstieg erleichtern oder, im Falle der Arbeitslosigkeit, einen Wiedereinstieg ermöglichen. Soweit die endogenen Kompensationsmechanismen wirken, sodass keine unfreiwillige Arbeitslosigkeit droht, ist es durch eine solche Requalifizierung möglich, einer Mismatch-Arbeitslosigkeit entgegenzuwirken. Drittens ist es zielführend, junge Menschen darauf vorzubereiten, dass sie während ihres Erwerbslebens mehrmals den Tätigkeitsbereich werden wechseln müssen. Hier ist es wichtig, die Menschen zum lebenslangen Lernen zu befähigen beziehungsweise zu ermutigen, sodass langfristig eine adäquate Ausbildung des Arbeitskräftepotentials und damit einhergehend eine hohe Beschäftigung überhaupt erst ermöglicht wird. Eine hohe Beschäftigung an sich garantiert aber noch keine gesellschaftlich wünschenswerte Verteilung der Einkommen und Vermögen. Insbesondere ist ganz allgemein zu beachten, dass auch erweiterte Anstrengungen und Investitionen in höhere Bil4 Andererseits stehen hier die heutigen Marktsignale, insbesondere die im Vergleich geringe Entlohnung für viele soziale Berufe, im Widerspruch zu dieser Empfehlung.

56

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

dungsniveaus keine hohen Arbeitseinkommen gewährleisten können, wenn die Lohnquote bzw. möglicherweise sogar die Lohnsumme insgesamt abnimmt: In diesem Fall hätte die verbesserte Ausbildung primär den Effekt, durch die Entknappung des Angebots hochqualifizierter Arbeitskräfte deren relativen Lohn gegenüber Geringqualifizierten zu senken und so die Lohnungleichheit zu verringern – bei sinkenden Lohnquoten aber mitunter auf allgemein niedrigen absoluten Niveaus.

Ungleichheit Da Bildung die Automatisierung nicht aufhalten kann und auch nicht soll, sondern lediglich deren negative Effekte teilweise abmildern würde (siehe Prettner und Strulik, 2017), bedarf es auch eines starken sozialen Sicherungssystems, welches Menschen, die von der Automatisierung negativ betroffen sind, zumindest ökonomisch absichert. Hier sind vor allem eine gut ausgebaute Arbeitslosenversicherung und eine bedarfsorientierte Mindestsicherung zielführend. Diese Absicherung verhindert einen sozialen und ökonomischen Abstieg der Betroffenen und der Familienangehörigen zumindest in einem gewissen Ausmaß und kann der Bildung von Armutsfallen, aus der sich eine Familie nicht mehr aus eigener Kraft befreien kann, entgegenwirken. In diesem Zusammenhang erscheint jedoch das oftmals als Lösung angepriesene bedingungslose Grundeinkommen kein tauglicher Lösungsansatz zu sein. Der Grund hierfür liegt darin, dass das bedingungslose Grundeinkommen in den meisten Formen als vollständiger Ersatz aller bisherigen Elemente des Sozialversicherungssystems vorgeschlagen wird. Somit wären gerade die Härtefälle, welche womöglich um ein vielfaches mehr als das bedingungslose Grundeinkommen zum Überleben benötigen (beispielsweise chronisch kranke Menschen, pflegebedürftige Menschen, Menschen mit körperlichen und geistigen Beeinträchtigungen) massiv unterversorgt, was der zentralen Idee eines sozialen Sicherungssystems zuwiderläuft. Eine Beteiligung der breiten Masse am produktiven Kapital und hier vor allem am Kapital, welches in Automatisierung investiert ist, stellt einen weiteren möglichen Lösungsansatz dar. Hierbei wird oftmals das Bild transportiert, dass jeder Haushalt eigene Roboter, 3D-Drucker oder selbstfahrende PKWs besitzt. Über diese Kapitalgüter wird dann das Haushaltseinkommen erwirtschaftet oder zumindest aufgebessert. In der Praxis wäre eine denkbare Möglichkeit, dass Firmen Teile der Löhne auch an die breite Masse der Arbeitskräfte in Form von Aktienpaketen auszahlen (Investivlöhne). Ande-

Die wirtschaftlichen Folgen der Automatisierung

57

rerseits steht es auch schon heute jedem Einzelnen frei, entsprechende Sparentscheidungen zu treffen und hierdurch Kapitaleinkommen zu generieren. Investivlöhne könnten daher zur Folge haben, dass der persönlich motivierte Aufbau von Kapitaleinkommen im gleichen Umfang zurückgefahren wird, sodass ein positiver Nettoeffekt ausbleibt. Die Grundfrage, die sich stellt, ist daher eher, warum manche Individuen anscheinend mehr (absolut oder relativ) Kapitalvermögen aufbauen als andere. Dies kann an einer unterschiedlichen Zeitpräferenzrate liegen oder an einem starken Einkommensunterschied, welcher das Sparen für manche Menschen nicht, oder nur unzureichend, zulässt. Soweit eine hohe Zeitpräferenzrate dazu führt, dass langfristig kein entsprechend hohes Vermögen und somit Kapitaleinkommen in der Zukunft aufgebaut wird, erscheint ein Investivlohn nur dann sinnvoll, wenn dieser nicht anderweitig kompensiert wird oder die Bezieher des Investivlohns die Unternehmensanteile nicht direkt ganz oder teilweise für höheren Konsum veräußern können. Eine Maßnahme zur Abmilderung der Effekte einer hohen Zeitpräferenzrate, wie z.B. die staatliche Förderung von Sparmaßnahmen oder die Gründung eines staatlichen Fonds, aus dem sich eine soziale Dividende zahlen ließe (siehe Corneo, 2017),������������������������������������������������������ könnte����������������������������������������������� angebracht sein, wenn eine hohe Zeitpräferenzrate den eigentlichen Interessen des Individuums entgegenläuft. Dies ist aber letztlich schwer zu beweisen.5 Eine plausible Vermutung könnte z.B. sein, dass die Individuen den zukünftigen absoluten oder relativen Verfall ihres Lohneinkommens durch Automatisierung nicht vorhersehen oder unterschätzen und somit zu wenig Kapital bzw. zukünftiges Kapitaleinkommen bilden. Sollte der Auslöser der geringen Akkumulation von Kapitalvermögen aber ein generell zu niedriges Einkommen der einzelnen Akteure sein, so spricht dies für eine direkte Umverteilung von Einkommen, wie es prinzipiell durch eine progressive Einkommensteuer bereits geschieht. 5 Auf der Grundlage von Erkenntnissen aus der Verhaltensökonomik wurde in der jüngeren Vergangenheit in den USA das 401(k)-Rentenversicherungssystem mit dem Ziel, die Einzahlungen zur individuellen Altersvorsorge zu erhöhen, umstrukturiert (siehe Geiger, 2016, S. 92). Dabei wurde ein stärkerer Fokus auf die Nutzung der Rentenversicherung als Standardfall (aus dem explizit ausgetreten werden muss) gegenüber der früher weiter verbreiteten Variante, in der sich Arbeitnehmer aktiv für die Versicherung entscheiden müssen, gelegt. In den USA hat sich anschließend das Sparvolumen in diesen Anlagen deutlich erhöht (siehe Benartzi und Thaler, 2013). Empirische Evidenz für Dänemark, wo eine ähnliche Konstellation vorliegt, weist darauf hin, dass entsprechende Erhöhungen der Ersparnisbildung keine dies vollständig ausgleichenden Verringerungen in anderen Vermögenspositionen nach sich ziehen (siehe Chetty et al., 2014).

58

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Eine weitere Möglichkeit, die breite Masse der Bevölkerung an den positiven wirtschaftlichen Effekten der Automatisierung teilhaben zu lassen, stellt die Robotersteuer und eine damit einhergehende Umverteilung der Automati­ sierungsgewinne dar (Gasteiger und Prettner, 2017). In der öffentlichen Debatte wurde diese Robotersteuer beispielsweise von Bill Gates propagiert (Delaney, 2017). Aufgrund der Mobilität des Produktionsfaktors Kapital ist diese Steuer aber nur dann sinnvoll, wenn sie global eingeführt wird, was derzeit sehr utopisch erscheint. Die diesbezügliche Diskussion ähnelt derjenigen im Zuge der globalen Kapitalsteuer, die von Piketty (2014) vorgeschlagen wurde, um die globale Ungleichheit zu senken. Allerdings würde eine Robotersteuer dazu führen, dass die Automatisierung und die eigentlich wünschenswerten Effizienzgewinne nicht in vollem Umfang zum Tragen kommen und somit eine allokative Verzerrung stattfindet, welche auch entsprechende volkswirtschaftliche Wohlfahrtsverluste mit sich bringen würde. Eine interessante Möglichkeit, um einerseits weg von der Besteuerung des Faktors Arbeit zu kommen und andererseits nicht einen hochmobilen Produktionsfaktor zu besteuern, besteht in der progressiven Konsumsteuer. ­Diese bringt eine Verschiebung der Steuerlast weg von den Produktionsfaktoren und hin zum Verbrauch, welcher nur sehr schwer ins Ausland abwandern kann, mit sich. Ein Problem der derzeitigen Konsumsteuer (der Mehrwertsteuer) ist allerdings, dass diese regressiv wirkt – Menschen mit niedrigem Einkommen zahlen prozentual einen größeren Anteil ihres Einkommens an Steuern. Diese Eigenschaft erhöht die Ungleichheit, welche ja gerade durch ein progressives Steuermodell reduziert werden soll, eher noch weiter. Diesem Effekt würde ein progressives Element in der Konsumsteuer entgegenwirken, um die gewünschten Umverteilungseffekte des derzeitigen Steuersystems zu erhalten. Eine Möglichkeit der Implementierung einer progressiven Konsumsteuer bestünde darin, dass dem Finanzamt am Ende des Jahres nicht mehr jene Ausgaben gemeldet werden, die von der Steuer abgesetzt werden können, sondern stattdessen jener Teil des Einkommens, den man angespart hat. Auf die Differenz zwischen Einkommen und Ersparnis fällt dann ein progressiver Steuersatz analog zum derzeit erhobenen progressiven Lohnsteuersatz an. Während eine solche Steuer das Potential hat, sowohl die Effizienzverluste einer Steuer zu minimieren als auch die Ungleichheit zu senken (dies hängt natürlich stark von den jeweils angewandten Steuersätzen und Freibeträgen ab), wäre ein weiterer positiver Nebeneffekt die Eliminierung des Anreizes, Vermögen in Steueroasen zu transferieren, da ein solches Verhalten (im Gegensatz zur gegenwärtigen Situation) die Steuerlast erhöhen würde.

Die wirtschaftlichen Folgen der Automatisierung

59

5. Ausblick und Diskussion Wie in diesem Beitrag klar gezeigt wird, ist Automatisierung voraussichtlich sowohl mit positiven wirtschaftliche Effekten, wie einer Ausweitung der Produktion trotz demographischen Wandels und damit einem Anstieg des allgemeinen durchschnittlichen Wohlstandsniveaus, als auch mit potentiell negativen ökonomischen Konsequenzen, wie einem Anstieg der Einkommensungleichheit und der Vermögenskonzentration verbunden. Wirtschaftspolitische Maßnahmen können dazu beitragen, dass große Teile der Bevölkerung von den positiven Effekten der Automatisierung profitieren. Insofern steht es in unserer Macht, ob wir uns in Zukunft eher in Richtung einer „Happy Leisure Society“ weiterentwickeln, wie sie Keynes (1930a,b) für die Zeit um 2030 prognostizierte, in der wir einen breit verteilten hohen Lebensstandard genießen und trotzdem nicht viel arbeiten müssen, oder ob wir in Richtung einer Gesellschaft konvergieren, in der hohe Ungleichheit herrscht und in der Teile der Bevölkerung von wirtschaftlicher Prosperität ausgeschlossen sind. Unglücklicherweise ist das zweite Szenario eher jenes, welches wir in den USA aktuell beobachten können. Dort steigt derzeit die Mortalitätsrate drastisch an, wobei die Hauptursachen im Alkohol- und Drogenmissbrauch sowie in einer erhöhten Selbstmordrate zu finden sind. Als ein wichtiger Faktor dieses Phänomens, das als „Deaths of Despair“ (Case und Deaton, 2015) Schlagzeilen machte, wurde die schwierige wirtschaftliche Situation eines Teils der US-amerikanischen Mittelschicht ausgemacht. Doch hierzu muss es nicht auch in Europa kommen, soweit die Gesellschaft und die Politik bereit sind, entsprechende Maßnahmen zu ergreifen.

Danksagung Wir bedanken uns sehr herzlich bei Ana Abeliansky und den Teilnehmerinnen und Teilnehmern des Österreichischen Wissenschaftstages 2017 in Baden bei Wien für viele hilfreiche Kommentare und Anregungen.

60

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Literatur Abeliansky, A. und Prettner, K. (2017). Automation and demographic change. cege Discussion Paper 310. Acemoglu, D. und Autor, D. (2012). What Does Human Capital Do? A Review of Goldin and Katz’s The Race between Education and Technology. Journal of Economic Literature 50, 426–463. Acemoglu, D. und Restrepo, P. (2016). The Race Between Machine and Man: Implications of Technology for Growth, Factor Shares and Employment. NBER Working Paper 22252. Acemoglu, D. und Restrepo, P. (2017a). Robots and Jobs: Evidence from US Labor Markets. NBER Working Paper 23285. Acemoglu, D. und Restrepo, P. (2017b). Low-Skill and High-Skill Automation. NBER Working­Paper 24119. Altzinger, W., Humer, S. und Moser, M. (2017). Entwicklung und Verteilung der Einkommen. In: Sozialbericht 2015–2016, S. 227–268. Wien: Bundesministerium für Arbeit, Soziales und Konsumentenschutz. Alvaredo, F., Garbiniti B., Piketty T. (2017). On the Share of Inheritance in Aggregate Wealth: Europe and the USA, 1900–2010. Economica 84(334): 237–260. Arntz, M., Gregory, T. und Zierahn, U. (2016). The Risk of Automation for Jobs in OECD Countries: A Comparative Analysis. OECD Social, Employment and Migration Working Papers 189. Atkinson, A. (2015). Inequality: What Can Be Done? Cambridge, MA, USA: Harvard Univer­ sity Press. Atkinson, A., Piketty, T., Saez, E. (2011). Top Incomes in the Long Run of History. Journal of Economic Literature 49(1): 3  –71. Autor D.H., Dorn D. und Hanson, G.H. (2013). The China Syndrome: Local Labor Market Effects of Import Competition in the United States. American Economic Review 103 (6): 2121–2168. Battisti, M., Felbermayr, G., Lehwald, S. (2016). Inequality in Germany: Myths, Facts, and Policy Implications. Ifo Working Paper Nr. 217. Benartzi, S. und Thaler, R.H. (2013). Behavioral Economics and the Retirement Savings Crisis. Science 339 (6124): 1152–1153. Bessen, J. (2018). AI and Jobs: The Role of Demand. NBER Working Paper 24235. Bönke, T., Corneo, G., Lüthen, H. (2015). Lifetime Earnings Inequality in Germany. Journal of Labor Economics 33(1): 171–208. Brynjolfsson, E. und McAfee, A. (2014). The Second Machine Age: Work, Progress, and ­Prosperity in a Time of Brilliant Technologies. New York: W. W. Norton.

Die wirtschaftlichen Folgen der Automatisierung

61

Brzeski, C. und Burk, I. (2015). Die Roboter kommen. ING DiBa Economic Research. 30. April 2015. Case, A. und Deaton, A. (2015). Rising Morbidity and Mortality in Midlife among White NonHispanic Americans in the 21 st Century. PNAS 112(49): 15078 –15083. Corneo, G. (2017). Ein Staatsfonds, der eine soziale Dividende finanziert. http://www.wiwiss. fu-berlin.de/fachbereich/vwl/corneo/Forschung/Staatsfonds_CorneoNov17.pdf [Abgerufen am 28.01.2018] Chetty, R., Friedman, J.N., Leth-Petersen, S., Nielsen, T.H. und Olsen, T. (2014). Active vs. Passive Decisions and Crowd-Out in Retirement Savings Accounts: Evidence from Denmark. Quarterly Journal of Economics 129(3): 1141–1219. Dauth, W., Findeisen, S. Suedekum, J. und Woessner, N. (2017). German Robots – The Impact of Industrial Robots on Workers. CEPR Discussion Paper 12306. Delaney, K.J. (2017). Droid duties: The robot that takes your job should pay taxes, says Bill Gates. https://qz.com/911968/bill-gates-the-robot-that-takes-your-job-should-pay-taxes/ [Abgerufen am 01.06.2017]. Dell, F. (2005). Top Incomes in Germany and Switzerland over the Twentieth Century. Journal of the European Economic Association 3 (2–3): 412–421. Eggertsson, G.B., Mehrotra, N.R. und Robbins, J. A. (2017). A Model of Secular Stagnation: Theory and Quantitative Evaluation. NBER Working Paper 23093. Feenstra, Robert C., Inklaar, R. und Timmer, M.P. (2015). The Next Generation of the Penn World Table. American Economic Review 105(10): 3150–3182. Online verfügbar unter [Abgerufen am 24.1.2018]. Ford, M. (2015). The Rise of the Robots. London: Oneworld Publications. Frankfurter Allgemeine Zeitung (2014). Lufthansa + Hochtief = WhatsApp. Artikel vom20.02. 2014. Url: ­ [Abgerufen am 30.10.2017.] Frey, C.B. und Osborne, M.A. (2017). The Future of Employment: How Susceptible Are Jobs to Computerisation? Technological Forecasting and Social Change 114(C): 254–280. Galor, O. und Zeira, J. (1993). Income Distribution and Macroeconomics. Review of Economic Studies 60(1): 35 –52. Galor, O. und Moav, O. (2004). From Physical to Human Capital Accumulation: Inequality and the Process of Development. Review of Economic Studies 71(4): 1001–102. Gasteiger, E. und Prettner K. (2017). A note on automation, stagnation, and the implications of a robot tax. Discussion Paper, School of Business & Economics: Economics, Freie Universität Berlin. Geiger, N. (2016). Behavioural Economics and Economic Policy: A Comparative Study of Recent Trends. Œconomia. History, Methodology, Philosophy 6(1): 81–113.

62

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Goldin, C., Katz, L.F. (2009). The Race between Education and Technology. Boston, MA, USA: Harvard University Press. Gordon, R. (2016). The Rise and Fall of American Growth: The U.S. Standard of Living since the Civil War. Princeton: Princeton University Press. Graetz, G. und Michaels, G. (2015). Robots at Work. Centre for Economic Performance Discussion Paper 1335. Hagemann, H. (1995). Technological Unemployment. In: P. Arestis und M.G. Marshall (Hrsg.), The Political Economy of Full Employment, S. 36–53. Aldershot: Edward Elgar. Hagemann, H. (2008). Capital, Growth and Production Disequilibria: On the Employment Con­sequences of New Technologies. In: R. Scazzieri, A.K. Sen und S. Zamagni (Hrsg.), Markets, Money and Capital. Hicksian Economics for the 21st Century, S. 346–366. Cambridge: Cambridge University Press. Hicks, J. (1973). Capital and Time. Oxford: Clarendon Press. Humphrey, T.M. (2004). Ricardo versus Wicksell on Job Losses and Technological Change. Federal Reserve Bank of Richmond Economic Quarterly 90(4): 5–24. International Federation of Robotics (2015). World Robotics 2015 Industrial Robots. Bericht. International Federation of Robotics (2017). World Robotics 2017 Industrial Robots. Bericht. Jäger, A., Moll, C. und Lerch, C. (2016). Analysis of the impact of robotic systems on employment in the European Union – Update. Luxemburg: Publications Office of the European Union. Jäger, K. (The Conference Board) (2017). EU KLEMS Growth and Productivity Accounts 2017 release – Description of Methodology and General Notes. Online verfügbar unter [Abgerufen am 24.1.2018] Keynes, J.M. (1930a). Economic Possibilities for our Grandchildren. The Nation and Athenaeum 48(2): 36 –37. Keynes, J.M. (1930b). Economic Possibilities for our Grandchildren. The Nation and Athenaeum 48(3): 96–98. Korinek, A., Ng, D.X. (2017). The Macroeconomics of Superstars. Working paper. Korinek, A. und Stiglitz, J.E. (2017). Artificial Intelligence and its Implications for Income Distribution and Unemployment. NBER Working Paper 24174. Lankisch, C., Prettner, K. und Prskawetz, A. (2017). Robots and the skill premium: an automation-based explanation of wage inequality. Hohenheim Discussion Papers in Business, Economics and Social Sciences, No. 29 –2017 Lederer, E. (1931). Wirkungen des Lohnabbaus. Tübingen. Löwe, A. (1976). The Path of Economic Growth. Cambridge: Cambridge University Press. Mayrhuber, C., Glocker, C., Horvath, T. und Rocha-Akis, S. (2014). Entwicklung und Vertei-

Die wirtschaftlichen Folgen der Automatisierung

63

lung der Einkommen in Österreich. In: Sozialbericht 2013–2014: S. 249–294. Wien: Bundesministerium für Arbeit, Soziales und Konsumentenschutz. Merriam-Webster (2017). “Automation”. Online verfügbar unter [Abgerufen am 3. 3. 2017] Milanovic, B. (2016). Global Inequality: A New Approach for the Age of Globalization. Cambridge, MA: Harvard University Press. Mill, J.S. (1848). Principles of Political Economy. Bd. 2–3 in Robson, J.M. (Hrsg.), The Collected Works of John Stuart Mill. Toronto (1965): University of Toronto Press. Nagl, W., Titelbach, G. und Valkova, K. (2017). Digitalisierung der Arbeit: Substituierbarkeit von Berufen im Zuge der Automatisierung durch Industrie 4.0. HIS Projektbericht, Institut für Höhere Studien, Wien. Url: http://irihs.ihs.ac.at/4231/1/200800.pdf OECD (2015). In It Together: Why Less Inequality Benefits All. OECD Publishing, Paris. URL: http://dx.doi.org/10.1787/9789264235120-en OECD (2017). Education at a Glance 2017. OECD Publishing, Paris. Online verfügbar unter http://www.oecd.org/education/education-at-a-glance-19991487.htm Peneder, M., Bock-Schappelwein, J., Firgo, M., Fritz, O., und Streicher, G. (2016). Österreich im Wandel der Digitalisierung, Österreichisches Institut für Wirtschaftsforschung, Wien. http://www.wifo.ac.at/jart/prj3/wifo/resources/person_dokument/person_dokument. jart?publikationsid=58979&mime_type=application/pdf Piketty, T. (2014). Capital in the Twenty-First Century. Cambridge, MA: The Belknap Press of Harvard University Press. Piketty, T. und Saez, E. (2003). Income Inequality in the United States, 1913–1998. Quarterly Journal of Economics 118(1): 1–41. Prettner, K. (2018). A note on the implications of automation for economic growth and the labor share. Macroeconomic Dynamics (im Erscheinen). Prettner, K., Strulik, H. (2017). The Lost Race Against the Machine: Automation, Education, and Inequality in an R&D-Based Growth Model. Hohenheim Discussion Papers in Business, Economics, and Social Sciences 08–2017. Ricardo, D. (1821). On the Principles of Political Economy and Taxation (Erstausgabe 1817). Bd. 1 in Sraffa, P. (Hrsg.), Works and Correspondence of David Ricardo. Cambridge (1951): Cambridge University Press. Romer, P., (1990). Endogenous technological change. Journal of Political Economy 98(5): 71–102. Samuelson, P.A. (1957). Wages and Interest: A Modern Dissection of Marxian Economic Models. American Economic Review 47(6), 884–912. Samuelson, P.A. (1962). Economists and the History of Ideas. American Economic Review 52(1), 1–18.

64

Klaus Prettner, Niels Geiger, Johannes A. Schwarzer

Samuelson, P.A. (1988). Mathematical Vindication of Ricardo on Machinery. Journal of P ­ olitical Economy 96 (April): 274–82. Seamans, R. und Raj, M. (2018). AI, Labor, Productivity and the Need for Firm-Level Data. NBER Working Paper 24239. Schwarzer, J.A. (2014): Growth as an Objective of Economic Policy in the Early 1960s: The Role of Aggregate Demand. Cahiers d’économie politique / Papers in Political Economy 2(67): 175–206. Smith, A. (1776). An Inquiry into the Nature and Causes of the Wealth of Nations. Bd. 2a–2b in Campbell, R.H. und Skinner, A.S. (Hrsg.), The Glasgow Edition of the Works and Correspondence of Adam Smith. Oxford (1976): Oxford University Press. The Conference Board (2017). Total Economy Database. November 2017 Release. Online verfügbar unter [Abgerufen am 17.1.2018] Wicksell, K. (1906). Lectures on Political Economy. Band 1. London (1934): Routledge & Kegan­ Paul. World Wealth and Income Database (2018). Daten zu Einkommens- und Vermögenskonzentra­ tion (Datensätze sptinc_z und shweal_z). Online verfügbar unter [Abgerufen am 18.1.2018].

Automatisierung im Recht Zum Unterschied zwischen rechtlicher und technischer Rationalität am Beispiel vollautomatisierter Selbstfahrsysteme Stephan Kirste Zusammenfassung Wegen des Unterschieds zwischen juristischer Rationalität und ­ künstlicher Intel­ ligenz lassen sich nur routinemäßige Rechtsangelegenheiten automatisieren. Der Grund für diesen Unterschied liegt in der Rechtsnorm als sozia­ler Konstruk­tion, deren Anwendung auf konkretisierende Individualisierung durch eine hermeneutische Operation angewiesen ist. Automatisie­rung von einfachen, wiederholten und gleichförmigen Entscheidungen, die ­Vorbereitung dieser Entscheidungen („e-Government“, „e-Justice“, „LegalTech“, Profiling in der Kriminalistik) und der Einsatz von Robotern, die unter Beachtung des Rechts ablaufen (selbstfahrende Autos), sind die Hauptanwendungsfelder. Mani­pulation des Konsumenten und Wählers durch Algorithmen-basierte Werbung und moralische Dilemmata bei der Roboter-Steuerung sind aktuelle Problemfelder.

1. Einleitung: Die Bühne für Automatisierung und Recht In diesem Beitrag zur Automatisierung rechtlicher Entscheidungen werde ich nicht als Rechtsinformatiker argumentieren. Rechtsinformatik ist eine Disziplin, die ab den 1960er Jahren in Deutschland und Österreich1 unter eher technischen, ja technokratischen Vorzeichen entstanden ist.2 Kritische Stimmen befürchteten die Verdrängung des Menschlichen aus dem Recht durch diesen Funktionsprimat. Dies rief interdisziplinäre Theorien – insbesondere auch aus der Kybernetik – hervor, die dann 1970 zu einem eigenen methodi­ schen Ansatz in der Rechtsinformatik und damit zu ihrer eigentlichen Ge1 Kotschy (2011), S. 133: In Österreich beispielsweise wurde seit den 1960er Jahren, basie­ rend auf wesentlich älteren Untersuchungen zur Formalisierung von Sprache, über eine Digi­­talisierung der Rechtsanwendung in routinemäßig auftretenden, nicht komplexen Fällen nachgedacht. 2 Hoeren (2011), S. 140 f.; Gräwe (2010).

66

Stephan Kirste

burt führten.3 Verwaltungsautomation, Rechtsdokumentation und Entscheidungsautomatisierung waren die drei Anwendungsbereiche.4 Vorliegend soll es jedoch um die rechtsphilosophischen Aspekte des Themas gehen. Während das Erkenntnisinteresse der Rechtsinformatik eher praktisch ausgerichtet ist,5 stehen deshalb hier die rechtstheoretischen und rechts­ ethischen Grundlagen der Automatisierung rechtlich relevanter Entscheidungen im Zentrum. Die These der nachfolgenden Untersuchungen ist es, dass sich die rechtliche Rationalität einer vollständigen Automatisierung entzieht.

Person und Automat auf der Bühne des Theaters Fraglich ist zunächst, wie überhaupt rechtliche Personen und Automaten, juristische Deliberation und Algorithmen-basierte Automatisierung von Steuerung zusammentreffen. Weil das Thema ein wenig abstrakt ist, bietet es sich an, bildhaft zu beginnen. Der Ort, an dem sich Mensch und Person treffen, ist die Bühne. Wenn wir schauen, woher der Begriff des Automaten, „αὐτόματον“, stammt, dann ist das die griechische Welt des Theaters. Scheinbar sich selbst bewegende Statuen, die durch einen hydraulischen Prozess in Gang gesetzt wurden und die Wunder oder ähnliches darstellten, wurden Automaten genannt und sollten die Schauspieler ergänzen. Der Mensch als Schauspieler mit seiner Maske (πρόσωπον oder lateinisch „persona“) und der αὐτόματον agieren also auf der Bühne des Theaters. Auf dieser Bühne geht es um poetische und auf der Bühne des Gerichts um die juristische Gerechtigkeit.6 Sie bleibt für Juristen bis heute der Ort, an dem das Recht erstritten wird. Ich will das Bühnen-Bild aber noch ein bisschen weitertreiben, um auf eine bestimmte Fragestellung hinzuleiten, die am Ende, wenn es um selbstfahrende Autos geht, wieder aufgegriffen werden soll. Von der Antike springe ich dazu 3 Zu Ansätzen einer über die Rechtslogik vermittelten Mathematisierung des Rechts und der Rechtswissenschaften vgl. Kreuzbauer (2015), S. 106 ff. 4 Hoeren (2011), S. 141. 5 Hoeren (2011), S. 143: Das Erkenntnisinteresse der Rechtsinformatik „ist zumeist prakti­ scher Art und betrifft stets in irgendeiner Form die Implementierung des Computers in rechtlichen Bereichen. Ihr Erkenntnisprozess ist mit analytischen, empirischen und normativen Elementen durchsetzt. Auffällig ist eine Konzentration auf operative Denkinstrumente in Abgrenzung zu materiellen, gehaltenvollen Theorien“. 6 Zu rechtlicher Gerechtigkeit auch Kirste (2010), S. 110 f. u. Kirste (2014a), S. 22 ff.

Automatisierung im Recht

67

in die Renaissance. Vielen Humanisten der Renaissance war der Mensch geradezu der Urschauspieler, der „Archimime“ als universeller Verwandlungskünstler 7 Das hat der katalanische Philosoph Juan Luis Vives (1492–1540) in der Fabel vom Menschen („Fabula de Homine“) erzählt:8 Anlässlich des Geburtstagsfestes von Juno lässt ihr Mann Jupiter ein Schauspiel veranstalten, auf das die übrigen Götter von den erhöhten Plätzen des Olymps herabschauen. Harmonisch sich entwickelnde Pflanzen und triebhafte Tiere in ihren verschiedensten Charakteren erscheinen. Nach einer gewissen Pause wird auch der Mensch selbst mit seinen Fähigkeiten als moralisches 9 und Gemeinschaftswesen mit seinen Tugenden der Klugheit, Gerechtigkeit 10, Mut und Ausge­glichenheit, kurz: seinem Ingenium dargestellt11. Als die Götter schließlich den besten Spieler rühmen sollen, ist es der Mensch: „nihil esse homine admirabi­lius“. Und als sie seine Fähigkeiten näher untersuchen, stellt sich heraus, dass er es auch selbst war, der in die verschiedenen Masken – lateinisch „personae“ – der Natur und schließlich seiner selbst geschlüpft ist: Der Mensch spielt auch den Menschen selbst. Im Unterschied zu Jupiter jedoch, der Macht über alles besitzt und in allem ist, ist der Schauspieler nur – aber immerhin – ein Nachahmer, ein Archimime, auf der Bühne der Welt.12 Als der Mensch dann auch noch die Götter auf der Bühne zur Erscheinung bringt, kommt er diesen in seiner Wandelbarkeit wirklich wie der Meeresgott Proteus vor. Die Götter springen vor Begeisterung auf. Doch in diesem Moment betritt er als 7 Buck (1987), S. 257 f.; Colish (1962), S. 5 f. 8 Abgedruckt bei Sackelberg (1956), S. 252 ff.; zu Vives‘ Anthropologie auch Dilthey (1969), S. 423 f. 9 Die Moral als „Heilmittel für angegriffene Seelen“ und Analogon zur Medizin für den Kör­ per, soll „unser Leben seiner Menschlichkeit“ zurückgeben. Sie verweist damit auf die „studia humanitatis“, deren Ziel die „humanitas“ ist, vgl. Buck (1987), S. 171, dorther auch die Zitate. 10 In „De subventione pauperum sive de humanis necessitatibus“ begründet Vives aus dem Prinzip der „humanitas“ sozialstaatliche Elemente: „Der größte Glanz ruht auf einer Stadt, in der kein Bettler mehr zu sehen ist. Denn die Häufigkeit der Bettler bekundet die Bosheit und Unmenschlichkeit im privaten Bereich und die Vernachlässigung des öffent­ lichen Wohls durch die Behörden“, zit. nach Buck (1987), S. 201. 11 Vives schreibt dazu im pädagogischen Traktat „De tradendis disciplinis“: „Bei jedem, dem man Bildung vermitteln will, muß man auf sein ingenium, auf seine Anlage achten  … Die einzelnen Teile des ingeniums sind: Schärfe des Blickes, Aufnahmefähigkeit und Urteilskraft“, zit. nach Garin (1966), S. 290. 12 In dieser Beschränkung und Ordnung liegt ein Unterschied zu Pico della Mirandola, bei dem die Freiheit durch die Ortlosigkeit des Menschen in der Schöpfung noch weiter reicht, Colish (1962), S. 7 f.

68

Stephan Kirste

Jupiter selbst die Bühne. Mit großartigen Gesten personifiziert der Mensch den höchsten Gott und transzendiert alle niederen: Das Abbild mimt das Urbild. Zunächst schauen sie irritiert zwischen Jupiters Loge und der Bühne hin und her, ob dieser denn wirklich noch auf seinem Platz sitze. Dann sind die Götter empört über diese Blasphemie. Schließlich begeistern sie sich jedoch an der Fülle der Fähigkeiten Jupiters, die sich der Mensch zu eigen gemacht hat, und aus Respekt vor seinem Ebenbild bitten sie Jupiter, ihn in ihre Runde zum Mahl einzuladen; eine Bitte, der Jupiter gerne entspricht13. Wissen, Erinnerungs- und Antizipationsvermögen, Weisheit, Tugend, Vernunft und Kreativität des Menschen sind selbst der Schauplatz, in dem er ­alle Wesen vergegenwärtigen und dann auf der Bühne zum Ausdruck bringen kann. Gewiss ist er mit diesen Fähigkeiten zur Bewältigung seiner Not, der „miseria hominis“ ausgestattet; er ist nämlich nicht perfekt in eine bestimmte Lebensform – und nur in diese – eingepasst wie das Tier. Als die Götter ihn in der Fabel aber fragen, ob er bei ihnen bleiben möchte, also in ihrer Lebensform weiter existieren möchte, lehnt er ab: Sie gehört nicht zu ihm. Ohnehin steht er, der nur ein Abbild ihrer Vollkommenheit ist, in seiner Wandlungsfähigkeit über ihnen, die nur sein können, was sie sind. Ihre Welt ist nicht seine Bühne, deren Arena der Mensch benötigt, um sich mit seinen Fähigkeiten zu dem machen zu können, der er sein will. Am Maßstab der Götter gemessen, bleibt er in der Not-Wendigkeit seiner Wandlungsfähigkeit unvollkommen; doch ist er das, was er ist, aus sich selbst heraus; und dafür beneiden ihn die Götter. Sollte er seine Rolle mit der eines Automaten tauschen wollen, der vielleicht fehlerfreier seine Funktion erfüllte, als er es könnte? Wie viele Automaten bräuchte es, um die Vielfalt darstellen zu können, die er auf der Bühne seines Geistes in sich vereint. Statt als Archimime sich selbst in seinen vielen Masken zu erschaffen, wäre er nur der Zuschauer eines Spiels, das ein Automat – oder vielleicht auch ein Homunkulus14 – für ihn ausführt; kein Zuschauer, wie die Götter in der Fabel, deren Abbilder er darstellt, sondern einer, der nur das Abbild anglotzt, ohne das Urbild zu kennen.

13 Das bedeutet nicht, dass es ein reiner Gnadenakt wäre, dass er Mensch in den Kreis der Götter aufgenommen wird – so aber Colish (1962), S. 10; vielmehr sind es die Leistungen des Menschen, die seine Würdigkeit dazu dokumentieren. 14 Hamerling (1888).

Automatisierung im Recht

69

Person und Automat auf der Bühne des Rechts Die Masken im Schauspiel trägt der Mensch auch im Recht, wenn er als Person, also als Rechtssubjekt,15 behandelt wird. Könnte die Personalität der Vergleichsgesichtspunkt zwischen Automaten und Menschen trotz ihrer unterschiedlichen Struktur sein? Oder bleibt es dabei, dass nur der Mensch Rechtssubjekt und der Automat Rechtsobjekt ist? Algorithmen-basierte Automatisierung und deep learning legen es durchaus nahe, diese Dichotomie zwischen Subjekt und Objekt im Recht aufzubrechen. Wie dieses Vermittlungselement aussieht, ist freilich umstritten. Wie können wir gemeinsame Kriterien finden, die eine Strukturähnlichkeit zwischen Mensch und Automat begründen? Kann der Mensch nicht nur Automaten erfinden, die – wie die Rechenmaschine von Leibniz (1646–1716) – dem Menschen Zeit ersparen und größere Präzision ermöglichen, sondern kann umgekehrt der Mensch selbst als ein Automat verstanden werden? Der Philo­ soph la Mettrie (1709–1751) hat in seinem bekannten Werk „Erneuerung des Materialismus – der Mensch als Maschine“ den Menschen in Analogie zu einem Uhrwerk verstanden. Danach ist der Mensch strukturiert wie eine ­Maschine und von seinen Trieben ebenso gesteuert wie die Maschine von ihren Antriebsmechanismen. Von der Beweglichkeit, von der „Chamäleonhaftigkeit“ des Menschen, von der schauspielerhaften Leichtigkeit, wie es sich die Renaissance vorstellt, ist hier nichts übriggeblieben. Dafür scheint ein Commerzium, ein vermittelndes Element zwischen Mensch und Maschine gefunden zu sein. Diese Auffassung ist sehr einflussreich gewesen und steht in einer heute noch sehr wirksamen Tradition. Thomas Hobbes stellt sich den Staat als eine Person, deren Glieder wie eine Maschine wirken, vor. Weil die unvollkommenen Menschen angesichts beschränkter Ressourcen wie Wölfe übereinander herfallen und sich zu vernichten drohen, schließen sie sich unter Aufgabe ihrer natürlichen Freiheit zum Staat – dem „Leviathan“ – zusammen, der ihre Sicher­heit garantieren soll. Die innere Organisation dieser Staatsmaschine soll dem Idealtypus eines Uhrwerks entsprechen. Er ist nicht nur wie eine Person rechtsfähig, sondern Träger allen Rechts, das er den natürlichen Personen zuteilt. Hobbes stellt sich das in Analogie zur menschlichen Person vor, bei der die Seelen die Bänder sind, an denen die Organe, die ihrerseits auch technisch vorgestellt 15 Kirste, (2015), S. 345 ff.

70

Stephan Kirste

werden,16 hängen und die von einem zentralen Steuerungsapparat kontrolliert werden. Schon bei diesem früh-neuzeitlichen Staatstheoretiker wird also der Staat als überlegener Automat vorgestellt, der die Mängel der menschlichen Unvollkommenheit ausgleichen und ihm geben soll, was er aus eigener Kraft nicht leisten zu können scheint: Sicherheit und Ordnung. Doch weiß Hobbes, dass derjenige, der für die Sicherheit aller sorgen, auch alle unterdrücken kann. Der Automat, der kraft seiner Perfektion für das Wohlergehen aller sorgt, nimmt ihnen auch die Fähigkeit, dies selbst zu können. Während la Mettrie und Hobbes den Menschen als Maschine und als Auto­ maten vorstellen, versteht wohl nur letzterer auch die Staatsmaschine als Mensch. Beide scheinen auch hinsichtlich ihrer Leistungen austauschbar zu sein; mit dem Unterschied freilich, dass der Staat als künstlicher Mensch bei Hobbes besser funktioniert als der natürliche Mensch. Liegt es da nicht nahe, jedenfalls in bestimmten Funktionen den natürlichen durch den perfekteren künstlichen Menschen zu ersetzen: Nicht nur der Mensch als Maschine, sondern die Maschine als Mensch? Wäre nicht die richterliche Praxis in gleicher Weise funktionsgerechter, wenn sie von Maschinen, von Automaten ausgeführt würde? Wenn wir uns mit Montesquieu den Richter gewissermaßen als Mund des Gesetzes vorstellen,17 könnte das bloße Aussprechen des im Gesetz schon enthaltenen Rechts auch von einer Maschine ausgeführt werden. Der Justizsyllogismus – Wer einen Menschen tötet, soll bestraft werden (Obersatz); T hat einen Menschen getötet (Mittelsatz); also soll T bestraft werden (Schlusssatz) – könnte wohl von einem Automaten gleich gut und vielleicht sogar fehlerfreier prozessiert werden. Die idealistische Rechtsphilosophie wendet sich dagegen. Ein Jurist, der die kantische Philosophie rezipiert hat, Paul Johann Anselm Feuerbach, schreibt voller Empörung über die Vorstellung, der Richter könne wie ein Automat funktionieren, „Behüte der Himmel, dass unsere Richter bloße Decretirmaschinen werden sollten […] ein Richter, der blos an W ­ orte glaubt, der nicht in den Geist des Gesetzes eindringt, der nicht auch zur Absicht des Gesetzgebers aus Gründen der Geschichte oder der Philosophie sich 16 Hobbes (1965), Introduction, S. 1 und I, 1, S. 3. 17 Montesquieu (1994), XI, 6, S. 221: „Doch die Richter der Nation sind […] lediglich der Mund, der den Wortlaut des Gesetzes spricht, Wesen ohne Seele gleichsam, die weder die Stärke noch die Strenge des Gesetzes mäßigen können.“

Automatisierung im Recht

71

zu erheben vermag, dass dieser nichts, als eine äsopische Maske, ohne Gehirn und Seele ist.“ 18 Feuerbach bezieht sich hier auf Immanuel Kant, der eine Rechtswissenschaft, die sich bloß als Interpretin des positiven Rechts versteht und die tieferen Fragen nach der Begründung des Rechts und seiner Gerechtigkeit nicht stellt, als eine hölzerne Maske bezeichnet hatte, die schön anzusehen – nur leider hohl sei.19 Damit haben wir nun die Parallele: Mensch und Automat können sich als Personen auch auf der Bühne des Gerichts treffen; nur ist der Automat ganz die Maske; der Mensch hingegen trägt sie. Für ganz einfache Rechtsstreitigkeiten mit geringem Streitwert wie in Mahnverfahren mag die funktionale Ausgestaltung so hohler Masken ausreichen. Doch wer geht schon zu einem solchen Stück, und welche bedeutenden Prozesse sind so einfach, dass das genügen würde? Hier kommt der Automat an seine Grenzen: Das αὐτόματον mag den Archimimen ergänzen; der Subsumtionsautomat dem Richter einfache Fälle abnehmen. Die eigentliche Funktion des Theaters und die eigentliche Funktion des Gerichtsprozesses liegen jedoch nicht auf diesem Gebiet. Der Schein des Theaters soll den Menschen im Anderen zu sich selbst führen; und der Streit des Prozesses zugleich die soziale Entscheidung über normative Geltungsbehauptungen des Rechts zwischen den Parteien aber auch für den öffentlichen Diskurs übernehmen. Die hier stattfindenden sozialen Anerkennungsprozesse können nicht durch Automaten ersetzt werden, wenn nicht der Mensch die Bühne seines Selbstentwurfs und seiner Selbstfindung verlassen soll und nicht wie die Götter, die nach Vives schon ewig bei sich selbst sind und bleiben, sondern wie ein Hund, den man so domestiziert, dass es ihm wohl ergeht, der aber niemals bei sich selbst sein wird, weil er nur automatisch reagiert, wie er abgerichtet wurde, enden soll. Und nach dieser einleitenden Überlegung treffen sich also Automat und Richter als Personen auf der Bühne der Rechtswelt. Es wird die Frage sein, ob diese rechtstechnische Gleichstellung auch rechtsethisch begründet ist. Die metaphorische Antwort kann die wissenschaftliche nicht ersetzen und ihr nicht vorgreiflich sein. Besonders die selbstfahrenden Autos – oder autonomen Fahrsysteme – werfen Probleme rechtlichen Entscheidens in komplexen 18 Feuerbach (1800), S. XLI f. 19 Kant (1982), S. 335: „Eine bloß empirische Rechtslehre ist (wie der hölzerne Kopf in Phädrus’ Fabel) ein Kopf, der schön sein mag, nur schade! daß er kein Gehirn hat.“

72

Stephan Kirste

Verkehrssituationen auf, die diese Vergleichbarkeit in Frage stellen: Sollen sie angesichts ihrer Algorithmen-basierten selbstlernenden Steuerung vielleicht in haftungs- und strafrechtlicher Hinsicht als Personen verstanden werden? Nach dieser Einleitung soll nun ein kurzer Blick auf die Anwendungsfelder für rechtliche Automatisierung geworfen werden.

2. Anwendungsfelder der Automatisierung im Recht Rechtsverwaltung Ganz basal ist zunächst die Rechtsverwaltung.20 Das sind Unterstützungssysteme, die die Arbeit von Rechtsanwälten, aber auch von Gerichten vereinfachen sollen. Dazu gehört auch sogenannte Groupware, in der Videokonferenzen organisiert werden, sowie die Steuerung von großen Anwaltskanzleien. Hier liegt ein großes Potenzial in der Automatisierung von Arbeitsabläufen. Ein weiteres Beispiel wäre die elektronische Aktenführung. Sie ist bereits sehr früh, Anfang der 1970er Jahre als Ziel einer effizienten Verwaltung genannt worden und wurde etwa in der elektronischen Aktenführung umgesetzt.

Entscheidungsunterstützung Der zweite Bereich ist die Entscheidungsunterstützung. Sie führt schon näher an die eigentliche juristische Entscheidung heran. Derartige Entscheidungsunterstützung hat sich insbesondere für Rechtsinformationen herausgebildet. Hier geht es um die Aufarbeitung von Gerichtsurteilen und anderen juristischen Quellen, um sie für – Algorithmen-basierte – juristische Recherche zur Verfügung zu stellen. In Österreich ist insbesondere das „RIS“ – das „Rechtsinformationssystem des Bundes“ – beim Bundeskanzleramt, und in öglich geworden ��������������� sind solche InDeutschland „JURIS“ von Bedeutung.21 M������������������������������� formationssysteme durch die automatisierte Erfassung und Verarbeitung von Daten, Auswertung in Datenbanken, die sich auf Gerichtsurteile und Gesetze bezieht. Der Rechtsstoff wird erst zugänglich und erfüllt dabei – das kostenlose österreichische (§ 2 ABGB iVm §§ 6 und 7 BGBlG) noch mehr als 20 Zum Stand in Österreich vgl. e-Justice Austria, IT-Anwendungen in der Österreichischen Justiz. Wien 2016. 21 https://www.ris.bka.gv.at/Bund/; https://www.juris.de/jportal/index.jsp .

Automatisierung im Recht

73

das deutsche System – nicht nur eine rechtsstaatliche, sondern auch eine eminent demokratische Funktion, denn der Bürger und auch Fachleute können sich so erheblich leichter über die Gesetze informieren, denen sie unterworfen sind. Das setzt freilich voraus, dass diese Datenbanken die juristischen Aufgaben standardisieren können. Das wird gegenwärtig auch unter „legal technology“ diskutiert.22 Legal Tech meint den „Einsatz von Software […], also etwa Programme, die Rechtsdienstleistungen online anbieten, Gerichtsurteile auswerten, Rechtsfragen standardisieren, juristische Prozesse vereinfachen oder sogar die Arbeit eines Rechtsanwalts durch den Einsatz von künstlicher Intelligenz, Big Data und Machine Learning komplett ersetzen wollen“.23 Es geht dabei zumeist nicht um die eigentlichen Rechtsentscheidungen, sondern um Unterstützungsleistungen sowie die Vermittlung juristischer Dienste zu Festpreisen. Andere bieten Standardfalllösungen, Standardvertragsgestaltung und allgemeine Rechtsinformationen etwa zu Fluggastrechten, Bahnentschädigungen oder Sozialhilfebescheiden. Auch verlässliche Vertragsentwicklung und -abwicklung („Smart Contracts“) etwa durch Auszahlung von Autorenentgelten für Copyright gehören hierher. „Ross“ von IBM bietet sprachbasiert ähnlich wie „Siri“ von Apple gezielte Suchen nach Entscheidungen und anderen Rechtsinformationen an. Ein zweites Element der Entscheidungsunterstützung ist die elektronische Rechtsberatung.24 Das ist recht neu. Einerseits soll sich der Bürger leichter über��������������������������������������������������������������������� seine Rechte informieren können. Andererseits wird die Kostenersparnis einer technik-gesteuerten Beratung ins Feld geführt, was dann wieder für Bürger die Hemmschwelle senken soll, Rechtsberatung in Anspruch zu nehmen. Davon sind gerade verbraucherrechtlich relevante Fragen betroffen. Portale für Reiserecht, insbesondere auch das Fluggastrecht,25 sind heute mit solcher elektronischen automatisierten Rechtsberatung am weitesten fortge22 In Deutschland galt 2016 als Start für „Legal Tech“. Im Oktober 2017 fand die erste Messe dazu statt, Prior (2017), S. 651. 23 Prior (2017), S. 652. Zurückhaltend in Bezug auf die Reichweite: Hartung: „Legal Tech­ nology ersetzt nur, wofür man ohnehin keinen Anwalt braucht“, https://www.lto.de/ recht/job-karriere/j/legal-tech-anwalt-automatisierung-algorithmus-recht/ (letzter Zugriff 2.2.2018); vgl. jetzt auch Hartung, Bues und Halbleib (2018), S. 297 f. 24 Vgl. etwa www.help.gv.at. 25 Engel (2014), S. 1099; Hartung, Bues und Halbleib (2018), S. 11 ff.

74

Stephan Kirste

schritten. Die Anbieter beraten nicht nur, sondern übernehmen gegen ein gewisses Honorar auch die Rechtsvertretung. Die entscheidenden Vorbereitungen rechtlicher Entscheidungen, die automatisiert von statten gehen können, sind vielfältig wie etwa das „Predictive Profiling“ innerhalb der Kriminalistik, also der Verbrechensbekämpfung, zeigt.26 Andere, etwas problematischere Anwendungen für die Automatisierung, beziehen sich nicht auf die Rechtsverfolgung, sondern auf die Rechtsentstehung, nämlich auf den demokratischen Prozess. Auf diesen problematischen Aspekt der Wahlwerbung wird später noch zurückgekommen.

Verfahrensautomatisierung Neben der Rechtsverwaltung und der Entscheidungsunterstützung ist als ein dritter Bereich die Verfahrensautomatisierung zu nennen. Algorithmen-basierte Automatisierungen, die sich auf e-Government beziehen, bereiten juristische Verfahren nicht nur vor, sondern beeinflussen sie auch direkt.27 Niklas Luhmann hat bereits in den 1970er Jahren erste Überlegungen zu entsprechenden Mechanismen angestellt. Verfahrensabläufe innerhalb der Verwaltung sollten so optimiert werden. In Österreich ist insbesondere FinanzOnline bekannt, das diese Möglichkeiten sehr weitreichend nutzt.28 Ein anderer Aspekt ist die „E-Democracy“.29 Dabei wird Demokratie in einen für Juristen und auch Politikwissenschaftler sehr weiten Sinn gefasst. Es geht um „Empowerment“, um die Befähigung von Bürgern zu mehr Bürgeraktivierung. Ferner soll der Bürger in die Lage versetzt werden, Stellung zu beziehen. In den Bereich juristischer Entscheidungen weisen dann neue Entwicklungen von smart contracts.30 Sie treten bei vordefinierten Ereignissen in Kraft 26 Traunmüller (2014), S. 741 f. 27 Hoffmann-Riem (2017), S. 4 f. Im Jahr 2020 tritt hierzu in Deutschland auch ein EGovernmentgesetz in Kraft, Roßnagel (2013), S. 2710; Berlit (2015), S. 197 ff. 28 https://finanzonline.bmf.gv.at/fon/; weitere Anwendungsmöglichkeiten auch bei K ­ reuzbauer (2015), S. 112 f. 29 Rüß (2001), S. 518 ff. 30 Kaulartz und Heckmann (2016, S. 618) definieren Smart Contracts als „eine Software […], die rechtlich relevante Handlungen (insb. einen tatsächlichen Leistungsaustausch) in Ab-

Automatisierung im Recht

75

oder verändern sich entsprechend.31 Sie kommen etwa beim Digital Rights Management von Streaming Diensten zum Einsatz. Aber auch komplexe juristische Verträge zwischen großen Konzernen werden im Laufe der Zeit an ver����������������������������������������������������������������������� änderte Umstände angepasst. M������������������������������������������ an muss Teilleistungen erbringen. Die Verwaltung eines solchen Vertrages erfordert u. U. umfangreiche anwaltliche Tätigkeiten. Wenn diese Anpassung automatisiert wird, kümmert sich ein Computer darum, ob entsprechende Verfahrensschritte für die Vertragserfüllung eingeleitet worden sind, und wenn nicht, ob dann Verzug eingetreten ist, oder Leistung zu spät erbracht ist, eventuell Schadenersatz oder andere Maßnahmen gefordert werden können.32 Problematisch ist hier die Abgabe von Willenserklärungen in solchen Systemen und deren Zurechnung. Zudem müssen Rechtssicherheit und Datenschutz gewährleistet sein. Legal Chatbots führen auch einfache Rechtsberatungsgespräche automatisiert durch – etwa bei Kündigungen, Einspruch gegen Falschparken. Sofern dann das System von der Komplexität überfordert ist, wird an einen wirklichen Anwalt weitergeleitet.33 Schließlich soll Industrie 4.0 erwähnt. Hierbei werden keine juristischen, wohl aber rechtlich relevante Entscheidungen getroffen. Industrie 4.0 zielt auf die Vernetzung verschiedener Produktionsstätten insbesondere durch Cloud Computing ab.34 Solche vernetzten Produktionssysteme reagieren eigenständig auf Umweltveränderungen und tauschen hierzu untereinander Daten aus. Automatisierte Computerterminals oder Transportdrohnen sind

hängigkeit von digital prüfbaren Ereignissen steuert, kontrolliert und/oder dokumentiert, mit dessen Hilfe aber nur unter Umständen auch […] dingliche und/oder schuldrechtliche Verträge geschlossen werden können“. Hierbei kommt eine sog. „Blockchain-Technologie“ zum Einsatz, die es ermöglichen, dass verschiedene validierte Akteure auf dezentrale Datenbanken zugreifen können und auf dieser Weise Steuerungsleistungen erbringen können, Söbbing (2018), S. 44. 31 Söbbing (2018), S. 43 ff.; zur Geschichte der Smart Contracts, die auf die 90er Jahre des letzten Jahrhunderts zurückgeht, vgl. Kaulartz und Heckmann (2016), S. 618. 32 Weitere Beispiele bei Kaulartz und Heckmann (2016), S. 619 f. 33 Prior (2017), S. 655. 34 Bräutigam und Klindt (2015), S. 1137 f.; Peltzer (2016), S. 2280; vgl. auch den Abschlussbericht des Arbeitskreises Industrie 4.0 beim deutschen Bundesministerium für Bildung und Forschung: Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0. 2013.

76

Stephan Kirste

bereits realisiert.35 Sie werfen vertragsrechtliche, haftungsrechtliche, datenund datenschutzrechtliche Fragen auf. Dabei werden etwa die Rechte der Arbeitnehmer durch entsprechende Automatisierungen tangiert. Arbeit ist auf der einen Seite natürlich ein Produktions- und Kostenfaktor, auf der anderen Seite dient sie aber der Selbstverwirklichung der Arbeitnehmer/innen. Dabei werfen Umstrukturierungen von Arbeitsprozessen eine ganze Reihe von Problemen arbeitsrechtlicher Art auf.

Automatisierte rechtliche Entscheidungen Die Automatisierung von rechtlichen Entscheidungen selbst gehört zum Kern dessen, was rechtlich problematisch ist: Können juristische Entscheidungen von technischen Systemen getroffen werden? Bei Mahnverfahren ist dies freilich längst eingeführt.36 Unter Zugrundlegung bestimmter Beweismittel können sich Gläubiger mit einem Antrag elektronisch an die Mahngerichte wenden. Diese erstellen dann automatisiert entsprechende Mahnbescheide. F����������������������������������������� ür Verwaltungsentscheidungen gibt ������������ es Ähnliches. Zu den automatisierten rechtlichen Entscheidungen gehört jedoch auch die große Herausforderung der Autoindustrie in Mitteleuropa für die nächsten Jahre: vollautomatisierte Fahrsysteme, auf die ich später ausführlich eingehen werde. Das ist deshalb einschlägig, weil diese Fahrsysteme soweit programmiert sein müssen, dass sie möglicherweise auch „Entscheidungen“ treffen, d.h. ein Auto so steuern, dass es in die Rechte der Bürger eingreifen kann – in die Rechte des Fahrers und die Rechte der Passanten, der Unbeteiligten oder auch die Rechte von anderen Verkehrsteilnehmern.

3. Leistungen der Automatisierung im Recht Vorteile der Automatisierung im Recht Als Leistungen der Automatisierungen werden insbesondere die Rationalisierung – Verobjektivierung, Geschwindigkeit – von Entscheidungen genannt. 35 Peltzer (2016), S. 2279. 36 Engel (2014), S. 1100.

Automatisierung im Recht

77

Computer sollen unabhängiger und objektiver als ein Richter urteilen und kostengünstiger als Anwälte beraten. Auch können komplexe rechtliche Koordinationsvorgänge wie etwa bei Kreditkartenzahlungen leichter koordiniert werden.37 Fährt nicht ein vollautomatisiertes Fahrsystem viel zuverlässiger als ein von Menschen vielleicht in Emotionen oder vom Ehrgeiz, schneller zu fahren, gesteuertes Auto? Die Sicherheit des Verkehrs – einerseits des Rechtsverkehrs, andererseits des Straßenverkehrs – aber auch erleichterter Zugang des Bürgers zu demokratischen („Democratic Access“) und juristischen Verfahren werden zu Recht als Leistungen der Automatisierung genannt. Der Bürger kommt leichter zu seinem Recht, wenn Rechtsinformationen und Rechtsberatung im Internet angeboten werden.38 Eine weitere Leistung liegt sicherlich in der Kostensenkung: So spielt es z.B. für Anwaltskanzleien in der international harten Konkurrenz eine Rolle, dass bei solchen Automatisierungsprozessen juristische Tätigkeiten eingespart werden können. Ferner gehört die Vereinfachung zu den Leistungen der Automatisierung und damit die Reduktion von Aufwand und Kosten dazu. Man mag eine Steuererklärung zwar nicht auf einer Postkarte abgeben können; sie sind aber über Portale wie „FinanzOnline“ oder „Elster“ mit einem Abfragesystem deutlich einfacher zu bewältigen.39 Bei der Video-Überwachung kann der Einsatz von Algorithmen Eingriffe in die Privatsphäre reduzieren. Sie sollen typische Bewegungsabläufe bei Straftaten erkennen, darauf anspringen und dann nur noch die eigentliche Straftat filmen können. Sie könnten, mit der Polizeizentrale verbunden, einen Einsatz veranlassen. Sollte sich das System optimieren lassen, könnten die Kameras weitgehend im Stand-by Modus bleiben und nur bei entsprechenden Anzeichen anspringen.40

37 Söbbing (2018), S. 44 f. 38 Das dürfte insbesondere für Fälle mit einem geringen Streitwert der Fall sein, deren Bearbeitung sich für Anwälte nicht recht lohnen mag, Engel (2014), S. 1100. 39 https://finanzonline.bmf.gv.at/fon/; https://www.elster.de/eportal/start. 40 Diese Art der Algorithmen-unterstützten Videoüberwachung befindet sich noch im Experimentierstadium, wie etwa in Mannheim an kriminellen Gefahrenplätzen, FAZ v. 29.12.2017, S. 2.

78

Stephan Kirste

Probleme und Nachteile der Automatisierung im Recht a. Privatsphärenschutz Diesen Vorteilen stehen aber handfeste rechtliche Probleme gegenüber, von denen der erste der Privatsphärenschutz ist. Je stärker diese Systeme vernetzt sind, desto mehr stellt sich die Frage, welche Information wie privat gehandhabt werden können. In England scheinen alle Patientendaten digital erfasst zu sein, was für die Privatheit der Patienten nicht unproblematisch ist, selbst wenn dies in anonymisierter Form geschieht. Welche Informationen müssen sie also preisgeben? Wie steht es mit ihrem Privatheitsschutz 41 Manche Instrumente, die Privatheit sicherstellen sollen, greifen nicht mehr.42 Durch die Analyse von Big Data können nämlich Informationen gewonnen werden, die der Einzelne von sich nicht preisgeben will und die der Staat auch nicht gezielt erheben dürfte.43 Nicht nur von Mark Zuckerberg wird ein „Post-Privacy“Zeitalter für unvermeidlich und wünschenswert erachtet.44 b. Inhaltliche Beeinflussung durch computergestützte Informationen Der Einsatz von Automatisierungen im Recht verhält sich nicht von selbst neutral zu rechtlich relevanten Inhalten. Zwei Aspekte seien genannt: die prädikative Wirkung von computer-generierten Informationen im Gerichtsverfahren und die Beeinflussung von Wahlen. Auf rechtsethischer Ebene können durch die Automatisierung und die Entlastung des rechtlichen Entscheiders Probleme des Paternalismus45 durch technische Systeme auftreten. Dabei entlasten Algorithmen-basierte Informationssysteme den User nicht nur; er kann auch gezielt gesteuert und gelenkt werden.46 Hier findet sich ein bereits heute auftretendes Problem, dass Richter in Prozessen Fachleute hinzuziehen: die Gutachter aus den verschiedensten 41 Vgl. dazu auch Traunwieser (2018). 42 Hoffmann-Riem (2017), S. 38. Boehme-Neßler (2015), S. 1282 f. 43 Weichert (2013), S. 251 ff.; Martini (2014), S. 1483 ff. 44 http://www.nytimes.com/external/readwriteweb/2010/01/10/10readwriteweb-facebookszuckerberg-says-the-age-of-privac-82963.html (zuletzt 27.1.2018), dazu auch Boehme-Neßler (2015), S. 1284 f. 45 Generell zu Problemen von Rechtspaternalismus Kirste (2011), S. 805 ff. 46 Paal und Hennemann (2017), S. 77.

Automatisierung im Recht

79

Disziplinen, etwa der Psychologie, aber auch aus technischen Bereichen. Die Aufgabe des Richters ist es dann, das Gutachten zu bewerten und sich dann aus eigener Überzeugung zu entscheiden. Schon heute kann gutachterliche Tätigkeit so überzeugend sein, dass den Richtern kaum noch etwas einfällt und sie geradezu töricht wären und Revisionsgründe liefern würden, wenn sie sich gegen diese Expertise stellen würden. Wenn aber hinter einem Gutachten ein komplexer Algorithmus, womöglich die Auswertung von Big Data steht, wie soll der Richter, der kein Fachmann ist, noch diejenigen Argumente entwickeln können, aufgrund deren er sich für Alternativen entscheiden kann? Und das gilt in nicht anderer Weise für die Dateninformationen des Gesetzgebers und der Verwaltungstätigkeit. Vergleichbare Probleme zeigen sich auch bei der Wahlbeeinflussung von Bürgern durch „Big Data Mining“,47„Wahl-Bots“,48 und das „Anstupsen“ durch „Nudges“, die „Filterblasen“ und „Echokammern“49 hervorrufen können.50 Social Bots sind Computerprogramme, die in sozialen Netzwerken aus einer Liste vorformulierter Sätze massenhaft, aber gezielt Posts an User senden können. Auf andere Posts können sie mit „Likes“ oder „Retweets“ reagieren und ganze Bot-Netze aufbauen. So können sie automatisiert Meinungsstimmungen erzielen. Das führt wieder aufgrund der sog. „Schweigespierale“ zu angepasstem Verhalten von Usern und insbesondere Wählern: Sie lehnen sich in ihrem eigenen Verhalten an die als Mehrheit suggerierte Meinung an. Diese Bots imitieren den partizipativen Prozess und können doch in ihrer Urheberschaft anonym bleiben.51 Ob ihre Posts aber von menschlichen Usern oder von Bots stammen, lässt sich nur schwer rekonstruieren.52 Das ist kein peripheres Problem und nicht nur eine Bevormundung des wählenden Bürgers, sondern trifft das Herz des demokratischen Prozesses. Demokratie bedeutet nicht nur, dass wir Kreuzchen auf den Wahlzettel setzen. Das Entscheidende des demokratischen Prozesses ist das, was Diktatoren und Vertreter einer „illiberalen Demokratie“ nicht zulassen: die Äußerung und Deliberation von Argumenten, im Vorfeld der Wahl in der Öffentlichkeit 47 Richter (2013), S. 961 ff. 48 Dankert und Dreyer (2017), S. 73 ff.; Steinbach (2017), S. 101 ff.; Paal und Hennemann (2017), S. 76 ff.; Milker (2017), S. 216. 49 Pariser (2012); Paal und Hennemann (2017), S. 76 f. 50 Hoffmann-Riem (2017), S. 14 f. 51 Paal und Hennemann (2017), S. 77. 52 Näher Dankert und Dreyer (2017), S. 73; sie täuschen menschliche Kommunikation vor und können gerade so zur Manipulation eingesetzt werden, Steinbach (2017), S. 102.

80

Stephan Kirste

und ������������������������������������������������������������������������� im Licht der Öffentlichkeit. Sie kann nicht in der anonymisierten Privatheit irgendwelcher Chatrooms stattfinden, auch wenn sie das Privathaltenkönnen, also den Schutz von Daten über politische Überzeugungen voraussetzt.53 Die geschilderten Systeme operieren jedoch anti-öffentlich: Sie versorgen die Bürger mit Informationen, die sich auf das Nutzerprofil und das Nutzerverhalten der Bürger beziehen. Die automatisierten Systeme sind dann nicht darauf angelegt, diese überkommenen Überzeugungen und Vorverständnisse zu problematisieren und einem Prozess öffentlicher Bewährung auszusetzen. Vielmehr dienen sie der Bestärkung der schon gehegten Ansichten. Der öffentliche demokratische Prozess hingegen bedeutet, bereit zu sein, um mit guten Gründen die eigene Meinung in Frage zu stellen, vielleicht aber auch aufgrund des Diskurses bekräftigt und differenzierter zur eigenen Meinung zurückzukehren. Dabei werden jedoch in einem öffentlichen Prozess des Austausches von Argument und Gegenargument die politischen Auffassungen geprüft. Diesen Mechanismus stellt die Nutzung von „Bots“ und „Nudges“ durch entsprechende Parteien in Frage. Dieser Prozess wird umgekehrt: Statt dass er von unten – vom Bürger – nach oben – zu den Parteien und zur Herrschaft – verläuft, funktioniert er von oben, von den Organisationen der Entscheidungsträger, nach unten zu den eigentlichen Legitimationssubjekten, den Bürgern. Dass ihr Einsatz an den Grenzen der Persönlichkeitsrechte Dritter und unwahrer Tatsachenbehauptungen von der Meinungsfreiheit gerechtfertigt werden kann,54 bedeutet nicht, dass sie den öffentlichen politischen Deliberationsprozess untergraben dürfen. Vielmehr stellen sie eine Herausforderung für den Meinungspluralismus und die selbstkritische Entwicklung von Meinungen dar. Um dies zu sichern, kann der Staat seiner Schutzpflicht zugunsten des Funktionierens einer politischen Kommunikationsordnung verhältnismäßige Eingriffe vorsehen.55 Während die Analyse von Big Data zu einer „Publizifizierung“ des Privaten führen kann, stellt der Einsatz von Wahl Bots eine Gefahr durch die Privatisierung des Öffentlichen dar.

53 Boehme-Neßler (2015), S. 1286 f.: Privatheit ist notwendig, damit Menschen dem Mehr­ heitsdruck widerstehen, politische Alternativen entwickeln und politische Autonomie wirk­lich ausüben können. Dies wollen Diktaturen, die in die politische Privatsphäre ihrer Bürger eingreifen, unterdrücken. 54 Wohl überwiegende Meinung, vgl. Steinbach (2017), S. 102 f.; Dankert und Dreyer (2017), S. 74 f.; Milker (2017), S. 215 f. 55 Milker (2017), S. 216.

Automatisierung im Recht

81

c. Rechtssprache und Alltagssprache: Die Schnittstelle zwischen Mensch und Maschine Schwierigere rechtstheoretische Probleme ergeben sich aus den „Schnittstellen“ zwischen Mensch und Automaten, wenn dieser Ausdruck aus der Informatik gestattet ist. Dabei ist das Hauptproblem die Differenz von Alltagssprache und juristischer Fachsprache.56 Jeder, der schon einmal mit einem Anwalt gesprochen hat oder in einem Gerichtsprozess aufgetreten ist, weiß, dass Juristen manchmal über die Köpfe der Mandanten hinweg argumentieren und sofort Bescheid wissen, wenn Fachausdrücke verwendet werden. Erforderlich ist dann aber die Rückübersetzung in die Sprache des Mandanten. Umgekehrt müssen Juristen aus der Umgangssprache der Parteien oder Mandanten das juristisch Wesentliche herausfiltern und in die Fachsprache übersetzen. Das ist ein Abstraktionsprozess zwischen der lebensweltlichen Geschichte und dem juristischen Sachverhalt. Die Abfrage juristisch relevanter Informationen von einem Bürger, der nun mit derselben Geschichte vor seinem PC sitzt, ist für automatisierte Systeme eine große Herausforderung. Diese Aufgabe soll von „Chat-Bots“ für Rechtsberatung zu bewältigen sein.57 Umgekehrt müssen dann die juristischen Erwägungen vom automatisierten System wieder zurück in die Lebenswelt des Laien übersetzt werden. Größere Präzision fachsprachlicher und auch in automatisierten juristischen Verfahren zugrunde gelegter Ausdrücke kann nicht nur für den rechtssuchenden Bürger, sondern auch bei der Kriminalitätsermittlung zum Problem werden: Man kann Suchprogramme, die Hassreden etwa neo-nationalsozialistischer Art, Holocaust-Leugnungen etc. ermitteln sollen, gewiss mit Katalogen von einschlägigen Wörtern ausstatten; werden sie aber auch Ironie verstehen und schon die volle Bedeutung der verwendeten Ausdrücke ermitteln können?

56 Zur Problematik in Bezug auf die hier interessierende Automatisierung auch Kotsoglou (2014), S. 453 f. u. 1101. 57 Prior (2017), S. 655: „Das Schwierigste aber, was eine Chatbot-Falllösungssoftware leisten muss, ist es, die Sprache von Laien in einen juristischen Sachverhalt umzusetzen. Hierzu muss die Software nicht nur den Kontext verstehen, sondern wie ein Rechtsanwalt in einer Erstberatung vor allem die richtigen, juristisch fallrelevanten Fragen stellen, um alle Tatbestandsmerkmale korrekt einordnen und subsumieren zu können“.

82

Stephan Kirste

d. Juristische Hermeneutik und automatisierte Steuerung von Urteilen Betraf das letztgenannte Problem das Verhältnis zwischen Lebenswelt und juristischer Fachwelt, so gibt es auch Differenzen zwischen den Funktionsweisen automatisierter Systeme und der juristischen Methode. Die juristische Argumentation hat die Aufgabe, rechtliche Entscheidungen zu begründen und zu rechtfertigen. Dem Rechtsstaat geht es nicht nur um die Rationalität der Ergebnisse, sondern um die Nachvollziehbarkeit der Gründe von juristischen Entscheidungen, weshalb sie ggf. unterlegen sind. Nur dadurch ist die Herrschaftsausübung, die in jedem Urteil und jeder Verwaltungsentscheidung liegt, gerechtfertigt.58 Wie sollen Werte und Prinzipien wie Menschenwürde, Freiheit, Gleichheit, Meinungsfreiheit, Toleranz, die in verfassungs- oder völkerrechtlichen Menschenrechtserklärungen, wie z.B. in Artikel 1 der Europäischen Grundrechtecharta enthalten sind, verstanden, konkretisiert und miteinander abgewogen werden? Wie kann Freiheit dann so konkretisiert werden, dass ein Algorithmus damit fertig wird und eine automatisierte Entscheidung hervorbringt? Das gleiche gilt auch für unbestimmte Rechtsbegriffe wie „Treue und Glauben“�������������������������������������������������������������� (§ 242 BGB), „redlicher Verkehr“ (§ 914 ABGB)���������������� , „jugendgefährdend“ (§ 6 D-GjSM), die gerade in stark dynamischen Gesellschaften eine große Bedeutung haben. Die Allgemeinheit solcher Prinzipien und Begriffe hat eine juristische Funktion: sie sollen eine gewisse Anleitung auch dann geben, wenn bestimmte Begriffe in Gesetzen erst umständlich förmlich geändert und auf neue Situationen hin angepasst werden müssten. Automatisierte juristische Entscheidungen, die immer konkret sein müssen, weil die Computersysteme komplexe Abwägungen, die zur autonomen Konkretisierung erforderlich sind, nicht leisten können, sind immer zu spät, um diese dynamische Entwicklung abbilden und bewerten zu können. Wie soll einem Algorithmus aber eine komplexe Abwägung gelingen können? Ermessen ist eine weitere Möglichkeit, wie unvorhersehbare oder komplexe Prozesse gesteuert werden können. Während sich unbestimmten Rechtsbegriffe eher auf der Seite der Voraussetzungen einer juristischen Entscheidung finden, betrifft das Ermessen die Frage, ob und wie dann entschieden werden soll. Es ist schwer vorstellbar, wie automatisierte Systeme etwas anderes anwenden können als Regeln, die ganz klar festschreiben, unter welchen Voraussetzungen eine bestimmte Rechtsfolge eintreten soll. Man könnte die automatisierten Systeme allenfalls 58 Vgl. hierzu auch Kirste (2018), S. 182 f.

Automatisierung im Recht

83

mit typischen Konkretisierungen dieser unbestimmten Begriffe und mit typischen Ermessensentscheidungen füttern. Dadurch würde man aber der eigentlichen Funktion dieser Begriffe – die Steuerung auch neuer Fälle – nicht gerecht. Das System würde sich an diesen aus der Vergangenheit stammenden Parametern orientieren und könnte nicht oder nicht gleich erfolgreich auf neue Situationen reagieren. Das führt zu einem weiteren strukturellen Problem: Im kontinentalen Recht gibt es keine Präjudizien, also keine rechtliche Bindung der Gerichte an frühere gerichtliche Entscheidungen. Wenn nun aber in hohem Maß Rechtsinformationen in automatisierte Entscheidungssysteme eingespeist werden, dann werden diese Entscheidungssysteme insoweit konservativ entscheiden, als sie sich auf diese früheren Judikate stützen werden. Es wird also eine faktische Präjudizienbindung eingeführt. Das wird dazu führen, dass diese automatisierten juristischen Entscheidungssysteme kaum innovative Lösungen entwickeln. Insoweit ist also das Problem nicht, dass mit Algorithmen keine Innovation möglich ist und diese Systeme nicht lernfähig wären. Die Entwicklungstendenz weist aber eher in eine konservative Richtung. Damit verliert das Rechtssystem aber die Möglichkeit von Innovation durch Dissens: Abweichende Urteile können die Rechtsentwicklung vorantreiben, wie sich durch die Möglichkeit von Vorlagen an den EuGH (Art. 267 EUV) gerade auch bei der Weiterentwicklung des Europarechts zeigt. Stattdessen wird über den Umweg der Technik faktisch eine Präjudizienbindung eingeführt, die dem kontinentalen System fremd ist. e. Gerechtigkeit aus dem Computer und Einzelfallgerechtigkeit Kehren wir noch einmal auf die Gerichtsbühne zurück: Von Aristoteles in seiner Rhetorik beschrieben,59 ist die Einzelfallgerechtigkeit – die Billigkeit – für die juristische Argumentationslehre wichtig.60 Können automatisierte Systeme nicht nur standardisierte Lösungen produzieren, sondern auch den Besonderheiten des Einzelfalles gerecht werden?  61 Entsprechend ließe sich dann auch nach Situationen wie dem Normalfall im Unterschied zum Ausnahmefall fragen.

59 Aristoteles, Rhetorik, 1374a f. 60 Teilweise wird Billigkeit auch als „korrigierende Gerechtigkeit“ verstanden. 61 Brundage (2014), S. 369.

84

Stephan Kirste

Juristische und Rationalität von automatisierten Systemen Die angesprochenen Vorteile und Probleme verlangen nach rechtstheoretischen und rechtsethischen Antworten.62 Häufig sind diese Fragen gerade noch nicht positivrechtlich geregelt, sodass Anregungen zu solchen recht­ lichen Antworten aus der Computerethik oder Informationsethik zu gewinnen sein können. Diese erst nach dem Zweiten Weltkrieg entstandene Unterdisziplin der angewandten Ethik beschäftigt sich mit grundlegenden Fragen der Bewertung von Computertechnologie, der Frage der Subjekteigenschaft und Verhaltensfähigkeit von Systemen der Künstlichen Intelligenz und der Bewertung ihrer Wirksamkeit.63 Hierzu gehört auch die professionelle Ethik der mit künstlicher Intelligenz beschäftigten Berufsgruppen.64 Die besonders drängende Frage ist, ob Gegenstand dieses Bereichs der Ethik nur der Umgang mit künstlicher Intelligenz ist oder ob automatisierte Systeme selbst als Akteure verstanden werden müssen. Darauf wird bei der Problematik der rechtlichen Relevanz von Selbstfahrsystemen zurückzukommen sein.

Normierung durch Recht und Normung durch Algorithmen Hinter diesen Problemen steht etwas, das wir die besondere juristische Ratio­ nalität nennen können.65 Und diese besondere juristische Rationalität beruht ganz zentral darauf, dass juristische Normen – auch wenn es Normung in technischen Bereichen gibt – sich von Algorithmen und von ähnlichen Struktu­ren unterscheiden.66 Normen sind nach dem Rechtstheoretiker Hans Kelsen Sollenssätze. In soziologischer Perspektive enthalten sie „kontrafaktisch stabilisierte Verhaltenserwartungen“.67 Mit diesem Ausdruck meint Niklas Luhmann, dass an ihnen auch dann festgehalten wird, wenn sich die Erwartung der Normadressaten nicht erfüllt. Algorithmen hingegen bezeichnen selbstlernende Systeme. Normen enthalten Gebote, wie wir handeln sollen, Verbote, wie wir nicht handeln dürfen, oder sie erlauben uns Dinge zu tun (Erlaubnisse).68 In 62 Zur Unterscheidung dieser beiden Unterdisziplinen der Rechtsphilosophie Kirste (2010), S. 19 f., 62 f., 109 f. 63 Grundlegend Florini (2008), S. 3 ff.; Bynum (2008), S. 25 ff. zur Geschichte dieser Disziplin. 64 Bynum (2008), S. 35 f. 65 Schon Luhmann (1966), S. 13. 66 Frohn (1984), S. 218 f.; dieser strukturelle Unterschied bezieht sich auch auf den Unterschied zwischen moralischen Normen und Algorithmen, Brundage (2014), S. 356 f. 67 Luhmann (1987), S. 43. 68 Kirste (2010), S. 87 ff.

Automatisierung im Recht

85

allen diesen Fällen richten sie sich an freiheitsfähige Wesen, also Menschen, die sich unabhängig von fremden Einflüssen (negative Freiheit) aus bewussten Motiven heraus zu Handlungen entscheiden können (positive Freiheit). Menschen können ein Gebot verletzten und sie können selbstverständlich auch ein Verbot übertreten. Wie der Ausdruck „norma“ anzeigt, geben sie uns ein Richtmaß dafür, wann wir nicht im Sinne des Rechts handeln, und drohen uns ggf. Konsequenzen für die Übertretung an. Algorithmen scheinen hier anders zu wirken. Ein Algorithmus – so kann man auch als Definition lesen – ist eine aus einer endlichen Vielzahl von definierten Einzelschritten bestehende Regel zur Steuerung einer Problemlösung. Diese Algorithmen sind, wie man juristisch sagen könnte, self-executing69 – sie funktionieren und determinieren das zu steuernde System. Dabei kommt es anders als bei Normen nicht mehr auf unsere Entscheidung an.

Normen – insbesondere Rechtsnormen – sind soziale Konstrukte.70 Rechtsnormen entstehen aus Freiheit – sei es nun aus der Privatautonomie, also aus Verträgen, oder aus der politischen Autonomie, mithin Parlamentsgesetze. Zugleich richten sie sich an Freiheit, denn der Bürger kann sich ihnen gemäß verhalten, oder er kann sie übertreten und dafür eine Sanktion in Kauf nehmen. Was wir also verlieren, wenn wir unsere Entscheidungen auf Algorithmen stützen, ist zunächst einmal die �������������������������� Öffentlichkeit der ����������� Entstehung von allgemeinverbindlichen Normen, die Publizität von privatautonomen Rechtssetzungen jedenfalls für die beteiligten Parteien. Wir fallen damit bei Rechtsentscheidungen durch Algorithmen in eine mittelalterliche feudale Rechtsvorstellung zurück. Angesichts von Big Data und anderen Entwicklungen ist die Trennung des Öffentlichen und des Privaten eine ganz wesentliche Leistung des modernen liberalen Rechtsdenkens. Das Öffentliche, der Staat, die Herrschaftsausübung muss transparent sein. Das ist eine Grundforderung des Demokratieprinzips, aber auch der Rechtsstaatlichkeit. Das Private hingegen wird von dem Zwang entlastet, sich offenbaren zu müssen, sich öffentlich äußern zu müssen. Man kann sich öffentlich äußern, man kann seine Daten freigeben; man muss es aber nicht. 69 Hoffmann-Riem (2017), S. 35. 70 Moral mag man je nach philosophischem Ansatz auch als nicht-sozial konstruierte Nor­ men verstehen; zum Unterschied von Algorithmen und Normen: Hoffmann-Riem (2017), S. 28 f.

86

Stephan Kirste

a. Öffentliche Normsetzung und privat generierte Algorithmen Algorithmen werden von Softwareentwicklern programmiert. Sie gehören Privaten und haben daher den Schutz von Firmengeheimnissen. Das bedeutet, dass der Entwickler den Kern einer Software für sich behalten kann. Eine Demokratie, in der der Staat das Betriebssystem – die Verfassung – für sich behalten würde, wäre ein Widerspruch; denn eine Legitimation durch das Staatsvolk könnte dann gerade nicht stattfinden. Das ist nicht denkbar bei demokratisch beschlossenen Gesetzen. Auch Gerichtsprozesse finden nicht mehr als Kammerprozesse abgeschlossen statt, sondern in der Öffentlichkeit. Das bedeutet, dass wir uns, wenn wir uns Algorithmen gesteuerten Prozessen anvertrauen, Strukturen überantworten, an deren Entstehung wir nicht mehr aktiv beteiligt sind bzw. die man vor uns sogar verbergen darf. Rechtsnormen werden in öffentlichen Prozessen gesetzt; Algorithmen werden programmiert und können zu Geschäftsgeheimnissen gehören.71 Gesetzgeber und Gerichte sind bei ihrer Normsetzung rechtlich gebunden. Das ist bei der privaten Programmierung nur in einem sehr losen Sinn der Fall. Rechtliche Entscheidungen gelten im demokratischen Rechtsstaat nicht nur aufgrund ihrer überzeugenden oder nicht überzeugenden Ergebnisse, sondern vor allem wegen der Verfahren ihrer Entstehung. Dafür gibt es parlamentarische und richterliche Anhörungen, Verfahrens- und Geschäftsordnungen, die das ordnungsgemäße Zustandekommen regeln, Grundrechte, die die Verfahrenspositionen der Beteiligten abstützen. Diese Verfahren müssen für den Bürger durchsichtig sein, damit er sich entsprechend einbringen kann. Das ist bei der Erstellung von Algorithmen nicht der Fall. Sie sind, gerade wenn sie gut sind, so komplex, dass sie der Laie nicht mehr versteht.

b. Die rechtliche Konstruktion von Sachverhalt und Fallnorm Ein weiterer Unterschied der juristischen von der angesprochenen technischen Rationalität ist die Konstruktion juristischer Tatsachen und die Anwendung juristischer Normen. Es gibt eine ganze Tradition, zu der leider auch Max Weber gehört,72 die die Tätigkeit des Richters als die eines Funktionsautoma71 Hoffmann-Riem (2017), S. 32. 72 Weber (1980), S. 826: Max Weber ist der Auffassung, dass die moderne arbeitsteilige, hochtechnisierte und kapitalintensive Wirtschaftsweise auf der technischen Rationalität der Juris-

Automatisierung im Recht

87

ten verstehen, also der Auffassung sind, juristische Arbeit funktioniere ausschließlich als juristischer Syllogismus: Obersatz/Prämisse: wer einen anderen Menschen tötet, sollte bestraft werden. Untersatz/2. Prämisse: X hat einen anderen Menschen getötet. Schlusssatz: also soll X auch dafür bestraft werden. Die juristische Argumentation auf solche Schlussformen zu reduzieren, verkürzt sie unsachgemäß.73 Schon der Obersatz muss entwickelt werden. Selten ist sein Sinn so eindeutig wie im Beispiel. Zumeist ergeben sich schon im Verständnis des Obersatzes Probleme, da die leitenden Gesichtspunkte zunächst topisch zusammengestellt, daraus dann häufig erst in systematischer Interpretation die anzuwendende Norm ermittelt werden muss. Die Konstruktion der juristischen Tatsachen ist nicht weniger komplex.74 Diese Tatsachen liegen dem juristischen Prozess keineswegs vor. Der Sachverhalt, aufgrund dessen der Richter entscheidet, ergibt sich im Beweisverfahren. Dieses Beweisverfahren ist normativ gesteuert. Die vorgebrachten Beweismittel sind häufig begrenzt und müssen zum richtigen Zeitpunkt in der richtigen Form vorgelegt werden. Was also im Recht als eine Tatsache gilt, entscheidet das Recht und nicht die Tatsache. Hinzu kommt die Problematik der Ursächlichkeit: Kausalität im Sinne einer Äquivalenzbedingung ist nur eine notwendige Bedingung. Ob ein Umstand aber im Rechtssinn ursächlich ist, muss juristisch eigens beurteilt werden und hängt davon ab, ob ein bestimmtes Verhalten einer Person zugerechnet werden kann. Diese eigentliche Zurechnung erfolgt wieder nach normativen Kriterien, z.B. solchen der Verantwortung. Die juristische Hermeneutik oder juristische Argumentation erarbeitet dann die rechtlichen Maßstäbe für die Entscheidung dieser rechtlich konstruierten Tatsachen. Im juristischen Zusammenhang ist es für die Beschleunigung des Alltags nicht nur eine Last, sondern auch ein Vorteil, wenn ein Jurist ein Judiz, Rechtsgefühl oder englisch „hunch“ oder ähnliche Formen von Heuristiken besitzt,75 wenn er also schnell beurteilen kann, ob die umfassende Geschichte, die der Mandant, der Angeklagte usw. vorträgt, zu irgendeinem prudenz ruhe, „wo der Richter, wie im bürokratischen Staat mit seinen rationalen Gesetzen, mehr oder minder ein Paragraphen-Automat ist, in welchen man oben die Akten nebst den Kosten und Gebühren hineinwirft, auf daß er unten das Urteil nebst den mehr oder minder stichhaltigen Gründen ausspeie, – dessen Funktionieren also jedenfalls im Großen und Ganzen kalkulierbar ist“. 73 Von Schlieffen (2011), S. 111 f.; kritisch auch Kotsoglou (2014), S. 452 f. 74 Faktische Grenzen der Automatisierung ergeben sich nicht schon aus der Komplexität, sondern vielmehr aus der Quantifizier- und Formalisierbarkeit von Sachverhalten, Kotschy (2011), S. 133 f. 75 Näher dazu Helversen (2016), S. 205 ff., 210 f.

88

Stephan Kirste

juristischen Ergebnis führt oder ob das Verfahren sowieso aussichtslos ist bzw. eingestellt werden muss. Die Rechtswissenschaft hat mit den Geisteswissenschaften die Notwendigkeit der Interpretation des Forschungsgegenstandes gemeinsam. Beide sind Textwissenschaften. Diesen Texten muss durch die juristische Arbeit Sinn verliehen werden. Auch wenn man nicht so weit gehen mag, wie Roland Barthes: „Der Autor ist tot“, hängt doch das, was ein Text bedeutet, ganz entscheidend vom Interpreten ab.76 Da „Der Text […] klüger [ist, SK] als der Autor“ (Heiner Müller),77 kann es die Aufgabe des Interpreten sein, den „Autor besser [zu, SK] verstehen, als er sich selbst verstanden hat“.78 Auch wenn das Interpretationsergebnis nicht vollständig seine freie Konstruktion sein darf, wenn nicht die Normativität eines demokratisch erzeugten Gesetzes z. B. verloren gehen soll, verfügt der Norm-anwender doch über erhebliche Spielräume. Zu bedenken ist auch, dass das Recht z. B. über die föderalen Strukturen in der Justizorganisation oder die richterliche Unabhängigkeit bewusst die Vielfalt richterlicher Entscheidungen und abweichende Urteile schützt. Ziel ist es hier, über einen Diskurs der Gerichte durch die Pluralität der Rechtsauffassungen Innovationen in der Rechtsprechung zu ermöglichen. Am wenigsten lässt sich vorstellen, dass die Rechtsfortbildung durch automatisierte Prozesse erfolgen kann. Rechtsfortbildung ist ein ganz wesentliches Mittel, um aufgrund von verfassungsrechtlichen Wertungen und anderen Prinzipien das Recht dort weiterzuentwickeln, wo der Wortlaut des Gesetzes vielleicht nicht mehr ausreicht und lückenhaft ist. Wie soll das algorithmisch gesteuert werden? Wie sollte ein Algorithmus aus einem Normtext wie „Jeder hat das Recht auf die freie Entfaltung seiner Persönlichkeit, soweit er nicht die Rechte anderer verletzt und nicht gegen die verfassungsmäßige Ordnung oder das Sittengesetz verstößt.“ (Art. 2 I dGG) ein Recht auf Reiten im Walde79 oder die freie Benutzung von Stränden80 entwickeln können?

76 Barthes (1974), S. 94. 77 Müller (1994), S. 161. 78 Die Herkunft dieses Ausspruches ist unklar. Wilhelm Dilthey bezieht sich auf Friedrich Schleiermacher, der ihn (Werke III, S. 362) wiederum voraussetzt, näher Bollnow (1940), S. 117 ff. 79 Deutsches Bundesverfassungsgericht, Urteil vom 6.06.1989, BVerfGE 80, S. 137 ff. 80 Deutsches Bundesverwaltungsgericht, Urteil vom 13.09.2017, in: Neue Verwaltungsrechts­ zeitschrift 2017, S. 73 ff.

Automatisierung im Recht

89

Der Grund für diese Grenzen des Einsatzes von automatisierten Entscheidungssystemen liegt in der Unterschiedlichkeit der Struktur von Algorithmen und Rechtsnormen. Wo diese Grenzen überschritten werden, insbesondere wo komplexe rechtliche Fragen von Computern entschieden werden sollen, ist nicht ein Zuwachs an Objektivität und Fehlerfreiheit, sondern vielmehr eine abnehmende Rationalität dieser Entscheidungen zu erwarten. Das Rechtssystem würde insgesamt an Leistungsfähigkeit verlieren, wenn diese Fragen von automatisierten Systemen bewältigt werden sollten. Dies mag auch erklären, weshalb in der Jurisprudenz die Mathematisierung der Erkenntnisse weniger Platz gegriffen hat, als in anderen Disziplinen81 und weshalb einem „Recht ex machina“ Grenzen gesetzt sind.82 Wird dies berücksichtigt, mag aber durchaus „automationsgerechte Gesetzgebung“ ein Ziel83 sein. Zu befürchten steht aber nicht, dass sich die automatisierten juristischen Entscheidungssysteme nur mit standardisierten Fragen beschäftigen, sondern vielmehr, dass die Vielfalt und Offenheit gesellschaftlicher Rechtsfragen auf das reduziert wird, was Computersysteme aufgrund ihrer Algorithmen entscheiden können. Daher müssen die abschließenden und die komplexen Entscheidungen Menschen vorbehalten bleiben. Zumindest muss eine Revisionsmöglichkeit gegen computergenerierte Entscheidungen durch menschliche Richter vorgesehen werden, wie dies die europäische Datenschutz-Grundverordnung für diesen Bereich vorsieht.84 Materiell müssen die grundlegenden Rechte des Menschen, wie insbesondere die Privatheit, gesichert bleiben. Das soll nun abschließend anhand autonomer Fahrsysteme veranschaulicht werden.

81 Kreuzbauer (2015), S. 94 f. 82 Kotsoglou (2014), S. 456. 83 Simitis (1967), S. 4. 84 „Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.“ VERORDNUNG (EU) 2016/679 DES EUROPÄISCHEN PARLAMENTS UND DES RATES (Datenschutz-Grundverordnung). Im deutschen Bundesdatenschutzgesetz heißt es in § 6a I: Nach § 6a Abs. 1 BDSG ist es verboten, „Entscheidungen, die für den Betroffenen eine rechtliche Folge nach sich ziehen oder ihn erheblich beeinträchtigen […] ausschließlich auf eine automatisierte Verarbeitung personenbezogener Daten“ zu stützen, „die der Bewertung einzelner Persönlichkeitsmerkmale dienen“.

90

Stephan Kirste

4. Automatisierte Fahrsysteme in dilemmatischen Situationen „Vision 0“ und ihre normativen Herausforderungen Besonders ungeeignet sind automatisierte Entscheidungssysteme bei sogenannten dilemmatischen Situationen. Das sind Situationen, in denen es zumindest zwei Lösungen gibt, die gerechtfertigt oder die beide normativ unerwünscht erscheinen. Beispiele sind etwa „das Brett des Karneades“,85 der Mignonette Fall 86 oder auch die Befugnis zum Abschuss eines von Terroristen gekaperten Flugzeugs wie in Art. 14 III des deutschen Luftsicherheitsgesetzes.87 Während in Dilemmasituationen der Einzelne wegen der besonderen konkreten Zwangslage ausnahmsweise entschuldigt sein mag, wird dies bei auto­matisierten Systemen nicht in gleicher Weise angenommen werden können. Bei „selbstfahrenden Autos“ kommt eine Reihe von „Assistenzsystemen“ und „Piloten“ („Staupilot“, „Autobahnpilot“) zum Einsatz, die dem Fahrer nicht nur das Einparken erleichtern, sondern das Fahren ganz oder weitgehend abnehmen soll.88 Die angestrebte Automatisierung soll so weitgehen, dass der frühere deutsche Verkehrsminister Dobrindt diese Systeme mit menschlichen Fahrern rechtlich gleichstellen wollte.89 Welche Rolle haben beide auf der Bühne des rechtlich geordneten Straßenverkehrs? Wie sollen natürliche Person und automatisiertes Fahrsystem rechtlich beurteilt werden? Ist es angesichts des Umfangs der geplanten Steuerung angebracht, das Fahrsystem als eine Rechtsperson zu behandeln, die dann zivil-, verwaltungs- und strafrechtlich verantwortlich ist? Bei diesen Fragen geht es auch – aber nicht nur – um die Optimierung von allgemeinen Werten und Präferenzen wie etwa Menschenschutz vor Tier- und Sachschutz. Vielmehr ist bei der Konkretisierung und Realisierung die Vielfalt der Entscheidungssituationen problematisch. Manche einschlägige Wertmaßstäbe sind nicht gegen andere Werte oder Prinzipien abwägbar, sollen also 85 Küper (1999). 86 Ziemann (2014), S. 479 f.: 1884 stellte sich nach einem Schiffbruch die Frage, ob die Schiffbrüchigen auf Kosten des Schiffsjungen überleben durften. 87 Urteil des deutschen Bundesverfassungsgerichts BVerfGE 133, S. 241 ff. 88 Ethikkommission (2017), S. 6: „Unter „Automatisierung“ des im öffentlichen Stra­ßen­ raum stattfindenden Individualverkehrs versteht man technische Fahrhilfen, die den Fahrzeugführer entlasten, ihm assistieren oder ihn teilweise oder ganz ersetzen“. 89 „Wir stellen Fahrer und Computer rechtlich gleich“ sagte der deutsche Verkehrsminister Dobrindt im Frühjahr letzten Jahres, zit. nach Der Standard v. 12.5.2017.

Automatisierung im Recht

91

nicht weiter optimiert werden, sondern sind absolut. Grundlegend ist schon die rechtsethische Grundausrichtung: Soll den vollautomatisierten Fahrsystemen eine utilitaristische Ethik, die ggf. Gefahrintensitäten abwägen kann, oder eine deontologische Ethik zugrunde gelegt werden, bei der die Pflichtigkeit des Fahrers – und dann des selbstfahrenden Systems – im Zentrum steht?

Vorteile und Probleme automatisierter Fahrsysteme Auch hier gilt es, zunächst Vor- und Nachteile solcher Systeme zu betrachten. Das Idealbild eines vollautomatisierten Fahrsystems soll dem menschlichen Fahrer die Arbeit des Fahrens abnehmen, er also Zeit für andere Dinge gewinnen können. Neben der Zeitersparnis sollen der Verkehr dadurch auch sicherer und Verkehrsschäden minimiert werden.90 Die Mobilität von Personen, die selbst nicht (mehr) fahren können, kann erhöht werden. Während der menschliche Fahrer vielleicht abgelenkt ist, kann das automatisierte System Zebrastreifen, an denen entsprechende Sensoren angebracht sind, erkennen und abbremsen. Ziel ist die „Vision 0 – keine Verkehrsunfälle mehr auf den Straßen“. Das führt zur Entlastung der Autofahrer und zu mehr Sicherheit. Die Automatisierung funktioniert dann durch Assistenzsysteme. Einpark­ assistent, Abstandassistent, Tempomat usw. entlasten das Fahren jetzt schon. Die Visionen gehen jedoch noch viel weiter. Ein Ingolstädter Autoproduzent hat bereits jetzt ein – natürlich im oberen Preissegment angebotenes – Auto entwickelt, das im Stau völlig automatisch fahren kann. Bei einer bestimmten Geschwindigkeit muss der Fahrer jedoch wieder übernehmen. Die Visionen gehen noch deutlich weiter. Die vollautomatisierten Systeme sollen den Fahrer komplett von seiner Verantwortung vom Selbst-fahren-müssen entlasten. Die verfolgten Ziele sind nicht zu kritisieren. Auch wenn zunächst nur die Zahl der Verkehrstoten in Staaten gesenkt werden kann, in denen sie ohnehin im Weltmaßstab gering ist, erscheint dies doch als ein wichtiges und legitimes Ziel. Es soll hier auch nicht bezweifelt werden, ob das Ziel tatsächlich erreicht werden kann. Fraglich ist aber, ob diese Systeme die angesprochenen dilemmatischen Situationen bewältigen können.91 Dazu soll in Anlehnung an die 90 Birnbacher und Birnbacher (2016), S. 8; Ethikkommission (2017), S. 10: „Die Zulassung von automatisierten Systemen ist nur vertretbar, wenn sie im Vergleich zu menschlichen Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht“. 91 Zu dieser Problematik auch Brundage (2014), S. 358 f.

92

Stephan Kirste

bekannten Trolley-Situationen92 ein kleiner Fall zur Veranschaulichung dieser Fragen vorangestellt werden:

Rechtliche Verantwortlichkeit beim Fahren mit automatisierten Fahrsystemen Ein vollautomatisiertes Fahrsystem, das mit drei Personen besetzt ist, fährt ordnungsgemäß auf einer Straße, als plötzlich eine Gruppe von vier Kindern auf die Straße springt. Der Wagen kann nicht mehr rechtzeitig zum Stehen gebracht werden, obwohl er grundsätzlich angepasst fährt. Auf der Gegenfahrbahn kommt ein schwerer LKW gefahren. Auf dem Fußweg entlang der eigenen Fahrbahn, von dem aus die Kinder auf die Straße gesprungen sind, läuft eine Fußgängerin. Wie sollte ein Programmierer das automatisierte Fahrsystem programmieren, dass es in dieser Situation den Wagen in der richtigen Weise steuert? Es gibt grundsätzlich drei Möglichkeiten: Erstens, das Fahrsystem steuert in den Gegenverkehr, so dass das automatisierte Fahrsystem mit dem entgegenkommenden LKW kollidiert und die Insassen sterben (Variante A). Am LKW würde ein minimaler Schaden entstehen. Immerhin hat ja der Verwender des Fahrsystems (früher: Fahrer) mit dessen Nutzung eine besondere Gefahr geschaffen. So scheint es nur gerecht, dass er die Nachteile tragen soll, wenn er die Vorteile nutzen kann. Verkaufsförderlich wäre es aber gewiss nicht, wenn Interessenten an solchen Autos von dieser Möglichkeit im Kleingedruckten des Kaufvertrages lesen würden. Die zweite Möglichkeit wäre, dass das System die Fahrt in die Kindergruppe fortsetzen würde (Variante B). Ob sich allerdings Fahrsysteme politisch durchsetzen, die in einer solchen Situation strikt nach Verkehrsregeln fahren, ohne zu berücksichtigen, dass die Kinder für ihren Verstoß dagegen nicht verantwortlich sind, erscheint ebenfalls fraglich. Schließlich wäre die dritte Möglichkeit, dass das automatisierte Fahrsystem auf den Bürgersteig lenkt, dort mit der Passantin kollidiert, die dadurch 92 Welzel (1951), S. 51 f. – und nicht erst die häufig genannte Thomson (1985), S. 1385 ff.; zur Heranziehung der Trolley-Problematik auf vollautomatisierte Selbstfahrsysteme ansonsten auch Eisenberger (2017), S. 91 ff. mit zahlreicher weiterführender Literatur, S. 95 ff. Sie fordert aus der staatlichen Schutzpflicht für Leben und Gesundheit (Art. 2 und 8 EMRK), dass solche Systeme nur unter staatlicher Kontrolle zugelassen werden dürfen.

Automatisierung im Recht

93

zu Schaden kommt und im Extremfall stirbt (Variante C). Aber warum soll eine Unbeteiligte das gezielte Opfer dieser Situation werden? 93 Der Programmierer hat nun die schwierige Aufgabe, die ethischen Wertungen zu entwickeln und zu konkretisieren, aufgrund derer das System steuern wird. Bevor ich darauf eingehe, ganz kurz eine Überlegung: Wie sähe es aus, wenn wir selbst ein konventionelles Auto lenken würden? Kann dann das System etwas Besseres? Wenn der menschliche Fahrer sorgfältig fährt, aber dennoch auf die Kinder nicht mehr rechtzeitig reagieren könnte und die Kinder schwer verletzt oder getötet würden, kann man ihm daraus keinen strafrechtlichen Vorwurf machen.94 So schrecklich es ist, kann es Situationen geben, in denen auch bei angepasster Fahrweise ein Schaden unvermeidbar ist. Wenn der Fahrer aber noch rechtzeitig reagieren könnte, ist die Frage, ob die Variante A von uns gewählt werden sollte. Das ist wohl kaum der Fall: Es kann nicht erwartet werden, dass wir uns für andere opfern, denen gegenüber wir keine besondere Verpflichtung haben. Variante C scheidet aus, weil dies auf eine vorsätzliche Schädigung der Passantin hinausliefe, es sei denn man würde hier annehmen, dass sich der Fahrer in der konkreten ­Situation in einem­unlösbaren Gewissenskonflikt befindet, ob er die Kinder oder die Passantin mit seinem Wagen töten soll. So könnte man ihn wegen dieses Konflikts und der besonderen Umstände für entschuldigt ansehen. Die Lösung dieses Problems hängt von der Situation ab. Nun ist aber die Frage: Kann das vollautomatisierte Fahrsystem auf eine der Alternativen programmiert werden? Wenn Variante A programmiert wird, stellt sich die Frage, ob nicht Hersteller und Programmierer des Selbstfahrsystems wegen vorsätzlicher Tötung verantwortlich sind. Beide haben bewusst das System in einer Weise programmiert, die nun zum Tod des Fahrers und ggf. der weiteren Insassen führte. Dass dabei nur drei Personen getötet und vier gerettet werden, spielt wegen des absoluten Lebensschutzes keine Rolle. Programmierer und Hersteller sind auch nicht in einer existentiellen Situation, da sie die Gefahren in Ruhe antizipieren und die Lösungsmöglichkeiten erwägen können.95 Aus diesem 93 Allerdings wird bezweifelt, ob derartige Systeme überhaupt einen Unterschied zwischen „unschuldig“ und „schuldig“ Betroffenen machen können, ob es also einen Unterschied zwischen den rechtswidrig die Straße betretenden Kindern und der unschuldigen Fußgängerin machen kann, Birnbacher und Birnbacher (2016), S. 10. 94 Sander und Hollering (2017), S. 201. 95 Ethikkommission (2017), S. 16 stellt die Frage: „Dürfen existentielle dilemmatische Entscheidungen überhaupt abstrakt-generell vorweggenommen und technisch vorentschieden werden?“

94

Stephan Kirste

Grund scheidet auch das vorprogrammierte Lenken in die Passantin auf dem Fußgängerweg aus (Variante C). Das gilt auch für Variante B, die zum Tod der Kinder führt, wobei hier schon das utilitaristische Kalkül wegfällt, da durch diese Programmierung die meisten Personen verletzt oder getötet würden. Wird das automatisierte Fahrsystem utilitaristisch programmiert mit dem Ergebnis, dass es rechnet: Wird ein größeres Nutzen produziert, wenn vier Kinder mit einer Lebenserwartung von x oder die unbeteiligte Frau auf dem Fußgängerweg getötet wird? Sollte das System im Sinne einer deontologischen Ethik programmiert werden, wonach jeder Mensch gleich viel zählt? Die Frau dürfte nicht zugunsten der Kinder geopfert werden, weil dies gegen ihre Würde verstieße. Dann lässt sich aber für diese Situation das System nicht programmieren. Außerdem stellt sich hier ein Paternalismusproblem: Als überzeugter Kantianer f�������������������������������������������������������������������� ä������������������������������������������������������������������� hrt jemand in den USA mit einem Mietwagen, der utilitaristisch programmiert ist. Sie selbst haben vielleicht jedoch die Überzeugung, dass alle Menschen die gleiche Würde, das gleiche Recht auf Leben ohne Rücksicht auf die Konsequenzen haben. Das System würde jetzt eine ethische Wertung vollziehen, die den eigenen tiefsten Überzeugungen widerspricht. Es stellt sich aber auch die Frage nach der Haftung der Insassen des Selbst­ fahrsystems, also insbesondere des Fahrers oder Halters. Wenn er weiß, dass das Fahrzeug so programmiert ist, dass es in dieser Situation zu einem Personenschaden kommt und dennoch damit fährt, nimmt er dies in Kauf und wäre sogar wegen Vorsatzes zu belangen. Er haftete dann also stärker, als wenn er selbst führe. Das Selbstfahrsystem als E-Person? Wenn – wie zu erwarten – die Automatisierung des Selbstfahrsystems aber Algorithmenbasiert sein wird und das System durch seine Verbindung mit einer firmeneigenen oder firmenübergreifenden Cloud nach einer ursprünglichen Programmierung selbstlernend („deep learning“) ist, stellt sich die Frage, ob hier nicht die entsprechenden Lernprozesse eine Zurechnung zu Programmierer und Hersteller unterbrechen.96 Damit würde sich aber die Frage stellen, ob nicht das System selbst verantwortlich ist: Das automatisierte Fahrsystem betritt als „E-Person“ die Bühne des Rechts. Sie wird dabei nicht – was auch 96 Wendehorst (2017) für das Zivilrecht, Merkel (2017) für das Strafrecht, S. 52.

Automatisierung im Recht

95

diskutiert wird 97 – ein moralisches bzw. rechtliches Schutzobjekt, sondern als Akteur in beiden Bereichen verstanden. Begrifflich ist die Behandlung des automatisierten Selbstfahrsystems als E-Person nicht ausgeschlossen.98 In der Informationsethik wird als Handelnder ein System verstanden, das interaktiv, autonom, anpassungs- und wandlungsfähig ist.99 Diese Kriterien dürften ohne weiteres auf Selbstfahrsysteme anwendbar sein. Fraglich ist aber, ob diese Übertragung auch sinnvoll ist.100 Von der Wortwahl am Bild des autonom handelnden Menschen orientiert, fällt doch die Sinnentleerung bzw. Abstraktheit der Definitionsmerkmale der Person auf. „Autonomie“ wird etwa nicht als normorientierte Selbstbestimmung, sondern als Zustandswechsel eines Systems ohne Antwort auf einen äußeren Anstoß verstanden.101 Mit gutem Grund sind alle diese Begriffsmerkmale jedoch im Recht anspruchsvoller formuliert. Fällt die Konzeption der E-Person und ihrer moralischen und rechtlichen Verantwortung nicht in ein nicht-anthropozentrisches Strafrecht zurück, nach dem im Mittelalter auch Tiere bestraft wurden? Auf der Schuldebene stellt sich die Frage, worin die Vorwerfbarkeit oder etwas Analoges besteht. Wie sollen vollautomatisierte Systeme bestraft werden (vgl. Problematik bei der Strafbarkeit juristischer Personen)? Was rechtfertigt es, vollautomatisierte Fahrsysteme ohne Rechtsschutzmöglichkeit zur strafrechtlichen Verantwortung zu ziehen? Ohne eine Modifikation des Schuldbegriffs 97 Floridi (2008), S. 13 argumentiert: “... that all entities, qua informational objects, have an intrinsic moral value, although possibly quite minimal and overridable, and hence they can count as moral patients, subject to some equally minimal degree of moral respect understood as a disinterested, appreciative, and careful attention […]”. Die ����������������������� drohende Uferlosigkeit moralisch und rechtlich zu berücksichtigender Aspekte soll erst auf der Abwägungsebene aufgefangen werden. 98 Hilgendorf (2012), S. 125. 99 Floridi (2008), S. 14. Informational Ethics “defines as a moral agent any interactive, auto­ nomous, and adaptable transition system that can perform morally qualifiable actions”. 100 Ziemann (2013), S. 191: „Die Forderung nach Schaffung eines Strafrechts für Maschinen ist erstens: strafrechtlich ahistorisch und möglicherweise ein Rückfall in längst überwundene Vorstellungen eines nicht-anthropozentrischen Strafrechts; zweitens: sanktionenrechtlich problematisch, da Maschinen auf eine Art und Weise bestraft werden sollen, die bei Menschen verboten wäre; drittens: kriminalpolitisch zweifelhaft, da es nicht einsichtig ist, wie die Notwendigkeit entstehen kann, statt Menschen Maschinen, zumal ohne jeglichen Rechtsschutz, 101 Floridi (2008), S. 14: “A transition system is autonomous when the system is able to change state without direct response to interaction, that is, it can perform internal transitions to change its state.”

96

Stephan Kirste

dürfte das nicht möglich sein.102 Angesichts des instrumentellen Charakters auch hoch ausgereifter technischer Systeme fällt der Würdeschutz in der Strafbegründung und -verfolgung für solche Systeme weg.103 Der Freiheitsbegriff müsste erheblich modifiziert werden, um selbstlernende Systeme damit erfassen zu können. Damit kann aber auch eine Ethik, die auf Freiheit abstellt, nicht zur Grundlage der wertenden Beurteilung des Verhaltens dieser Roboter gemacht werden.104 Die Anwendung einer utilitaristischen Ethik auf solche Systeme ist damit technisch schon vorgegeben, wie aber gerade gezeigt mit grundlegenden Werten unserer Rechtsordnung nicht vereinbar. Außerdem verlöre die Unterscheidung von Tun und Unterlassen ihre Bedeutung.105 Auch die beim Menschen anerkannte existenzielle Pflichtenkollision mit dem anzuerkennenden Überlebenswillen ist bei technischen Systemen nicht anzuerkennen. In der dilemmatischen Situation ist die Programmierung bereits erfolgt und wirkt so nach, dass das System sie entsprechend ausführt, wenn die Daten eintreffen. Es gibt kein „Jetzt“, in dem ein Fahrer entscheiden würde, wenn dies nicht doch durch das System durch die Möglichkeit des Overrulings vorgesehen würde. Damit findet eine Vorverlagerung der Entscheidungssituation vom konkret auftretenden Konflikt zur Programmierung hin statt.106 Schließlich kann auch das Erfordernis raschen Eingreifens, das beim Menschen eine unzureichende Abwägung aller Wertungen und Umstände rechtfertigen mag, beim automatisierten Selbstfahrsystem nicht helfen, da eine derartige Überforderung bei entsprechender Soft- und Hardwareausstattung kaum vorliegen dürfte.107 102 Das versuchen Simmler und Markwalder (2017), S. 20 ff. 103 Sollten ihnen dann auch Rechte, insbesondere Menschenrechte gewährt werden? Kritisch zu beiden Nida-Rümelin (2017), S. 34. 104 Zur Problematik der Auswahl der Ethik für Robotics und automatisierte Systeme Brun­ dage (2014), S. 356 ff.; 359. 105 Birnbacher und Birnbacher (2016), S. 13 f. 106 Merkel (2017), S. 54. 107 „Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben sind von der konkreten tatsächlichen Situation unter Einschluss „unberechenbarer“ Ver­haltens­ weisen Betroffener abhängig. Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar. Technische Systeme müssen auf Unfallvermeidung ausgelegt werden, sind aber auf eine komplexe oder intuitive Unfallfolgenabschätzung nicht so normierbar, dass sie die Entscheidung eines sittlich urteilsfähigen, verantwort­ li­chen Fahrzeugführers ersetzen oder vorwegnehmen könnten. Ein menschlicher Fahrer würde sich zwar rechtswidrig verhalten, wenn er im Notstand einen Menschen tötet, um einen oder mehrere andere Menschen zu retten, aber er würde nicht notwendig schuldhaft handeln. Derartige in der Rückschau angestellte und besondere Umstände würdigende

Automatisierung im Recht

97

Hier zeigt sich auch die Paternalismus-Gefahr einer Unterwerfung unter technische Systeme:108 Das Verhalten wird technischen Imperativen unterworfen. Der Wille – sei er nun rechtmäßig oder rechtswidrig – wird durch die technische Steuerung ersetzt. Diese reagiert auch dann rechtmäßig, wenn der Normbruch ausnahmsweise gerechtfertigt oder verständlich ist wie bei einer Rettungsfahrt, bei der der natürliche Fahrer die Geschwindigkeitsgrenze überschreitet. Diese Fragen können hier nur aufgeworfen werden. Sie zeigen aber, dass selbst bei technisch perfekten automatisierten Systemen ethisch-rechtliche Probleme bestehen bleiben, die von ihnen nicht beantwortet werden können. Sie ergeben sich letztlich daraus, dass sowohl unsere Moralnormen als auch unser Recht nicht einfach irgendwelche guten Ergebnisse erzielen sollen. Vielmehr richten sich beide an Menschen, deren Freiheit sie unterstellen und die sie benötigen, um wirken zu können. Auch bei allen automatisierten Systemen muss daher die juristische Letztentscheidung beim Menschen liegen. Wenn ein Computer eine Entscheidung getroffen hat, muss ein Rechtsbehelf zu einem menschlichen Entscheider möglich sein. Das gilt auch für Selbstfahrsysteme. Bei vollautomatisierten Fahrsystemen muss es ein Overruling/ Übersteuerung geben, mit dem der Fahrer grundsätzlich rechnen, das ihm aber rechtzeitig angekündigt werden muss. Selbstfahrsysteme müssen, wenn sie mit der Situation überfordert sind, den Fahrer so rechtzeitig warnen, dass er noch eingreifen kann und die rechtlich richtige Entscheidung treffen kann. Ob das psychologisch möglich ist, weil der dauerhaft entlastete Fahrer sich längst darauf verlassen hat, dass das Gerät für ihn fährt, ist eine andere, hier nicht zu entscheidende Frage. Vielleicht werden umfassend entlastete Menschen schlechtere Autofahrer, weil sie in den vielen kleinen Gefahrsituationen ihrer Fahrfähigkeit nicht mehr trainieren, da das Fahrsystem diese Leistungen für sie übernimmt. Aber Programmierungen über weitreichende ethische Fragen in schwierigen Situationen können wir den vollautomatisierten Systemen nicht überlassen. Schließlich darf es keine Nutzungspflicht solcher Systeme geben. Dem Fahrer darf kein Fahrlässigkeitsvorwurf daraus gemacht werden, dass das



Urteile des Rechts lassen sich nicht ohne weiteres in abstrakt-generelle Ex-Ante-Be­ur­tei­ lungen und damit auch nicht in entsprechende Programmierungen umwandeln“, Ethik­­ kommission (2017), S. 11. 108 Sander und Hollering (2017), S. 200 bejahen wohl eine Nutzungspflicht.

98

Stephan Kirste

automatisierte Fahrsystem besser mit dem Verkehr zurechtkommt als er.109 Da würde der Zauberlehrling endgültig zum Meister, der den wahren Meister bevormunden würde. Schließlich muss die Datensicherheit auch bei den vollautomatisierten Selbstfahrsystemen, die ja Datensammelsysteme sind, die dazu dienen, sich selbst zu verbessern oder zur Verbesserung anderer beizutragen, gewährleistet sein.

Fazit Juristische und technische Rationalität unterscheiden sich. Lediglich in standardisierten Fällen können automatisierte Systeme Menschen ersetzen. Auch wenn Algorithmen-basierte, selbstlernende Systeme den Anschein erwecken, wie Menschen zu kommunizieren (Wahl Bots) oder tatsächlich menschenähnlich am Straßenverkehr teilnehmen, sollte ihnen selbst nur zurückhaltend Personalität in Anlehnung an juristische Personen mit Teilrechtsfähigkeit zugewiesen werden. Es bleibt in allen Fällen bei der Letztverantwortung von Menschen – seien sie Programmierer oder durch die Automatisierung entlastete Anwälte und Fahrer. Mit der Zunahme von entlastenden, Sicherheit optimierenden automatisierten Systemen für die Unterstützung und Durchführung von rechtlich relevanten Entscheidungen wird der Mensch nicht nur zu sinnvolleren Tätigkeiten freigesetzt; er gibt auch seine Rolle als Wesen ab, das in einer Vielzahl von Entscheidungssituationen sinnvoll handeln kann: Der Mensch als Archimime tauscht seine Rolle mit dem αὐτόματον, der nun für ihn zu handeln scheint. Was als Entlastung auftritt, mag sich als Entmündigung erweisen.110 Das Recht setzt dem nicht diese oder jene Grenze, sondern eine prinzipielle: Es hält ihn an seiner grundsätzlichen Verantwortung als Rechtsperson fest. Das „Hirn“ hinter der Maske des αὐτόματον bleibt der Mensch auf der Grundlage einer Juris-prudentia, nicht -scientia.

109 Sander und Hollering (2017), S. 200 bejahen wohl eine Nutzungspflicht. 110 Nida-Rümelin (2017), S. 47 stellt die Frage, ob solche Systeme die Autonomie des Ein­zel­ nen noch steigern oder sie eher verringern.

99

Automatisierung im Recht

Literatur Barthes, Roland (1974): Die Lust am Text. Aus dem Französischen von Traugott König. Frankfurt/Main. Berlit, U. (2015): Elektronische Verwaltungsakte und verwaltungsgerichtliche Kontrolle. In: Neue Zeitschrift für Verwaltungsrecht 2015, S. 197 ff. Birnbacher, Dieter, und Birnbacher, Wolfgang (2016): Automatisiertes Fahren. In: Information Philosophie 2016, S. 8 ff. Boehme-Neßler, Volker (2015): Big Data und Demokratie – Warum Demokratie ohne Datenschutz nicht funktioniert. In: Deutsches Verwaltungsblatt 2015, S. 1282 ff. Bollnow, Otto Friedrich (1940): Was heißt, einen Schriftsteller besser verstehen, als er sich selber verstanden hat? In: Deutsche Vierteljahresschrift, 18, S. 117–138. Bräutigam, Peter, und Klindt, Thomas (2015): Industrie 4.0, das Internet der Dinge und das Recht. In: NJW 2015, S. 1137 ff. Brundage, Miles (2014): Limitations and Risks of Machine Ethics. In: Journal of Experimental & Theoretical Artificial Intelligence 26, S. 355 ff. Seine europäische Entwicklung in Dokumenten und DarstelBuck, August (1987): Humanismus. �������������������������������������������������������� lungen. Freiburg /München. Bynum, Terrell Ward (2008): Milestones in the History of Information and Computer Ethics. In: K. E. Himma und H. T. Tavani (Hg.), The Handbook of Information and Computer Ethics. Hoboken, S. 25 ff. Colish, Marcia L. (1962): The Mime of God: Vives on the Nature of Man. In: Journal of the History­of Ideas 23, S. 3–20. Dankert, Kevin, und Dreyer, Stephan (2017): Social Bots – Grenzenloser Einfluss auf den Meinungsbildungsprozess? - Eine verfassungsrechtliche und einfachgesetzliche Einordnung. In: Kommunikation und Recht 2017, S. 73–78. Dilthey, Wilhelm (1969): Weltanschauung und Analyse des Menschen seit Renaissance und Reformation. Stuttgart/Göttingen (Wilhelm Dilthey Gesammelte Schriften II. Band). Eisenberger, Iris (2017): Das Trolleyproblem im Spannungsfeld autonomer Fahrzeuge: Lösungsstrategien grundrechtlich betrachtet. In: I. Eisenberger, K. Lachmayer und G. Eisenberger (Hg.), Autonomes Fahren. Wien, S. 91–109. Engel, Martin (2014): Algorithmisierte Rechtsfindung als juristische Arbeitshilfe. In: Juristenzeitung 2014, S. 1096–1100. Ethikkommission (2017): Automatisiertes und vernetztes Fahren. Bericht, Juni 2017, w ­ ww.bmvi.de. Feuerbach, Paul Anselm (1800): Revision der Grundsätze und Grundbegriffe des positiven pein­ lichen Rechts. 2. Teil. Chemnitz. Floridi, Luciano (2008): Foundations of Information Ethics. In: K. E. Himma und H. T. Tavani (Hg.), The Handbook of Information and Computer Ethics. Hoboken, S. 3 ff.

100

Stephan Kirste

Frohn, Hansgeorg (1984): Subsumtion – Information – Kommunikation – Automation. Zur Computerisierbarkeit juristischen Arbeitens. In: ARSP 70, 204–228. Garin, Eugenio (1966): Erziehung – Anspruch – Wirklichkeit. Geschichte und Dokumente abendländischer Pädagogik II: Humanismus. München. Gräwe, Svenja Lena (2010): Die Entstehung der Rechtsinformatik. Wissenschaftsgeschichtliche und theoretische Aspekte einer Querschnittsdisziplin. Hamburg. Hamerling, Robert (1888): Homunkulus. Leipzig. Hartung, Markus, Bues, Micha-Manuel, und Halbleib, Gernot (2018): Legal Tech. München. Helversen, Bettina von (2016): Heuristiken bei Entscheidungen im legalen Kontext. In: S. Kirste (Hg.), Interdisziplinarität in den Rechtswissenschaften – Innen- und Außenperspektiven. Berlin (Philosophie und Recht; Bd. 1), S. 205 ff. Hilgendorf, Eric (2012): Können Roboter schuldhaft handeln. In: S. Beck (Hg.): Jenseits von Mensch und Maschine. Ethische und rechtliche Fragen zum Umgang mit Robotern, Künst­ licher Intelligenz und Cyborgs, S. 119 ff. Hobbes, Thomas (1965): Leviathan. Oxford. Hoeren, Thomas (2011): Die Geschichte des Informationsrechts. Ein Forschungsbericht. In: N. Forgó, M. Holzweber und N. Reitbauer (Hg.), Informationstechnologie in Recht und Verwaltung. Anfänge und Auswirkungen des Computereinsatzes in Österreich. Wien, S. 137 ff. Hoffmann-Riem, Wolfgang (2017): Verhaltenssteuerung durch Algorithmen – Eine Herausforderung für das Recht. In: AöR 142, S. 1–42. Kant, Immanuel (1982): Die Metaphysik der Sitten. Erster Teil, metaphysische Anfangsgründe der Rechtslehre. Immanuel Kant Werkausgabe, Bd. VIII. Frankfurt/Main, S. 305–  499. Kaulartz, Markus, und Heckmann, Jörn (2016): Smart Contracts – Anwendungen der Blockchain-Technologie. In: Computer und Recht 2016, S. 618 f. Kirste, Stephan (2010): Einführung in die Rechtsphilosophie. Darmstadt (Wissenschaftliche Buchgesellschaft, Reihe: Einführung Philosophie). Kirste, Stephan (2011): Harter und Weicher Rechtspaternalismus unter besonderer Berücksich­ tigung der Medizinethik. In: JZ 2011, S. 805 ff. Kirste, Stephan (2014a): „Der Mensch ist das Maß der Dinge“ – Dimensionen rechtlicher Gerechtigkeit. In: Clemens Sedmak (Hg.), Gerechtigkeit – Vom Wert der Verhältnismäßigkeit. Darmstadt (Europäische Grundwerte), S. 7–34. Kirste, Stephan (2015): Die beiden Seiten der Maske – Rechtstheorie und Rechtsethik der Rechtsperson. In: S. Kirste, R. Gröschner, O. Lembcke (Hg.): Person und Rechtsperson. Tübingen (Mohr, Reihe Politika), S. 345–382. Kirste, Stephan (2018): Differenzierte Herrschaftsausübung im Kontext der Demokratie. In: VVdStRL 77, S. 162–204. Kotschy, Waltraut (2011): IT-Anwendungen in der österreichischen Justiz und Verwaltung – Anfänge und Ausblick. In: N. Forgó, M. Holzweber und N. Reitbauer (Hg.), Informationstechno-

Automatisierung im Recht

101

logie in Recht und Verwaltung. Anfänge und Auswirkungen des Computereinsatzes in Österreich. Wien, S. 133 ff. Kotsoglou, Kyriakos N. (2014): Subsumtionsautomat 2.0. Über die (Un-)Möglichkeit einer Algorithmisierung der Rechtserzeugung. In: Juristenzeitung 2014, S. 451 ff. Kotsoglou, Kyriakos N. „Subsumtionsautomat 2.0“ reloaded? – Zur Unmöglichkeit der Rechtsprüfung durch Laien. In: Juristenzeitung 2014, S. 1100 ff. Kreuzbauer, Hanna (2015): Zur Mathematisierung der Rechtswissenschaften. In: Rechtstheorie 46, S. 93 ff. Küper, Wilfried (1999): Das Brett des Karneades. Das zweideutige Notrecht in Kants Rechtslehre. Heidelberg. Luhmann, Niklas (1966): Recht und Automation. Berlin. Martini, Mario (2014): Big Data als Herausforderung für den Persönlichkeitsschutz und das Daten­schutzrecht. In: Deutsches Verwaltungsblatt 2014, S. 1481–1489. Merkel, Reinhard: Wortmeldung. In: Autonome Systeme. Wie intelligente Systeme uns verändern. Jahrestagung des deutschen Ethikrates (https://www.ethikrat.org/jahrestagungen/ autonome-systeme-wie-intelligente-maschinen-uns-veraendern/, zuletzt aufgerufen am 28.09.­ 2018 ), S. 51 ff. Milker, Jens (2017): „Social-Bots“ im Meinungskampf. Wie Maschinen die öffentliche Meinung beeinflussen und was wir dagegen unternehmen können. In: Zeitschrift für Urheber- und Medienrecht 2017, S. 216–222. Montesquieu, Charles-Louis de (1994): Vom Geist der Gesetze. Stuttgart. Müller, Friedrich (1994): Strukturierende Rechtslehre. Zweite, vollständig neu bearbeitete und auf neuestem Stand ergänzte Auflage. Berlin. Nida-Rümelin, Julian (2017): Wer trägt die Verantwortung für autonome Systeme? In: Autonome Systeme. Wie intelligente Maschinen uns verändern. Jahrestagung des Ethikrates 2017, S. 29 ff. Paal, Boris, und Hennemann, Moritz (2017): Meinungsvielfalt im Internet. In: Zeitschrift für Rechtspolitik 2017, S. 76 ff. Pariser, Eli (2012): Filter Bubble. Wie wir im Internet entmündigt werden. Aus dem Amerikanischen von Ursula Held. München. Peltzer, Oliver (2016): Logistik 4.0: Rechtliche Rahmenbedingungen und Herausforderungen der vierten industriellen Revolution (Teil 1) In: Der Betrieb 2016, S. 2279 ff.; (Teil 2) in: Der Betrieb 2017, S. 1853 ff. Prior, Patrick (2017): Legal Tech – Digitalisierung der Rechtsberatung. In: ZAP Fach 2, S. 651 ff. Richter, Philipp (2013): Die Wahl ist geheim ... so what? Big Data Mining im US-Wahlkampf. Und hier? In: Die öffentliche Verwaltung 2013, S. 961–970. Roßnagel, A. (2013): Auf dem Weg zur elektronischen Verwaltung – das E-Government-Gesetz. In: Neue Juristische Wochenschrift 2013, S. 2710 ff.

102

Stephan Kirste

Rüß, Oliver Rene (2001): E-Democracy – Demokratie und Wahlen im Internet. In: ZRP 2001, S. 518 ff. Sackelberg, Jürgen von (1956): Humanistische Geisteswelt. Von Karl dem Großen bis Philip Sidney. Baden-Baden 1956. Sander, Günther M., und Hollering, Jörg (2017): Strafrechtliche Verantwortlichkeit im Zusammenhang mit automatisiertem Fahren. In: NStZ 2017, S. 193 ff. Schlieffen, Katharina Gräfin von (2011): Wie Juristen begründen. In: Juristenzeitung 2011, S. 109 ff. Simitis, Spiros (1967): Automatisierung in der Rechtsordnung – Möglichkeiten und Grenzen. Karlsruhe 1967. Simmler, Monika, und Markwalder, Nora (2017): Roboter in der Verantwortung – zu einer Neuauflage der Debatte um den funktionalen Schuldbegriff. In: ZStW 2017, S. 20 ff. Söbbing, Thomas (2018): Smart Contracts und Blockchain-Technologie. Definition, Arbeitsweise, Rechtsfragen. In: Der IT-Rechtsberater 2018, S. 43 ff. Steinbach, Armin (2017): Social Bots im Wahlkampf. In: Zeitschrift f. Rechtspolitik 2017, S. 101 ff. Thomson, Judith Jarvis (1985): The Trolley Problem. In: Yale Law Journal 1985, S. 1395 ff. Traunmüller, Roland (2014): Unterstützung von rechtlichen Entscheidungen. In: E. Schweighofer, M. Handstanger, H. Hoffmann, F. Kummer, E. Primosch, G. Schefbeck, G. Withalm (Hg.), Zeichen und Zauber des Rechts. Festschrift für Friedrich Lachmayer. Bern, S. 739 ff. Traunwieser, Silvia (2018): Die Rolle der Menschenwürde im österreichischen Recht und im Bereich der Medizinethik. In: S. Kirste, I. Sarlet und Draiton Gonzaga de Souza (Hg.), Menschenwürde im 21. Jahrhundert – Ein interdisziplinärer Dialog zwischen Brasilien, Deutschland und Österreich. Baden-Baden. Weber, Max (1980): Wirtschaft und Gesellschaft. Grundriss der verstehenden Soziologie. 5., rev. Aufl. besorgt v. J. Winckelmann. Tübingen. Weichert, Thilo (2013): Big Data und Datenschutz – Chancen und Risiken einer neuen Form der Datenanalyse. In: Zeitschrift für Datenschutz 2013, S. 251–259. Welzel, Hans (1951): Zum Notstandsproblem. In: Zeitschrift für Strafrechtswissenschaft (ZStW), S. 47 ff. Wendehorst, Christiane: Rechtlicher Kommentar: Was dürfen Maschinen? In: Autonome Systeme. Wie intelligente Systeme uns verändern. Jahrestagung des deutschen Ethikrates (https:// www.ethikrat.org/jahrestagungen/autonome-systeme-wie-intelligente-maschinen-uns-ver­ aendern/, zuletzt aufgerufen am 28.09.2018 ), S. 36 ff. Ziemann, Sascha (2013): Wesen, Wesen, seid’s gewesen? Zur Diskussion über ein Strafrecht für Maschinen. In: E. Hilgendorf und J.-Ph. Günther (Hg.), Robotik und Gesetzgebung. BadenBaden, S. 183 ff. Ziemann, Sascha (2014): Moral über Bord? Über das Notrecht von Schiffbrüchigen und das Los der Schiffsjungen – Der Kriminalfall Regina v Dudley and Stephens (Mignonette-Fall). In: Zeitschrift für internationale Strafrechtsdogmatik 2014, S. 479– 488.

Das digitale Auge – Algorithmen in der Medizin Ursula Schmidt-Erfurth

Die kreative Zerstörung der Medizin Die Digitalisierung aller Lebensbereiche macht auch vor der Medizin nicht halt. Der Vordenker der digitalen Medizin, der amerikanische Kardiologe Eric Topol, sprach schon in der Frühzeit der beginnenden Digitalisierung medizinischer Daten von der „kreativen Zerstörung der Medizin“. In der Tat hat die Vorstellung einer in Zukunft „entmenschlichten“ Medizin viele Sensibilitäten geweckt. Gerade der persönlichste und empfindlichste Bereich des mensch­ lichen Lebens, seine Verletzbarkeit durch Krankheiten, bedarf einer besonderen individuellen Zuwendung und Unantastbarkeit der privaten Sphäre. Die Vorstellung des gläsernen Patienten hat bei aller gewünschten Transparenz im Gesundheitswesen auf den ersten Blick keine Anziehung für ein leidendes Individuum. Der Emotionalisierung dieses Themas stehen aber andere, ebenso reale Bedürfnisse und auch Möglichkeiten gegenüber. So liefert die moderne medizinische Diagnostik nach langen und intensiv betriebenen Weiterentwicklungen der Technologien hochpräzise Daten, die den Erkrankungszustand eines Menschen umfassender darstellen als jemals zuvor. Eine medizinische Dia­ gnose in modernen Zeiten wird nicht mehr nur durch Stethoskop und Blutbild getroffen, sondern über eine Vielzahl von ebenso schonenden wie genauen Untersuchungsmodalitäten. Analysen in hochspezialisierten Laboratorien erfassen eine nahezu uneingeschränkte Zahl von vorausgegangenen wie aktuellen Veränderungen. Die bildgebende Diagnostik hat sich vom einfachen Lungenröntgen über Computertomographien und Kernspinbildern in ein neues, dreidimensionales Universum des menschlichen Körpers weiterent­ wickelt. Das bedeutet, dass die Vermessung des menschlichen Organismus eine hohe Präzision, aber auch eine riesige Dimension erreicht hat. Hinzu kommt der sich immer weiter ausdehnende Wissensreichtum in der Physiologie, Symptomatik und Prognose von Erkrankungen, der eine Multiplikation und Diversifizierung des medizinischen Grundwissens erfordert, der auch ein Mediziner im akademischen Umfeld kaum nachkommen kann, geschweige denn ein in die tägliche Patientenroutine eingebundener Arzt in

104

Ursula Schmidt-Erfurth

der täglichen Praxis. Entsprechend wird das diagnostische Angebot auch besonders in der „maschinellen“ Diagnostik immer weiter beansprucht. Auch der informierte und mündige Patient des 21. Jahrhunderts, der sein Wissen ebenfalls aus dem allgemein verfügbaren digitalen Netz bezieht, stellt immer höhere Anforderungen an seine Versorgung. Offensichtlich ist die in diesem vorhandenen und verfügbaren Universum von medizinischen Daten enthaltene richtige und beste Diagnose und Therapie immer besser enthalten, aber auch immer schwerer zu erkennen, für Ärzte, Patienten, Krankenkassen und Gesundheitspolitiker.

Die Vernunft der artifiziellen Intelligenz Große Perspektiven bieten sich, wenn es gelingt, ein „vernünftiges“ System zu etablieren, das erlaubt, die relevanten Informationen zu identifizieren und der individuellen Fragestellung anzupassen. Es gilt, einen intelligenten Umgang mit großvolumigen und heiklen persönlichen Daten zu finden. Auch hier bietet die moderne Technologie neue vielversprechende Möglichkeiten. Künst­ liche Intelligenz, weithin als Artificial ���������������������������������������������������� Intelligence����������������������������� (AI) bekannt, ist in der Lage, aus enormen (Bild-)Datenbanken und klinischen Parametern individuelle und generelle Muster und Korrelationen abzulesen. Der Computeralgorithmus lernt dabei selbständig, über mit menschlichem Denken vergleichbaren neuronalen Netzwerken, Symptome und Diagnosen zu erkennen und sinnvoll zuzuordnen. Dies gelingt besonders gut, wenn präzise „Bilder“ eines körper­ lichen individuellen Zustands zur Verfügung stehen. So kann aus einem Bild der Netzhaut exakt ein individuelles Profil mit Alter, Geschlecht, Blutdruck, Blutzucker etc. abgelesen werden, ohne dass dem Algorithmus irgendwelche Persönlichkeitsdaten eingegeben worden sind. Netzhauterkrankungen können mit nie dagewesener Präzision bereits vor ihrer Manifestation erkannt werden, Therapieeffekte können automatisiert präziser bemessen werden als durch den erfahrenen Kliniker. Vollautomatisierte Scanner sind bereits jetzt in Verwendung, die von einem Blick oder einem Foto der menschlichen Netzhaut eine genaue Aussage über Gefäß- und Stoffwechselerkrankungen wie den Diabetes erlauben, ohne Intervention durch einen ausgebildeten Augenarzt. Ähnliche Fortschritte sind auch bereits in der Onkologie, der Inneren Medizin und der Neurologie erkennbar. Die Medizin ist im Begriff, sich durch AI grundsätzlich zu verändern. Das mag unter anderem daran liegen, dass kaum ein Fachgebiet von der Be-

Das digitale Auge – Algorithmen in der Medizin

105

völkerung so stark mit dem Begriff der Intelligenz und auch der Forderung nach besonderer Intelligenz so stark verbunden ist wie die Medizin. Der Arzt, als „Halbgott in Weiß“ soll derjenige sein, der sofort die richtige Diagnose erkennt und die beste Therapie verordnet. Patienten erwarten, dass ihr Arzt das gesammelte Wissen der Medizin jederzeit parat hat, die neuesten Studien und das Wirkungs- und Nebenwirkungsspektrum sämtlicher Medikamente kennt, mit allen Untersuchungsmethoden vertraut ist und über sie verfügt, die beste Ausbildung genossen hat und an der besten Universität studiert hat. Bereits bei der Auswahl der zukünftigen Mediziner wird ein besonderer Wert auf Intelligenzleistungen gelegt, der Test zur Auswahl der geeignetsten Medizinstudenten beruht auf einer großen Menge in kürzester Zeit abrufbaren Wissens. Und schon ist die Expertise der Ärzte nicht mehr ausreichend. Anbieter von zusätzlichen diagnostischen Tests, Gesundheitsapps und anderen zusätz­ lichen Informationsquellen über eigene Körperdaten sind begehrt bei Millionen von Kunden. Außerordentlich attraktiv sind hier genetische Daten, die ein besonders heikles Spektrum an lebensverändernden Biodaten darstellen. Ein prominentes Beispiel war die Entdeckung von Brustkrebsgenen, die die individuelle Wahrscheinlichkeit, an einem Mamakarzinom zu erkranken, angeben, eine der häufigsten und tödlichsten Krebserkrankungen der modernen Zeit. Ein intensives Interesse der Bevölkerung besteht auch an anderen genetischen Dispositionen, die verheerende und unheilbare Krankheiten „diagnostizieren“ können, wie z.B. Gene für die Alzheimersche Erkrankung. Die Entdeckung immer weiterer unbezweifelbar „richtiger“ Diagnosen, da sie ja durch die eige­ nen Gene festgelegt sind, schreitet in exponentieller Weise fort. Nicht nur körperliche, sondern auch seelische Leiden werden so auf einen klaren genetischen Nenner gebracht, der über jeden Zweifel erhaben ist, da er aus einer intelligenten wissenschaftlichen Methode gewonnen wurde. So wurde kürzlich ­eine bestimmte Variante eines Gens, das für die Steuerung von Serotonin, des „Wohlfühlhormons“ verantwortlich ist, für die Entstehung von Depressionen verantwortlich gemacht. Auch für Schizophrenie und das Aufmerksamkeitsdefizitsyndrom (ADHS) bei Kindern gibt es bereits harte genetische Daten. Dabei handelt es sich schon lange nicht mehr um betroffene Patienten, die sich die Heilung einer bestehenden Erkrankung durch eine genaue Diagnose wünschen, sondern um gesunde Personen, die alles über ihre individuelle Gesundheit und Krankheitsszenarien genau wissen möchten. Auch Datenschutzüberlegungen oder die Angst um die Wahrung der Persönlichkeitssphäre halten Millionen von Kunden nicht davon ab, sich bei dem Silicon Valley-

106

Ursula Schmidt-Erfurth

Unternehmen 23andMe als Kunden anzubieten und ihre genetischen Daten für diverse Studien anzubieten. Ob solche Erwartungen in die Erforschung ewiger Gesundheit in Erfüllung gehen, ist zu bezweifeln, zudem Gesundheit oder Krankheit nicht auf dem Vorhandensein einzelner Gene beruhen, sondern vielmehr auf einem überaus komplexen Zusammenwirken von Erbanlagen und Umweltfaktoren. Ohne Zweifel erlaubt jedoch der Fortschritt der Technologie, innere und äußere Determinanten eines gesunden oder kranken menschlichen Lebens genauer zu messen als jemals zuvor und nicht nur eine Vielzahl von Informationen zu sammeln, sondern diese auch auszuwerten, in Bezug zu setzen und für das Individuum zu nützen. Bei der herrschenden Hybris der kommerziellen und wissenschaftlichen Anbieter und der Stimmungsmache der extremen Versprechungen und ebensolchen Befürchtungen wird verkannt, auf welch sinnvolle und solide Weise Methoden der artifiziellen Intelligenz bereits heute in der praktischen Medizin angekommen sind. Das menschliche Auge mit seinen klaren Medien und der dem diagnostischen Blick so leicht zugängliche Augenhintergrund, der die zentralen Gefäßnetze und die dem Gehirn ähnliche neuronale Netzhaut darbietet, ist eine besonders wertvolle Zielstruktur für die medizinische bildgebende Diagnostik. Der Augenarzt genießt das Privileg, ohne invasive, schmerzende oder schädigende Methoden durch Licht und lichtbasierte Laserscanner in das Innere des menschlichen Körpers zu sehen. Er kann hier Prozesse erkennen, welche Rückschlüsse auf viele systemische Erkrankungen erlauben, wie Hypertonus, Diabetes, rheumatische oder neurologische Erkrankungen. Darüber hinaus sind Erkrankungen der sensiblen Netzhaut in allen Sparten der modernen Zivilisationserkrankungen wie altersbezogenen Pathologien, kardiovaskulären Erkrankungen und dem häufigen Diabetes besonders prominent vertreten. All diesen pathologischen Grundzuständen ist gemeinsam, dass sie die zentrale Netzhaut progressiv und irreversibel schädigen. Aufgrund der häufigen altersbezogenen Makuladegeneration (AMD) sind allein in Europa 20 Millionen Menschen von einem schweren Verlust des Sehvermögens betroffen. Durch die Zunahme von Diabetes in Folge des verbreiteten inadäquaten Ernährungsstils sind weitere Millionen Menschen von der diabetischen Netzhauterkrankung betroffen und weitere Millionen Individuen durch Gefäßverschlüsse in Folge einer kardiovaskulären Grunderkrankung. Hier geht es um die ­angemessene medizinische Versorgung von großen Anteilen der Bevölkerung weltweit. Dies gibt bereits eine gute Orientierung über die Dimension der wesentlichen Gesundheitsdaten, die allein aufgrund von Augenhintergrunduntersuchungen zur Verfügung stehen.

Das digitale Auge – Algorithmen in der Medizin

107

Die Netzhaut eines individuellen Menschen ist ebenfalls wieder ein Ort riesiger Datenmengen. Auf einer Fläche von wenigen cm² besitzt sie rund 126 Millionen Photorezeptoren, die wesentlichen 90%, die für das zentrale Sehen, Lesen, Gesichter erkennen und andere differenzierte Fähigkeiten zur Verfügung stehen, befinden sich in der Netzhautmitte, einem Areal von nur 1,5 mm Durchmesser und 0,2 mm Dicke, dem Auge im Auge. Hier bietet sich einer gezielten Diagnostik ein sehr kleines Organ mit Millionen hochentwickelter zellulärer Strukturen an. Aus der Anatomie ist auch offensichtlich, dass Veränderungen auf kleinstem Raum im Bereich der zentralen Makula bereits zu einem schweren Verlust des Sehvermögens führen. Es ist ebenfalls offensichtlich, dass in einer außerordentlich visualisierten Umwelt ein Verlust des Sehvermögens zu einer gravierenden Einschränkung der Lebensqualität führt. Große Studien wie die United Kingdom Biobank Study zeigen eindrücklich, wie die Schlüsselkriterien aller sozialer Positionen in der Gesellschaft in direkter Abhängigkeit vom Schweregrad und unabhängig voneinander mit dem Sehvermögen verbunden sind. Eine eingeschränkte Sehfähigkeit korreliert dabei mit einem Verlust der Lebensmöglichkeiten in Bezug auf Ausbildungsstand, Beschäftigungsgrad, Status des Berufs, sozialer Einbettung wie z.B. alleine leben und psychischen Beeinträchtigungen. Hier hat die Augenheilkunde eine besonders große diagnostische und therapeutische Aufgabe für Gesellschaft und Individuum.

Diagnostik und Therapie am Auge Das diagnostische Armamentarium des Augenarztes wurde in den letzten zehn Jahren wesentlich um bildgebende Diagnostik bereichert. Vor allen Dingen die optische Kohärenztomographie (OCT) erlaubt es, ohne Beeinträchtigung des Patienten hochauflösende, dreidimensionale Bilder des Augenhintergrundes herzustellen. Diese zeigen sehr genau die einzelnen physiologischen Netzhautschichten und jede Art auch der diskreten, pathologischen Veränderungen in allen Netzhautstrukturen. Die optische Kohärenztomographie wurde deshalb innerhalb kürzester Zeit zu der häufigsten diagnostischen Untersuchungsmethode in der Augenheilkunde überhaupt. Bereits im Jahr 2015 wurden rund 17 Milliarden OCT-Untersuchungen in den USA durchgeführt. Die Zahlen für Europa liegen ebenso hoch. Moderne OCT-Geräte erzeugen um die 100.000 Scans pro Untersuchung, wobei die Gesamtdauer der Untersuchung lediglich wenige Sekunden beträgt. Insgesamt liefert ein

108

Ursula Schmidt-Erfurth

regulärer Netzhautscan, wie er an der Univ.-Klinik für Augenheilkunde und Optometrie der Medizinischen Universität Wien bei der Routineversorgung aufgenommen wird, rund 65 Millionen Voxels. Aus dieser Vielfalt an anatomischer Information einen größtmöglichen Nutzen für die Diagnose und die Therapie des Patienten zu ziehen, ist eine für den Mediziner nicht zu bewältigende Aufgabe. Hervorragende Entwicklungen in der pharmakologischen Entwicklung erlauben seit wenigen Jahren, die genannten so häufigen Erkrankungen der Netzhautmitte, der Makula, außerordentlich erfolgreich zu behandeln, so dass diese in der Regel nicht mehr zur Erblindung führen. Bei dieser Therapie wird eine sehr geringe Menge von Antikörpern in das erkrankte Auge gegeben, der dort gezielt den für die Makulaerkrankung verantwortlichen pathologischen Gefäßfaktor (vascular endothelial growth factor, VEGF) eliminiert. Da es sich bei der altersbedingten Makulaerkrankung, dem Diabetes und den meisten kardiovaskulären Erkrankungen um chronische Geschehen handelt, ist diese Therapie in der Regel lebensbegleitend. Das Medikament wird direkt in das erkrankte Auge injiziert und kann dort das krankhafte Ödem in der Netzhautmitte austrocknen und so wieder eine Sehfunktion herstellen. Da die Therapie aber nur einen begrenzten Zeitraum, in der Regel 1–2 Monate, anhält, sind im Lauf des Lebens ein dauerhaftes Monitoring und zahlreiche Injektionen pro Jahr in einem Rhythmus, welcher der Krankheitsaktivität entspricht, erforderlich. Diese so genannte „intravitreale Therapie“ ist in der modernen Augenheilkunde zur häufigsten Intervention überhaupt geworden. Allein in Österreich werden über 100.000 Injektionen bei betroffenen Patienten durchgeführt, weltweit mehr als 100 Millionen. Da moderne Medikamentenentwicklungen kostspielig sind, handelt es sich auch bei der intravitrealen Therapie aber auch um einen der größten Budgetfaktoren in der Gesundheitsversorgung. Aufgrund der Durchmischung von transparenten und nicht transparenten Ausgaben in einem Zweiklassen-System sind für Österreich keine genauen Angaben über die Gesamtbudgets, die für diese häufige Therapie erforderlich sind, verfügbar. In Deutschland wurden allein im Jahr 2015 rund 700 Millionen Euro angegeben. Damit steht eine zwar effiziente, aber auch sehr aufwändige Therapie zur Verfügung, die es nach dem Motto „So viel wie nötig, so wenig wie möglich“ angemessen zu dosieren gilt, um die Beeinträchtigung des Patienten durch den Eingriff und die Ausgaben für das Gesundheitssystem angemessen zu halten.

Das digitale Auge – Algorithmen in der Medizin

109

Hier liegt ein weltweit ungelöstes Dilemma vor: Trotz der eindrücklichen Studienergebnisse bei der Zulassung dieser Anti-VEGF Substanzen, bei denen die Patienten nicht nur keinen weiteren Sehverlust erleiden, sondern im Durchschnitt zwei Zeilen an Sehvermögen wieder gewinnen, sind die Behandlungsergebnisse in der sogenannten „Real World“ mehr als enttäuschend. Trotz der vielen Injektionen und der hohen Ausgaben verlieren Tausende von betroffenen Patienten dennoch weiter an Sehvermögen und damit die Möglichkeit einer selbständigen, unabhängigen Lebensführung. In einer über fünf Jahre dauernden prospektiven Studie, dem LUMINOUS-Register, zeigt sich, dass in den meisten Ländern die Behandlungsergebnisse sowohl nach 1, 2, 3, 4 und 5 Jahren deutlich hinter den Studienergebnissen zurück bleiben. Beim Management der großen Herausforderung der Netzhauterkrankungen und drohender Erblindung handelt es sich also um ein Paradebeispiel der modernen Medizin, bei dem eine hervorragende diagnostische Technologie und eine extrem effiziente Therapie per se nicht zum Nutzen der breiten Bevölkerung umgesetzt werden können, weil die Multiplikationsfaktoren riesiger Patientenzahlen, Bilddaten und Interventionen bisher nicht ausreichend gut manövrierbar sind.

Das digitalisierte Auge Da in der Augendiagnostik, insbesondere durch das OCT, riesige diagnostische Bilddaten zur Verfügung stehen, die manuell gar nicht mehr auswertbar sind und die die Präzision, die in der Radiologie verfügbar ist, noch bei Weitem überschreiten, hat sich hier die artifizielle Intelligenz besonders angeboten. Es sei daran erinnert, dass jede Textbearbeitung und jedes „Googeln“ nach Informationen auf digitaler Bildbearbeitung beruht. Texte müssen visuell erkannt werden, visuelle Informationen wie Gesichter und Objekte müssen identifiziert werden können. Eine der größten digitalen Initiativen begann im Jahr 2009, als Computerexperten aus den verschiedensten Ländern und Kontinenten 15.000.000 Bilder aus 22.000 verschiedenen Kategorien zum Projekt ImageNet zusammenstellten. Diese Sammlung definierter Bilddaten bildet die Grundlagen aller weiteren Entwicklungen, wie über das digitale Netz Informationen verarbeitet, verknüpft und weitergeleitet werden. Dabei erkennt der Computer eingegebene Daten im Bildformat, ähnlich wie der biologische Sehvorgang im menschlichen Auge. Die Pixel eines digitalen Bildes werden auf die erste neuronale Ebene auf der Netzhaut des Menschen projiziert und dort über eine Folge von weiteren neuronalen Verschaltungen, die durch Synapsen miteinander verbunden sind, immer weiter

110

Ursula Schmidt-Erfurth

differenziert, bis in den kortikalen Schichten der Sehrinde des Gehirns durch Vergleich und Ausschluss mit bekannten Informationen eine Identifizierung stattfindet. In der digitalen Bildsprache wird dieser Vorgang als „Machine learning������������������������������������������������������������������� “ bezeichnet, und entsprechend der humanen Intelligenzleistung verläuft die Differenzierung über sogenannte neuronale Netzwerke. Im Jahr 2015 wurde „Machine learning“ von Scientific American unter die 10 größten Fortschritte der Wissenschaft, die die Lebensbedingungen verbessern werden, eingeordnet. Die Machine learning- oder auch Deep learningTechnologie ist die Basis von artifizieller Intelligenz. Google, Facebook und andere Internetgiganten haben diese Technologie soweit ausgebaut, dass sie in der Lage ist, selbständig zu lernen. Dabei arbeiten intelligente Computersysteme identisch wie das menschliche Gehirn und extrahieren über eine nahezu unbegrenzte Zahl hintereinander geschalteter artifizieller Neuronen gezielt Informationen, Muster und Korrelationen ebenso präzise wie die menschliche Intelligenz, jedoch in einer riesigen Dimension und Abstraktion. Die Anwendung an Bildern der menschlichen Netzhaut, insbesondere OCT-Bildern, ist eine sehr naheliegende und handfeste Entwicklung. So ist es möglich, die ophthalmologische Bildanalyse direkt der Präzisionsmedizin zuzuführen. Die digitale Bildanalyse in dem großen Bereich der Makulaerkrankungen und der Optimierung einer ebenso effizienten wie teuren Therapie, basierend auf der Analyse von OCT-Bildern, hat ein besonders großes Potential. Die Augenklinik der Medizinischen Universität Wien hat hier eine weltweit führende Pionierrolle durch ihren Schwerpunkt in der Diagnose und Therapie von Netzhauterkrankungen. Aus Tausenden von retinalen OCTs, die in klinischen Studien weltweit gewonnen werden und in digitaler Form dem Vienna Reading Center (VRC), einer digitalen Bildanalyseplattform der Klinik, zugesandt werden, wird jeder der tausend Scans genau ausgewertet. Während in der regulären Augenarztpraxis und auch in den Studienprotokollen zur Zulassung neuer Medikamente nur die allgemeine Dicke der Netzhaut gemessen wurde, werden im Vienna Reading Center sämtliche Parameter der pathologisch veränderten Netzhaut qualitativ und quantitativ erfasst. So findet sich Flüssigkeit in der Netzhaut meist in Form von Hunderten kleinster Zysten oder Flüssigkeit unter der Netzhaut, als „subretinales Fluid“ bezeichnet, ebenso wie Abhebungen des retinalen Pigmentepithels, eine Struktur, die für den Stoffwechsel der Photorezeptoren verantwortlich ist. Es ist offensichtlich, dass diese verschiedenen Komponenten einen unterschiedlichen Einfluss auf das Sehvermögen und die Prognose des einzelnen Patienten haben, da sie auf unterschiedliche Weise die empfindlichen neurosensorischen Strukturen

Das digitale Auge – Algorithmen in der Medizin

111

beeinträchtigen. Eine genaue Structure/Function-Korrelation erlaubt es dann, nicht nur den gegenwärtigen Visus zu verstehen, sondern auch die zukünftige Sehschärfe nach erfolgreicher Therapie vorauszusagen und bereits bei Therapiebeginn eine zutreffende Prognose stellen zu können. Klinische Zulassungsstudien bieten ein hervorragend phenotypisiertes Datenset von Netzhautbildern und zugehöriger Sehschärfe. Daten aus einer Behandlungsstudie von 1.000 Patienten, die kontinuierlich über zwei Jahre nach Protokoll behandelt wurden und in monatlichen Abständen genau untersucht werden, können so in ein ��������������������������������������������������������������� Machine Learning����������������������������������������������� -System eingegeben werden. Machine Learning erlaubt eine genaue Korrelation von Visus und dazugehöriger Morphologie im gesamten Behandlungsverlauf. Aus diesem digitalen Lernprozess ergibt sich ein prädiktives Modell, bei dem das System dann lediglich aufgrund der vorhandenen Netzhautanatomie im OCT-Bild genau auf die gegenwärtige und zukünftige Sehschärfe schließen kann. Diese erste Anwendung des Machine Learnings in der Diagnose und Therapie von Netzhauterkrankungen geht weit über die expertenbasierte Befundung hinaus und ermöglicht eine individuelle Einschätzung der Erkrankungsaktivität und des Ansprechens auf Therapie.

Ein Paradigmenwechsel in Diagnostik und Therapie Die AI-basierte Deep Learning-Methode hat das Potential, die erratischen Be­ handlungswege der sogenannten „Real Life“-Situation mit ihren enttäuschenden und doch kostspieligen Ergebnissen komplett zu revolutionieren. Die digi­tale OCT-Analyse wird an Behandlungsdaten großer Studien trainiert und lernt dabei z.B., charakteristische Muster an Therapieansprechen zu erkennen, die sich aus den ersten drei Behandlungen eines Patienten ablesen lassen, und kann diese dann über die folgenden ein bis zwei Jahre extrapolieren. So ­lassen sich Responder und Non-Responder erkennen, ebenso wie die geeigneten Behandlungsintervalle, die notwendig sind, um mit „so viel wie nötig, so w ­ enig wie möglich“ eine individualisierte, erfolgreiche Langzeitbehandlung zu ­planen. ­ Es zeigte sich dabei auch, welche Effizienz die intravitreale Therapie in der Gesamtpopulation hat. Während 15% der Patienten einen besonders aggressiven Krankheitsverlauf haben, der monatliche Behandlungen benötigt, waren bei den entgegengesetzten 15% der Patienten lediglich zwei bis drei Behandlungen pro Jahr erforderlich. Zwei Drittel aller Patienten benötigten im Durchschnitt 6 bis 7 Behandlungen im Jahr, d.h. eine Verlaufsbehandlung und Kontrolle im zweimonatigen Intervall. Die gewonnenen Bilddaten

112

Ursula Schmidt-Erfurth

zeigten auch, dass das Ansprechen auf die erste Therapie bereits prognostisch prädiktiv auf den weiteren Verlauf war. Damit ist Arzt und Patienten eine Behandlungssicherheit gegeben, die bisher nie vorhanden gewesen war und ledig­ lich durch aufwändige monatliche Arztbesuche und erneute Messungen annäherungsweise bestimmt werden konnte. Da die Bemessung der Flüssigkeit in den verschiedenen intra- und subretinalen Kompartimenten zuverlässig und vollkommen automatisiert bestimmt werden kann, ist die Bestimmung der Aggressivität aller Netzhauterkrankungen aus dem Formenkreis der sogenannten feuchten Makulaerkrankungen, wie das diabetische Makulaödem, die altersbezogene feuchte Makulade­ generation und Gefäßverschlüsse, erstmals eindeutig klassifizierbar. Jetzt konnte nicht nur die Dicke der Netzhaut bestimmt werden, die mit dem Sehvermögen ohnehin nicht korreliert, sondern jeder Zustand konnte genau nach Lage des betroffenen Kompartiments in oder unter der Netzhaut oder unter dem Sehpigment bestimmt werden. Es zeigte sich auch, dass Flüssigkeit in der Netzhaut sich unter der Injektionstherapie besonders schnell zurückbildet, während Flüssigkeit unter dem Sehpigment gar nicht oder nur zögerlich auf die Therapie anspricht.

Steuerung der Therapie durch Artificial Intelligence In einem nächsten Schritt wurde das Ausmaß der morphologischen Veränderung der Netzhautmitte mit dem Sehvermögen korreliert, wie es im unbehandelten Fall, d.h. bei der ersten Vorstellung, dem ersten Auftreten der Erkrankung vorlag. Damit kann verstanden werden, warum bestimmte anatomische Veränderungen das Sehvermögen beeinträchtigen und welche Faktoren für den Sehverlust verantwortlich sind und wesentliche Einblicke in die Pathophysiologie der Erkrankung gewonnen werden. Die Machine Learning-Methode zeigte eindeutig, dass der Sehverlust bei diesen häufigen Netzhauterkrankungen von der Flüssigkeitsmenge unmittelbar in den Netzhautschichten hervorgerufen wird. AI erlaubt dabei eine wesentlich genauere Korrelation als der diagnostische Blick des Arztes und widerlegte die Lehrmeinung, dass die Netzhautdicke der wesentliche Parameter ist, der für die Steuerung der Therapie herangezogen werden soll. Auch ist es dem Augenarzt gar nicht möglich, das Ausmaß der intraretinalen Flüssigkeitsverteilung zu quantifizieren, da diese in Hunderten von kleinsten Mikrozysten im Netzhautvolumen verteilt ist, die im Einzel-

Das digitale Auge – Algorithmen in der Medizin

113

nen manuell nicht abzählbar, jedoch der automatisierten Analyse zuverlässig zugänglich sind. Aufgrund dieses digitalen Modells kann nun aus der Menge an Flüssigkeit im Intraretinalraum, d.h. auf kleinstem Volumen von mm, zu jedem Zeitpunkt und nicht invasiv die resultierende Sehkraft berechnet werden. Dabei ist die Sehschärfe bei Vorliegen eines mm³-Ödems unmittelbar im Zentrum der Netzhaut um 24 Testzeichen im Sehtest reduziert. Handelt es sich um Flüssigkeit unter der Netzhaut, ist das Sehen lediglich um zehn Buchstaben reduziert. Befindet sich das Ödem knapp neben dem Makulazentrum, ist das Sehen wesentlich weniger beeinträchtigt und der Verlust erreicht nur sechs Buchstaben. In keinem anderen Organ als der Netzhaut ist durch Artificial Intelligence eine so genaue Korrelation von Organfunktion und anatomischer Veränderung möglich. Da offensichtlich die Zu- oder Abnahme der intraretinalen Flüssigkeit die größte Rolle für das Sehen spielt, kann dieser Parameter auch herangezogen werden, um die Wirksamkeit verschiedener Medikamente genau zu vergleichen. So zeigte sich, dass zwei der drei weltweit verwendeten Medikamente, Eylea® und Lucentis®, die Netzhautschichten wesentlich schneller trocknen als das billigere, aber signifikant weniger wirksame Avastin®. Da die derzeit verfügbaren Substanzen, die alle das pathologische VEGF in der Netzhaut blockieren, ausschließlich austrocknen, d.h. anti-exudativ wirken, ist der Biomarker, nach dem sich die Therapie richtet, derzeit ausschließlich an Flüssigkeit gebunden. Hier ist offensichtlich intraretinale Flüssigkeit der wesentliche morphologische Parameter, der die Sehschärfe deutlich mehr als andere Kompartimente bestimmt, und sollte entsprechend die Behandlungsindikation vorgeben. Nur mit der AI-basierten automatisierten Messung über Hunderte von optischen Scans ist es möglich, die Flüssigkeit so genau zu bemessen, dass die Therapie genau individuell dosiert werden kann. In der gängigen Augenarztpraxis wird derzeit noch lediglich eine Ja/Nein-Entscheidung getroffen, nach der nur eine sehr ungenaue Steuerung der Therapie möglich ist. Machine Learning erlaubt auch eine Voraussage der Veränderung der Sehschärfe und der Therapie im individuellen Fall.

114

Ursula Schmidt-Erfurth

Verständnis der Pathophysiologie Die digitalen Analysen der Netzhautbilder zeigten eindeutig, dass es sich bei der Flüssigkeit in der Netzhaut lediglich um ein spätes, sekundäres Phänomen handelt und offensichtlich andere Krankheitsprozesse die Netzhautfunktion in wesentlich erheblicherem Ausmaß einschränkten. Die Forschungsgruppe ging in ihren Analysen entsprechend zurück zu den frühen Stadien der Makuladegeneration, bei denen noch kein Ödem der Netzhaut zu finden ist. Die frühe, noch trockene Makuladegeneration ist weit verbreitet. Sie beginnt meistens im fünften Lebensjahrzehnt, äußert sich durch gelbliche Ab­ lagerungen, sogenannte Drusen, in der Makula und unspezifische Pigmentverschiebungen. Ein großer Prozentsatz der 50- und 60-jährigen Menschen zeigt solche Veränderungen am Augenhintergrund, auch die Mehrzahl aller 70- bis 80-Jährigen. Ausführliche epidemiologische Studien und sogar genetische Analysen werden bemüht, um dem individuellen Patienten eine zutreffende Prognose über die Weiterentwicklung der Erkrankung zu bieten. Insbesondere bei Patienten, die bereits auf einem Auge betroffen sind, sind eine Prognose und eine Risikoabschätzung für seine Lebensplanung entscheidend. Es ist zwar bekannt, dass bei vorausgehender Erkrankung eines Auges das Partnerauge innerhalb von 5 Jahren zu 27% ebenfalls erkranken wird und die Sehschärfe bis zur praktischen Erblindung verlieren wird, jedoch war es nicht möglich, diese Statistik für eine individuelle Voraussage zu verwenden. Digitale Analysen von Netzhautbildern lassen diese Drusen, die aus einer Vielzahl kleinster Abhebungen im Sehpigment bestehen, genau quantifizieren. Es zeigte sich, dass im Verlauf des Lebens die Belastung der Netzhaut mit Drusenmaterial linear zunimmt. Ab einem genau messbaren Grenzwert von 0,3 mm³ kommt es an einzelnen Stellen der Makula zur sogenannten Regression, die sich visualisieren lässt durch ein Zusammenbrechen der Drusen. Diese Regression führt dann im individuellen Fall zur Entwicklung der flächenbrandartigen Destruktion der Netzhaut bei der feuchten und atrophischen Makuladegeneration. Auch in diesem Mikrokosmos der Organstruktur regredieren nur bestimmte Drusen. Die automatisierte Bildanalyse wurde verwendet, um genaue morphologische Charakteristika von Hunderten von individuellen Drusen in jeweils einem Auge durchzuführen, wobei genaue Schichtdicken gemessen wurden, ebenso wie Wanderbewegungen einzelner Sehpigmentzellen. Der Algorithmus war in der Lage, genaue Voraussagen zu treffen, welche Drusen eine solche pathologische Regression zeigen werden, und eine genaue Landkarte

Das digitale Auge – Algorithmen in der Medizin

115

der Drusenbewegung prospektiv zu erstellen. Dies ermöglicht es dem Augenarzt nun bereits im Frühstadium der Erkrankung, solange das Sehvermögen noch gar nicht beeinträchtigt ist, einen genauen und quantifizierten Eindruck des Alterungsgrades und Funktionszustandes des Sehpigments zu erhalten, und geht weit über die bisher verfügbare Diagnosemöglichkeit und Risikobestimmung hinaus. Zudem ist die morphologische Analyse auch wesentlich genauer als eine genetische Bestimmung, die lediglich ein Durchschnittsrisiko angibt, jedoch nicht auf das Stadium im individuellen Fall eingehen kann. Wesentlich für den Patienten mit Makuladegeneration, und hier handelt sich um Tausende von Erkrankungen, ist ein gezieltes Screening nach Risikopatienten, bei denen eine Konversion der relativ harmlosen Form in die mit einem schweren Sehverlust verbundene, aggressive Form bevorsteht. Ein Machine learning-Algorithmus wurde entsprechend an Partneraugen von tausenden Patienten, die auf einem Auge bereits das Vollbild der Erkrankung zeigten, am anderen aber nur ein Frühstadium, durchgeführt. Mit hoher Genauigkeit konnte gemessen werden, bei welchem Patienten und um wieviel die Photorezeptorschicht bereits ausdünnte, Sehpigmentzellen verloren gegangen waren oder ob das Drusenvolumen bereits den kritischen Grenzwert erreicht hatte. Auch bei der augenärztlichen Untersuchung mit konventionellen Methoden und nicht erkennbaren subklinischen Veränderungen wurde der Algorithmus fündig. Es zeigte sich eine deutliche Korrelation des Progressionsrisikos mit dem Ausmaß von wandernden Sehpigmentzellen in den äußeren Netzhautschichten. Aus der Dicke des Sehpigmentes ließ sich außerdem zuverlässig das Alter jedes beliebigen Patienten bestimmen. Überdies ergab sich für die sogenannte trockene Form der altersbezogenen Makuladegenera­ tion und nur für diese, bei der großflächig das Sehpigment ausfällt, eine direkte Korrelation mit dem Lebensalter. Das heißt, dass mit zunehmendem Lebensalter die Netzhautfunktion und damit das Sehvermögen in jedem Fall und bei jedem Individuum verloren gehen. Damit erlaubt die digitale Medizin absehbar eine genaue Voraussage über das individuelle Sehvermögen. Eine andere wichtige Option ist die Erkennung von therapeutischen Zielstrukturen, die erforderlich ist, um gezielte und effiziente Therapien für die zukünftige Behandlung zu entwickeln. Die Einsichten in die Pathomechanismen dieser häufigsten Netzhauterkrankungen der modernen Zeit haben sich in wenigen Jahren durch Machine Learning grundlegend geändert. Noch ist das Ende des Potentials im ����������������������������������������������� Machine Learning������������������������������� nicht ausgeschöpft. Neue digitale Methoden wie das sogenannte „unsupervised learning“ erlauben es, die

116

Ursula Schmidt-Erfurth

Netzhaut nach bisher vollkommen unbekannten Biomarkern abzusuchen. Dafür müssen keine Trainingsmodelle erstellt werden, die bekannte pathologische Veränderungen eingeben. Intelligente Algorithmen lernen ausschließlich aus dem Vergleich gesunder und kranker Netzhaut, kleinste strukturelle Abweichungen zu identifizieren und zu kategorisieren, so dass pathophysiologische Muster identifiziert werden können, die sich dem diagnostischen Blick auch des trainierten Arztes entziehen.

Potential und Risiko Was bisher ein akademischer Durchbruch einzelner wissenschaftlicher Experten war und lediglich in der Welt der Medizin Aufmerksamkeit gefunden hat, hat nun die digitale Unternehmenswelt erreicht. Digitale Imperien wie Google, IBM, Amazon und andere sehen ihre Kernkompetenz in der Entwicklung digitaler Algorithmen, die die Medizin im großen Stil verändern werden. „Lesions learnt“ verspricht das Titelbild der Zeitschrift Nature und bezieht sich auf die Diagnostik von Hautveränderungen lediglich aufgrund eines digitalen Bildes und des passenden Algorithmus. Das Google-Modul beruht auf einem am ImageNet trainierten Algorithmus, der am Beispiel von rund 130.000 kleinsten Hautveränderungen gelernt hat, eine genaue Diagnose des Läsionstyps und des Benignitäts- oder Malignitätsniveaus zu bestimmen. Die Autoren zögern nicht darauf hinzuweisen, dass die Klassifizierung durch den Algorithmus wesentlich treffsicherer ist als die von ausgebildeten dermatologischen Experten. Dass sich Algorithmen nicht auf die Erkennung von Netzhauterkrankungen beschränken lassen, zeigte eine weitere digitale Übung des Google-Teams, das anhand von einfachen digitalen Farbfotos des Augenhintergrunds von 284.000 Individuen, ohne jede Kenntnis von persönlichen Daten, ohne Probleme Geschlecht, Alter, Raucherstatus, Blutzucker und Blutdruckspiegel sowie das Risiko eines Herzinfarkts mit größter Genauigkeit bestimmen konnte. Es erübrigt sich die Feststellung, dass selbst der erfahrenste Augenexperte nicht in der Lage wäre, auch nur einen der genannten Parameter allein auf Basis eines Netzhautbildes zu bestimmen. Die digitale Medizin hat sich hier insbesondere über die Netzhaut bereits in eine Science Fiction-ähnliche Entwicklung begeben. Mit der exponentiellen Weiterentwicklung der diagnostischen Technologie und immer schnelleren Scannern werden kleinste morphologische Veränderungen identifizierbar und messbar, innerhalb von Sekunden, zu jeder Zeit, bei jedem Individuum.

Das digitale Auge – Algorithmen in der Medizin

117

Die digitalen Algorithmen, die diese Scans auswerten, werden ebenfalls immer schneller und differenzierter. Patienten mit schwerwiegenden Netzhaut­ erkrankungen oder internistischen oder neurologischen Erkrankungen, die auch die Netzhaut beteiligen, und das sind sehr viele, wird das hervorragende Möglichkeiten bieten, die richtige Therapie zur richtigen Zeit zu erhalten und ihr Sehvermögen so lange wie möglich zu erhalten. Dem Arzt sind ein unbegrenzter Zugang zum modernsten Wissen und eine hochpräzise, individuelle Befunderhebung zur Verfügung gestellt. Er kann damit, besser als je zuvor, betreuen, behandeln und beraten. Er kann sich hochentwickelter, artifizieller Intelligenz bedienen und diese mit emotionaler und sozialer Intelligenz verbunden, menschenwürdig dem Patienten zur Verfügung stellen. Digitale Unternehmen können die Fortschritte der Technologie zu einem breiten Nutzen einer Gesellschaft zur Verfügung stellen, die derzeit größte Schwierigkeiten hat, in einer alternden Gesellschaft und einer Vielfalt an neuen Therapiemöglichkeiten eine angemessene Versorgung zu gewähren. Krankenkassen und Gesundheitspolitik können die vorhandenen Gesundheitsdaten gezielt auswerten und Bedürfnisse und Redundanzen zum größtmöglichen Nutzen und bei gleichzeitiger gezielter Budgetierung anwenden. Dies ist eine Seite der digitalen Medaille und zweifelsohne die optimistischere. Die dunkle Seite der digitalen Medizin könnte auch anders aussehen: Patienten werden als Kunden überflutet von Angeboten zahlloser digitaler Gesundheitsanbieter, ärztliche Kompetenz wird durch digitale Technologie ersetzt, die von Unternehmen betrieben wird. Krankenkassen benutzen Gesundheitsdaten zur effizienten Kalkulation von einzusparenden Ressourcen. Unheilvolle Allianzen mit unternehmerischen Interessen und der Handel mit digitalen medizinischen Daten bahnen sich bereits an. Das britische Gesundheitssystem, NHS, hat dem IT-Giganten Google bereits Zugang zu medizinischen Daten von 1,6 Millionen Patienten verschafft. Die juristischen Implikationen scheinen dabei ebenso intransparent wie die Entscheidungsbasis der entwickelten Algorithmen selbst. Schnell hat sich die Technologie verselbständigt, bevor ethische und juristische Grenzen gezogen werden können. Die Mediziner und die Gesellschaft sind gut beraten, sich nicht von den technologischen Potentialen blenden zu lassen, sondern sich ihres Auftrags, Dienstleister im Sinne und zum Schutz des Patienten zu sein, zu besinnen und dennoch den Fortschritt gerade im Kampf gegen Krankheiten zu nutzen. Dazu sind sie aufgerufen, kompetent und proaktiv an der zukünftigen digitalen Entwicklung teilzunehmen.

Wie sicher ist die schöne, neue und vernetzte Welt? René Mayrhofer Zusammenfassung Dieser Beitrag versucht, die Sicherheit aktueller Computersysteme in einer zunehmend vernetzten Welt aus verschiedenen Gesichtspunkten zu betrachten. Da aktuelle Systeme und Netzwerke einen so hohen Komplexitätsgrad erreicht haben, dass eine umfassende Analyse aussichtslos scheint, werden in diesem Beitrag aktuelle Sicherheitsprobleme erläutert und im Kontext von praktischen Anwendungsfällen diskutiert. Soweit möglich, werden auch Ansatzpunkte für künftige Verbesserung vorgeschlagen. Der folgende Text ist in drei Hauptpunkte gegliedert: eine Betrachtung der Sicherheit einzelner Systeme, die Zunahme der Komplexität und Ausfallswahrscheinlichkeit in den immer länger werdenden Abhängigkeitsketten aus mehreren Systemen sowie die absehbare Einführung digitaler Identitäten und deren Auswirkungen auf unsere Privatsphäre. Einführung In der folgenden Ausführung wird für die Diskussion von Anforderungen an die Sicherheit von Computersystemen auf die in dieser Disziplin üblichen Begriffe aufgebaut: • Vertraulichkeit (confidentiality) beschreibt die Anforderung, dass geschützte Daten nur durch dafür autorisierte Benutzer bzw. Prozesse lesbar sein sollen. Dies soll typischerweise sowohl für gespeicherte Daten (data at rest) als auch für über Kommunikationskanäle übertragene Daten (data in transit) sichergestellt werden. Mögliche Maßnahmen, um Vertraulichkeit zu garantieren, unterscheiden sich jedoch drastisch zwischen diesen Varianten: Für vertrauliche Kommunikation ist Verschlüsselung der Nachrichten eine adäquate Option1, während für gespeicherte Daten abhängig von der 1 Durch koordinierte Initiativen vieler Hersteller und Organisationen ist der Anteil der standardmäßig verschlüsselten Datenübertragung im Internet im Jahr 2017 signifikant gestiegen, und zwar hauptsächlich durch den zunehmenden Einsatz von TLS/HTTPS für

120

René Mayrhofer

Systemarchitektur oftmals eine Kombination aus Verschlüsselung und Zugriffskontrolle (access control) z.B. in der Form von Zugriffslisten eingesetzt werden kann. • Integrität (integrity) beschreibt die Anforderung, dass Daten nicht unbemerkt durch nicht dafür autorisierte Benutzer verändert werden dürfen. Da eine Veränderung von Daten sowohl an deren Speicherort als auch während der Kommunikation prinzipiell immer möglich ist, kann technisch – wiederum durch den Einsatz von Kryptographie – nur garantiert werden, dass eine solche Änderung durch Dritte zumindest bemerkt werden kann. Übliche Mittel dazu sind sog. digitale Signaturen, für deren Erstellung ein Schlüssel benötigt wird, den in der Grundannahme nur der Absender bzw. Autor des Datenpakets besitzt, während beliebige Parteien die Signatur auf Korrektheit überprüfen können. • Verfügbarkeit (availability) beschreibt die Anforderung, dass ein System durch unberechtigte Parteien nicht in einen solchen Zustand versetzt werden darf, dass es für berechtigte Parteien nicht mehr erreichbar bzw. nicht mehr funktionsfähig ist. Diese Anforderung kann naturgemäß durch rein technische Maßnahmen nicht erfüllt werden – ein physisches Unterbrechen der Netzwerkverbindung oder ein einfaches Abschalten eines Zielsystems würde die Anforderung bereits verletzten –, sondern nur in Kombination mit organisatorischen Sicherheitsmaßnahmen wie z.B. physischer Zutrittskontrolle erbracht werden. • Authentifizierung (authentication) beschreibt den Vorgang, die behauptete Identität einer Partei (z.B. einer natürlichen Person oder allgemein eines Kommunikationspartners) zu verifizieren. Die Anmeldung an einem lokalen Computersystem zeigt dabei meist den Zweischritt aus Identifikation, also z.B. der Eingabe eines Benutzernamens, und der Authentifizierung, z.B. durch Eingabe eines Passworts. Biometrische Merkmale wie Fingerabdruck oder Gesichtserkennung können für eine Kombination beider Schritte herangezogen werden. Webzugriffe und die zunehmende Verbreitung von automatisch Ende-zu-Ende verschlüsselnden (end-to-end encrypted) Nachrichten- und Kommunikationsdiensten (messenger). Diese zunehmende Verbreitung von Verschlüsselung ist eine massiv positive Entwicklung für die Sicherheit von Datenkommunikation und schützt zum Teil vor einer Vielzahl möglicher Sicherheitsprobleme inkl. der weiter steigenden Massenüberwachung durch Staaten sowie Unternehmen.

Wie sicher ist die schöne, neue und vernetzte Welt?

121

• Die sprachliche Vermischung von Betriebssicherheit (safety) vs. Sicherheit gegenüber Angriffen (security) trägt oft zur Schwierigkeit der Diskussion bei. Im Rahmen dieses Beitrags wird Betriebssicherheit als die Resistenz gegen unbeabsichtigte Fehler durch legitime Benutzer definiert, während Sicherheit gegenüber Angriffen die Widerstandsfähigkeit gegen beabsichtigte Fehler durch bösartige Benutzer bezeichnet.

Sicherheit einzelner IT-Systeme Einzelne Systeme der sogenannten Informationstechnologie (IT) umfassen Computersysteme mit ihren internen Zuständen, Prozessen und ihren Ein- und Ausgabekanälen. In der klassischen Betrachtung in Form abstrakter Zustandsautomaten wird der interne Zustand des Systems durch dessen Programmcode weiterentwickelt. Dabei führt die Kombination aus dem aktuellen Zustand und den aktuellen Eingaben zu einem neuen internen Zustand sowie möglichen Ausgaben. Diese Betrachtung ist leider nur mehr für die einfachsten IT-Systeme ausreichend, um mögliche Sicherheitsprobleme zu verstehen und zu analysieren, für aktuell im Einsatz befindliche aber zu kurz greifend. Probleme in der Analyse entstehen z.B. durch Nebenläufigkeit (d.h. gleichzeitige oder verschachtelte Ausführung verschiedener Programme), mehrere Eingabekanäle (z.B. direkte Benutzerinteraktion über Tastatur oder Touchscreen sowie verschiedene Netzwerkschnittstellen), aber auch durch komplexe Interaktionen der verschiedenen Ebenen: Vom durch Programmierer geschriebenen Quellcode über die Übersetzung in Binärcode bis zur Ausführung auf der eigentlichen Hardware können sich Details ändern, die dann zu ungewolltem Verhalten führen. Das Hauptproblem aktueller IT-Systeme ist jedoch, dass bereits der Quellcode oft mit Fehlern übersät ist. Beispiele für fehlerhafte Programme sind zu vielfältig, um sie auch nur ansatzweise aufzuzählen, weshalb nur eine kleine Auswahl von Problemen herausgegriffen wird, die auch in allgemeinen Tagesmedien breit diskutiert wurden: • OpenSSL ist eine weit eingesetzte, im Quellcode frei verfügbare (open source) Programmbibliothek für Kryptographie und kryptographische Standardprotokolle wie TLS (früher SSL). Diese Bibliothek dient in den meisten Computersystemen – von einfachen vernetzten Schaltern und Lampen über Netzwerkserver bis hin zu aktuellen PKW – zur Implementierung von

122

René Mayrhofer

Sicherheitsanforderungen wie Vertraulichkeit und Integrität und ist oft in nicht (oder nicht einfach) veränderlichen Programmspeichern eingebaut. Die gefundenen Sicherheitsprobleme sind vielfältig2 und zum Teil schwerwiegend. Manche dieser Lücken können dazu benutzt werden, geheime Schlüssel auszulesen3 oder direkt die Kontrolle über solche Systeme zu übernehmen4, die veraltete Versionen der Bibliothek verwenden. • Aktuelle Mittelklasse-PKW sind standardmäßig bereits mit vernetzten Funktionen z.B. zur entfernten Lokalisierung des Autos, Abruf von Stauinformationen oder Kartenmaterial, automatischem Notruf etc. ausgerüstet. Dazu nehmen sie über Mobilfunknetze Verbindung zu verschiedenen Servern auf und können Kommandos empfangen. Bereits 2015 wurde öffentlich demonstriert, wie ein solches Auto durch entsprechende Lücken in der Software aus der Ferne gesteuert werden konnte, inkl. der Betätigung der Bremsen oder der Kontrolle des Motors5. • WLAN-Router und andere kleine Netzwerkgeräte finden sich bereits in den meisten Haushalten und werden oft durch Laien eingerichtet und betreut und, sofern sie funktionieren, nicht weiter beachtet. Im Jahr 2016 wurden durch das „Mirai“-Botnetz Sicherheitslücken in vielen dieser Geräte ausgenutzt, um im Internet massive Ausfälle zu erzeugen (sog. Distribut­ ed Denial-of-Service Angriffe, DDoS) und damit die Verfügbarkeit von Systemen zu verletzen6, 7. In Österreich wurde z.B. auch das Netz der A1 Telekom das Opfer solcher Angriffe, und die Datenkommunikation von Mobilnutzern wurde zeitweise lahm gelegt 8.

2 S. https://www.openssl.org/news/vulnerabilities.html für eine regelmäßig aktulisierte Liste. 3 Siehe http://heartbleed.com/ für die sogenannte „Heartbleed“-Lücke in OpenSSL. 4 OpenSSL Security Advisory, Fix Use After Free for large message sizes (CVE-2016– 6309), Sept. 2016, https://www.openssl.org/news/secadv/20160926.txt und https://nvd. nist.gov/vuln/detail/CVE-2016–6309. 5 A. Greenberg, Hackers Remotely Kill a Jeep on the Highway—With me in it, Wired, Juli 2015, https://www.wired.com/2015/07/hackers-remotely-kill-jeep-highway/. 6 B. Krebs, DDoS on Dyn Impacts Twitter, Spotify, Reddit, Oktober 2016, https://krebsonsecurity.com/2016/10/ddos-on-dyn-impacts-twitter-spotify-reddit/. 7 D. Goodin, How Google fought back against a crippling IoT-powered botnet and won, Ars Technica, Feb. 2017, https://arstechnica.com/information-technology/2017/02/howgoogle-fought-back-against-a-crippling-iot-poweredbotnet-and-won/. 8 M. Sultbacher, Cyberattacke auf A1: „Das Internet ist kein Ponyhof“, Der Standard, 9. 2.2016, https://derstandard.at/2000030625936/Cyberattacke-auf-A1-Das-Internet-ist-kein-Ponyhof.

Wie sicher ist die schöne, neue und vernetzte Welt?

123

• Noch schwerwiegender sind Softwarefehler in medizinischen Geräten wie z.B. Herzschrittmachern, welche durch drahtlose Schnittstellen umprogrammiert werden können. So wurden z.B. Geräte der Firma St. Jude Medical Inc. analysiert und als unzureichend geschützt entlarvt9 und diese Lücken breit publiziert, wonach der Aktienkurs dieser Firma signifikante Verluste hinnehmen musste. Neben dem offensichtlichen Problem für Leib und Leben beim Vorliegen solcher Sicherheitslücken steht auch die Vermutung im Raum, dass mit der Publikation der Lücke bewusst eine Manipulation des Aktienkurses angestrebt wurde10. • Als immer wiederkehrendes Problem stellen sich derzeit sogenannte Verschlüsselungstrojaner dar: Dies sind Programme, die scheinbar sinnvolle Aufgaben erfüllen, jedoch im Hintergrund alle durch den ausführenden Benutzer zugreifbaren Dateien verschlüsseln und den Schlüssel zur Entschlüsselung nur nach Bezahlung eines Lösegelds herausgeben. Solche Angriffe sind insofern problematisch, als sie nicht per se eine Sicherheitslücke ausnützen, sondern nur die bestehenden Zugriffsrechte von angemeldeten Benutzern missbrauchen. Der Angriff ist weniger ein technischer als ein psychologischer – Benutzer werden meist getäuscht und zur Ausführung bösartiger Programme gebracht.
Der Effekt ist jedoch ebenfalls, dass die Verfügbarkeit von Systemen und Daten nicht mehr gewährleistet ist und in der jüngeren Vergangenheit bereits Krankenhäuser und öffentlicher Verkehr von Ausfällen durch Verschlüsselungstrojaner betroffen waren, wie z.B. erst 2017 durch den Wurm „WannaCry“11, 12. Gründe für die Schwierigkeit, sicheren Programmcode zu schreiben, sind vielfältig. Einerseits ist das gewollte Verhalten eines Systems oft unscharf definiert und muss durch Programmierer während der Entwicklung oft erst im Detail festgelegt werden. Andererseits ist die Komplexität selbst scheinbar einfacher 9 M. Green, A few notes on Medsec and St. Jude Medical, Feb. 2018, https://blog.cryptographyengineering.com/2018/02/17/a-few-notes-on-medsec-and-st-jude-medical/. 10 R. Graham, Notes on that StJude/MuddyWatters/MedSec thing, Aug. 2016, http://blog.erratasec.com/2016/08/noteson-that-stjudemuddywattersmedsec.html. 11 M. Lee, W. Mercer, P. Rascagneres und C. Williams, Player 3 Has Entered the Game: Say Hello to 'WannaCry', Talos Intelligence Blog, Mai 2017, http://blog.talosintelligence. com/2017/05/wannacry.­html Talos Intelligence Blog, Mai 2017, http://blog.talosintelligence. com/2017/05/wannacry.­html 12 N. Perlroth und D. E. Sanger, Hackers Hit Dozens of Countries Exploiting Stolen N.S.A. Tool, NY Times, 12. Mai 2017, https://www.nytimes.com/2017/05/12/world/europe/uknational-health-service-cyberattack.html

124

René Mayrhofer

Systeme wie Lichtschalter, Armbanduhren, Airbag-Steuerungen oder der genannten Herzschrittmacher bereits so hoch, dass einzelne Programmierer diese nicht mehr auf einmal beherrschen können. Gleichzeitig ist die Disziplin der Softwareentwicklung (software engineering) noch vergleichsweise jung, und die aktuell zur Verfügung stehenden Methoden und Werkzeuge sind offensichtlich noch nicht ausreichend tauglich, um die Komplexität durch korrekte Abstraktionen und Sicherheitsfaktoren wie in den meisten anderen Ingenieursdisziplinen zu handhaben – Sicherheitsfaktoren als solche sind in der Softwareentwicklung derzeit praktisch nicht vorhanden, und ein einzelner marginaler Fehler (wie z.B. die häufig anzutreffende Abweichung um eine Stelle bei der Iteration durch ein Array, der sog. off-by-one Fehler) kann zu katastrophalem Fehlverhalten des gesamten Systems führen. Verstärkt wird die Explosion der Komplexität noch dadurch, dass in der Softwareentwicklung als eine wesentliche, notwendige Abstraktion die Hardware, auf der Programme ausgeführt werden, meist als fehlerfrei angenommen wird. Dies ist in der Praxis jedoch nicht der Fall, und einfaches „Umkippen“ einzelner Bits (bit flipping) kommt sowohl auf Massendatenspeichern wie Festplatten oder Flash als auch im volatilen Speicher (RAM) vor, hervorgerufen durch verschiedenste Effekte von Hintergrundstrahlung bis zu Produktionsfehlern. Solche Hardwareprobleme können dann gezielt ausgenutzt werden, um Software in eigentlich unmögliche Zustände zu bewegen und damit – selbst bei sonst vollkommen fehlerfreiem Programmcode – Sicherheitsprobleme zu erzeugen. Ein aktuelles Beispiel sind die „Meltdown“ und „Spectre“ getauften Lücken in vielen aktuellen Prozessoren, durch die beinahe beliebige Speicherbereiche auslesbar sind und die durch Änderungen in der Software nur zum Teil behoben werden können13, 14. Zusammenfassend kann festgehalten werden, dass es aktuell beinahe unmöglich scheint, Software in nicht-trivialer Komplexität korrekt und sicher zu implementieren, sofern die Kosten dafür in einem ökonomisch konkurrenzfähigen Rahmen gehalten werden sollen. Die Konsequenz ist aber, dass

13 M.Lipp, M. Schwarz, D. Gruss, T. Prescher, W. Haas, S. Mangard, P. Kocher, D. Genkin, Y. Yarom und M. Hamburg, Meltdown, ArXiv e-prints, 1801.01207, Jan. 2018, https://arxiv.org/abs/1801.01207. 14 P. Kocher, D. Genkin, D. Gruss, W. Haas, M. Hamburg, M. Lipp, S. Mangard, T. Prescher, M. Schwarz und Y.Yarom, Spectre Attacks: Exploiting Speculative Execution, ArXiv e-prints, 1801.01203, Jan. 2018, https://arxiv.org/abs/1801.01203.

Wie sicher ist die schöne, neue und vernetzte Welt?

125

wir grundlegend neue Einsichten und Methoden benötigen, um das Problem (un-)sicherer Software zu lösen. Zusammenfassend kann festgehalten werden, dass es aktuell beinahe unmög­ lich scheint, Software in nicht-trivialer Komplexität korrekt und sicher zu implementieren, sofern die Kosten dafür in einem ökonomisch konkurrenzfähigen Rahmen gehalten werden sollen. Die Konsequenz ist aber, dass wir grundlegend neue Einsichten und Methoden benötigen, um das Problem (un-)sicherer Software zu lösen.

Abbildung 1: Holistische Betrachtung der gesamten Kette der sicheren Softwareentwicklung

An der Johannes Kepler Universität Linz wurde daher eine Initiative gestartet, um mehrere Spezialbereiche innerhalb der Informatik zu kombinieren. Der Hauptansatz ist, nicht nur mehr einzelne, ausgewählte Teile im ­Prozess der Softwareentwicklung zu betrachten, sondern die gesamte Kette von der ursprünglichen Spezifikation der Anwendung über die Entwicklung des Quellcodes, dessen Übersetzung in Binärcode, die Verteilung, Inbetriebnahme und Ausführung bis hin zur Überwachung und Aktualisierung und zuletzt der Außerbetriebnahme­holistisch zu betrachten (vgl. Abb. 1). Anforderungen aus der entsprechenden Domäne wie z.B. Wertebereiche einzelner Variablen mit spezifischem physikalischem Hintergrund, Nebenbedingungen, Kon-

126

René Mayrhofer

sistenzprüfungen oder unmögliche Zustände sollen von der Spezifikation in den Quellcode – am besten automatisiert – übertragen werden können und dann über die gesamte Kette erhalten bleiben. Jede Stufe kann dann diese Anforderungen erneut überprüfen, sodass idealerweise Fehler in einer Stufe in der jeweils nächsten gefunden und Verletzungen verhindert werden können. So könnte z.B. die Ausnützung von Hardwarefehlern nicht mehr zu ungültigen Zuständen führen, wenn die Ausführungsumgebung erneut eine Überprüfung gültiger Zustände lt. Spezifikation durchführen kann bzw. könnten solche Zustände durch Überwachung der Programmausführung automatisiert erkannt und beendet werden. Diese Vorgehensweise kann als eine Erweiterung des aktuellen Prinzips der Verteidigung über mehrere Ebenen (defense in depth) gesehen werden. Für Angreifer reicht es, eine bestimme Lücke zu finden, um die Sicherheitsmaßnahmen einer Ebene zu überwinden. Verteidiger hingegen, also Entwickler und Betreiber von IT-Systemen, müssten alle Lücken stopfen, was im aktuellen Stand der Entwicklung nicht realistisch scheint. Daher muss Sicherheit gegen Angriffe auf allen Ebenen stattfinden, damit Angreifer nicht mehr nur eine Lücke finden und erfolgreich ausnützen können, sondern eine Lücke pro Ebene benötigen und zudem einen Weg finden müssen, diese verschiedenen Lücken verkettet einzusetzen, um Kontrolle über ein System zu erlangen (aktuelle Angriffe setzen oft schon auf eine Kette mehrere Lücken)15.

Abhängigkeitsketten Analytisch betrachtet kondensiert sich der Unterschied zwischen Safety (Betriebssicherheit) und Security (Sicherheit gegen Angriffe) auf eine massive Verschiebung der Eintrittswahrscheinlichkeiten von Fehlern, da die Bedingungen für deren Eintritt durch Angreifer gesteuert werden können. Anstelle zufälliger Bitfehler oder einer regelmäßigen Verteilung verschiedener Eingaben versuchen Angreifer, exakt diejenigen Bedingungen herzustellen, die einen sonst unwahrscheinlichen Fehlerfall produzieren. Durch Sicherheitsmaßnahmen auf verschiedenen Ebenen kann die notwendige Kette solcher Fehler verlängert werden, wodurch jedoch nur die Komplexität für einen erfolgreichen Angriff steigt, jedoch nicht automatisch die gesamte Eintrittswahrscheinlichkeit un15 M. Jain und S. Roberts, Android Security Ecosystem Investments Pay Dividends for Pixel, Google Security Blog, Jan. 2018, https://security.googleblog.com/2018/01/android-security-ecosystem-investments.html

Wie sicher ist die schöne, neue und vernetzte Welt?

127

ter dem Gesichtspunkt eines aktiven, intelligenten Angreifers sinkt. Die ­beste Verteidigung ist daher, ungültige Zustände soweit möglich zu verhindern. In vielen Fällen bedeutet dies, dass die Ausführung eines Programms zu dem Zeitpunkt, an dem Annahmen aus der Spezifikation verletzt sind, beendet werden muss 16. Dadurch können zwar Verletzungen von Vertraulichkeit oder Integrität verhindert werden (das Programm wird beendet, bevor vertrauliche Daten ausgegeben oder verändert werden), die gewollte Funktionalität fällt aber aus – man tauscht eine Verletzung von Vertraulichkeit oder Integrität gegen eine Verletzung von Verfügbarkeit. Mangelnde Verfügbarkeit ist das zweite Hauptproblem aktueller IT-Architekturen. Um die gesamte Dimension des Problems zu betrachten, ist es notwendig, über einzelne IT-Systeme hinweg auf deren Vernetzung untereinander und die entstehenden übergeordneten Strukturen zu blicken. Viele aktuelle Systeme bauen auf Internetdienste, um aktuelle Daten zu erhalten oder Berechnungen zentralisiert durchzuführen. Neben der oft zitierten und aus kommerzieller Sicht gewünschten Bindung an einzelne Anbieter (vendor lock-in) sprechen gute Gründe für eine solche Zentralisierung: • Ökonomische und ökologische Effizienz: Bündelung von Ressourcen in Rechenzentren ist generell effizienter als eine Verteilung über viele getrennte Installationen, da z.B. Stromversorgung, Kühlung, Anbindung an mehrere Internet-Knotenpunkte usw. von größeren Strukturen profitieren. • Professionalisierung: Zentralisierte Dienste erlauben auch eine Installa­tion und den Betrieb durch Fachpersonal sowie Sicherungsmaßnahmen wie Notstromversorgung oder mehrstufige Backup-Konzepte, die bei kleinen, verteilten Installationen üblicherweise nicht verwendet werden. Überlineare Skalierungseffekte durch ��������������������������������� „Big Data“: Besonders zur Bekämp• ���������������������������������������������������������������������� fung von Missbrauch ist ein möglichst großer Überblick über die Vorgänge in einem Netzwerk hilfreich, wie z.B. bei der Erkennung von unerwünschten Massen-Emails (Spam) leicht ersichtlich ist: Zentrale Dienste können leichter und schneller erkennen, wenn sehr ähnliche Emails an viele Empfänger versandt werden, als verteilte Server, die jeweils nur einen kleinen Teil des Email-Aufkommens analysieren können. Noch drastischer wird der 16 Eine Rückkehr in einen geordneten Zustand ist in manchen Fällen möglich, indem z.B. nur die betroffenen Teile eines Gesamtsystems auf bekannt gute Zustände zurückgesetzt werden. Im allgemeinen Fall kann ein solcher failsafe Zustand aber nicht garantiert ­werden.

128

René Mayrhofer

Gewinn durch zentrale Bündelung von Daten bei Verwendung von derzeit erfolgreichen Deep Learning Modellen des maschinellen Lernens, die für ein effektives Training deutlich mehr Daten als frühere Modelle benötigen. Derzeit zeichnet sich daher ein klarer Trend in Richtung Zentralisierung und Konvergenz von Diensten zu großen Anbietern ab, und manche Zweige wie z.B. sprachgesteuerte Assistenzsysteme sind aktuell nur von wenigen zentralisierten Anbietern am Markt erhältlich (Amazon Alexa, Apple Siri und ­Google Assistant), während dezentrale Ansätze momentan keine Konkurrenz mit ähnlichem Funktionsumfang oder vergleichbarer Qualität bieten können. Allerdings ergibt sich dadurch eine direkte Abhängigkeit von zentralen Diensten. Sind diese entweder nicht verfügbar oder nicht erreichbar (weil eine der vielen Verbindungsstrecken zwischen dem jeweiligen Client und dem zentralen Dienst gestört ist), so kann die Funktionalität nicht abgerufen werden und die Verfügbarkeit ist gestört. Eine Zentralisierung tritt derzeit für die meisten Arten von IT-Diensten ein, z.B. Bezahlsysteme (online für Internethandel sowie Kartenzahlungen in physischen Ladengeschäften oder Dienstleistungen), Echtzeitkommunikation (instant messaging und voice-over-IP ), Wetterdienste, Spracherkennung, Bildsuche, Übersetzungsdienste u.v.a.m. Sind diese zentralen Dienste nicht erreichbar, so kann der Client seine Funktion nicht erbringen und z.B. für eine Ware oder Leistung nicht bezahlt werden, oder eine Heizungssteuerung fällt mangels Außentemperaturinformation aus. Neben dem direkten Einsatz zentraler Dienste werden zudem im Hintergrund oft weitere Dienste benötigt. Konkrete Beispiele sind vielfältig, von Dropbox als Dateispeicher- und -teildienst, welcher im Hintergrund Amazon AWS verwendet, und der Verwendung von Facebook als Login-Dienst für viele Webpages von Drittenbietern über „smarte“ Thermostate, die zentrale Wetterdienste und je nach Produkt auch zentrale Steuerungsdienste benötigen, bis hin zu Elektro-Ladesäulen, die auf Bezahldienste zurückgreifen. Schnell ergeben sich komplexe Ketten aus Abhängigkeiten, wie sich an einem plakativen und bereits lebenswichtigen Beispiel demonstrieren lässt: • Elektronische Stromzähler (sog. Smart Meter) setzen z.T. auf das Mobilfunknetz (GSM bis LTE), um mit zentralen Servern zu kommunizieren. • Das lokale Stromnetz, welches durch kleine lokale Energieerzeuger wie z.B. Photovoltaik oder Windkraftwerke dynamisch auf sich ändernde Wetterund Lastbedingungen reagieren muss (Smart Grid), setzt auf Smart Meter zur Steuerung dieser lokalen Lastverteilung.

Wie sicher ist die schöne, neue und vernetzte Welt?

129

• Das Mobilfunknetz wiederum benötigt lokale Stromversorgung und intakte Verbindungsleitungen sowie zentrale Serverdienste für den Datentransport. Bei genauer Betrachtung entsteht hier nicht nur eine Kette aus mehreren Syste­ men, sondern ein Zyklus, in dem alle Systeme korrekt funktionieren müssen, damit das Gesamtsystem verfügbar bleibt. Bricht nur ein System weg – wie z.B. das Mobilfunknetz –, so können auch die anderen Teile – wie z.B. das lokale Stromnetz – einbrechen. Unter der vereinfachten Annahme, dass die Ausfallswahrscheinlichkeit eines einzelnen Systems p beträgt (und der für dieses Argument getroffenen Annahme, dass alle beteiligten Subsysteme eine gleiche Ausfallswahrscheinlichkeit haben), so beträgt die Ausfallswahrscheinlichkeit für ­eine Kette (bzw. einen Zyklus) aus n solcher Systeme ptotal =1−(1−p) n. Das bedeutet, die Ausfallswahrscheinlichkeit steigt exponentiell mit der Länge der ­Abhängigkeitskette. Kombiniert mit der Erkenntnis, dass für die Sicherheit gegen Angriffe (im Gegensatz zur Betriebssicherheit) die einzelnen Eintrittswahrscheinlichkeiten nicht mehr ihren normalen Verteilungen folgen, sondern von Angreifern kontrolliert werden, ergeben sich akute Gefahren für aktuelle Systeme. Manche fiktive Szenarien zum gezielten Angriff auf Stromnetze und deren Implikatio­ nen17 wirken aus technischer Sicht erschreckend realistisch. Sowohl die im ersten Abschnitt diskutierte Problematik, sicheren Code zu erstellen, als auch die größer werdenden Abhängigkeiten zwischen solchen anfälligen Systemen erzeugen akuten Handlungsbedarf in Bezug auf die Sicherheit unserer ITSysteme, die immer mehr zum geordneten Alltag und der Aufrechterhaltung unserer Gesellschaftssysteme und sozialen Strukturen benötigt werden. Während eine Lösung des Problems sicherer Software z.T. grundlegend neue Ansätze der Softwareentwicklung benötigt, scheint das Problem der Abhängigkeitsketten aus technischer Sicht leichter lösbar: Alle zentralen bzw. über Kommunikationsnetze entfernten Dienste sollten durch lokale Alternativen – unter Umständen mit verringerter Qualität – ersetzbar sein. Wenn ein Wetterdienst nicht erreichbar ist, kann eine Heizungssteuerung auf ein lokales Außenthermo­meter und ein einfaches Wettermodell zurückgreifen. Wenn ein zentraler Spracherkennungsdienst nicht funktioniert, kann ein einfaches lokales Modell einen verringerten Wortschatz erkennen. Wenn zellenbasierte 17 M. Elsberg, Blackout – Morgen ist es zu spät, Blanvalet Verlag, 2012, ISBN 978-3-76450445-8.

130

René Mayrhofer

Mobilfunkkommunikation (GSM/LTE) gestört ist, könnten Geräte in lokaler Umgebung direkt per Nahstreckenfunk wie Wi-Fi (802.11 WLAN) kommunizieren. Leider ist ein solcher „Plan B“ (fallback) beim Ausfall zentraler Dienste nicht immer einfach und manchmal kaum möglich. Wie soll z.B. eine ElektroLade­säule agieren, wenn der Bezahldienst nicht erreichbar ist? Wie soll ein Lastausgleich über verschiedene Teile eines Stromnetzes geregelt werden, wenn die Datenkommunikation gestört ist? Ausfallsszenarien werden kommerzielle, Qualitäts- oder Effizienznachteile bedingen. So könnten z.B. Elektro-Ladesäulen bei Nichtverfügbarkeit der Bezahldienste eine gewisse Menge an Ladekapazität pro Fahrzeug gratis zur Verfügung stellen (ohne hier die Diskussion zu führen, ob das verbliebene finanzielle Risiko für den Anbieter auf Versicherungen, die Allgemeinheit der Steuerzahler oder den normalen Ladepreis aufgeteilt werden soll). Die Regelung von Stromnetzen muss u.U. zur Erhöhung der Ausfallssicherheit mit mehreren parallelen Datenverbindungen und lokaler, verteilter Notstromversorgung ausgerüstet werden bzw. bleiben, und Einsparungen durch den Einsatz üblicher Internetverbindungen können nicht voll realisiert werden. Diese Kompromisse zwischen Effizienz, Komfort, Funktionalität und Sicher­ heit (in beiden Wortbedeutungen) werden weiter zu diskutieren sein und benötigen einen direkten Dialog zwischen technischen Implementierungen, kommerziellen Interessen und Regulativen. Es wäre jedoch töricht, diese Diskussionen aufzuschieben und auf weitere große Systemausfälle – egal ob durch Unfall oder Angriff – zu warten.

Digitale Identitäten Ein besonderer Anwendungsfall für sichere IT-Systeme sind bereits eingesetzte und kommende sogenannte digitale Identitäten. Digitale Identitäten beschreiben im allgemeinen Fall eine Menge von Attributen über (meistens natürliche) Personen. Typische Attribute sind Name, Geburtsdatum, Identifikationsnummern und viele weitere wie Gesichtsbild, Geburtsort, Berechtigungsnachweise, Wohnadresse u.v.a.m., vergleichbar mit den in herkömmlichen Ausweisdokumenten abgedruckten Datenfeldern. Für digitale Identitäten gibt es verschiedene Einsatzgebiete, die aktuell primär den Online-Einsatz zur Anmeldung an Webseiten (in Österreich z.B. FinanzOnline) oder zur digitalen Unterzeich­ nung von Dokumenten abdecken. Aktuell verbreitete Vertreter dieser Art von

Wie sicher ist die schöne, neue und vernetzte Welt?

131

Abbildung 2: Konzept zu digitalen Identitäten für Authentifizierung in der physischen Welt (Grafik von Michael Hölzl)

digi­talen Identitäten sind z.B. die österreichische Bürgerkarte, die estländischen und finnischen ID-Cards oder der deutsche neue Personalausweis (nPA), welche alle auf Plastikkarten mit eingesetzten Smartcard-Chips setzen, die von Behörden ausgegeben und mit entsprechenden Lesegeräten zur digitalen Authen­ ti­fizierung der Identität einer natürlichen Person eingesetzt werden können. Weniger üblich sind jedoch digitale Identitäten, die zur Identifikation und Authentifizierung natürlicher Personen für Transaktionen in der physischen Welt eingesetzt werden können, also als einen direkten Ersatz für aktuell gebräuchliche Papier- oder Plastikausweise. Die Vision, virtuelle Reisepässe auf Smartphones verwenden zu können, scheint für weltweite Reisen noch in weiter Zukunft zu liegen, da die Mehrheit der Nationalstaaten dazu einen gemeinsamen Standard akzeptieren und umsetzen müsste. Nationale Einsatzmöglichkeiten wie digitale Führerscheine sind schon deutlich früher umsetzbar, und es gibt bereits ­aktive Standardisierungsgremien, die sich mit diesem Thema befassen. Im Rahmen des Josef Ressel Zentrums für User-Friendly Secure Mobile Environments (JRC u’smile, https://usmile.at) haben wir uns in den vergangenen zwei Jahren intensiv mit dem Thema digitaler Identitäten für die physische Welt beschäftigt und zum Abschluss des Zentrums im September 2017 einen Prototyp für einen österreichischen Führerschein auf Android Smartphones vorgestellt (AmDL, Austrian mobile Driving License). Das Konzept setzt auf höchste Standards zur Sicherung der Pri-

132

René Mayrhofer

vatsphäre und erlaubt eine feingranulare Kontrolle des Zugriffs auf Attribute einer digitalen Identität, ohne jedoch die möglichen Anwendungsfälle einzuschränken oder Lesegeräte gezwungenermaßen durch zentrale Stellen zertifizieren zu lassen18. Das Projekt wurde durch die Christian Doppler Gesellschaft sowie A1 Telekom Austria AG, Drei Banken EDV GmbH, LG NEXERA Business Solutions AG, NXP Semiconductors Austria GmbH und Österreichische Staatsdruckerei finanziert und gemeinsam mit SBA Research GmbH durchgeführt. AmDL sieht die Verwendung sicherer Smartcards in Mobiltelefonen sowie die lokale, dezentrale Kommunikation über NFC und andere Nahfunktechnologien vor (vgl. Abb. 2 ). Kryptographische Protokolle sorgen für die notwendigen Garantien in Bezug auf Vertraulichkeit, Integrität, Authentizität und Privatsphäre der mit den digitalen Identitäten getätigten Transaktionen, und erste Software-Implementierungen im Prototypstadium liegen vor. Das Konzept zu AmDL setzt auch darauf, dass Geräte direkt miteinander kommunizieren und digitale Identitäten verwenden und verifizieren können, ohne zu dem Zeitpunkt mit zentralen Servern verbunden zu sein – also eine vollständige Offline-Fähigkeit für Szenarien, in denen keine Internetverbindung verfügbar ist. Dadurch ist ein Teil der Abhängigkeitskette durchbrochen, denn im Gegensatz zu anderen Konzepten können digitale Identitäten nach diesem Ansatz auch verwendet werden, wenn die zentralen Dienste nicht erreichbar sind. Periodisch ist ein Kontakt zu solchen Servern zwar nötig, um z.B. Widerrufs- und Sperrlisten zu aktualisieren und neue kryptographische Schlüssel zu übertragen, aber im täglichen Betrieb gibt es keine direkte Abhängigkeit. Ein aktuell noch ungelöstes Problem ist das der Backups: Wenn ein Smartphone auch die Funktion des Identitätsdokuments einnimmt, wird ein Verlust noch drastischere Auswirkungen haben und eine schnelle Wiederherstellung der Daten und Funktionen auf einem neuen Gerät kritisch. Dieses Problem ist schwierig zu adressieren, weil: • Backups aufgrund der hochsensiblen Daten verschlüsselt auf Servern gespeichert werden müssen; • der Schlüssel von hoher Qualität (sogenannter Entropie) sein muss, um Brute-Force-Angriffen Stand zu halten, und daher nicht direkt von einer einfachen PIN oder einem kurzen Passwort abgeleitet werden kann; 18 M. Hölzl, M. Roland and R. Mayrhofer, Real-world Identification for an Extensible and Privacy-preserving Mobile eID, 12th IFIP WG 9.2, 9.6/11.7, 11.6/SIG 9.2.2 International Summer School, Springer-Verlag, Sept. 2017.

Wie sicher ist die schöne, neue und vernetzte Welt?

133

• Benutzer in Stresssituationen (nach dem Verlust des Smartphones) sich vermutlich nicht an ein ausreichend starkes Passwort, welches sie vor Jahren angelegt und seitdem nie verwendet haben, erinnern können; • und zentrale Speicherung von Schlüsseln ein großes Missbrauchspotenzial bietet und daher zu vermeiden ist. Am Institut für Netzwerke und Sicherheit der Johannes Kepler Universität Linz wird dieses Problem derzeit aktiv analysiert, und verschiedene BackupKonzepte in Verbindung mit biometrischer Authentifizierung werden entwickelt. Wir erwarten jedoch, dass es noch für einige Zeit ungelöst bleiben wird und damit den weitreichenden Einsatz digitaler Identitäten verzögern kann. Die mittelfristige Zukunft digitaler Identitäten liegt jedoch vermutlich nicht in der Bindung an Smartphones, sondern in Identitäten in der „Cloud“, um ohne die Notwendigkeit persönlicher Geräte identifiziert werden und Dienstleistungen in Anspruch nehmen zu können. Die Vision, ohne jegliche physische Identifikationsdokumente oder sonstige Mitbringsel einkaufen, reisen und generell durch die Welt gehen zu können, ist sicherlich eine verlockende. Eine offensichtliche Möglichkeit zur Realisierung ist, zentrale Datenbanken mit biometrischen Merkmalen aufzubauen, durch die natürliche Personen jederzeit und überall identifiziert werden können. Solche Datenbanken sind bereits im Aufbau, z.B. in Indien in Form von Aadhaar 19, dessen Verwendung für Bürger bereits teilweise verpflichtend ist, um Bankkonten zu eröffnen oder Sozialleistungen in Anspruch zu nehmen. Es ist nicht überraschend, dass bereits Sicherheitsprobleme mit dieser zentralen Datenbank aufgetreten sind und die persönlichen Daten von über einer Milliarde Menschen gefährdet sind20. Zentrale Datenbanken mit biometrischen Merkmalen und anderen Attributen digitaler Identitäten sind offensichtlich lohnende Ziele für Angriffe und eröffnen massives Potenzial für Missbrauch. Wenn alle Interaktionen, die eine Identifikation in der physischen Welt verlangen – z.B. die Verwendung öffentlicher Verkehrsmittel, Reisen, Einkäufe oder einfacher Altersnachweis beim Eintritt –, über zentrale Systeme abgewickelt werden, gibt es keine technischen Hürden gegen eine totale Überwachung der Bevölkerung mehr; politischer, sozialer oder kommerzieller Missbrauch ist nur mehr eine Frage von Richt­linien und Poli19 S. Rai, Why India's identity scheme is groundbreaking, BBC News, 6. Juni 2012, http:// www.bbc.com/news/worldasia-india-18156858. 20 V. Doshi, A security breach in India has left a billion people at risk of identity theft, Washington Post, 4. Jan. 2018, https://www.washingtonpost.com/news/worldviews/wp/ 2018/01/04/a-security-breach-in-india-has-left-a-billionpeople-at-risk-of-identity-theft.

134

René Mayrhofer

tik, welche sich jedoch kurzfristig ändern können21. Eine große Herausforderung für zukünftige digitale Identitäten wird daher sein, wie diese ohne lokal mitgeführte vertrauenswürdige Geräte, aber gleichzeitig in einer dezentralen Architektur ohne solche großen Datenbanken implementiert werden können. Konzepte dazu (vgl. Abb. 3) sind derzeit Gegenstand aktiver Forschung.

Abb. 3: Konzept einer dezentralen digitalen Identität in der Cloud

Zusammenfassung Die Sicherheit von IT-Systemen ist aktuell als fragil anzusehen, und auf mehreren Ebenen besteht akuter werdender Handlungsbedarf, um die Lücken zu schließen: Sowohl in der Entwicklung sicherer Software für einzelne ­Systeme als auch in der Vernetzung von Systemen zu größeren Strukturen ist ein Umdenken notwendig, und neue Konzepte müssen entwickelt und zum Einsatz gebracht werden. Digitale Identitäten sind ein besonderes Anwendungs­gebiet, das viele Anforderungen an sichere IT-Systeme vereint und zudem mit höchst persönlichen Daten in Verbindung steht. Konzepte zur Verwendung digitaler Identitäten für Interaktionen in der physischen Welt sind daher einerseits eine interessante Quelle von Anforderungen für die aktive Forschung zu Computer­sicherheit, andererseits eine der kritischen mittelfristig zu lösenden Problemstellungen. 21 R. Mayrhofer, Eine digitale Revolution der Identität, TEDxLinz, Nov. 2017, https:/www. youtube.com/watch?v=hxnI553YDbQ

Komponieren im Spannungsfeld von Intuition & Algorithmik Karlheinz Essl

Wie  entsteht eine Komposition? Die heute noch weit verbreitete Vorstellung stammt aus dem 19. Jahrhundert: Sie betrachtet den Komponisten / die Komponistin als musengeküsstes Genie, das Kraft seiner Intuition unsterbliche Werke erschafft. Diese Sichtweise ent­springt einer romantischen Verklärung des schöpferischen Menschen, der als Demiurg autonom schaltet und waltet, getrieben von einem unbedingten und radikalen Ausdrucksbedürfnis. Damit wird Kunst (und nicht nur die Musik) zu einem Religionsersatz und der Künstler zu einer Art Hohepriester und Erlöser hochstilisiert, deutlich zu erkennen etwa in der zwiespältigen Per­ son Richard Wagners. Trotz der rasanten gesellschaftlichen, politischen und technologischen Umbrüche des 20. Jahrhunderts hat sich dieser Mythos bis heute hartnäckig erhalten. Dass Musik aber zu allen Zeit auch eine durch­aus ratio­nale Basis hat, soll im Folgenden näher erläutert werden. Aus der wechselseitigen Durchdringung von Kalkül und Intuition könnte eine an der Realität unserer Welt orientierte Neue Musik erwachsen, die weder ein abstraktes Glasperlenspiel noch eine romantische Mystifikation darstellt.

Musik & Zahl Machen wir zunächst einen Abstecher in die Antike, zu Pythagoras von Samos (um 600 v. Chr).

Abb. 1: Pythagoras mit Monochord Franchino Gaffurio, „Theorica musicae“ (1492)

Er war nicht nur Philosoph und Mathematiker, sondern beschäftigte sich auch mit musikalischen Fragestellungen. Seine Vermessungen der schwingenden Saite eines Monochords führten ihn zu der Erkenntnis, dass musikalische Inter­

136

Karlheinz Essl

valle (also die Relationen zwischen den Tönen) auf einfachen Zahlenverhältnissen basieren. Darin glaubte er eine Widerspiegelung kosmischer Ordnung zu er­kennen, die sich in den „Sphärenharmonien“ manifestiert und die der Astronom Johannes Kepler (1571–1630) mehr als zweitausend Jahre später an den Umlaufbahnen der Planeten erforschte. Makro- und Mikrokosmos können aufeinander bezogen werden, da sie dieselbe mathematische Grundlage haben: Schwingungen – also periodische Pulsationen in der Zeit – projiziert auf unterschiedliche Zeitmaßstäbe, wodurch sich nicht nur die Quantität, sondern vor allem die Qualität ändert. Karlheinz Stockhausen hat diesen Gedanken in seinem Aufsatz „… wie die Zeit vergeht …“ erneut aufgegriffen.1 Darin zeigte er, dass Frequenzen in unterschiedlichen Zeitdimensionen konstituierend für die „Parameter“ der Musik sind. Form, Rhythmus, Tonhöhe und Klangfarbe sind für ihn nichts anderes als verschiedenartige Artikulationen der Zeit. Damit wurde eine Arbeitshypothese formuliert, die sich für die serielle Musik und die sich daraus entwickelte Computermusik als enorm fruchtbar erweisen sollte. Im Verständnis der antiken Kunsttheorie wurde Musik nicht als rein subjek­ tive Kunst verstanden, da sie auf rationalen Zahlenverhältnissen basiert, die ihr Material darstellen. Kein Wunder also, dass sie in den „Septem Artes Liberales“ dem Quadrivium zugeordnet wurde, gleichberechtigt neben Arithmetik, Geometrie und Astronomie. Aus Zahlenverhältnissen allein entsteht aber noch keine Musik. Erst durch die – vertikale bzw. horizontale – Kombination von Tönen bilden sich Melodien und Harmonien. Die Regeln dafür sind keine Naturgesetze, sondern geschichtlich gewachsen und permanenten Veränderungen unterworfen, die vom jeweiligen sozio-kulturellen Kontext geprägt sind. In der europäischen Kultur hat sich die Kunst der Mehrstimmigkeit und des Kontrapunkts herausgebildet. Die indische Musik wiederum entwickelte eine komplexe Theorie des Rhythmus (tala) und die arabische Musik ein unglaublich reichhaltiges Repertoire von Tonskalen (maqam), die unser Dur-Moll-System in den Schatten stellen.

1 Karlheinz Stockhausen, … wie die Zeit vergeht … In: Herbert Eimert (Hg.), die Reihe 3, Wien 1957, 13 – 43.

Komponieren im Spannungsfeld von Intuition & Algorithmik

137

Algorithmen Viele dieser musikalischen Regelsysteme lassen sich als Algorithmus 2 – „eine strukturierte Abfolge von Anweisungen zur Lösung eines Problems“ (so die gängige Definition) beschreiben und damit auch als Computerprogramm codieren. Dieses kann als „Maschine“ angesehen werden, die autonom – und automatisch! – musikalische Strukturen generieren kann. Als Vater des algorithmischen Denkens gilt der katalanische Franziskanermönch Ramón Llull (1232–1316), der 1305 sein Kompendium „Ars Magna“ vorlegte.Da­rin beschreibt er einen Mechanismus, mit dem sich durch Kombination festgelegter Begriffe stimmige Aussagen über Gott generieren lassen. Dieser Al­go­rithmus basiert auf einer Matrix von Grundbegriffen, die durch verschiedene Algorithmen („figurae“ genannt) miteinander verknüpft werden können3. Mit diesem „medium persuasionis“ (lat. Mittel der Überzeugung) konnte eine Vielzahl korrekter theologischer Argumente generiert werden. Statt mit Feuer und Schwert missionierte Llull mit einem Automaten aus drehbar übereinander montierten Pappscheiben. Damit bewaffnet trat er in einen intellektuellen Diskurs mit islamischen Gelehrten, denen er auf Augenhöhe begegnen wollte.

Abb. 2: Figura Prima (1305) Ramón Llull, „Ars Magna“

2 Der Begriff Algorithmus geht auf den um 800 wirkenden Mathematiker Musa al-Chwaritzmi zurück, der die Null aus dem Indischen in das arabische Zahlensystem einführte. Der Titel der lateinischen Übersetzung seines Werkes lautete „Algoritmi de numero Indorum“ (lat. „al Chwaritzmi über die indischen Zahlen“); davon leitet sich der Name Algorithmus her. 3 Florian Cramer, WORDS MADE FLESH Code, Culture, Imagination, Rotterdam 2005, 36   –29.

138

Karlheinz Essl

Komponierautomaten Der Lullsche Kombinationsapparat hatte weitreichenden Einfluss und führte im Barock schließlich zur Konstruktion einer ausgewiesenen Komponiermaschine, der „Arca Musarithmica“ des Universalgelehrten Athanasius Kircher (1602–1680).4

Abb. 3: Arca Musarithmica Athanasius Kircher, „Musurgia Universalis“ (1650)

Das in der Herzog August Bibliothek in Wolfenbüttel erhaltene Exemplar die­ ses Komponierkästchens besteht aus beschrifteten Holzstäbchen mit Tabellen für rhythmische und intervallische Parameter. Es stellte eine Art von kompositorischem Rechenschieber dar, mit dem sowohl homophone ­Tonsätze als auch polyphone Kontrapunkte zusammengestellt werden können. Aus wenigen Grundelementen lässt sich mit einfachen kombinatorischen Operationen eine Vielzahl von Varianten erzeugen, deren Originalität allerdings keine großen Überraschungen bietet. Das lag auch gar nicht in der Absicht des Erfinders. Vielmehr wollte Kircher dem unbedarften Laien ein Werkzeug in die Hand geben, um rasch und unkompliziert Tonsätze zu verfertigen, die zumindest den damalig geltenden Regeln nicht widersprachen5. 4 Die Ansicht, dass in der Natur kein Ding existiert, das nicht durch Analogie mit den anderen verbunden wäre, war das Leitmotiv des großen Universalgelehrten Athanasius Kircher, dessen Motto „Omnia in omnibus“ lautete. Ob es sich um den Entzifferungsversuch der Hieroglyphen, Überlegungen zum Festungsbau, die Konstruktion einer Äolsharfe oder die Entwicklung der Komponiermaschine Arca Musarithmica handelte – Kirchers überbordendes chaotisches Denken mag heute als unwissenschaftlich und spekulativ gel­ten, ist für mich aber immer wieder eine Quelle der Inspiration. 5 Agnes Cäcilie Bohnert, Die arca musarithmica Athanasius Kirchers, Berlin 2010.

Komponieren im Spannungsfeld von Intuition & Algorithmik

139

Der erste „user“ dieser Komponiermaschine war der Habsburgerkaiser Fer­di­ nand III. (1608  –1657), der die Drucklegung von Kirchers „Musurgia Universalis“ finanzierte und noch vor der Veröffentlichung mit der „Arca Musarithmica“ experimentieren durfte. Die Frucht dieser bemerkenswerten Zusammenarbeit ist das 1649 entstandene „Drama musicum“, eine von Kircher – selbstverständlich! – hochgelobte Oper über die Irrungen und Wirrungen der Liebe, denen ein unerfahrener Jüngling ausgesetzt wird. Dieses Werk ist durchdrungen vom Geist eines Feldherrn, der keine Unordnung duldet und die Kontrolle bewahren will. Alles hat seine eindeutige Funktion und Richtigkeit, und am Ende siegt erwartungsgemäß die himmlische Liebe über die irdische. 2015 wurde diese Oper im Prunksaal der Österreichischen Nationalbibliothek von Studierenden der Universität für Musik und darstellende Kunst in Wien unter der Leitung von Ingomar Rainer halbszenisch aufgeführt 6. Studie­rende meiner Kompositionsklasse schrieben dafür elektronische In­ter­medien, die zwischen die szenischen Abschnitte eingeschoben wurde. Die Auseinandersetzung mit dem Werk des Habsburgerkaisers stellte uns vor un­gewöhnliche Herausforderungen. Gewohnt, mit neuesten Technologien zu arbeiten und Zukünf­ tiges zu gestalten, unternahmen wir diesmal eine Zeitreise ins 17. Jahrhundert. Eine Epoche, die geprägt war von den Schrecknissen des Dreißigjährigen Krieges mit seinen massiven politischen und sozialen Umwälzungen, aber auch von dem wuchernden enzyklopädischen Denken der Zeit. Die labyrinthische Verknüpfung von Alt und Neu, analog und digital, Zeit und Raum, Klang und Bild sind für uns zentrale Themen der aktuellen künstlerischen Diskussion, die sich – ausgehend vom Diskurs der Moderne – zu einem polyvalenten und vernetzten Denken ständig weiter transformiert. Mit Hilfe algorithmischer Verfahren lassen sich Dinge jenseits konventioneller Vorstellungswelten entdecken. Konstellationen und Zusammenhänge, die einem vielleicht nie in den Sinn gekommen wären, werden sichtbar und können akzeptiert oder verworfen werden. Die Intuition wird dadurch nicht geschmälert, sondern – im Gegenteil – befeuert. Der Algorithmus wird so zu einer Inspirationsmaschine, die dem eigenen begrenzten Wissenshorizont neue und ungeahnte Impulse geben kann.

6 Von dieser Aufführung existiert ein von unseren Studierenden produzierter Videotrailer – https://www.youtube.com/watch?v=eyFfhf_RD40.

140

Karlheinz Essl

Zufallsoperationen

Abb. 4: Titelseite von Mozarts Würfelmenuett (1793)

Kombinatorische Verfahren können aus wenigen Grundelementen eine Un­­ zahl von Varianten erzeugen. Das systematische Durchexerzieren aller Kombinationsmöglichkeiten führt meistens nicht zum Ziel, da man im Wust der Varianten zu ertrinken droht. Hier hat sich der Einsatz von Zufallsoperationen bewährt. Ein schönes Beispiel dafür bietet das Wolfgang Amadeus Mozart zugeschriebene und posthum veröffentlichte Würfelmenuett (1793). Es handelt sich dabei um ein einfaches 16-taktiges Modell mit ­vorgegebenen Har­­moniefortschreitungen. Jeder Takt dieses Schemas existiert in elf ver­schie­ de­­nen bereits auskomponierten Varianten, aus denen mit Hilfe zweier Würfel eine – zufällige – Auswahl getroffen wird. Die Summe der beiden Würfelwürfe ergibt Zahlen zwischen 2 und 12; also insgesamt 11 Möglichkeiten für jeden Takt 7. „Ohne etwas von der Musik oder Composition zu verstehen“ (so das Vorwort des Erstdrucks) kann sich der Spieler unzählige Varianten zusammenwürfeln. Die künstlerische Arbeit hatte freilich aber zuvor der Komponist erledigt; der „user“ ist bloß sein Handlanger, bekommt dafür aber immer etwas Neues zu hören. 7 Es sei hier angemerkt, dass dieses Verfahren keinen gleichverteilten Zufall liefert. Die Wahrscheinlichkeit, eine Würfelsumme von 7 zu erwürfeln, ist sechsmal höher als bei 2 oder 11. Das heißt wiederum, dass bei diesem Verfahren nicht alle Varianten gleich häufig vorkommen, sondern bestimmte Motive bevorzugt werden.

Komponieren im Spannungsfeld von Intuition & Algorithmik

141

Die hier skizzierten Komponierautomaten von Kircher und Mozart repro­ duzieren einen bestimmten Stil, innerhalb dessen unzählige Varianten erzeugt werden können. Daraus „Neue Musik“ zu schaffen lag weder in der Absicht noch in der Vorstellungswelt jener Komponisten. Vielmehr wird ein bestehendes Regelsystem perpetuiert – und damit auch versteinert. Die Ergebnisse klingen zuweilen merkwürdig hölzern, uninspiriert.

„Urpflanze“ Wie aber lässt sich mittels automatischer – oder sagen wir besser: formalisier­ barer – Kompositionsverfahren wahrhaft neue Musik erschaffen? Anregungen dazu können von außen stammen, von anderen Künsten oder den Wissenschaften. Damit können eingefleischte Denkmuster hinterfragt und aufgebrochen werden. Als ich vor über 30 Jahren meine Dissertation über „Das Synthesedenken bei Anton Webern“ schrieb, fand ich im Nachlass Weberns 8 in einer von ihm annotierten Ausgabe der Goethe’schen „Farbenlehre“ eine bemerkenswerte Textstelle. Darin spricht Goethe über sein Konzept der Urpflanze, das er während eines Besuchs des Botanischen Gartens von Palermo intuitiv erkannt hatte: „Die Urpflanze wird das wunderlichste Geschöpf von der Welt, um welches mich die Natur selbst beneiden soll. Mit diesem Modell und dem Schlüssel dazu kann man alsdann noch Pflanzen bis ins Unendliche erfinden, die konsequent sein müssen, das heißt, die, wenn sie auch nicht existieren, doch existieren könnten und nicht etwa malerische und dichterische Schatten und Scheine sind, sondern eine innerliche Wahrheit und Notwendigkeit haben. Dasselbe Gesetz wird sich auf alles übrige Lebendige anwenden lassen.“ 9

Goethes Urpflanze stellt ein abstraktes Modell dar, mit dem sich auch Pflanzen ausdenken lassen, die in Wirklichkeit gar nicht existieren. Durch Veränderung der Systemparameter wie Blattform, Art der Wurzeln, Farbe der Blüten, Stand der Zweige etc. lassen sich immer neue Varianten bilden. Webern meinte darin eine Analogie zur Zwölftontechnik zu erkennen, wie er es voller Begeisterung 8 Der in der Paul Sacher Stiftung (Basel) seit 1984 aufbewahrte Nachlass Anton von Weberns umfasst nicht nur seine Skizzen, Handschriften und Partituren, sondern auch die Bücher seiner Bibliothek, die oftmals mit Anmerkungen versenden sind. 9 Johann Wolfgang von Goethe, Italienische Reise. Hamburger Ausgabe 11, München 1982, 323 –324.

142

Karlheinz Essl

seinem Freund Alban Berg in einem Brief mitteilte.10 Die Zwölftonreihe – eine vorab definierte Abfolge aller zwölf Töne unseres temperierten Tonsystems – kann als eine Art DNS-Faden interpretiert werden, aus dem die Tonhöhenstruktur einer ganzen Komposition bis ins kleinste Detail herausgesponnen werden kann. Diese Idee wurde nach Weberns Tod von den Komponisten der seriellen Schule übernommen und auf alle Aspekte des Tonsatzes ausgedehnt. Die Reihe bezieht sich nicht allein auf Tonhöhen, sondern wird zur Zahlenstruktur umcodiert, wodurch sie flexibel interpretierbar wird. Eine solche Zahlenreihe – eine Folge von Proportionen, also Quantitätsverhältnissen – lässt sich auch auf andere Parameter der Komposition wie Rhythmus, Dynamik, Dichte, Tempo, Form, Spieltechniken, Instrumentation etc. übertragen. Wenn wir nun in der Lage sind, einen Baum im Sinne eines Modells zu beschreiben, dann könnte dieses Modell auch als Generator implementiert werden, der zwar keine echten Bäume, aber die verschiedensten Bilder von Bäumen erzeugen kann. Die geeignete Umsetzung wäre ein Computerprogramm, das aufgrund des implementierten Modells durch Veränderung der Parameter neue Baumformen generiert. Solche Software existiert bereits und erlaubt nicht nur die Herstellung pflanzlicher Artefakte, sondern auch von Wolkenformationen, Landschaften und Oberflächentexturen.

Strukturgeneratoren Das gleiche Prinzip – nunmehr auf musikalische Komposition angewandt – stellt eine meiner zentralen Arbeitsmethoden dar: die Programmierung sog. „Strukturgeneratoren“11, die in Echtzeit musikalische Strukturen generieren können. Dies möchte ich am Beispiel eines Strukturgenerators erläutern, der sich auf das Generieren von Trillern spezialisiert hat:

10 Karlheinz Essl, Das Synthese-Denken bei Anton Webern. Studien zum Musikdenken des späten Webern unter besonderer Berücksichtigung seiner eigenhändigen Analysen von op. 28 und op. 30. Wiener Veröffentlichungen zur Musikwissenschaft 24, Tutzing 1991, 16 –23. 11 Karlheinz Essl, Strukturgeneratoren. Algorithmische Komposition in Echtzeit. Beiträge zur Elektronischen Musik 5, Graz 1996.

Komponieren im Spannungsfeld von Intuition & Algorithmik

143

Abb. 5: Triller-Generator, implementiert in derProgrammiersprache Max © 2017 by Karlheinz Essl

Ein Triller im traditionellen Sinn besteht aus dem raschen Alternieren zweier benachbarter Skalentöne. Nun ließe sich dieses Prinzip erweitern: Es bleibt bei der raschen Bewegung, nur können jetzt aber mehr als zwei Töne auftreten, die zur Vermeidung von repetitiven Mustern jedoch nicht zyklisch durchlaufen, sondern unregelmäßig permutiert werden. Neben der Dauer eines Trillers wäre auch seine Geschwindigkeit als variabel zu denken, und zudem könnten auch Geschwindigkeitsveränderungen (ritardandi, accelerandi) auftreten. Als letzter Parameter käme noch der Dynamikverlauf dazu: an- und/oder abschwellend oder eine komplexere Hüllkurve. Das Strukturmodell dieses Triller-Generators basiert auf einem Satz von Para­ meter-Listen, aus denen ausgewählt werden kann. Dauer



bis in Schritten

Anfangs-Tempo

bis in Schritten

End-Tempo

bis in Schritten

144

Karlheinz Essl

Anzahl Töne

bis

Töne

Auswahl von



max. Dynamik



bis

Das Trillertempo wird sich – im Falle von Instrumentalmusik – am menschlichen Maß orientieren. Als Untergrenze käme ein entsprechend langsamer Wert in Frage, der eben noch gerade das Gefühl von Triller vermittelt. Hier aber wird das Modell durchlässig: verlangsamt man nämlich das Trillertempo immer weiter, verschwindet mit einem Mal der Trillercharakter und ein neuer qualitativer Zustand entsteht, der – abhängig von der Anzahl der Töne – als Akkordzerlegung oder gar Melodiefloskel erlebt werden kann. Die Parameter eines Strukturgenerators können von einer äußeren Instanz gesteuert werden. Dieser „Steuermann“ kann entweder ein Mensch sein, der seine Vorstellungen ausdrücken will, oder aber ein computer-gesteuerter Algorithmus. Auf diese Weise ließe sich ein weites Feld von Strukturvarianten erzeugen, dessen Variabilität durch die verschiedensten Methoden (determiniert, aleatorisch, chaotisch) gesteuert werden kann. Die Grundlagen dieses Konzepts wurden bereits in den 1960er Jahren von Gottfried Michael Koenig formuliert, einem Pionier auf dem Gebiet der computer-gestützten Komposition. Seine Projekt 1 12 genannte KompositionsSoftware repräsentiert das Strukturmodell einer seriellen Meta-Komposition, die als abstraktes Modell imaginiert wurde und aus dem sich eine Vielzahl von Instrumentalwerken ableiten lassen. Mit Hilfe von Zufallsentscheidungen wird die Permutation der Eingabedaten automatisch berechnet. Das Resultat ist eine sog. „Partiturliste“: eine alpha-numerische Tabelle mit genauen Angaben zu den jeweiligen Parameterwerten des Stücks. Nach Transkription in musikalische Notation und kompositorischer Überarbeitung dieses Strukturskelettes schält sich in einem langwierigen, aber inspirierenden Arbeitsprozess allmählich die Komposition heraus.

12 Gottfried Michael Koenig, „Projekt 1“ – Modell und Wirklichkeit. In: Stefan Fricke und Wolf Frobenius (Hg.), Ästhetische Praxis. Texte zur Musik, Saarbrücken 1993, 223  –230.

Komponieren im Spannungsfeld von Intuition & Algorithmik

145

Abb. 6: Partiturliste, generiert mit G. M. Koenigs

Meine 1992 als „work-in-progress“ angelegte „Lexikon-Sonate“13 (1992–2017), eine interaktive Echtzeitkomposition für computer-gesteuertes Klavier, besteht aus verschiedensten Strukturgeneratoren, die charakteristische pianistische Spielweisen wie Espressivo-Melodien, Vorschlagsfiguren, Akkorde, Arpeggi, Tremoli, Glissandi etc. generieren, in immer neuen Varianten und Kombinationen. Im Hintergrund arbeitet ein komplexes Räderwerk aus Algorithmen, das die jeweiligen Strukturgeneratoren steuert und deren Parameter innerhalb definierter Grenzen zufällig verändert werden. Die entstehende Musik bleibt so in ständiger Bewegung, ohne sich jemals zu wiederholen.

13 Karlheinz Essl, Lexikon-Sonate. An Interactive Realtime Composition for Computer-Controlled Piano. In: Bernd Enders (Hg.), Musik im virtuellen Raum. KlangArt-Kongress 1997, Osnabrück 2000, 311–328.

146

Karlheinz Essl

Abb. 7: Benutzeroberfläche der „Lexikon-Sonate“ © 2017 by Karlheinz Essl

Die „Lexikon-Sonate“ sprengt den Rahmen eines herkömmlichen Klavier­ stücks in vielfacher Hinsicht: 1) es gibt keine Partitur, 2) es wird kein Pia­ nist benötigt, 3) die Dauer ist potentiell unendlich, und 4) gibt es keine Wiederholungen. Diese Komposition existiert einzig als Software, die alle klavieristischen Spielanweisungen – welche Taste wann wie stark angeschlagen und wie lange gehalten wird – direkt an ein Computerklavier sendet, das diese Befehle sofort ausführt und hörbar macht. Ursprünglich war die „LexikonSonate“ eine autonome Musikmaschine, die – einmal angeworfen – ohne Kontakt zur Außenwelt unbeirrbar vor sich hin komponierte. Später habe ich diese Hermetik aufgebrochen. Mit Hilfe von MIDI-Controllern, Fußpedalen und Computertasten erhalte ich nun direkten und taktilen Zugriff auf die Hauptparameter der Strukturgeneratoren. Damit habe ich mir ein Interface geschaffen, mit dem ich eine jeweils neue Variante dieses Stück in Interaktion mit der Software interpretieren kann. Eine Aufführung ist wie ein Ritt auf einem wild gewordenen Gaul, den es zu zügeln gilt, aber dessen faszinierende Kraft und Wildheit ausgekostet werden muss14.

14 Ich verweise hier auf das Video meiner Live-Performance am 12. Juli 2016 zur Eröffnung der NIME Conference in Brisbane (Australien) – https://www.youtube.com/watch?v=_ p7wHu4QA-8.

Komponieren im Spannungsfeld von Intuition & Algorithmik

147

Real Time Composition Die der „Lexikon-Sonate“ zugrunde liegenden Strukturgenera­ toren sind mit Hilfe einer Softwarebibliothek programmiert, die ich 1991 am Pariser IRCAM (einem von Pierre Boulez gegründeten Zentrum für Musikforschung) zu entwickeln begann: Es handelt sich um die sogenannte „Realtime Composition Library“ (RTC-lib) für die Echtzeitprogrammiersprache Max. Hier habe ich versucht, möglichst allgemeingültige kompositorische Werkzeuge zu formulieren, mit denen sich Zeitverläufe, Tonhöhenstrukturen, Zufallsverfahren etc. modellieren lassen. Diese Bibliothek wird ständig weiterentwickelt und ist als open source auf meiner Website verfügbar15. Mit unseren leistungsfähigen Computern lassen sich heutzutage nicht nur Partiturdaten oder Steuerinformationen für Player Pianos generieren, sondern auch elektronische Klänge. Kompositionsalgorithmen, implementiert als Softwaremodule, steuern auch die Klangsynthese und das gesamte „signal processing“. Damit lassen sich eigenständige elektronische SoftwareInstrumente konstruieren, deren Klangmöglichkeiten nicht am populären Mainstream orientiert sind, sondern einzig und allein der individuellen künstlerischen Utopie entspringen. Komponieren und Codieren werden eins; die bislang geltende Arbeitsteilung zwischen Komposition, Instrumentenbau und Aufführung fällt hier zusammen. Der Komponist ist nicht länger der einsame Bewohner eines Elfenbeinturms, der in „splendid isolation“ für die Nachwelt komponiert. Als composer/programmer/performer tritt er nun ins „Ungeschützte, Offene“ (Adorno)16. Das Echtzeit-Paradigma ändert die Art und Weise, wie Musik erfunden und aufgeführt wird. Damit lassen sich organisch anmutende Klangprozesse gestalten, die autonom ablaufen und sich selbst permanent verändern können. Ein klanglicher Organismus, der wie ein Naturereignis vor den Ohren des Publikums entsteht und vergeht, wie etwa das generative Klangenviroment SEELEWASCHEN 17. Es entstand 2004 für eine Lichtinstallation des 15 http://www.essl.at/works/rtc.html. 16 Theodor W. Adorno, Dissonanzen. In: Gesammelte Schriften 14, Frankfurt am Main 1973, 126. 17 Karlheinz Essl, Proliferationen eines kompositorischen Konzepts. In: Wolfgang Gratzer und Otto Neumaier (Hg.), Arbeit am musikalischen Werk. Zur Dynamik künstlerischen Handelns (= klang-reden. Schriften zur musikalischen Rezeptions- und Interpretationsgeschichte, 9), Freiburg i.Br. 2013, 279 –289.

148

Karlheinz Essl

Berliner Künstlers Rainer Gottemeier im Auftrag des Niederösterreichischen Donaufestivals. Dutzende in einem Hafenbecken der Korneuburger Werft verankerte Leuchtbojen boten den Besucher/inne/n in den Abendstunden ein faszinierendes Schauspiel. Die funkelnden Lichtreflexionen auf der durch den Wind gekräuselten Wasseroberfläche waren eingehüllt in ein Netz zart gesponnener Glockenklänge, die sich über dem Wasser ausbreiteten.

Abb. 8: SEELEWASCHEN (Installationsansicht). © 2004 by Rainer Gottemeier

Das Ausgangsmaterial meiner Klanginstallation bestand ausschließlich aus der Tonaufnahme eines einzelnen Glockenklanges. Dieser wurde mit Hilfe verschiedener Algorithmen (wie z.B. Granularsynthese) in drei unterschiedliche Klangtypen transformiert:

PUNKTE:

Glockenschläge mit Nachklang



FLÄCHEN:

sanft ab- und anschwellenden Resonanzfelder



GITTER:

Texturen aus dicht verwobenen Glockenimpulsen

Diese Klangaggregate sind in ein harmonisches Netz eingebunden, das auf einer siebentönigen Reihe fußt, die alle Intervalle zwischen kleiner Sekund und Tritonus umfasst. Da die Intervalle nach oben immer kleiner werden, ergibt sich daraus eine Art verzerrtes Obertonspektrum mit kleinen Abweichungen:

Komponieren im Spannungsfeld von Intuition & Algorithmik

149

Abb. 9: Allintervallreihe von SEELEWASCHEN. © 2004 by Karlheinz Essl

Diese drei Klangaggregate treten in unterschiedlichen Häufigkeiten auf, wobei das Verhältnis zwischen Klangflächen, Glockenschlägen und Texturen 4 : 2 : 1 beträgt. In Summe gibt das wieder die Zahl 7, und aus den 7 möglichen Transpositionsstufen ergeben sich insgesamt 49 Klangobjekte, die ein in Max geschriebenes Computerprogramms generiert hat. Diese 7 x 7 = 49 Klänge wurden zusammen mit 49 unterschiedlich langen Pausentracks auf einer CD gespeichert, und auf jeder der 7 Lautsprecherstationen unabhängig voneinander im shuffle-Modus abgespielt. Dadurch ändert sich die Abfolge der einzelnen Tracks – und damit der Zusammenklang der sieben Quellen – ständig und erzeugt im Zusammenklang unvorhersehbare klangliche Konstellationen und zeitliche Entwicklungen. Durch die zufallsbedingten Überlagerungen der verschiedenen Klangquellen ergeben sich mannigfache harmonische Zusammenklänge, die jedoch immer auf den virtuellen siebentönigen Grundakkord bezogen sind. Zudem entstehen durch die unterschiedlichen Positionen der Lautsprecher räumliche Beziehungen zwischen den Quellen, wobei witterungsbedingte Einflüsse wie Wind und Feuchtigkeit den Klang wie einen Filter beeinflussen können.

Live-Elektronik Eine höchst bemerkenswerte Synthese von Intuition und Algorithmik ereignet sich, wo kompositorische Ideen in Echtzeit mit Hilfe von Computern performativ realisiert werden. Anstelle der Reproduktion eines bis ins kleinste Detail durchkomponierten Werkes tritt eine prozessorientierte Gestaltung, bei der die Musik im Moment der Aufführung zum allerersten Mal erklingt. Durch algo-

150

Karlheinz Essl

Abb. 10: Benutzeroberfläche von „m@ze°2“. © 2017 by Karlheinz Essl

rithmische Verfahren lassen sich in Echtzeit elektronische Klänge generieren, deren Entfaltung vom Elektronik-Performer gesteuert wird: Im aufmerksamen Hören des gerade Erklingenden und der ständigen Nachjustierung reagiert dieser nicht nur auf die entfaltende Musik, sondern auch auf den Raum, in dem sie erklingt. Damit kann er auch in Kontakt zu anderen Musiker/inne/n treten und unmittelbar, ganz spontan, reagieren. Dazu bedarf es freilich eines Instruments, das ebenso virtuos gespielt werden muss wie eine Geige oder eine Stimme. 1998 hatte ich begonnen, mir ein ganz persönliches Instrument namens „m@ ze°2“ (��������������������������������������������������������������� Modular Algorithmic Zound Environment�������������������������� ) auf den Leib zu programmieren. Ebenso wie die „Lexikon-Sonate“ handelt es sich um ein work-inprogress, das sich ständig verändert und bis zum heutigen Tag weiterentwickelt wird. Es besteht aus einer Vielzahl unterschiedlichster Strukturgeneratoren, die kompositorische Ideen bzw. elektroakustische Verfahrensweise repräsentieren.

Komponieren im Spannungsfeld von Intuition & Algorithmik

151

Damit lassen sich elektronische Klangstrukturen in Echtzeit generieren. Mit Hilfe externer Interfaces (wie MIDI-Controller, Fußpedale, Tastaturen, Webcam etc.) kann man direkt auf die Systemparameter der Generatoren zugreifen und diese nach Belieben modifizieren.

Improvisation Dieses elektronische Meta-Instrument verwende ich heute vor allem in meinem Improvisationsduo OUT OF THE BLUE, das ich 2009 mit der Sängerin Agnes Heginger gegründet habe. Ausgangspunkt unserer Performances sind Texte und Gedichte, die von uns beiden aus dem Moment heraus – ohne vorherige Absprachen – in Echtzeit vertont werden. Das Offene und Unerwartete steht im Zentrum eines Prozesses, der sich spontan ereignet und keinem vorgegebenen Plan folgt. Das Publikum erlebt ein fesselndes Experiment, in dem liebevoll ausgewählte Text- und Klangfragmente zu Spielbällen werden, mit denen wir virtuos jonglieren. Stimme und Elektronik, analoge Vokalklänge und digitale Sounds, spontane Improvisation und zufallsgesteuerte Algorithmik werden hier zur Synthese gebracht17. Dabei reagieren wir auf den entstehenden Raum/Klang, die Zuhörerschaft, die gesprochenen und gesungenen Worten, die Soundscapes und Geräusche, die hörbaren oder nur gedachten Gedanken. Möglicherweise wird hinter jenem sich fortwährend transformierenden Klanggespinst etwas sichtbar, das wir selbst noch nicht kennen und das sich einer performativen Durchdringung von Intuition und Algorithmik verdankt18.

17 Karlheinz Essl und Jack Hauser, Improvisation über „Improvisation“. In: Dominik Schweiger, Michael Staudinger und Nikolaus Urbanek (Hg.), Musik-Wissenschaft an ihren Grenzen. Manfred Angerer zum 50. Geburtstag, Frankfurt am Main 2004, 507–516. 18 Ich verweise hier auf das Video des völlig frei und ohne jegliche Absprache vertonten „SüdWindGedichtleins“ von August Walla am 24. Juni 2012 im Museum Gugging – https://www.youtube.com/watch?v=rArd6mQIUg4.

AutorInnenverzeichnis Karlheinz Essl www.essl.at (geb. 1960 in Wien); studierte Musikwissenschaften und Kunstgeschichte an der Universität Wien (Dissertation „Das Synthese-Denken bei Anton Webern“) sowie Komposition bei Friedrich Cerha und elektro-akustische Musik bei Dieter Kaufmann. Arbeitet als Komponist, Medienkünstler, Elektronik-Performer und Kompositionslehrer. 1990–94 composer-in-residence bei den Darmstädter Ferienkursen und am IRCAM (Paris). 1997 Komponistenportrait bei den Salzburger Festspielen. Unterrichtete zwischen 1995–2006 Algorithmische Komposition an der Bruckneruniversität in Linz. 2004 Würdigungspreis des Landes Niederösterreich für Musik. Seit 2007 Kompositionsprofessur an der Universität für Musik und darstellende Kunst Wien. Entwickelt neben Instrumentalwerken und Kompositionen mit Live-Elektronik auch gene­ ra­ tive Kompositionssoftware, Improvisationskonzepte, Klanginstallationen, Performances sowie Internet-Projekte. Ständige Auftritte als Live-Performer und Improvisator mit seinem selbstentwickelten computer-basierten Meta-Instrument m@ze°2.

Niels Geiger [email protected] (geb. 1987) forschte bis September 2018 als wissenschaftlicher Mitarbeiter am Lehrstuhl für Volkswirtschaftslehre, insbesondere Wachstum und Verteilung, an der Universität Hohenheim. Von April bis Juni 2016 war er zudem Gastwissenschaftler am Centre for Philosophy of Social Science (TINT) der Universität Helsinki. Niels Geiger studierte Wirtschaftswissenschaften an der Universität Hohenheim sowie als Nebenfach Politikwissenschaft an der Universität Stuttgart. Er wurde im Februar 2015 an der Universität Hohenheim mit einer Arbeit über Konjunkturtheorie und Verhaltensökonomik zum Dr. oec. promoviert. Zu seinen Forschungsschwerpunkten gehören die Verhaltensökonomik und die quantitative (Meta­-)Analyse der wirtschaftswissenschaftlichen Ideengeschichte.

Dirk Helbing [email protected] Professor für Computational Social Science am Department für Geistes-, Sozial- und Poli­ tikwissenschaften sowie Mitglied des Informatikdepartments der ETH Zürich. Im Januar 2014 erhielt Prof. Helbing einen Ehrendoktor der Technischen Universität Delft (TU Delft). Seit Juni 2015 ist er assoziierter Professor an der Fakultät für Technik, Politik und Manage-

154

Autorenverzeichnis

ment an der TU Delft, wo er die Doktorandenschule “Engineering Social Technologies for a Responsible Digital Future” leitet. Helbing ist Mitglied der Deutschen Akademie der Wissenschaften „Leopoldina“ und der Weltakademie für Kunst und Wissenschaft und arbeitete für das World Economic Forum im Rahmen des Global Agenda Councils für komplexe Systeme. Er wurde zum Mitglied der externen Fakultät des Santa Fe Instituts gewählt und gehört heute zur externen Fakultät des Complexity Science Hubs in Wien, sitzt in den Boards des Global Brain Instituts in Brüssel und des Internationalen Zentrums für Erdsimulation in Genf. Er ist auch Mitglied verschiedener staatlicher und akademischer Wissenschaftsausschüsse, die sich mit der digitalen Transformation unserer Gesellschaft befassen.

Stephan Kirste [email protected] ist seit 2012 Univ.-Prof. für Rechts- und Sozialphilosophie an der Rechtswissenschaftlichen Fakultät der Universität Salzburg. Er studierte Jus, Geschichte und Philosophie an den Univer­ sitäten Regensburg und Freiburg i.Br., wurde dort 1998 in Rechtsphilosophie promoviert und habilitierte sich 2004 an der Universität Heidelberg im öffentlichen Recht, Rechtsphilosophie, Rechtssoziologie und Verfassungsgeschichte. 2009 erhielt er einen Ruf an die deutschsprachige Andrássy Universität Budapest. Er war und ist Gastprofessor an verschiedenen Universitäten in den USA und Brasilien. Stephan Kirste ist seit 2010 Vorsitzender der Deutschen Sektion der Internationalen Vereinigung für Rechts- und Sozialphilosophie (IVR). Seine Forschungsgebiete sind: Rechtsphilosophie (Theorie der Rechtswissenschaft, Rechts­theorie, Rechtsethik) mit ihrer Geschichte, Verfassungsvergleich, Verfassungsrecht.

René Mayrhofer [email protected] ist Universitätsprofessor und Vorstand des Instituts für Netzwerke und Sicherheit­(INS) an der Johannes Kepler Universität (JKU) Linz und leitete zuvor das Josef Ressel Zentrum für Userfriendly Secure Mobile Environments (JRZ u,smile). Aktuell ist er von ­seinen akademischen Aufgaben karenziert und agiert als Direktor des Android Platform Security Teams bei Google in den USA. Zuvor forschte er als Gastprofessor an der Universität Wien und als Marie Curie Fellow an der Lancaster University in Großbritannien an der siche­ren Kommu­nikation von Mobilgeräten. Seine Forschungsinteressen inkludieren Computer­sicherheit, mobile und eingebettete Geräte, Netzwerkkommunikation und maschinelles Lernen, welche er zur Verbesse­ rung von sicherer und benutzerfreundlicher Kommunikation kombiniert. René Mayrhofer hat an über 80 wissenschaftlichen Artikeln und Konferenzbei­trägen mitgewirkt. Er studierte Informatik (Abschluss Dipl.-Ing. in 2002 und Dr.techn. sub auspiciies in 2004) an der JKU Linz und erhielt seine venia docendi (2009) für Praktische Informatik an der Universität Wien.

Autorenverzeichnis

155

Klaus Prettner [email protected] (geb. 1982) ist seit 2015 Inhaber des Lehrstuhls für Volkswirtschaftslehre, insbesondere Wachs­ tum und Verteilung, an der Universität Hohenheim. Zuvor war er Assistenzprofessor für Mathematische­Ökonomie an der Technischen Universität Wien, Akademischer Rat auf Zeit an der Universität Göttingen, Postdoctoral Research Fellow am Harvard Center for Popu­lation and Development Studies in Cambridge, MA und wissenschaftlicher Mitarbeiter am Vienna Institute of Demography der Österreichischen Akademie der Wissenschaften. Klaus Prettner studierte Volkswirtschaftslehre und Statistik an der Universität Wien, wurde dort in Volkswirtschafslehre promoviert und habilitierte an der Technischen Universität Wien in Mathematischer Ökonomie. Seine derzeitigen Forschungsschwerpunkte sind die Auswirkungen des demographischen Wandels auf das langfristige Wirtschaftswachstum, die Effekte der Automatisierung auf den wirtschaftlichen Wohlstand und die Ungleichheit, sowie die Determinanten der Humankapitalakkumulation.

Prof. Dr. med. Ursula Schmidt-Erfurth [email protected] leitet die Klinik für Augenheilkunde an der Medizinischen Universität Wien, an der sie wissenschaftlich und chirurgisch tätig ist. Nach dem Studium der Humanmedizin an der Ludwig Maximilians-Universität in München arbeitete sie als research fellow an der Harvard Medical School in Boston, USA und entwickelte dort die photodynamische Therapie (PDT), die weltweit zur first line therapy bei der altersbezogenen Makuladegeneration (AMD) wurde. Mit ihrem Focus auf translationaler Innovation im Bereich Netzhaut entwickelt sie mit ihrem interdisziplinären Team neue diagnostische Methoden im Bereich retinales Imaging. Sie ist Leiter des Christian Doppler (CD) Labors für ophthalmic image analysis (OPTIMA), das Methoden der artificial intelligence (AI) in die Ophthalmologie einführt und Gründerin des Vienna Reading Centers (VRC), eine Plattform für digitale Bildanalysen, das weltweit mit mehr als 600 klinischen Zentren vernetzt ist und professionelle Auswertungen klinischer Studien für FDA/ EMA durchführt. Sie ist Sprecherin der Medical Imaging Clusters (MIC) der MedUniWien, Board Member der EURETINA, korrespondierendes Mitglied der österreichischen Akademie der Wissenschaften und assoziierter Professor an der Feinberg Medical School, Northwestern University in Chicago. Sie hat über 390 peer-reviewte Papers veröffentlicht und zahlreiche akademische Preise erhalten, unter anderem den Forschungspreis des deutschen Fraunhofer Institutes, den Roger Johnson Award der University of Washington und den Achievement Award der American Academy of Ophthalmology.

156

Autorenverzeichnis

Johannes A. Schwarzer [email protected] (geb. 1984) ist seit April 2018 bei der Landesbank Baden-Württemberg beschäftigt. Zuvor forschte er als wissenschaftlicher Mitarbeiter am Lehrstuhl für Wirtschaftstheorie der Universität Hohenheim bzw. am Lehrstuhl für Wachstum und Verteilung zu makroökonomischen und wachstumstheoretischen Themen. Johannes Schwarzer schloss sein Diplomstudium der Wirtschaftswissenschaften an der Universität Hohenheim im Mai 2009 als Jahrgangsbester ab und wurde dort im Juni 2016 promoviert. Seine Dissertation über die verschiedenen theo­ retischen Erklärungsansätze zum Zusammenhang zwischen Inflation und Arbeitslosigkeit (Phillips-Kurve) wurde im April 2017 mit dem Südwestbank-Preis ausgezeichnet. Anfang des Jahres 2018 veröffentlichte er zu dieser Thematik einen Aufsatz im Journal of Economic Perspectives.

Anschrift der Herausgeber [email protected] Österreichische Forschungsgemeinschaft, Berggasse 25, A-1090 Wien

WISSENSCHAFT – BILDUNG – POLITIK Eine Auswahl BD. 2 | KURT KOMAREK, GOTTFRIED MAGERL (HG.) VIRTUALITÄT UND REALITÄT BILD UND WIRKLICHKEIT IN DEN NATURWISSENSCHAFTEN 1998. 280 S. BR. ISBN 978-3-205-98805-2 BD. 3 | GOTTFRIED MAGERL, MEINRAD PETERLIK (HG.) DIE WISSENSCHAFT UND IHRE LEHRE 1999. 424 S. 1 S/W-ABB. BR. ISBN 978-3-205-99104-5 GOTTFRIED MAGERL, HELMUT RUMPLER, CHRISTIAN SMEKAL (HG.) WISSENSCHAFT UND ZUKUNFT BEITRÄGE DER WISSENSCHAFTEN ZUR BEWÄLTIGUNG GLOBALER KRISEN 2000. 225 S. 20 GRAFIKEN. BR. ISBN 978-3-205-99251-6 BD. 5 | OSWALD PANAGL, HANS GOEBL, EMIL BRIX (HG.) DER MENSCH UND SEINE SPRACHE(N) 2001. 297 S. 5 S/W- UND 8 S. FARB. ABB. ISBN 978-3-205-99406-0 BD. 6 | WALTER BERKA, EMIL BRIX, CHRISTIAN SMEKAL (HG.) WOHER KOMMT DAS NEUE? KREATIVITÄT IN WISSENSCHAFT UND KUNST 2003. 250 S. 8 S. FARB. ABB. BR. ISBN 978-3-205-77152-4

www.boehlau-verlag.com

WISSENSCHAFT – BILDUNG – POLITIK BD. 7 | EMIL BRIX, HEINRICH SCHMIDINGER (HG.) EUROPA IM ZEICHEN VON WISSENSCHAFT UND HUMANISMUS 2004. VII, 203 S. 16 FARBTAF. BR. ISBN 978-3-205-77253-8 BD. 8 | EMIL BRIX, GOTTFRIED MAGERL (HG.) WELTBILDER IN DEN WISSENSCHAFTEN 2005. 189 S. 9 S/W-ABB. BR. ISBN 978-3-205-77427-3 BD. 9 | WALTER BERKA, GOTTFRIED MAGERL (HG.) WISSENSCHAFT IN ÖSTERREICH BILANZEN UND PERSPEKTIVEN 2006. 169 S. ZAHLR. TAB. BR. ISBN 978-3-205-77552-2 BD. 10 | WALTER BERKA, HEINRICH SCHMIDINGER (HG.) VOM NUTZEN DER WISSENSCHAFTEN 2007. VII, 219 S. BR. ISBN 978-3-205-77656-7 BD. 11 | GOTTFRIED MAGERL, HEINRICH SCHMIDINGER (HG.) EINHEIT UND FREIHEIT DER WISSENSCHAFT – IDEE UND WIRKLICHKEIT 2008. 149 S. BR. ISBN 978-3-205-78185-1

www.boehlau-verlag.com

WISSENSCHAFT – BILDUNG – POLITIK BD. 12 | GOTTFRIED MAGERL, HEINRICH SCHMIDINGER (HG.) ETHOS UND INTEGRITÄT DER WISSENSCHAFT 2009. 174 S. BR. ISBN 978-3-205-78436-4 BD. 13 | GOTTFRIED MAGERL, REINHARD NECK (HG.) EVOLUTION – ENTWICKLUNG UND DYNAMIK IN DEN WISSENSCHAFTEN 2010. 191 S. 6 S/W-ABB. BR. ISBN 978-3-205-78591-0 BD. 14 | GOTTFRIED MAGERL, REINHARD NECK, CHRISTIANE SPIEL (HG.) WISSENSCHAFT UND GENDER 2011. 181 S. ZAHLR. TAB. UND GRAFIKEN BR. | ISBN 978-3-205-78728-0 BD. 15 | REINHARD NECK, HEINRICH SCHMIDINGER (HG.) MIGRATION 2013. 184 S. ZAHLR. TAB. UND GRAFIKEN BR. | ISBN 978-3-205-78924-6 BD. 16 | REINHARD NECK, HEINRICH SCHMIDINGER, SUSANNE WEIGELIN-SCHWIEDRZIK (HG.) KOMMUNIKATION – OBJEKT UND AGENS VON WISSENSCHAFT 2013. 202 S. 8 S/W-ABB UND 2 TAB. ISBN 978-3-205-79489-9

www.boehlau-verlag.com

WISSENSCHAFT – BILDUNG – POLITIK BD. 17 | WOLFGANG KAUTEK, REINHARDNECK, HEINRICH SCHMIDINGER (HG.) WISSENSCHAFT – AGENS ODER ERGEBNIS GLOBALER DYNAMIK? 2014. 160 S. 26 S/W-ABB. FRANZ. BR. | ISBN 978-3-205-79648-0 BD. 18 | WOLFGANG KAUTEK, REINHARD NECK, HEINRICH SCHMIDINGER (HG.) WAHRHEIT IN DEN WISSENSCHAFTEN 2015. 178 S. FRANZ. BR. ISBN 978-3-205-20261-5 BD. 19 | WOLFGANG KAUTEK, REINHARD NECK, HEINRICH SCHMIDINGER (HG.) ZEIT IN DEN WISSENSCHAFTEN 2016. 224 S. FRANZ. BR. ISBN 978-3-205-20499-2 BD. 20 | REINHARD NECK, HEINRICH SCHMIDINGER CHRISTIANE SPIEL (HG.) GRENZEN IN DEN WISSENSCHAFTEN 2017. 199 S. FRANZ. BR. ISBN 978-3-205-20772-6 BD. 21 | REINHARD NECK, CHRISTIANE SPIEL (HG.) AUTOMATISIERUNG. WECHSELWIRKUNG MIT KUNST; WISSENSCHAFT UND GESELLSCHAFT 2018. 159 S. BR. ISBN 978-3-205-23189-9

Böhlau Verlag Ges.m.b.H. & Co. KG | Wien Köln Weimar www.boehlau-verlag.com