Digitalisierung und Künstliche Intelligenz: Wirtschaftsethische und moralökonomische Perspektiven [1 ed.] 9783428559633, 9783428159635

Die Wirtschaft befindet sich seit einigen Jahren in einer Phase umwälzender Veränderungen, die unter Stichworten wie Kün

163 37 2MB

German Pages 172 Year 2020

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Digitalisierung und Künstliche Intelligenz: Wirtschaftsethische und moralökonomische Perspektiven [1 ed.]
 9783428559633, 9783428159635

Citation preview

Volkswirtschaftliche Schriften Band 574

Digitalisierung und Künstliche Intelligenz Wirtschaftsethische und moralökonomische Perspektiven

Herausgegeben von

Detlef Aufderheide und Martin Dabrowski In Verbindung mit Karl Homann · Christian Kirchner † Michael Schramm · Jochen Schumann † Viktor Vanberg · Josef Wieland

Duncker & Humblot · Berlin

DETLEF AUFDERHEIDE / MARTIN DABROWSKI (Hg.)

Digitalisierung und Künstliche Intelligenz

Volkswirtschaftliche Schriften Begründet von Prof. Dr. Dr. h. c. J. Broermann †

Band 574

Anschriften der Herausgeber: Prof. Dr. habil. Detlef Aufderheide

Dr. Martin Dabrowski

Business Ethics and Strategic Management School of International Business Hochschule Bremen Werderstr. 73

Akademie Franz Hitze Haus Fachbereich Wirtschaft, Sozialethik, Medien Kardinal-von-Galen-Ring 50

D-28199 Bremen

D-48149 Münster

Die Tagungsreihe „Wirtschaftsethik und Moralökonomik. Normen, soziale Ordnung und der Beitrag der Ökonomik“ wird in Kooperation zwischen der katholisch-sozialen Akademie FRANZ HITZE HAUS und der School of International Business, Hochschule Bremen durchgeführt.

Digitalisierung und Künstliche Intelligenz Wirtschaftsethische und moralökonomische Perspektiven

Herausgegeben von

Detlef Aufderheide und Martin Dabrowski In Verbindung mit Karl Homann · Christian Kirchner † Michael Schramm · Jochen Schumann † Viktor Vanberg · Josef Wieland

Duncker & Humblot · Berlin

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 2020 Duncker & Humblot GmbH, Berlin Satz: 3w+p GmbH, Rimpar Druck: CPI buchbücher.de gmbh, Birkach Printed in Germany ISSN 0505-9372 ISBN 978-3-428-15963-5 (Print) ISBN 978-3-428-55963-3 (E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706

Internet: http://www.duncker-humblot.de

Vorwort Die Wirtschaft befindet sich seit einigen Jahren in einer weiteren Phase umwälzender Veränderungen, die unter Stichworten wie Künstliche Intelligenz (KI), Digitalisierung oder vierte industrielle Revolution diskutiert werden. Die Auswirkungen auf die Arbeitswelt durch neue Formen der Automatisierung sind enorm. Begründete Ängste bestehen daher bei vielen Menschen, die bereits um ihren Arbeitsplatz fürchten. Sogar Jüngere tragen sich mit Sorgen um eine vermeintliche solide Berufswahl: Diese kann sie in eine Sackgasse führen, weil im Unterschied zu früher zahlreiche Berufe betroffen sein werden, die bisher eine vergleichsweise hohe Qualifikation erfordern. Anlass zur Freude sehen dagegen nicht nur jene Ingenieure, Unternehmer und Manager, die enorme Potentiale für die Entwicklung neuer Märkte sowie hohe Effizienzgewinne in nahezu allen bestehenden Märkten im Blick haben. Zuversichtlich in die Zukunft können auch viele jüngere Menschen blicken, denen sich zahlreiche, überwiegend neue Berufsfelder mit höherer Produktivität und attraktiver Entlohnung eröffnen. Welche ethischen, ökonomischen, politischen und juristischen Implikationen ergeben sich in Sachen Digitalisierung und KI? Einige scheinen auf der Hand zu liegen, nicht wenige aber erfordern angesichts der komplexen Materie eine genauere Analyse und interdisziplinäre Zusammenarbeit. Der vorliegende Tagungsband hat es sich daher zur Aufgabe gemacht, Vertreter verschiedener Disziplinen zusammenzuführen, um die anstehenden Fragen zu diskutieren und bestehende Optionen auszuloten. Die vorliegenden Ergebnisse zu dieser überaus komplexen, von zahlreichen Ungewissheiten begleiteten Materie können sich, wie wir finden, sehen lassen. Dies gilt auch und gerade vor dem Hintergrund der Entwicklungen seit Ausbruch der Corona-Pandemie, die für diesen Band noch nicht berücksichtigt werden konnte. Die Dynamik der Entwicklung dürfte sich angesichts der folgenden wirtschaftlichen Krisenentwicklung, deren Ausmaß und Auswirkungen zum Zeitpunkt der Drucklegung dieses Bandes nicht absehbar sind, mittelfristig sogar verstärken. Der vorliegende Band folgt – wie seine Vorgänger – dem Leitbild wechselseitigen Lernens und Austauschens von Anregungen: Im Sinne der Qualitätssicherung werden wie immer jedem Hauptbeitrag zwei Korreferate an die Seite gestellt, in denen jeweils Vertreter unterschiedlicher Fachdisziplinen zu Wort kommen sollen.

6

Vorwort

Allen Autoren danken wir sehr für die überaus anregenden Texte und die stets sachlich und erkenntnisorientiert geführten Diskussionen. Möge das Ergebnis den Leser und die Leserin auch dieses Mal bei der ersten Orientierung wie bei der fortgeschrittenen Beschäftigung mit verschiedenen Perspektiven und Facetten der jeweiligen Fragestellung tatkräftig unterstützen. Der aktuelle Band liegt Ihnen nun entweder gegenständlich oder auf dem Bildschirm Ihres PCs, MacBooks oder Tablets vor. Er setzt eine inzwischen über viele Jahre erfolgreiche Reihe fort, die unter dem Motto „Normen, soziale Ordnung und der Beitrag der Ökonomik“ im Jahre 1996 ihren Anfang genommen hatte und seither, wie wir dankbar anmerken dürfen, auf eine ausgesprochen freundliche Aufnahme bei allen angesprochenen Adressatenkreisen stößt. Die bisher untersuchten Gegenstände und Untersuchungsergebnisse können in den zehn vorangegangenen Sammelbänden begutachtet werden. Diese sind in den „Volkswirtschaftlichen Schriften“ (VWS) des Verlages Duncker & Humblot unter den nachfolgend aufgeführten Titeln erschienen und auch als eBooks erhältlich. Wie man sieht, gibt sich die kleine Publikationsreihe seit dem zweiten Band im Untertitel durch eine Variation des Titels unseres Erstlings zu erkennen: – Wirtschaftsethik und Moralökonomik. Normen, soziale Ordnung und der Beitrag der Ökonomik (VWS 478) – Internationaler Wettbewerb – nationale Sozialpolitik? Wirtschaftsethische und moralökonomische Perspektiven der Globalisierung (VWS 500) – Gesundheit – Ethik – Ökonomik. Wirtschaftsethische und moralökonomische Perspektiven des Gesundheitswesens (VWS 524) – Corporate Governance und Korruption. Wirtschaftsethische und moralökonomische Perspektiven der Bestechung und ihrer Bekämpfung (VWS 544) – Markt und Wettbewerb in der Sozialwirtschaft. Wirtschaftsethische und moralökonomische Perspektiven für den Pflegesektor (VWS 551) – Internetökonomie und Ethik. Wirtschaftsethische und moralökonomische Perspektiven des Internets (VWS 556) – Effizienz und Gerechtigkeit bei der Nutzung natürlicher Ressourcen. Wirtschaftsethische und moralökonomische Perspektiven der Rohstoff-, Energie- und Wasserwirtschaft (VWS 560) – Effizienz oder Glück? Wirtschaftsethische und moralökonomische Perspektiven der Kritik an ökonomischen Erfolgsfaktoren (VWS 562) – Markt und Verantwortung. Wirtschaftsethische und moralökonomische Perspektiven (VWS 567) – Digitale Wirtschaft und Sharing Economy. Wirtschaftsethische und moralökonomische Perspektiven (VWS 569).

Vorwort

7

Wir sind dem Verleger, Herrn Dr. Florian Simon, für die inzwischen langjährig bewährte Zusammenarbeit in gleichermaßen kollegialer wie freundschaftlicher Atmosphäre überaus dankbar. Die Reihe – hier beziehen wir uns gern auf unsere früheren Formulierungen zum Thema – geht ursprünglich auf eine Kooperation zwischen der Katholisch-sozialen Akademie Franz Hitze Haus (vertreten durch Martin Dabrowski) und der Wirtschaftswissenschaftlichen Fakultät der Universität Münster zurück. Sie wurde auf wissenschaftlicher Seite von der HSBA Hamburg School of Business Administration übernommen, inzwischen ist sie an der School of International Business der Hochschule Bremen (jeweils vertreten durch Detlef Aufderheide) angesiedelt. Das unveränderte, alles überragende Anliegen der Kooperation lautet: dem Diskurs zwischen Ethik und Ökonomik, zwischen Ökonomen und Theologen bzw. Moralphilosophen sowie Vertretern anderer Disziplinen ein Forum zu bieten. So soll ein fruchtbarer Austausch über aktuelle Forschungsergebnisse ermöglicht und unterstützt werden, außerdem die intensive Erörterung von Anwendungen in der Praxis. Der Untertitel soll jeweils verdeutlichen, dass wir zwei besondere Perspektiven einnehmen und miteinander kontrastieren oder zusammenführen. Es geht einerseits (Stichwort Wirtschaftsethik) nicht in erster Linie um allgemeine Fragen der Angewandten Ethik – vielmehr erfolgt jeweils eine Engführung auf wirtschaftlich relevante Aspekte. Andererseits (Stichwort Moralökonomik) stellen sich die Autorinnen und Autoren der vorliegenden Reihe immer wieder der Frage, wie mit den Methoden der Ökonomik auch und gerade moralische Probleme besser erklärt und vertiefend analysiert werden können: Moralökonomik kann in Langfassung auch verstanden werden als die Gesamtheit aller wissenschaftlichen Untersuchungen, die durch die Anwendung bewährter und neuerer ökonomischer Methoden zu einem besseren Verständnis moralisch relevanter Fragen und Probleme beitragen (können). Dabei müssen wir uns stets von Neuem vergegenwärtigen, dass es „den“ ökonomischen Ansatz nicht gibt: Es geht auch innerhalb der Ökonomik um einen fruchtbaren Wettbewerb um die besten Analysemethoden. Wenn aber, diesen Fragen vorgelagert, die Ökonomik als Forschungsprogramm – und als solches vermeintlich fokussiert auf den Eigennutz und andere moralisch höchst ambivalente Phänomene – gezielt auf Fragen der Moral angesetzt wird, so führt dies immer noch zu Irritationen, und zwar bemerkenswerterweise nicht nur bei Fachfremden, sondern bisweilen auch noch unter Ökonomen. Die vorliegende Buchreihe möchte diesen Irritationen mit inhaltlicher Überzeugungsarbeit entgegentreten. Dass dabei auch die bestehenden Grenzen einer ökonomischen Analyse der Moral im Dialog auszuloten sind, versteht sich von selbst. Auch für die Tagung, die dem vorliegenden Tagungsband vorausging, konnten wir auf den genius loci des überaus bewährten Tagungshauses setzen: Die Akademie Franz Hitze Haus in Münster bietet allerbeste Voraussetzungen. Das eingespielte und wie immer sehr freundliche und hilfsbereite Team trug zum Gelingen der Tagung

8

Vorwort

nicht unmaßgeblich bei, materielle wie immaterielle Unterstützung auch von Seiten der Akademie des Bistums Münster sind von kaum schätzbarem Wert. Je nach fachbezogener Fragestellung konnten wir immer wieder, punktuell auch für den vorliegenden Band, in der inhaltlichen Vor- und Nachbereitung auf guten Rat aus unserem Beraterkreis zurückgreifen, in dem verschiedene akademische Disziplinen vertreten sind. Aus unserem Fachbeirat haben wir leider nach dem Verlust von Prof. Dr. Dr. Christian Kirchner, LLM., auch den Tod von Prof. Dr. Dr. h.c. Jochen Schumann zu beklagen. Insbesondere für Detlef Aufderheide war Jochen Schumann akademischer Lehrer und in unnachahmlicher Weise, mit der ihm eigenen inneren Ruhe und menschlichen Zugewandtheit, wissenschaftlicher Mentor. Den beiden Genannten und den Herren Prof. Dr. Dr. Karl Homann, Prof. Dr. Michael Schramm, Prof. Dr. Viktor Vanberg und Prof. Dr. Josef Wieland waren und sind wir für die langjährige Unterstützung dankbar verbunden. Münster, im Juni 2020

Detlef Aufderheide und Martin Dabrowski

Inhaltsverzeichnis Raphael Max und Alexander Kriebitz Ethische Problemfelder beim Einsatz Künstlicher Intelligenz im wirtschaftlichen Bereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

Lukas Brand Mind the Accountability Gap – Korreferat zu Raphael Max und Alexander Kriebitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

Christian Müller Zur Ethik der Künstlichen Intelligenz – Korreferat zu Raphael Max und Alexander Kriebitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

Eric Meyer Auswirkungen des Einsatzes von Künstlicher Intelligenz auf verschiedene Märkte

47

Ludger Heidbrink Artifizielle Agenten, hybride Netzwerke und digitale Verantwortungsteilung auf Märkten – Korreferat zu Eric Meyer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67

Traugott Jähnichen Die Diversifizierung der Arbeitswelten durch den Einsatz von Künstlicher Intelligenz – Korreferat zu Eric Meyer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

77

Nick Lin-Hi und Luca Haensse Corporate Digital Responsibility: Unternehmensverantwortung neu denken am Beispiel von Künstlicher Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

89

Detlef Aufderheide Corporate Digital Responsibility: Künstliche Verantwortung für Künstliche Intelligenz? – Korreferat zu Nick Lin-Hi und Luca Haensse . . . . . . . . . . . . . . . . . 103 Joachim Wiemeyer Corporate Digital Responsibility – sinnvoll oder Marketing? – Korreferat zu Nick Lin-Hi und Luca Haensse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Rüdiger Wilhelmi Haftung beim Einsatz von Künstlicher Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . 117 Manfred Bardmann Künstliche Intelligenz im Wirtschaftsbereich und in weiteren Lebensbereichen – Korreferat zu Rüdiger Wilhelmi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 Christian Grimme Künstliche Intelligenz: Begriffsklärungen und technische Einschätzungen als Grundlage für Regulierungsansätze – Korreferat zu Rüdiger Wilhelmi . . . . . . . 159 Autorenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz im wirtschaftlichen Bereich Von Raphael Max und Alexander Kriebitz

I. Einleitung Elon Musk, der Gründer von Tesla, sagte vor einigen Jahren in einem Interview, dass „wir mit künstlicher Intelligenz den Dämon beschwören“1. Derartige Warnungen auf der einen und die Glorifizierung der technischen Möglichkeiten auf der anderen Seite prägen die gegenwärtige Debatte über die Auswirkungen des Einsatzes von intelligenten Algorithmen. Durch die schiere Menge an gespeicherten Daten, die steigende Rechenleistung der Hardware und die zunehmende Vernetzung verschiedener Geräte, hat künstliche Intelligenz (KI) in den vergangenen Jahren ein neues Niveau erreicht. Immer mehr Geräte des täglichen Lebens verfügen über Algorithmen, die als intelligent bezeichnet werden können. Sprachverarbeitung und technische Assistenzdienste vereinfachen das Leben ebenso wie autonome fahrende Autos. Auch die wirtschaftliche Bedeutung der künstlichen Intelligenz hat sich gesteigert. Im Jahr 2009 stellte Microsoft das einzige Unternehmen unter den weltweit zehn größten Unternehmen nach Marktkapitalisierung dar, dessen Geschäftsmodell auf Datengenerierung und -analyse basiert. Ende 2018 waren die sechs nach Marktkapitalisierung größten Unternehmen der Welt Unternehmen mit Geschäftsmodellen, die direkt mit der Generierung und Analyse großer Datenmengen verbunden sind. Fragen nach technischen Veränderungen durch intelligente Algorithmen haben eine besondere ethische Relevanz, da sie einen globalen Wandel in einer bisher selten erlebten Geschwindigkeit bewirken werden, der sich kaum jemand entziehen kann und die schnelle soziale, wirtschaftliche und politische Antworten erfordert. Gleichzeitig zeigen Studien auf, dass die Offenheit gegenüber der Entwicklung intelligenter Systeme mit steigendem Wohlstand und Bildungsstand, insbesondere im Technologiebereich, zusammenhängt.2 Der wirtschaftliche und soziale Erfolg bei der weiteren Ausbreitung künstlicher Intelligenz hängt folglich auch fundamental davon ab, inwiefern gesellschaftlichen und ökonomischen Ungleichheiten begegnet wird. Das Ziel dieses Artikels ist es, einen Beitrag zu diesem Diskurs ethischer Problemfelder beim Einsatz künstlicher Intelligenz im wirtschaftlichen Bereich zu leis1 2

McFarland (2014). Übersetzung durch die Autoren. Vgl. Zhang/Dafoe (2019), S. 5.

12

Raphael Max und Alexander Kriebitz

ten. In diesem Artikel zeigen wir nach der Definition künstlicher Intelligenz und der Darstellung des ethischen Ansatzes, die ethischen Chancen der Verwendung künstlicher Intelligenz im wirtschaftlichen Bereich. Anschließend diskutieren wir wichtige ethische Problemfelder und versuchen einen wirtschaftsethischen Lösungsansatz für diese Problemfelder zu erarbeiten.

II. Was ist künstliche Intelligenz? Der Begriff künstliche Intelligenz wurde erstmals im Jahr 1965 in einem von John McCarthey formulierten Forschungsantrag verwendet.3 Mittlerweile haben sich in der Literatur viele verschiedene Definitionen von künstlicher Intelligenz etabliert. Für diesen Artikel orientieren wir uns an der Definition von Kaplan und Haenlein, nach denen KI „die Fähigkeit eines Systems [ist], externe Daten korrekt zu interpretieren, aus diesen Daten zu lernen und diese zu nutzen, um spezifische Ziele und Aufgaben durch flexible Anpassung zu erreichen.“4 Das Wort „künstlich“ wird somit als Abgrenzung zu natürlicher bzw. biologisch entstandener Intelligenz verstanden. Doch was bedeutet intelligent in diesem Zusammenhang? Um vage Definitionen, was intelligente Handlungseinheiten sein könnten, zuvorzukommen, schlug Alan Turing im Jahr 1950 ein Gedankenexperiment vor. Der sogenannte Turing-Test besagt, dass eine Maschine dann als intelligent bezeichnet werden kann, wenn ein Mensch nach einem Interview ohne Hör- und Sichtkontakt mit einer Maschine und einem Menschen nicht eindeutig feststellen kann, welcher der beiden Interviewpartner der Mensch und welcher die Maschine sei.5 Nach Bartneck et al., deren Definition von intelligent auf den Turing-Test aufbaut, ist eine Handlungseinheit dann intelligent, wenn „ihre Handlungen ihren Umständen und Zielen angemessen sind, sie flexibel in Bezug auf sich ändernde Rahmenbedingungen und sich ändernde Ziele ist, sie aus Erfahrungen lernt und sie mit Bezug auf ihre sensorischen und rechnerischen Rahmenbedingungen angemessene Entscheidungen trifft.“6 Der Begriff Intelligenz ist folglich nicht mit biologischen Prozessen gleichzusetzen, da sich die Analogie allein auf das Ergebnis bezieht. Nach vielen Entwicklungen in den Jahren nach dem zweiten Weltkrieg, wie dem Neuronenrechner von Marvin Minsky, der Modellierung neuronaler Netze von McCulloch und Pitts oder der Programmierung lernfähiger Systeme von IBM im Jahr 1955, etablierte sich künstliche Intelligenz als eigenständige Wissenschaft seit Mitte des 20. Jahrhunderts.7 In den folgenden Jahrzehnten ebbte das Interesse an Entwicklungen künstlicher Intelligenz etwas ab, bis zu dem Zeitpunkt als weitere 3

McCarthy et al. (1955). Kaplan/Haenlein (2019). 5 Davidson (2004). 6 Bartneck et al. (2019), S. 6. 7 Vgl. Ertel (2016). 4

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

13

Entwicklungen, wie die Entstehung des Internets, Verbesserung von Rechenleistung, Sammlung und Speicherung großer Datenmengen und signifikant zurückgehender Preise für Rechen- und Speicherleistung, das Interesse wieder belebten. Nachdem im Jahr 1997 der Computer Deep Blue von IBM den Schachweltmeister Gary Kasparov besiegt hatte, erfuhren Debatten und Forschungsarbeiten zur Künstlichen Intelligenz erneut größere Aufmerksamkeit.8 Wesentliche Qualitätsfortschritte in der Entwicklung der Fähigkeiten von künstlicher Intelligenz haben auch die Einführung von Alpha Go und Pluribus mit sich gebracht, da es sich bei dem Brettspiel Go und bei Poker um noch komplexere Handlungsabläufe als beim Schachspiel handelt.9 Eine wichtige Differenzierung bei künstlicher Intelligenz ist die Unterscheidung zwischen starker und schwacher künstlicher Intelligenz. Schwache künstliche Intelligenz bezieht sich dabei auf Anwendungsfälle bei denen künstliche Intelligenz vordefinierte Aufgaben bewältigt. Ein Schachcomputer oder eine Sprachsteuerung, welche menschliche Stimmen in ein Textformat konvertiert, wären klassische Beispiele für diese Form der künstlichen Intelligenz. Im Gegensatz dazu wäre starke künstliche Intelligenz in der Lage, nicht nur Probleme innerhalb eines bestimmten Kontextes zu lösen, sondern unabhängig und selbstständig intellektuelle Aufgaben zu lösen, für die sie nicht direkt programmiert wurde. Diese Art der künstlichen Intelligenz weist eine starke Analogie zu der menschlichen Intelligenz auf und wäre laut einiger Autoren10 in der Lage ein eigenes Bewusstsein zu entwickeln. Diese Sichtweise auf künstliche Intelligenz dominiert dabei vor allem die Literatur und Science-Fiction Filme und wurde dabei durch die Vorstellung einer Superintelligenz geprägt.11 Ob starke KI jemals erreicht werden kann ist allerdings unter Forschern noch umstritten. Der Begriff „schwache künstliche Intelligenz“ soll aber nicht darüber hinwegtäuschen, dass künstliche Intelligenz das alltägliche Leben nicht nachhaltig verändern wird. Im Gegenteil, auch der Einsatz der schwachen Version ist mit einer Reihe von ethisch relevanten Veränderungen verbunden, da die Tätigkeit des Menschen in sehr spezialisierten Aufgaben durch künstliche Intelligenz ersetzt werden kann.

III. Darstellung des ethischen Ansatzes Da die Maßstäbe für die ethische Bewertung einer Handlung oder auch einer Technologie je nach Ansatz variieren, hängt auch die ethische Bewertung der künstlichen Intelligenz naturgemäß von der jeweils verwendeten ethischen Theorie ab. Wir orientieren uns im Folgenden an einem konsequentialistischen Ansatz, der im Gegensatz zu deontologischen oder tugendethischen Ansätzen den Fokus einer nor8

Newborn (2000). Scheler (2019). 10 Vgl. z. B. Dennett (1997), Aleksander/Dunmall (2003), Aleksander (2005) und Gamez (2008). 11 Bostro (2014). 9

14

Raphael Max und Alexander Kriebitz

mativen Bewertung auf die Folgen einer Handlung und nicht auf einen Pflichtgedanken wie bei Immanuel Kant legt. Eine Kritik, die häufig an konsequentialististischen Ansätzen geäußert wird, besteht darin, dass die Folgen einer Handlung im vornhinein nicht absehbar sind.12 Gleichzeitig besteht die Schwierigkeit des konsequentialistischen Ansatzes in der Frage, wie man genau die einzelnen Handlungsfolgen miteinander abwägt.13 Trotz dieser inhärenten Schwierigkeiten versuchen wir ethische Problemfelder anhand eines konsequentialistischen Ansatzes zu beschreiben. Wir konzentrieren uns auf eine allgemeine Darstellung der positiven sowie negativen Folgen der KI und skizzieren Lösungswege, wie man die negativen Konsequenzen vermeiden oder lindern könnte.

IV. Welche ethischen Chancen verspricht die Verwendung künstlicher Intelligenz im wirtschaftlichen Bereich? Aus Sicht eines konsequentialistischen Ansatzes hängt die Bewertung der KI von den erwartbaren Folgen der Implementierung dieser Technologie ab. Das Technologien vielseitige Auswirkungen haben, zeigt sich auch im historischen Vergleich zur Industrialisierung. Die industrielle Revolution hat dabei zu starken wirtschaftlichen, sozialen und politischen Veränderungen geführt, die bis zum heutigen Tage kritisch diskutiert werden. Gleichzeitig zeigt der Vergleich zu anderen Technologien und Instrumenten, dass Technologien meist als „dual use“ Güter klassifiziert werden können14, deren Einsatz mehr von den Umständen der Benutzung als von einer intrinsischen Qualität abhängt. Häufig wird dabei die Analogie zu einem Messer verwendet. Messer können sowohl für einen moralisch verwerflichen Zweck, für einen Mord zum Beispiel, oder für einen moralisch gebotenen Zweck, zum Beispiel in der Form eines Operationsmessers, verwendet werden. Dies deckt sich auch mit einer konsequentialistischen Sichtweise auf die künstliche Intelligenz, die die Einsatzarten und deren jeweilige Folgen in den Vordergrund rückt. Viele Arbeitsprozesse können – oder werden bereits – an Maschinen delegiert werden, wodurch Menschen mehr Zeit und Freiräume für andere Beschäftigungen bekommen. Laut Floridi et al. führt diese Delegation von Arbeitsprozessen zu mehr menschlicher Selbstverwirklichung.15 Der steigende Einsatz von KI geht auch mit wirtschaftlichem Wachstum einher. Schätzungen gehen davon aus, dass die Weltwirtschaft durch den Einsatz der künst-

12

Vgl. McCloskey (1957) und Nida-Rümelin (1993). Vgl. Raz (1986). 14 Brudage et al. (2018). 15 Floridi et al. (2018, S. 691) verwenden das Beispiel der Erfindung der Waschmaschine. Aufgrund der Delegation des Waschvorgangs an Maschinen hatten Hausfrauen mehr Zeit für „kulturelle, intellektuelle und soziale Beschäftigungen“. 13

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

15

lichen Intelligenz jährlich dabei um 1,2 Prozent wachsen könnte.16 Wirtschaftliches Wachstum ist dabei nicht nur ein reiner Selbstzweck, sondern auch eine wichtige Voraussetzung zur Realisierung anderer ethischer Güter, deren Realisierung von Produktivitätssteigerungen und dem Wachstum des gesellschaftlichen Umverteilungspotenzials abhängt. Die Relevanz des wirtschaftlichen Wachstums ist gerade im Hinblick auf die UN Sustainable Development Goals (SDGs) relevant. Die SDGs definieren dabei die Leitplanken der weltweiten Entwicklungspolitik und haben mehrere konkrete Messzahlen für die soziale und wirtschaftliche Entwicklung. Ein starker Fokus liegt dabei auf der allgemeinen Verbesserung der Lebensverhältnisse, der Bekämpfung der absoluten Armut, dem Schutz der Umwelt und der Stärkung von Institutionen. Studien zeigen dabei auf, dass künstliche Intelligenz eine signifikant positive Auswirkung auf diese Entwicklungsziele haben könnte.17 Konkrete Beispiele finden sich dabei in der Landwirtschaft und Industrie, in der Regelung des Straßenverkehrs sowie in der Korruptions- und Armutsbekämpfung. Künstliche Intelligenz kann auch für zwei weitere zentrale Herausforderungen westlicher Gesellschaften einen ethischen Mehrwert schaffen: der Begegnung des demographischen Wandels und der zunehmenden Urbanisierung. Die Entvölkerung ländlicher Gebiete und die Urbanisierung stellt aufgrund des Mangels an Fachkräften und Ärzten eine große Herausforderung für den Lebensstandard in den betroffenen Regionen dar. Die Wirtschaftlichkeit in den entsprechenden Regionen eine Infrastruktur aufzubauen, kann dabei sehr gering sein. Die Anwendung von Telemedizin18, die teilweise auch auf künstliche Intelligenz zurückgreift und die Entwicklung von ortsunabhängiger Krankenbetreuung, stellen daher einen wichtigen Beitrag dar, um den Folgen der „Landflucht“ in einigen Teilen Europas besser begegnen zu können. Auch aus umweltpolitischer Perspektive spielt künstliche Intelligenz eine wesentliche Rolle, da durch ihren Einsatz Prozesse wirtschaftlich effizienter gemacht werden können. Im Zeichen des Klimawandels ist eine stärkere Ausrichtung auf Nachhaltigkeit und effiziente Ressourcennutzung ein wichtiger Aspekt, der auch in internationalen Rahmenwerken verankert wurde. Intelligente Stromnetze könnten den Strombedarf signifikant senken.19 Oslo konnte durch den Einsatz von intelligenten Algorithmen die Beleuchtungskosten des Straßensystems um 62 Prozent reduzieren.20 Dies trifft insbesondere auf Haushalte und Unternehmen in der Schwerindustrie zu. Intelligente Stromnetze ermöglichen dabei nicht nur eine effizientere Ressourcennutzung, sondern treiben auch eine dezentrale Stromversorgung voran. 16

McKinsey (2019). Vgl. Chui et al. (2019) und Vinuesa et al. (2019). 18 Künstliche Intelligenz könnte in der Telemedizin vor allem bei der Patientenüberwachung, der Generierung und Speicherung von Gesundheitsdaten, der Hilfe bei Diagnosen und Zusammenarbeit zwischen Medizinern einen Mehrwert schaffen. Vgl. dazu Pacis et al. (2018). 19 Vgl. z. B. Winkler (2013) und Venayagamoorthy (2009). 20 Echelon (2014). 17

16

Raphael Max und Alexander Kriebitz

Künstliche Intelligenz ist dabei besonders wichtig, um Nachfrageschwankungen zu prognostizieren und die Auslastung der einzelnen Energiequellen auf Tageszeiten zu verteilen. Floridi et al. kommen zu dem Schluss, das künstliche Intelligenz, auf Grund von Beispielen wie den eben skizzierten, zu mehr menschlicher Selbstverwirklichung, Verbesserung sozialer Kompetenzen und einer grundlegenden Verbesserung des gesellschaftlichen Zusammenlebens führen kann.21 Diese Aspekte sind aus ethischer Sicht relevant, da sie zu einer Verbesserung der Lebensumstände von Menschen führen und „Leid“ im Sinne von Bentham für die jeweils betroffenen Menschengruppen verringern. Gleichzeitig zeigt diese Perspektive auf, dass auch der Nichteinsatz von künstlicher Intelligenz Opportunitätskosten verursachen könnte.

V. Was sind ethische Problemfelder bei der Verwendung künstlicher Intelligenz im wirtschaftlichen Bereich? Wie bei der Einführung jeder neuen Technologie stellt auch die fortschreitende Verwendung künstlicher Intelligenz spezifische Herausforderungen an Ethik und Gesetzgebung. In diesem Abschnitt beschreiben wir vier ethische Problemfelder bei der Verwendung künstlicher Intelligenz. Es wird kein Anspruch erhoben, alle möglichen Probleme darzustellen, sondern der Versuch unternommen anhand der folgenden Strukturierung einen Beitrag zum wirtschaftsethischen Diskurs zu diesem Thema zu leisten. Die Auswahl der einzelnen Themenfelder basiert dabei auf der vorhandenen Literatur, die sich mit der Ethik der KI auseinandersetzt, und auf den erwartbaren negativen Folgen, die von der Einführung der KI in den jeweiligen Bereichen zu erwarten sind. Wir beschreiben die ethischen Problemfelder Verzerrungen, böswillige AI, ethisch problematischer Dateninput und neuauftretende Dilemmasituationen. 1. Verzerrungen Bei Verzerrungen (englisch Biases) handelt es sich um nicht-intendierte Anwendungsfehler künstlicher Intelligenz. Fehlerhafte Entscheidungen können aufgrund einer schlechten Auswahl der zu Verfügung gestellten Daten, einer falschen Ursache-Folgen-Einschätzung oder technischen Problemen entstehen.22 Kernmerkmal dieser Form des ethischen Problemfeldes von künstlicher Intelligenz ist die Tatsache, dass es sich dabei nicht um eine von Menschen direkt beabsichtigte Entscheidung handelt, sondern um technische oder menschliche Fehler.

21 22

Floridi et al. (2018). Vgl. z. B. Friedman/Nissenbaum (1996) und Bozdga (2013).

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

17

Ein Beispiel wäre dafür ein Programm, das die Aufgabe hat Gesichter zu erkennen, aber aufgrund einer falschen Kalibrierung Gesichter von verschiedenen Personen falsch zuordnet, oder ein Programm, dass die Verbrechenswahrscheinlichkeit in verschiedenen Stadtbezirken berechnet, aber aufgrund eines zu geringen Dateninputs falsche Rückschlüsse zieht. Fehler dieser Art sind oft problematisch, da sie zu Diskriminierung führen können. Dies ist aus konsequentialistischer Perspektive aus den folgenden Punkten relevant. Diskriminierung verursacht zum einen Leid für die jeweils Betroffenen, da diese sich systematisch ausgegrenzt fühlen. Zum anderen haben Verzerrungen auch aus wirtschaftlicher Perspektive Nachteile, da eine nicht optimale Ressourcenallokation stattfindet und bspw. nicht die optimalen Bewerber für eine Position eingestellt werden. Eine weitere Konsequenz von Diskriminierung ist ebenfalls der allgemeine Vertrauensverlust in das wirtschaftliche, politische oder gesellschaftliche System. Aus konsequentialistischer Perspektive ist dies ein nicht zu unterschätzender Effekt, da die nachhaltige Ausrichtung von Gesellschaften auf faire Grundstrukturen angewiesen ist. Ein bekanntes Beispiel für einen solchen Bias ist ein Programm, das die Aufgabe hatte, Hochzeitsfotos richtig zu zuordnen. Da die Datengrundlage mit der das Programm entwickelt wurde aus Hochzeitsfotos weißer US-Amerikaner bestand, wurden bei der späteren Ausrollung des Programms Hochzeitfotos, die bei traditionellen indischen Hochzeiten entstanden sind, als Performance-Kunst eingeordnet.23 Weitere Beispiele von Biases waren die Verwechslung von Afroamerikanern und Gorillas von einer Google-Software und rassistische Äußerungen eines AI Chat Bots von Microsoft. Ein Programm zur Gesichtserkennung von Google hat zwei Menschen als Tiere erkannt.24 Microsoft hatte als Experiment einen AI Chat Bot für Twitter programmiert. Das Experiment hat nach nur wenigen Stunden folgenden Tweet abgesetzt: „Hitler hätte einen besseren Job gemacht als der Affe, den wir jetzt haben.“25 Derartige Verzerrungen sind in der Vergangenheit häufig vorgekommen und stellten für Unternehmen eine Herausforderung dar. Keinem dieser Unternehmen konnte jedoch in diesem Zusammenhang eine böse Absicht unterstellt werden.26 Eine Fehlerquelle ist die Verwechslung von Kausalität und Korrelation. Der Einsatz von künstlicher Intelligenz durch die Polizei in New York hat beispielsweise dazu geführt, dass Merkmale wie die Ethnizität bei der Einordnung einer Person als potenzieller Verbrecher eine zentrale Rolle gespielt haben.27 Der Einsatz hat dabei zu einer Diskriminierung afroamerikanischer Bürger geführt und einen gesellschaftlichen Diskussionsprozess um die Grenzen des Einsatzes künstlicher Intelligenz durch die Verwaltung in Gang gesetzt. Eine vergleichbare Diskriminierung kann auch bei anderen Beispielen, wie bei Einstellungsprozessen in Unternehmen 23

Shankar et al. (2017) und Zou/Schiebinger (2018). Zhang (2015). 25 Hunt (2016). 26 Beispiele hierfür wären auch Nikon oder HP. Vgl. Zhang (2015). 27 Vgl. z. B. Meijer/Wessels (2019), Brantingham et al. (2018) und Ferguson (2017). 24

18

Raphael Max und Alexander Kriebitz

stattfinden. Seit einigen Jahren verwenden vermehrt Unternehmen intelligente Software um den Einstellungsprozess effizienter zu gestalten. Viele Beispiele zeigen, dass Menschen aufgrund verschiedener Merkmale bevorzugt bzw. benachteiligt werden.28 Es gibt dabei durchaus eine gewisse Parallelität zu Diskriminierung durch menschliche Akteure, da diese häufig auch auf falschen Zuordnungen basiert und zu einer Benachteiligung im Alltag führt. Anders als künstliche Intelligenz wären Menschen in der Lage Vorurteile zu überdenken. Bei künstlicher Intelligenz ist dies nicht der Fall, da die kritische Reflexion bislang nicht erfolgreich in Form von künstlicher Intelligenz einprogrammiert werden kann. 2. Böswillige AI Ein weiteres ethisches Problemfeld sind intendierte Entscheidungen, durch den Einsatz von künstlicher Intelligenz Menschen gezielt zu schaden. Im Englischen wird dabei von „malicious AI“ gesprochen. Böswillige KI ist in diesem Sinne jedes System, das darauf abzielt die Sicherheit von Einzelpersonen, Gruppen oder einer Gesellschaft zu gefährden.29 Aus konsequentialistischer Perspektive ist zunächst nicht die bösartige Intention das ethische Problem, sondern die sich daraus ergebenden Folgen. Mögliche Szenarien wären dabei Programme, die basierend auf Algorithmen die Bevölkerung in verschiedene politische Klassen einteilen, oder die Demokratie im Allgemeinen gefährden, in dem sie einer regierenden Partei einen entscheidenden Vorteil verschaffen. Die Einteilung der Bevölkerung in mehrere Klassen ist dabei keineswegs eine Dystopie, sondern eine häufige Praxis in Diktaturen. Gleichzeitig könnten auch Unternehmen KI verwenden, um Gewerkschaftsmitglieder zu benachteiligen oder bestimmte Mitarbeiter auszugrenzen. Ein Beispiel des Einsatzes von „bösartiger“ KI findet gegenwärtig in der chinesischen Provinz Xinjiang statt. Die chinesischen Behörden setzen dort künstliche Intelligenz zur allumfassenden Überwachung der muslimischen Minderheit ein.30 Problematisch ist dabei insbesondere, dass rechtsstaatliche Prinzipien außer Kraft gesetzt werden und ein großer Teil der Bevölkerung unter einen Generalverdacht gestellt wird. Die Formen des Einsatzes künstlicher Intelligenz, die anderen Menschen schaden sollen, entsprechen allerdings der Problemstruktur, die man auch beim Missbrauch andere Technologien kennt. Die Überwachung von Oppositionellen in Diktaturen oder die absichtliche Diskriminierung von Gewerkschaftsmitgliedern durch ein Unternehmen stellt dabei keine KI spezifische Fragestellung dar, sondern weist auf ein 28

The Guardian (2018). Vgl. Brundage et al. (2018) 30 Zenz und Leibold (2017). 29

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

19

allgemeines ethisches Problem hin. Durch die zunehmende Vernetzung vieler Devices, der Geschwindigkeit der Datenverarbeitung und der grundsätzlichen asymmetrischen Informationsverteilung zwischen verschiedenen Akteuren, kann eine Überwachung oder Diskriminierung jedoch durch die Verwendung künstlicher Intelligenz stärker ausfallen. Dennoch ist festzuhalten, dass der Einsatz von künstlicher Intelligenz die Machtbalance zwischen verschiedenen Gruppen – Angestellten und Unternehmen, Beherrschten und Herrschenden – verschieben und die Position der ohnehin schwächeren Seite weiter aufweichen kann. Die Auseinandersetzung mit den Fragen, welche Folgen künstliche Intelligenz auf die Beziehung zwischen Staat und Bürger sowie Unternehmen und Bürgern hat, ist von zentraler Bedeutung, um entstehende gesellschaftliche Gefälle und Missstände zu vermeiden. 3. Dateninput Die Generierung bzw. Sammlung und Speicherung von Daten kann ein weiteres ethisches Problemfeld darstellen. Daten stellen gemeinhin die Grundlage von Entscheidungen durch künstlicher Intelligenz dar, da diese auf einen stetigen Input von Daten angewiesen ist, um Zusammenhänge zu erkennen, die eigenen Fähigkeiten zu verbessern und eine konkrete Beurteilung eines Falles zu vollziehen. Ethische Fragen, die sich in dem Kontext ergeben, sind zum Beispiel, ob die Steuerfahndung durch den Einsatz von künstlicher Intelligenz auf persönliche Gespräche zugreifen darf. Ähnliche Fragestellungen ergeben sich auch bei der Überprüfung der Kreditwürdigkeit durch eine Bank oder bei der Bewertung einer Versicherungspolice. Die Geschichte lehrt, dass das Sammeln von Daten auch in früheren Zeiten zu ethisch relevanten Problemen geführt hat, die im Moment der Handlung zunächst noch nicht abgesehen werden konnten. Der Anteil der getöteten Juden in den Niederlanden während des Holocaust war auch deswegen so hoch, da die Stadtverwaltung von Amsterdam einen detaillierten Bevölkerungszensus geführt hat, der auch die Religion der Einwohner statistisch vermerkt hatte. Durch den Zugriff auf diese Daten war die Gestapo in der Lage, jüdische Familien ausfindig zu machen und in Konzentrationslager einzuweisen.31 Die Sammlung von Daten und die anschließende Auswertung dieser, müssen folglich Folgen und Risiken einbeziehen, bestimmte Daten nicht berücksichtigen oder erheben und in einem ausgewogenen Verhältnis zu anderen ethischen Gütern und Rechtsnormen stehen. Eine ethische Auseinandersetzung mit künstlicher Intelligenz muss daher die Frage nach dem Dateninput unbedingt mit einbeziehen. Datenschutz muss dabei nicht nur im Hinblick auf Schutz von Personen gegenüber einem Unternehmen verstanden werden, sondern auch als Abwehrrecht gegenüber staatlichen Behörden. Auf welche Daten zugegriffen werden kann und sollte, ist dabei sicherlich situationsabhängig. Die Verfolgung von Terroristen wird dabei im Sinne der Verhältnismäßigkeit einen anderen Umgang mit vorhande31

Steltzer (1998).

20

Raphael Max und Alexander Kriebitz

nen Daten erfordern als die Steuerfahndung. Aus ethischer Sicht wäre dabei besonders wichtig, wie groß der Schaden für die jeweiligen Seiten ist und welche Risiken für die involvierten Stakeholder bzw. Beteiligten bestehen könnten. 4. Dilemmasituationen Ein weiteres Problemfeld sind neuartig auftretende Dilemmasituationen. Ein Dilemma ist eine Situation, in der sich ein Akteur zwischen zwei unangenehmen bzw. schwierigen Alternativen entscheiden muss. Eine ethisch eindeutige Bevorzugung einer Alternative ist theoretisch nicht möglich. Ein Beispiel für Dilemmasituationen, die beim Einsatz der künstlichen Intelligenz entstehen können, wäre das Trolley Dilemma. Beim Trolley Dilemma geht es um die Frage, wie sich ein Autofahrer bzw. ein System entscheiden muss, wenn er mit hoher Geschwindigkeit auf zwei verschiedene Menschengruppen zurast und vor die Wahl gestellt wird, in eine der beider Gruppen hineinzufahren und sie dem sicheren Tod auszuliefern.32 Aus ethischer Perspektive ist die Frage nicht allgemein zu klären. Während utilitaristische Ansätze nach dem Muster verfahren würden, die Anzahl der Getöteten zu minimieren, würden deontologische Ansätze eine Abwägung dieser Art im Hinblick auf die Unverletzlichkeit des Lebens grundsätzlich verwerfen. Häufig wird das Trolley Dilemma nur theoretisch diskutiert und war bisher nur in Ausnahmefällen, wie bspw. beim Abschuss von Flugzeugen, relevant. Die Entwicklung von autonomen Fahrzeugen hat die technischen Möglichkeiten von autonomen Fahrzeugen allerdings so weit gebracht, dass Trolley-Dilemmas im Vorfeld gelöst werden könnten. Die ethische Debatte, wie autonome Fahrzeuge in Dilemmasituationen programmiert werden sollen, hat dabei deutlich Auftrieb erhalten und zu zahlreichen ethischen Stellungnahmen und Urteilen geführt33. Ähnliche Abwägungsentscheidungen werden dabei auch in anderen Situationen bei der Implementierung von künstlicher Intelligenz vorkommen, in denen die Entscheidung von autonom agierenden Programmen die Sicherheit von Menschen betrifft. Besonders interessant werden Dilemmasituationen, wenn ein System nicht explizit vorbereitet ist, eine derartige Entscheidung zu treffen bzw. ein System nicht über ausreichend Rechenkraft verfügt, um notwendige Faktoren in die Entscheidung einzubeziehen. Wie sollte künstliche Intelligenz in diesem Fall entscheiden? Sollte es randomisieren, um allen Beteiligten gleiche Chancen zu gewähren?

32 Erstmalig wurde das Trolley Dilemma erklärt von Foot (1967). Nähere Informationen und Anwendungsbeispiele findet man bspw. bei Thomson (1976) oder Kamm (1989). Die Ethik Kommission Autonomes Fahren des Bundesministeriums für Verkehr und digitale Infrastruktur beschäftigt sich mit dem Trolley Dilemma in dem im Juni 2017 veröffentlichten Bericht „Automatisiertes und Vernetztes Fahren“. 33 Das bekannteste Beispiel ist das „Moral Maschine Experiment“ des MIT. Das Experiment und die wichtigsten Erkenntnisse wurden 2018 von Awad et al. publiziert.

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

21

Die sich durch die technische Entwicklung eröffnenden Fragestellungen bzw. Dilemmasituationen, haben durchaus das Potenzial für gesellschaftliche Spaltungen. Man denke dabei an die Anti-Abtreibungsproteste in den Vereinigten Staaten oder die intensive Debatte um Organspende. Eine einfache Lösung ist bei Dilemmasituationen nicht zu finden, da die Lösung davon abhängt, auf welchen Prämissen das Weltbild basiert und in welcher Form die Güterabwägung beispielsweise zwischen dem Schutz einer Mutter oder der Entscheidungsfreiheit und dem Schutz des ungeborenen Kindes vollzogen wird. Die Klärung neuartiger Dilemmasituationen und Abwägungsentscheidungen könnte daher in Zukunft mehr gesellschaftliche Aufmerksamkeit erfahren.

VI. Lösungsansätze für ethische Problemfelder In „Politik als Beruf“ hat Max Weber Augenmaß, Leidenschaft und Verantwortungsgefühl als die Tugenden des politischen Entscheiders bzw. des Gesetzgebers definiert. Die Durchsetzung des eigenen moralischen Urteils oder der eigenen Ideologie über das Interesse der Gesamtbevölkerung und über eine rationale Folgenkalkulation hinweg, wird dabei von Max Weber – in seiner Kritik an einer reinen Gesinnungsethik – entschieden abgelehnt. Stattdessen betont er, „dass man (auch) für die (voraussehbaren) Folgen seines Handelns aufzukommen hat“.34 Eine allgemeine Technikfeindlichkeit, die sich letztendlich auf einer Kritik am technischen Fortschritt selbst zurückzieht, und nicht zwischen den Rahmenbedingungen des Einsatzes und den möglichen Vorteilen ihres Einsatzes unterscheidet, erscheint daher aus konsequentialistischer Perspektive als wenig hilfreich, da man einen technischen Fortschritt nicht per se aufhalten kann. Gleichzeitig ist der technische Wandel mit einigen oben beschriebenen Vorteilen verbunden. Aufgabe einer Wirtschafts- und Technikethik ist es daher, diese Entwicklungen konstruktiv und kritisch zu begleiten und die Risiken dieser Technologien herauszuarbeiten und Entscheidern vor Augen zu führen. Das Ziel einer modernen Wirtschafts- und Technikethik muss es folglich sein, ethische Rahmenbedingungen zu formulieren und den gesellschaftlichen Diskurs zu moderieren. Da sich Wertvorstellungen und ethische Präferenzen zwischen Menschen unterscheiden und sich in einem stetigen Wandel befinden, ist eine Ausrichtung von gesellschaftlichen Strukturen auf ethische Ziele, die mit einer Änderung von Interessensstrukturen und Präferenzen der handelnden Akteure einhergeht, unausweichlich. Im Sinne von Karl Homann gehen wir davon aus, dass wirtschaftliche Akteure „auf das Verhalten anderer, das sie in Nachteil bringt“ als homines oeconomici reagieren.35 Um mit Kant zu sprechen, „das Problem der Staatserrichtung ist, so hart wie es auch klingt, selbst für ein Volk von Teufeln (wenn sie nur Verstand haben) auflös34 35

Weber (1919), S. 57. Homann (2002), S. 79.

22

Raphael Max und Alexander Kriebitz

bar“ und lautet so: „Eine Menge von vernünftigen Wesen, die insgesamt allgemeine Gesetze für ihre Erhaltung verlangen, deren jedes aber insgeheim sich davon auszunehmen geneigt ist, so zu ordnen und ihre Verfassung einzurichten, dass, obgleich sie in ihren Privatgesinnungen einander entgegen streben, diese einander doch so aufhalten, dass in ihrem öffentlichen Verhalten der Erfolg eben derselbe ist, als ob sie keine solche böse Gesinnungen hätten.“36 Dies ist insbesondere in Wettbewerbssituationen der Fall, in denen die einseitige Unterbietung von Verfahrensstandards zu höheren Unternehmensgewinnen führen kann. Die Implementierung ethischer Normen durch formelle und informelle Regeln ist daher von zentraler Bedeutung, da gemeinsame Regeln den Handlungsrahmen für alle Wettbewerber definieren. Gleichzeitig spielt neben der reinen Interessenskonstellation das gesellschaftliche Bewusstsein für bestimmte Themen eine wichtige Rolle. Neben der Setzung von Regeln erfüllt der gesellschaftliche und akademische Diskurs die Funktion alle relevanten Parteien zu hören, die Faktenlage zu eruieren und durch institutionell vorgegebene Prozesse beispielsweise mittels einer parlamentarischen oder deliberativen Demokratie einen Konsens herbeizuführen. Im Folgenden werden die zentralen Bausteine eines wirtschaftsethischen Lösungsansatzes beschrieben. 1. Weiterentwicklung der Rahmenbedingungen Die Erarbeitung von gesellschaftlichen Regeln, die sich mit der Normierung der künstlichen Intelligenz beschäftigen, ist aus Sicht der Anreizkompatibilität von zentraler Bedeutung. Die Regulierung muss dabei aus unserer Sicht unter anderem die Aspekte Haftung, Qualitätsstandards und Nachvollziehbarkeit, Dringlichkeit und Anreizstrukturen berücksichtigen. a) Stärkung des Haftungsprinzips Die Klärung von Haftungsfragen spielt für die Regulierung der künstlichen Intelligenz eine herausragende Rolle, da sie der Ansatzpunkt für eine Internalisierung externer Effekte ist. Das Diktum von Eucken, nach dem „Investitionen umso sorgfältiger gemacht (werden), je mehr der Verantwortliche für diese Investitionen haftet“ ist daher für die Digitalisierung von herausragender Bedeutung37. Der Einsatz von Technologien, die Biases und weitere Fehlerquellen identifizieren, könnte mit hohen Kosten für Unternehmen und Behörden verbunden sein, so dass das Ausbessern bestehender Fehler aus Kostengründen unterlassen oder „ausgesessen“ werden könnte. Ein aus wirtschaftsethischer Sicht relevanter Präzedenzfall wäre dabei der Ford Pinto Case aus den 1970er Jahren. Der amerikanische Automobilhersteller Ford hatte bei der Konstruktion des Ford Pinto der Gewinnerzielung ein höheres Gewicht eingeräumt als der Produktsicherheit und trotz besseren 36 37

Kant, AA VIII: 366.15 – 23. Eucken (1990), S. 280.

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

23

Wissens Investitionen in die Fahrzeugsicherheit vermieden und somit eine höhere Mortalitätsrate in Kauf genommen. Aufgrund ähnlicher Erwägungen hat der Europarat die Mitgliedsstaaten dazu aufgerufen, „Lücken oder Hindernisse zu identifizieren, die es den KI-Akteuren erschweren, sich über KI-bezogene Menschenrechtsverletzungen zu informieren.“38 Eine Regulierung in diesem Bereich muss daher den Nutzen und die Kosten der einzelnen Anwendungen im Blick behandeln und ein angemessenes Gleichgewicht zwischen den verschiedenen Risiken und Chancen wahren. b) Entwicklung von Standards Anknüpfend daran sollte die Zielsetzung einer Regulierung die Schaffung von Qualitätsstandards sein. Die Erarbeitung von ISO-Normen39 – im Sinne von zunächst unverbindlichen Qualitätsstandards – und die Entwicklung von Ethikkodizes, wie die Ethik-Richtlinien für das autonome und vernetzte Fahren oder die Asilomar-Prinzipien, sind aus regulatorischer Sicht grundsätzlich zu begrüßen. Aus dieser Perspektive können auch die Rahmenwerke wie die DSGVO oder der California Consumer Privacy Act als wegweisende Gesetzeswerke gelten, die vor allem das Handeln von Unternehmen an stärkere Standards knüpfen. Neben derartigen Erwägungen zum Datenschutz ist auch das kontinuierliche Testen von Algorithmen wichtig. Dies wird nicht immer eindeutig möglich sein, durch Testprozesse können aber ex-post zahlreiche Indikatoren für den Ablauf des Prozesses gewonnen werden. Als Überprüfungsmechanismus könnte man durch künstliche Intelligenz getätigte Entscheidungen intern überprüfen und versuchen rational nachzuvollziehen. Dies könnte auch in den Prozess der sogenannten „ex-post explanation“ integriert werden.40 Ähnliche Strukturen befinden sich bereits bei der DSGVO, die in Art. 25 (2) festlegt, dass „geeignete technische und organisatorische Maßnahmen“ getroffen werden, „die sicherstellen, dass durch Voreinstellung nur personenbezogene Daten, deren Verarbeitung für den jeweiligen bestimmten Verarbeitungszweck erforderlich ist, verarbeitet werden“. c) Ethische Dringlichkeit der Regulierung Die ethische Dringlichkeit der Regulierung hängt von den jeweiligen Folgen eines Miss- oder Fehlgebrauchs von künstlicher Intelligenz ab. Indikatoren für die ethische Dringlichkeit könnten Konflikte mit anderen Rechtsgütern und die Irreversibilität der durch KI getroffenen Entscheidungen sein. Irreversibilität ist zum Beispiel bei mechanischen Prozessen, die von künstlicher Intelligenz gesteuert werden, häufiger gegeben als in anderen Bereichen wie dem autonomen Fahren oder beim Einsatz von 38

Council of Europe (2019), S. 18. Übersetzung durch die Autoren. Die Internationale Organisation für Normung (ISO) arbeitet seit 2017 an internationalen Standards für künstliche Intelligenz. Vgl. dazu ISO (2019). 40 Vgl. Doshi-Velez et al. (2017). 39

24

Raphael Max und Alexander Kriebitz

Robotern in medizinischen Operationen. Gerade aus konsequentialistischer Sicht ist eine Unterscheidung in verschiedene Arten von Folgen dringend geboten. Weitere Faktoren zur Bestimmung der Dringlichkeit könnten die Höhe des größtmöglichen Schadens, der Konflikt mit Menschen- und Bürgerrechten und die gesellschaftliche Relevanz des jeweiligen Einsatzbereichs von KI für das Vertrauen in politische, wirtschaftliche, wissenschaftliche oder medizinische Institutionen, sein.41 d) Anreizstrukturen und Regulierung Gleichzeitig muss die gesetzliche Regelung bereits bestehende Anreizstrukturen berücksichtigten. Biases können für Unternehmen selbst eine Gefahr darstellen, da sie auf der einen Seite hohe bereits bestehende rechtliche Risiken und auf der anderen Seite hohe Kosten und Ineffizienzen verursachen können. Ein auf künstlicher Intelligenz basierendes Programm, das Bewerber bestimmter Art im vornhinein ausschließt und sich dabei auf Merkmale bezieht, die für die Durchführung der Aufgabe vollkommen irrelevant sind, wie ethnische Herkunft oder Aussehen, führt zu einer suboptimalen Auswahl von Mitarbeitern, so dass dem Unternehmen hochqualifizierte Mitarbeiter entgehen können. Diskriminierungsfälle in der Vergangenheit haben daher zu einem stärkeren Bewusstsein bei Unternehmen für die Risiken, die mit Biases einhergehen können, geführt.42 In anders gearteten Anreizstrukturen kann es allerdings vorkommen, dass das Eigeninteresse der handelnden Akteure – auch im Sinne der Reputation – nicht ausreicht, um Fehlverhalten zu korrigieren. Unternehmen, die Interesse an umfangreichen Datensammlungen haben, dürften durch freiwillige Bindungen nicht ausreichend incentiviert werden. Gleichzeitig sind große Unternehmen in (quasi) Monopolstrukturen in einem geringeren Umfang dem Wettbewerb ausgesetzt als kleinere Unternehmen, bei denen Reputationsschäden und Rechtsstreitigkeiten, einen Austritt aus dem Markt zur Folge haben können.43 Aus den verschiedenen Anreizstrukturen folgt, dass die Regulierung der verschiedenen Anwendungsformen von KI, sowohl „weiche“ als auch „harte“ Regelwerke umfassen und das jeweilige Umfeld berücksichtigten sollte. 2. Diskursverantwortung der Akteure Da Regeln grundsätzlich kaum alles abdecken können und für die Formulierung geeigneter Regelwerke ein Informationsaustausch aller relevanten Parteien notwen41 Der Fall Gustl Mollath hat gezeigt, dass auch menschliche Fehlurteile für Individuen zu Unrecht führen können, was mit schwerwiegenden Folgen für das Vertrauen in Institutionen verbunden ist. Eine juristische Zusammenfassung des Falles findet sich bei Strate (2014). 42 Vgl. Gershgorn (2019). 43 Im Zuge des Skandals von Facebook und Cambridge Analytica musste Cambridge Analytica seine Dienste einstellen, während Facebook keinen signifikanten wirtschaftlichen Schaden erlitten hat.

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

25

dig ist, spielt der zivilgesellschaftliche Diskurs eine zentrale Rolle beim Aufdecken struktureller Probleme sowie der Letztbegründung von gesellschaftlichen Normen. Der Diskurs dient vor allem auch dazu, der Schwäche konsequentialistischer Ansätze, die Unmöglichkeit der ex-post Vorhersehbarkeit der Folgen von Technologieanwendungen, zu begegnen. Stakeholder-Dialoge von Unternehmen, der Wissenschaft und der Politik könnten dabei weitere gesellschaftliche Kräfte, wie Medien, Datenschutzgruppen und Nichtregierungsorganisationen hinzuziehen und die Auswirkungen neuer Regulierungen evaluieren, sowie weiteren Handlungsbedarf identifizieren. Ein Zusammenwirken von Technik- und Wirtschaftsethik ist an dieser Stelle von großer Bedeutung, da sowohl die Analyse wirtschaftlicher Interessen und Anreizstrukturen, als auch die technische Expertise zur Formulierung von Lösungsvorschlägen von herausragender Bedeutung ist. Die Enquete-Kommission des Bundestages oder die Empfehlungen des Europarats sind daher wichtige Beiträge zu einer stärkeren ethischen Ausrichtung der KI. Ein Beispiel für eine Abwägungsfrage wäre das Interesse der Gesellschaft an einer funktionierenden Strafverfolgung und das Recht auf eine intakte Privatsphäre. Je stärker aber Daten benutzt werden, um Strafverfolgung zu gewährleisten, umso invasivere Eingriffe in die Rechte Einzelner dürfen unternommen werden. Fragen, die sich alle Mitglieder der Gesellschaft stellen sollten, sind dabei auch von rechtstheoretischer Natur: Wollen wir in einer Welt ohne Verbrechen leben? Gibt es bestimmte persönliche Informationen, die dem staatlichen Zugriff grundsätzlich entzogen werden sollten? Was passiert, wenn die Regeln durch staatlichen Übergriff missbraucht werden?

VII. Zusammenfassung Die Auseinandersetzung mit der Ethik der künstlichen Intelligenz zeigt auf, wie wichtig die Setzung von ethischen Standards ist, um gesellschaftliche und politische Missstände zu beheben. Gleichzeitig stellen die Digitalisierung und der Einsatz von künstlicher Intelligenz ein großes Potenzial zur Erreichung langfristiger ethischer Ziele dar. In diesem Paper haben wir den Versuch einer konsequentialistische Einordnung und Problemeinschätzung der KI unternommen. Wie aufgezeigt, kann künstliche Intelligenz dabei einen wesentlichen Beitrag zur Erreichung der UN SDGs und anderer wünschenswerter gesellschaftlicher Ziele leisten. Die Möglichkeit des Einsatzes der Technologie reichen von Wirtschaftswachstum bis hin zu Maßnahmen der konkreten Armutsbekämpfung. Dennoch bestehen beim Einsatz der künstlichen Intelligenz eine Reihe von Risiken, die nicht ausgeklammert werden dürfen. Denn insbesondere Verzerrungen, der Einsatz von bösartiger Künstlicher Intelligenz, illegitimer Dateninput und neuartige Dilemmasituationen stellen für die Gesellschaft große Herausforderungen dar.

26

Raphael Max und Alexander Kriebitz

Die Stärkung des Haftungsprinzips ist daher in diesem Sinne dringend geboten, um eine Anreizstruktur für Unternehmen zu schaffen, die zu einer Internalisierung gesellschaftlicher Kosten führt. Dennoch müssen Rahmenwerke flexibel genug sein, um der technischen Entwicklung genug Freiraum zur Entfaltung zu geben. Eine Regulierung muss aus Sicht der Anreizkompatibilität mehrere Aspekte berücksichtigen. Zielsetzung sollte dabei das Etablieren von Qualitätsstandards und eine bessere externe Nachvollziehbarkeit von Entscheidungen sein, die durch künstliche Intelligenz getroffen wurden. Regulierungen müssen allerdings bereits bestehende Anreizstrukturen, die Akteursdispositionen der handelnden Entitäten und die ethische Dringlichkeit einer Regulierung berücksichtigen. Bei der Lösung von Dilemmasituationen schließlich ist eine rechtliche Normierung allein nicht ausreichend. Hier ist der Diskurs die gesellschaftliche Institution, welche die perspektivische Ausrichtung der Digitalisierung gestalten, kritisieren und überdenken sollte. Literatur Aleksander, Igor (2005): The world in my mind, my mind in the world: Key mechanisms of consciousness in people, animals and machines, Exeter: Imprint Academic. Aleksander, Igor/Dunmall, Barry (2003): Axioms and tests for the presence of minimal consciousness in agents, in: Holland, Owen (Hrsg.) Machine consciousness, Exeter: Imprint Academic, S. 7 – 18. Awad, Edmond/Dsouza, Sohan/Kim, Richard/Schulz, Jonathan/Henrich, Joseph/Shariff, Azim/ Bonnefon, Jean-François/Rahwan, Iyad (2018): The Moral Machine experiment, in: Nature, Vol. 563, S. 59 – 64. Bartneck, Christoph/Lütge, Christoph/Wagner, Alan/Welsh, Sean (2019): Ethik in KI und Robotik, München: Carl Hanser Verlag. Bozdga, Engin (2013): Bias in algorithmic filtering and personalization, in: Ethics and Information Technology, Vol. 15, S. 209 – 227. Brundage, Miles/Avin, Shahar/Clark, Jack/Toner, Helen/Eckersley, Peter/Garfinkel, Ben/ Dafoe, Alan/Scharre, Paul/Zeitzoff, Thomas/Filar, Bobby/Anderson, Hyrum/Roff, Heather/ Allen, Gregory C./Steinhardt, Jacob/Flynn, Carrick/Éigeartaigh, Seán Ó/Beard, Simon/Belfield, Haydn/Farquhar, Sebastian/Lyle, Clare/Crootof, Rebecca/Evans, Owain/Page, Michael/Bryson, Joanna/Yampolskiy, Roman/Amodei, Dario (2018): The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, arxiv.org/ftp/arxiv/papers/1802/ 1802.07228.pdf. Buchanan, James M. (1995): Individual Rights, Emergent Social States, and Behavioral Feasibility, in: Rationality and Society, Vol. 7, No. 2, S. 141 – 150. Chui, Michael/Chung, Rita/van Heteren, Ashley (2019): Using AI to help achieve Sustainable Development Goals, undp.org/content/undp/en/home/blog/2019/Using_AI_to_help_achi eve_Sustainable_Development_Goals.html. Council of Europe (2019): Unboxing Artificial Intelligence: 10 steps to protect Human Rights, rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/ 1680946e64.

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

27

Davidson, Donald (2004): Problems of Rationality, Oxford: Oxford University Press. Dennett, Daniel C. (1997): Consciousness in human and robot minds, in: Ito, Masao/Miyashita, Yasushi/Rolls, Edmund T. (Hrsg.) Cognition, computation, and consciousness, New York: Oxford University Press, S. 17 – 29. Doshi-Velez, Finale/Kortz, Mason/Budish, Ryan/Bavitz, Chris/Gershman, Sam/O’Brien, David/Schieber, Stuart/Waldo, James/Weinberger, David/Wood, Alexandra (2017): Accountability of AI Under the Law: The Role of Explanation, arxiv.org/abs/1711.01134. Echelon (2014): Oslo Street Lighting System Slashes Energy Use with Lonworks Network, ech elon.com/assets/bltd6560c36a2c5f39f/Lighting-City-of-Oslo-Street-lighting-case-study.pdf. Ertel, Wolfgang (2016): Grundkurs Künstliche Intelligenz, Wiesbaden: Springer Vieweg, Wiesbaden. Eucken, Walter (1990): Grundsätze der Wirtschaftspolitik, Tübingen: J. C. B. Mohr. Ferguson, Andrew G. (2017): Policing Predictive Policing, in: Washington University Law Review, Vol. 94, No. 5, S. 1109 – 1189. Foot, Philippa (1967): The problem of abortion and the doctrine of double effect, in: Oxford Review, Vol. 5, S. 5 – 15. Friedman, Batya/Nissenbaum, Helen (1996): Bias in Computer Systems, in: ACM Transactions on Information Systems, Vol. 14, No. 3, S. 330 – 347. Gamez, David (2008): Progress in machine consciousness, in: Consciousness and Cognition, Vol. 17, S. 887 – 910. Gershgorn, Dave (2019): Microsoft warned investors that biased or flawed AI could hurt the company’s image, qz.com/1542377/microsoft-warned-investors-that-biased-or-flawed-aicould-hurt-the-companys-image/. Homann, Karl (2002): Vorteile und Anreize, in: Lütge, Christoph (Hrsg.), Tübingen: Mohr Siebeck. Hunt, Elle (2016): Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter, thegu ardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-ra cism-from-twitter. International Transportation Union (2018): How an AI chatbot aims to advance health and education for rural women in Pakistan, https://news.itu.int/ai-chatbot-raaji-pakistani-rural-wo men/. ISO (2019): ISO/IEC JTC 1/SC 42, Artificial intelligence, iso.org/committee/6794475.html. Kamm, Francis Myrna (1989): Harming Some to Save Others, in: Philosophical Studies, Vol. 57, No. 3, S. 227 – 260. Kaplan, Andreas/Heinlein, Michael (2019): Siri, Siri, in my hand: Who’s the fairest in the land? On interpretations, illustrations, and implications of artificial intelligence, in: Business Horizon, Vol. 62, No. 1, S. 15 – 25. McCarthy, John/Minsky, Marvin L./Rochester, Nathaniel/Shannon, Claude E. (1955): A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, jmc.stanford.edu/ articles/dartmouth/dartmouth.pdf.

28

Raphael Max und Alexander Kriebitz

McCloskey, Henry J. (1957): An examination of restricted utilitarianism, in: Philosophical Review, Vol. 66, No. 4, S. 466 – 485. McFarland, Matt (2014): Elon Musk: ,With artificial intelligence we are summoning the demon.‘, washingtonpost.com/news/innovations/wp/2014/10/24/elon-musk-with-artificial-in telligence-we-are-summoning-the-demon/. Nida-Rümelin, Julian (1993): Kritik des Konsequentialismus, München: R. Oldenbourg Verlag. Pacis, Danica Mitch M./Subido, Edwin D. C./Bugtai, Nilo T. (2018): Trends in telemedicine utilizing artificial, in: AIP Conference Proceedings 1933, 040009. Raz, Joseph (1986): The Morality of Freedom, Oxford: Clarendon Press. Reisman, Dillon/Schultz, Jason/Crawford, Kate/Whittaker, Meredith (2018): Algorithmic Impact Assessment: A Practical Framework for Public Agency Accountability, ainowinstitu te.org/aiareport2018.pdf. Scheler, Fabian (2019): Roboter, die bluffen, 1_Max_Kriebitz_Ethische_Problemfelder_beim_Einsatz_von_KI.docx. Shankar, Shreya/Halpern, Yoni/Breck, Eric/Atwood, James/Wilson, Jimbo/Sculley, D. (2017): No Classification without Representation: Assessing Geodiversity Issues in Open Data Sets for the Developing World, arxiv.org/abs/1711.08536. Steltzer, William (1998): Population Statistics, the Holocaust, and the Nuremberg Trials, in: Population and Development Review, Vol. 24, No. 3, S. 511 – 552. Strate, Gerhard (2014): Der Fall Mollath: Vom Versagen der Justiz und Psychiatrie, Zürich: Orell Füssli Verlag. The Guardian (2018): Amazon ditched AI recruiting tool that favored men for technical jobs, theguardian.com/technology/2018/oct/10/amazon-hiring-ai-gender-bias-recruiting-engine. Thomson, Judith Jarvis (1985): The Trolley Problem, in: Yale Law Journal, Vol 94, S. 1395 – 1415. Venayagamoorthy, Ganesh K. (2009): Potentials and promises of computational intelligence for smart grids, 2009 IEEE Power & Energy Society General Meeting, Calgary, AB, Canada. Vinuesa, Ricardo/Azizpour, Hossein/Leite, Iolanda/Balaam, Madeline/Dignum, Virginia/Domisch, Sami/Felländer, Anna/Langhans, Simone/Tegmark, Max/Fuso Nerini, Francesco (2019): The role of artificial intelligence in achieving the Sustainable Development Goals, arxiv.org/abs/1905.00501. Weber, Max (1919): Politik als Beruf, in: Geistige Arbeit als Beruf. Vier Vorträge vor dem Freistudentischen Bund, Zweiter Vortrag, München und Leipzig: Verlag von Duncker und Humblot. Winkler, Alexander (2013): Smart Grids – Intelligente Stromnetze für Erneuerbare Energien, Autonomous Communication Networks (ACN) 2013, Network Architectures and Services. Zenz, Adrian/Leibold, James (2017): Chen Quanguo: The Strongman Behind Beijing’s Securitization Strategy in Tibet and Xinjiang, jamestown.org/program/chen-quanguo-the-strong man-behind-beijings-securitization-strategy-in-tibet-and-xinjiang/.

Ethische Problemfelder beim Einsatz Künstlicher Intelligenz

29

Zhang, Baobao/Dafoe, Allan (2019): Artificial Intelligence, American Attitudes and Trends. Center for the Governance of AI, University of Oxford, governanceai.github.io/US-PublicOpinion-Report-Jan-2019/us_public_opinion_report_jan_2019.pdf. Zhang, Maggie (2015): Google Photos Tags Two African-Americans As Gorillas Through Facial Recognition Software, forbes.com/sites/mzhang/2015/07/01/google-photos-tags-two-afri can-americans-as-gorillas-throughfacial-recognition-software/. Zuo, James/Schiebinger, Londa (2018): AI can be sexist and racist – it’s time to make it fair, in: Nature, Vol. 559, S: 324 – 326.

Mind the Accountability Gap – Korreferat zu Raphael Max und Alexander Kriebitz – Von Lukas Brand Im Dezember 2016 hatten in San Diego zahlreiche Haushalte den smarten Lautsprecher Echo installiert, um über das sprachgesteuerte Betriebssystem Alexa ihr SmartHome zu steuern. Am 5. Januar 2017 lauscht Alexa, einem Radiomoderator, der einen Bericht folgendermaßen abmoderiert: „I love the little girl, saying ,Alexa ordered me a dollhouse.‘“ In den besagten Haushalten missversteht Alexa die Aussage als Befehl und bestellt daraufhin Puppenhäuser. Wer ist für diese unbeabsichtigten Käufe verantwortlich?1 Im Folgenden soll argumentiert werden, dass der Paradigmenwechsel, der sich bei der Entwicklung künstlicher Intelligenz (KI) um die Jahrtausendwende vollzogen hat, auch eine Neubewertung des Einsatzes von KI-Systemen erforderlich macht. In weiten Teilen der angewandten Ethik ist das Bild der fortschrittlichen und besonders leistungsfähigen KI noch immer geprägt von den Implikationen des im 20. Jahrhundert vorherrschenden formalistischen Paradigmas der „guten altbewährten künstlichen Intelligenz“ (Good Old-Fashioned Artificial Intelligence, kurz: GOFAI). Es werden hier einige grundlegende Prämissen diskutiert, die bei der Nutzung moderner KI berücksichtigt werden müssen.

I. Paradigmenwechsel in der KI-Forschung Die Geschichte der KI-Forschung und -Entwicklung reicht zurück bis in die Mitte des zwanzigsten Jahrhunderts.2 Das in der Nachkriegszeit etablierte Kybernetik-Forschungsprogramm, das sich der Steuerung und Regelung von Maschinen und Menschen widmete,3 zerfiel ab 1948 in verschiedene Unterdisziplinen: Von Neumann begründete die Informatik und Computerwissenschaft.4 Parallel prägte McCarthy den

1

Ich habe dieses Beispiel ausführlich diskutiert in Brand (2018). Die Idee denkender Maschinen ist deutlich älter: Descartes lehnt sie strikt ab (vgl. Brand 2020b). Ada Lovelace stellt um 1843 hingegen die Frage, ob die Maschinen, die Babbage entwickelt hat, mit Hilfe ihrer Programmierung denken können (vgl. Turing, S. 125 f.). 3 Vgl. Wiener. 4 Vgl. Aspray, S. 209 f. 2

32

Lukas Brand

Begriff der künstlichen Intelligenz.5 Während sich die Computertechnik stetig in der Lebens- und Arbeitswelt ausbreitete, changiert die Geschichte der KI-Forschung zwischen Erfolgen und Rückschlägen.6 Dabei ist der GOFAI-Ansatz wissensbasierter Expertensysteme vom aktuell vorherrschenden Ansatz des maschinellen Lernens (ML) zu unterscheiden. Während die klassische Programmierung in der ersten Hochphase der KI-Forschung maßgeblich zum Erfolg des GOFAI-Ansatzes beitrug (bekanntestes Beispiel für dieses Paradigma ist etwa der Schachcomputer DeepBlue), basiert der gegenwärtige Erfolg des ML auf der Verfügbarkeit großer Rechenleistung, der Simulation tiefer neuronaler Netzwerke und der Analyse großer Datenmengen (Big Data), die erst im vergangenen Jahrzehnt in ausreichendem Maße vorhanden waren.7 Bekannte Beispiele des ML-Paradigmas sind die Programme AlphaGo (Google DeepMind) und Watson (IBM). Der formalistische GOFAI-Ansatz ist bisher an Problemen gescheitert, die sich nur unzureichend durch Regeln abbilden lassen. Die klassische Programmierung ist dennoch nicht ausgestorben und wird, aufgrund ihrer engen Verbindung mit der Entwicklung des Computers und der Ausbreitung der Digitalisierung, wohl auch in Zukunft nicht aussterben. Gleichzeitig hat der ML-Ansatz durch die Bewältigung heuristischer Probleme seit der Jahrtausendwende ein umfangreiches wirtschaftliches Potential freigesetzt, den Digitalsektor tiefgreifend verändert und wird auf absehbare Zeit die Entwicklung neuer Technik und damit die Arbeitswelt, Wirtschaft und Freizeitgestaltung bestimmen. Digitalunternehmen wie Google, Amazon, Netflix und Facebook und seit etwa 2016 auch Länder wie die USA, China8 oder die europäische Union haben auf diesen Trend reagiert und große wissenschaftliche Förderprogramme ins Leben gerufen,9 erfolgreiche KI-Start-Ups gekauft10 oder selbst gegründet.11 Somit hat das ML die klassische Programmierung als Paradigma der KI de facto abgelöst. Die Einführung fortschrittlicher KI ist hinsichtlich ihres wirtschaftlichen Potentials und der Effizienzsteigerung in allen Arbeits- und Produktionsabläufen mit der Einführung anderer Technik, wie der Elektrizität oder Atomtechnik vergleichbar. Im 5

Vgl. McCarthy et al. Vgl. Goodfellow et al., S. 13 – 16. 7 Vgl. Goodfellow et al., S. 12 ff. 8 Lee, S. 3 nennt den Sieg des ML-Algorithmus AlphaGo über den Südkoreaner Lee Sedol 2016 und den Chinesen Ke Jie 2017 in dem chinesischen Spiel Go den Sputnik-Moment, der Chinas Aufmerksamkeit auf die KI-Technik gelenkt hat. 9 Vgl. Zweig, S. 88 ff. zum 2006 ausgeschriebenen, mit 1 Mio. USD dotierten Netflix Prize und Groth et al. zum Vergleich nationaler Strategien zur Förderung von Künstlicher Intelligenz. 10 2014 kaufte Google das 2010 gegründete Unternehmen DeepMind (vgl. https://deep mind.com/about#our_story; zuletzt eingesehen am 20. 02. 2020). 11 Im Dezember 2015 finanzierten Elon Musk (PayPal/Tesla) und weitere Geldgeber wie Microsoft die Gründung des non Profit Unternehmens OpenAI (vgl. https://openai.com/about/; zuletzt eingesehen am 20. 02. 2020). 6

Mind the Accountability Gap

33

Folgenden soll aber die Auffassung vertreten werden, dass der Vergleich des Einsatzes fortschrittlicher KI mit dem Einsatz eines Messers – dem Standardbeispiel der Technikethik als „eine Art des regelgerechten Handelns mit klaren Maßstäben“12 – das Potential und die ethisch relevanten Eigenschaften des ML massiv unterschätzt. So hat etwa die Philosophie den beschriebenen Paradigmenwechsel in der Auseinandersetzung mit lernenden Systemen als möglichen Kandidaten für künstlich intelligenten Subjekten noch nicht endgültig vollzogen. Sie diskutiert die Frage, was unter Intelligenz verstanden werden soll, und ob auch Maschinen über solche verfügen können. Intelligenz sei etwa die Fähigkeit, zuverlässig Leistungen zu erbringen, die Kognitionen erfordern.13 Solche Leistungen sind z. B. eine Partie Schach gegen einen starken Gegner gewinnen, einen Text aus einer Sprache in eine andere übersetzen, u.v.m. Es trifft zu, dass die gegenwärtigen Modelle des ML von der Vielfalt und Güte biologischer Lernmechanismen noch weit entfernt sind.14 Dennoch erbringt das ML in seinen jeweiligen Anwendungsbereichen die genannten Leistungen bereits zuverlässig. Das bedeutet entweder, dass Maschinen entgegen der gängigen Annahmen auch über die nötigen Kognitionen und damit über Intelligenz verfügen oder dass die Menge der Leistungen, die ausschließlich mit menschlicher Intelligenz erbracht werden können, immer kleiner wird oder sich eines Tages als leer herausstellt.15 Intelligenz ist dann nicht erforderlich, um Leistungen auf menschenähnlichem Niveau zu erbringen.16 Hier setzt die Unterscheidung zwischen starker und schwacher KI an: eine synthetische Duplikation der menschlichen Intelligenz oder des menschlichen Geistes im Sinne der starken KI-These wird auch in Zukunft außer Reichweite der KI-Forschung bleiben. Angesichts der gegenwärtigen Entwicklung ist es jedoch wahrscheinlich, dass – wie Turing behauptete – Maschinen konstruiert werden können, die menschliche Intelligenz im Sinne der schwachen KI-These simulieren.17

12 Dieses Standardbeispiel verdeckt seit jeher die Lücke, die diese „primitive Definition“ des verantwortungsvollen „regelgerechten Handelns“ offen lässt, indem sie sowohl die Produktion des Artefakts als auch den Kontext des Gebrauches ausblendet und heute insbesondere seine relative Unabhängigkeit und qualitativ gesteigerte Unvorhersagbarkeit übersieht (vgl. Schmitz, S. 29). 13 Vgl. Kahneman, S. 31 ff. 14 Wallach/Allen, S. 107. 15 Oder das Intelligenz nicht das ist, wofür wir es halten. Kandidaten für solche Leistungen sind etwa: die globale Nutzung generierter Informationen in verschiedenen Bereichen und die Fähigkeit, vorherzusagen, was ein Gegenüber im Sinn hat, sog. Theory of Mind (vgl. Dehaene, S. 275; vgl. auch Brand (2020a), sowie Brand (2020b)). 16 Vgl. Turing, S. 108, 122. 17 Zu den Begriffen starke und schwache KI vgl. etwa Duffy, S. 178 f. und vor allem Searle, S. 417. Heute wird schwache KI, wie bspw. bei Max/Kriebitz S. 13 oder auch Zweig, S. 126, verstanden als die modulare Bewältigung einzelner Aufgaben durch KI-Systeme, auch „narrow AI“; ich verwende den Begriff „schwache KI“ für Gewöhnlich ebenfalls in diesem zweiten Sinn.

34

Lukas Brand

II. Der Paradigmenwechsel in der Technik erfordert eine neue Technikethik „Auch der Einsatz der schwachen Version (der KI; LB) ist mit einer Reihe von ethisch relevanten Veränderungen verbunden, da die Tätigkeit des Menschen in sehr spezialisierten Aufgaben durch künstliche Intelligenz ersetzt werden kann.“18 Dieser These soll im Folgenden besonders unter Berücksichtigung der für moralisches Handeln relevanten Unterschiede zwischen ML und GOFAI nachgegangen werden. Dass insbesondere auch solche Aufgaben durch Maschinen substituiert werden können, für die bisher kein definitiver Lösungsweg in Form eines klassischen Algorithmus angegeben werden kann, bedeutet, dass Handlungsentscheidungen sowie Handlungsregeln weitgehend der eingesetzten Technik überlassen oder in diese implementiert werden müssen, was mit einem ethisch relevanten Verlust an Kontrolle einhergeht. Dann stellt sich die Frage, wer Verantwortung übernimmt, wenn etwa moralisch relevante Entscheidungen durch Technik substituiert werden. Technik, in den Worten von Gottl-Ottielienfelds verstanden als das „abgeklärte Ganze der Verfahren und Hilfsmittel des naturbeherrschenden Handelns“,19 bezeichnet im Einzelnen „die Menge der nutzenorientierten, künstlichen, gegenständlichen Gebilde (Artefakte oder Sachsysteme)“20 und darüber hinaus traditionell auch „die Menge menschlicher Handlungen und Einrichtungen, in denen Sachsysteme entstehen (und) die Menge menschlicher Handlungen, in denen Sachsysteme verwendet werden.“21 Die bei Max/Kriebitz angesprochene Technikethik beinhaltet vornehmlich den Bereich moralischer Handlungen, die sich besonders durch den Gebrauch technischer Sachsysteme auszeichnen, sei dies im privaten, wirtschaftlichen oder politischen Kontext. Die Technikethik reflektiert die meisten der a.a.O. mit dual use angesprochenen Probleme, wie etwa die staatliche Überwachung durch Technik. Hierhinein fällt auch, was Max/Kriebitz als „böswillige AI“ bezeichnen, insofern es sich hier um den als schädlich intendierten Gebrauch von Technik handelt. 1. Technik ist nicht neutral Vor dem Hintergrund der Leistungsfähigkeit des ML muss von der bei Max/Kriebitz vertretenen These der Wertneutralität der Technik22 abgesehen werden. Zunächst gilt ganz allgemein, dass „[d]ie von Menschen geschaffenen Artefakte und implementierten Techniken (…) immer schon und unweigerlich normativ beziehungsweise evaluativ (sind), denn in jede Technologie, in jede Technik, in jede technische Aus-

18

Max/Kriebitz in diesem Band S. 13. von Gottl-Ottilienfeld, S. 8 f. 20 Ropohl, S. 18. 21 Ebd. 22 Vgl. van de Poel, S. 134.

19

Mind the Accountability Gap

35

drucksweise gehen die Normen und Werte ihrer menschlichen Schöpfer*innen ein.“23 Lernenden Systemen sind die Normen und Werte, sowie die ethisch relevanten Annahmen, Absichten und Vorurteile ihrer Designerinnen und Designer allerdings in einem subtileren Maße inhärent als dies bei der klassischen Technik der Fall ist. Der ML-Algorithmus adaptiert diese, ohne dass dies im Lernvorgang explizit gemacht würde oder gar vom Entwickler beabsichtigt wäre. Die im Nachahmungsprozess (Representation Learning) eingeübten, abgeleiteten Intentionen24 sind bisher bei der Analyse lernender Systeme kaum ersichtlich, auch wenn ihre Konstruktion und Anwendung insgesamt an einer konkreten Aufgabe orientiert sein mag. Aus diesem Grund können KI-Systeme schon beim gegenwärtigen Stand der Forschung und Entwicklung als selbstursprüngliche Akteure interpretiert werden.25 2. KI-Systeme erlauben kein nutzenorientiertes Handeln Die Einsichten der Computer- und Informationsethik26 können aus den genannten Gründen nicht einfach auf den Einsatz moderner KI-Systeme übertragen werden. Auch wenn alle berechenbaren Maschinen letztlich zu universellen Turingmaschinen äquivalent sind, die ausschließlich lesen, schreiben und den Lese-Schreib-Kopf um eine Position verschieben können, bedeutet dies nicht, dass man bereits in der Lage wäre, die Berechnungen neuronaler Netze sinnvoll zu interpretieren, ihr Verhalten zielgerichtet zu programmieren, dieses präzise vorherzusagen oder gar als Modell des menschlichen Geistes zu nutzen. Durch das klassische Programmieren wurde in der Praxis bisher nicht erreicht, was durch die heuristischen Methoden der Datenanalyse in neuronalen Netzwerken möglich ist. Auch wenn das Ergebnis eines MLProzesses letzten Endes lediglich eine mathematische Funktion darstellt,27 mangelt es ihm an Erklärbarkeit. Die Nachvollziehbarkeit der verwendeten Technik ist jedoch ein entscheidender Faktor der Technikethik, insofern sie eine wichtige Rolle für die Verantwortungszuschreibung spielt. Die Substitution moralisch relevanter Handlungen durch KI übersteigt daher den definitorischen Rahmen der Technikethik, die ausschließlich den menschlichen Gebrauch solcher technischen Geräte reflektiert, die sich als optimierende Formen eines reflektierten und damit zielgerichteten und vorhersehbaren naturbeherrschenden Handelns interpretieren lassen.

23

Loh, S. 205. Vgl. Searle, S. 452. 25 Vgl. Floridi/Sanders; Wallach/Allen, S. 27; vgl. außerdem den Beitrag von Heidbrink in diesem Band. 26 Vgl. Bynum. 27 Vgl. den Beitrag von Grimme in diesem Band. 24

36

Lukas Brand

Die Tatsache, dass der Output eines KI-Systems nur ex-post überprüfbar ist, aber nicht ex-ante antizipiert werden kann, charakterisiert das KI-System als Black-Box. Die dem Output zugrundeliegenden Muster bleiben für den Anwender und Programmierer bis auf Weiteres opaque. Ad hoc Erklärungen mögen zwar intuitiv sein, haben aber keine praktische Relevanz. Valide Erklärungen und angemessene Normen müssen als Grundwahrheit gegeben sein, an der sich der Output des Systems messen lassen muss.28 Eine definierte Nutzenmatrix für den möglichen/erlaubten Output könnte eine solche Grundwahrheit liefern. Die fehlende Erklärbarkeit mag also in konsequentialistischer Hinsicht unproblematisch sein, vorausgesetzt, dass dem möglichen/erlaubten Output im Rahmen eines Regelutilitarismus bestimmte Nutzenwerte zugeordnet und dann von der KI gegeneinander abgewogen werden können.29 Auch dieser Technikethik-Ansatz scheitert jedoch an der Tatsache, dass der Konsequentialist nicht weiß „was die Konsequenzen der Tat, die er bewertet, negativ oder positiv macht. (…) Die Ungewissheit verstärkt sich noch, wenn man bedenkt, daß man bei der Technik und insbesondere bei den neuen Technologien von der Nichtvorhersehbarkeit von Folgen ausgehen muß.“30 3. Korrelation erlaubt keine systematische Optimierung Durch den Einsatz von ML erlangt der Anwender keinerlei systematisches Wissen über den Anwendungsbereich. Die Intransparenz des Systems verdeckt also für Nutzer und Programmierer auch das Lernpotential für bisher ungelöste Probleme, wenn eine durch ein KI-System gegebene Lösung nicht sinnvoll nachvollzogen werden kann. Das KI-System kann daher auch nicht gezielt, sondern immer nur indirekt verbessert werden, indem ein in einer bestimmten Situation als unzulässig erkannter Output zukünftig in identischen Situationen untersagt wird. Dieses Problem liegt in der Tatsache begründet, dass das KI-System etwa beim Representation Learning den Status quo einer herrschenden Problemlösepraxis inklusive möglicher systematischer Fehler bei der Datenproduktion und -erhebung lediglich näherungsweise abbilden, aber nicht oder nur sehr begrenzt optimieren kann. So kann es etwa Schwächen menschlicher Handlungen oder Entscheidungen, wie bspw. tagesformabhängige Fehlleistungen oder Vorlieben eines einzelnen Personalers ausgleichen. Wo aber systematische Fehler oder Benachteiligung durch den Output des KI-Systems aufgedeckt werden, kann eine unzulässige Korrelation lediglich identifiziert, nicht jedoch durch das System selbst gelöst werden. Die von Max/Kriebitz angesprochene Verwechslung von Korrelation und Kausalität spielt also in diesem Zusammenhang eine zentrale Rolle. ML-Algorithmen su28

Zweig, S. 107 f. Im Rahmen eines Handlungsutilitarismus müsste eine Nutzenfunktion die verschiedenen Faktoren bewerten, die den Output bedingen. Da diese Faktoren aber im Einzelnen nicht nur schwer zu analysieren sind, sondern weitgehend unverständlich bleiben, lassen sie sich auch nicht hinsichtlich ihres Nutzens bewerten. 30 Schmitz, S. 48 f. 29

Mind the Accountability Gap

37

chen nach Korrelationen zwischen den Eigenschaften eines gegebenen Inputs und einem erforderlichen Output. Diese Korrelation kann auf kausale Zusammenhänge zurückgehen oder einfach eine statistisch signifikante Häufung zweier Eigenschaften sein, die möglicherweise eine gemeinsame Ursache haben, wie etwa einen systematischen Fehler bei der Datenerhebung, ein bestimmtes Vorurteil oder eine Vorliebe der Person oder Personengruppe, deren Verhalten substituiert werden soll. Aus diesem Grund sind ML-Algorithmen nicht einfach mit den nutzenorientierten Gebilden vergleichbar, die üblicherweise das zielgerichtet naturbeherrschende Handeln nach gewissen Kausalitätsprinzipien substituieren. ML-Algorithmen sind Heuristiken, die eine, aber nicht zwangsläufig die beste Lösung für ein Problem finden. Sie finden Muster anstelle logischer Zusammenhänge.31 Die zurecht angesprochene Diskriminierung, die menschlichem Verhalten wie ML analog zu sein scheint, ist also der Kern des Erfolgs. Die Herausforderung besteht darin, je nach Anwendungsbereich Trainingsdaten mit guten oder moralisch unproblematischen Mustern, von diskriminierenden Datensätzen zu unterscheiden.

III. Mind the Accountability Gap KI-Systeme werden auch mit hoher Rechenleistung in Zukunft nicht in der Lage sein, für moralische Dilemma eine ethisch allgemein befriedigende Lösung zu finden. ML eröffnet in diesem Punkt aber eine Möglichkeit, des durch reines Nachdenken nicht lösbaren, sondern nur durch eine definitive Entscheidung auflösbaren Dilemmas. So trennt das ML den Prozess des moral reasoning, also der moralischen Überlegung, vom moral decision making, also der definitiven moralischen Entscheidung als konkrete Handlung, indem sie nach Eigenschaften des jeweiligen Dilemmas sucht, die besonders häufig mit bestimmten Handlungen korrelieren. Die Stetigkeit unserer Wirklichkeit zeichnet sich gerade dadurch aus, das bemerkte schon Aristoteles, dass sich alle in ihr möglichen oder erforderlichen Handlungen nicht a priori durch allgemeine Regeln abdecken lassen.32 Es bedarf zumeist einer flexiblen Anwendung einer allgemeinen Regel auf die kontingenten Bedingungen, sowie die Erkenntnis dieser Bedingungen des Einzelfalls; eine Tatsache, aufgrund derer schon die klassische Programmierung an Problemen wie Sprachverarbeitung oder dem GoSpiel scheiterte.33 Die Unterscheidung zwischen Kompetenz und Performanz bietet das passende Vokabular für dieses Problem: Ein KI-System kann durch ML performativ ein Dilemma selbständig und ohne die nötige moralische Kompetenz auflösen, selbst oder besonders dann, wenn sich durch kompetente Reflexion keine dominante Strategie finden und sich daher auch nicht als Regel vom Menschen vorgeben lässt. Der 31

Vgl. Zweig, S. 193 ff. NE 1137b13. 33 Vgl. Brand (2020b).

32

38

Lukas Brand

Output ist der von Max/Kriebitz vorgeschlagenen Randomisierung mindestens ebenbürtig und im Idealfall überlegen: Es lässt sich vermuten, dass eine Maschine anhand von Best-Practice Beispielen lernen kann, welche moralischen Werte in einer bestimmten Situation verwirklicht werden sollen, auch wenn ein Programmierer nicht in der Lage ist, diese explizit anzugeben. Bei der Auswahl der Trainingsdaten ist natürlich wieder zu berücksichtigen, was bereits gesagt wurde. Beim Einsatz lernender Systeme stehen auf Seiten des handelnden Subjekts insbesondere die Kompetenzen Folgenbewusstsein (Wissen) und Einflussmöglichkeit in Frage, die zur Verantwortungsübernahme für die Handlungsfähigkeit zentral sind.34 Neuronale Netzwerke sind zwar als mathematische Funktionen vollständig determiniert, dies aber gerade nicht aufgrund der intentionalen Anwendung bekannter Regeln im Designprozess, sondern aufgrund eines Lernprozesses, der ex ante nur bedingt gesteuert und ex post nur unzureichend nachvollzogen werden kann. ML-basierte KI-Systeme werden der o.g. Definition von Technik unter diesen Umständen nicht mehr gerecht. Dem KI-System mangelt es insbesondere an Erklärbarkeit. Fortschrittliche KI-Systeme sind daher eben keine operationalen moralischen Akteure mehr, die „vollständig unter der Kontrolle des Designers eines Werkzeuges stehen“,35 da sie keine unmittelbare und insbesondere keine absichtsvolle Erweiterung der Werte ihrer Designerinnen sind.36 So kann weder der Nutzer, der Alexa in Betrieb nimmt, vorhersehen, dass das System die Aussage eines Radiomoderators als Befehl missverstehen könnte, noch der Entwickler erklären, warum es zu diesem Ereignis kommt. Es scheint dadurch insbesondere die paradoxe Situation aufzutreten, dass das handelnde Subjekt für die Folgen des Einsatzes eines KI-Systems zwar moralisch, nicht aber unmittelbar kausal verantwortlich gemacht werden kann. Der Akteur trifft bestenfalls eine Entscheidung unter Unsicherheit, die durch die relative Unabhängigkeit des technischen Systems bedingt ist. Das genau entgegengesetzte Problem stellt sich bei der Einführung autonomer Maschinen als moralischen Akteuren, die zwar kausal eine Handlung verursachen können, denen aber die moralische Autonomie und damit die Verantwortung weitgehend abgesprochen wird. Die Gleichsetzung der Simulation von moralischer Verantwortung, bei der die Maschine sich lediglich so verhält ,als ob‘ sie für ihr Verhalten moralisch verantwortlich sei,37 mit echter moralischer Verantwortung, ist dabei genauso unzulässig, wie die Gleichsetzung von intelligentem Verhalten mit Intelligenz.38 Schließlich stellt sich die Frage, „ob nicht gerade die Schwelle zwischen ,keine Autonomie‘ (also permanente direkte Einflussnahme durch eine externe Quelle) und ,negative Autonomie‘ (also Abwesenheit von direktem äußerem Einfluss) 34

Vgl. Loh, S. 133. Wallach/Allen, S. 26. 36 Vgl. Loh, S. 151. 37 Vgl. Loh, S. 142 38 Vgl. Searle, S. 418.

35

Mind the Accountability Gap

39

einen Spielraum eröffnet, Verantwortung zumindest in einem rudimentären Sinne zuzuschreiben.“39 Schreibt man dem KI-System jedoch eine Teilverantwortung für eine Handlung zu, kann das handelnde Subjekt für diese nicht mehr vollständig verantwortlich sein. Literatur Aspray, William: John Von Neumann and the Origins of Modern Computing, Cambridge u. a., 2. Auflage 1992. Brand, Lukas: Die Maschine als Mensch, in: Ökumenische Rundschau 69 (1) 2020a, S. 50 – 59. Brand, Lukas: Why machines that talk still do not think, and why they might nevertheless be able to solve moral problems, in: Benedikt P. Göcke/Astrid M. Rosenthal-von der Pütten, Artificial Intelligence: Reflections in Philosophy, Theology, and the Social Sciences, 2020b (im Erscheinen). Bynum, Terrell: Computer and Information Ethics, in: Edward N. Zalta (Hrsg.), The Stanford Encyclopedia of Philosophy (Summer 2018 Edition), URL: https://plato.stanford.edu/archi ves/sum2018/entries/ethics-computer/ (zuletzt eingesehen am 19. 02. 2020) Dehaene, Stanislas: Zwei kognitive Funktionen, die Maschinen immer noch fehlen, in: John Brockman (Hrsg.), Was sollen wir von Künstlicher Intelligenz halten? Die führenden Wissenschaftler unserer Zeit über intelligente Maschinen, Frankfurt am Main 2017, S. 274 – 277. Duffy, Brian R.: Anthropomorphism and the social robot, in: Robotics and autonomous systems, 42 (3 – 4) 2003, S. 177 – 190. Floridi, Luciano/Sanders, John W.: On the Morality of Artificial Agents, in: Minds and Machines 14 2004, S. 349 – 379. Goodfellow, Ian/Bengio, Yoshua/Courville, Aaron: Deep Learning, Cambridge 2016. Gottl-Ottlilienfeld, Friedrich von: Wirtschaft und Technik, Tübingen 1923. Groth, Olaf J./Nitzberg, Mark/Zehr, Dan et al.: Vergleich nationaler Strategien zur Förderung von Künstlicher Intelligenz. Teil 1/Teil 2, Sankt Augustin/Berlin 2018/2019. Kahneman, Daniel: Thinking, Fast and Slow, London 2011. Lee, Kai-Fu: AI Superpowers. China, Silicon Valley and the New World Order, Boston/New York 2018. Loh, Janina: Roboterethik. Eine Einführung, Berlin 2019. McCarthy, John, et al.: A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, in: AI Magazine 27(4) 2006, S. 12 – 14. Poel, Ibo van de: Werthaltigkeit der Technik, in: Armin Grunwald, Handbuch Technikethik, Stuttgart 2013, S. 133 – 137. Ropohl, Günter: Technologische Aufklärung. Beiträge zur Technikphilosophie, Frankfurt am Main 1999. 39

Loh, S. 151.

40

Lukas Brand

Schmitz, Philipp: Fortschritt ohne Grenzen? Christliche Ethik und technische Allmacht, QD 164, Freiburg im Breisgau/Basel/Wien 1997. Searle, John R.: Minds, brains, and programs, in: Behavioral and brain science 3 (3) 1980, S. 417 – 457. Turing, Alan: Kann eine Maschine denken? in: Hans Magnus Enzensberger (Hrsg.): Kursbuch 8, Frankfurt a. M. 1967, 106 – 138. Wallach, Wendell/Allen, Colin: Moral Machines. Teaching Robots Right from Wrong, New York/Oxford 2009. Wiener, Norbert: Kybernetik, Regelung und Nachrichtenübertragung in Lebewesen und Maschine, Reinbek bei Hamburg 1969. Wolf, Ursula: Aristoteles, Nikomachische Ethik, Hamburg, 5. Auflage 2015. Zweig, Katharina: Ein Algorithmus hat kein Taktgefühl, München, 4. Auflage 2019.

Zur Ethik der Künstlichen Intelligenz – Korreferat zu Raphael Max und Alexander Kriebitz – Von Christian Müller

I. Einleitung Das Aufkommen von Methoden Künstlicher Intelligenz stellt die moderne Gesellschaft vor eine Vielzahl von Herausforderungen. Der Frage der moralischen Verantwortbarkeit der neuen Technologien kommt dabei eine entscheidende Bedeutung zu. Die Art und Weise, in der sich Raphael Max und Alexander Kriebitz dieser Fragestellung widmen, ist sowohl informativ als auch interessant. Als Kernthese entnehme ich dem Beitrag, dass Künstliche Intelligenz im wirtschaftlichen Bereich ethische Chancen bieten, unter Umständen aber auch ethische Probleme verursachen kann. Als Lösung schlagen die Autoren eine Stärkung der Anreizkompatibilität von Regeln vor und diskutieren als konkrete Maßnahmen eine konsequente Durchsetzung des Haftungsprinzips, eine Verbesserung der Rahmenbedingungen sowie eine Stärkung der Diskursverantwortung der Akteure. Grundsätzlich lese ich den Beitrag als eine Entwarnung: Künstliche Intelligenz ist nicht in sich gut oder schlecht. Eine moralische Bewertung ist (auch) hier kontextabhängig, und ihr Einsatz hängt „mehr von den Umständen der Benutzung als von einer intrinsischen Qualität“ ab (S. 14). Damit stellen sich die Autoren nicht in die Reihe naiver Technikkritiker, die immer dann ihren Auftritt haben, wenn sich eine neue Technologie durchsetzt und das Stadium der Massennutzung erreicht. Künstliche Intelligenz ist in jedem Fall eine „Dual-use-Technologie“, die Wachstum und Wohlfahrt einer Volkswirtschaft ebenso schaffen kann wie unter Umständen erhebliche Risiken, wie das Beispiel der intelligenten Stromnetze (S. 15) belegt. Eine Unschärfe besteht in dem Beitrag jedoch darin, dass die Autoren nicht klarmachen, auf der Basis welcher Moraltheorie sie argumentieren. Verwenden sie einen rein konsequentialistischen Ansatz, der die moralische Bewertung einer Handlung allein von ihren Folgen abhängig macht? Oder geht es den Autoren um eine deontologisch (pflichtenethische, kantianische) Bewertung der Probleme der Künstlichen Intelligenz? Oder wählen sie vielleicht einen aristotelisch oder christlich begründe-

42

Christian Müller

ten Ansatz der Tugendethik, der die moralische Qualität von Handlungen von der moralischen Qualität von Haltungen abhängig macht?1 Diese Festlegung ist zentral: So sprechen die Autoren etwa von einem „Miss- oder Fehlgebrauch von künstlicher Intelligenz“ (S. 23) oder einer (moralisch) „suboptimalen“ Entscheidung (S. 24), was voraussetzt, dass es so etwas wie eine moralisch richtige Entscheidung – ein moralisches Optimum – gibt. Wo dies liegt, lässt sich aber nur bestimmen, wenn die ethischen Geltungsgründe feststehen. Insoweit sich die Autoren zu zentralen Aussagen der Nichtschädigungsethik Karl Homanns bekennen (S. 21) und zudem die von diesem besonders herausgestellte Anreizkompatibilität moralischer Normen betonen2, scheinen sie – obwohl dies an keiner Stelle explizit gesagt wird – eine Anreizethik im Sinne der ökonomischen Theorie der Moral3 zu vertreten. An anderer Stelle allerdings streben die Verfasser hingegen nach einer „Letztbegründung von gesellschaftlichen Normen“ (S. 25), was eher für eine Orientierung an einer deontologischen Ethik zu sprechen scheint.

II. Konsequenzen für die Analyse In ihrer Analyse arbeiten die Autoren in sehr erhellender Weise vier Problembereich heraus, die sich durch Künstliche Intelligenz stellen können: Dazu gehören mögliche Verzerrungen, böswillige KI, Dateninput sowie Dilemmasituationen. Insofern die Autoren jedoch darauf verzichten, ihre ethischen Grundlagen zu explizieren, müssen die Darlegungen etwas vage bleiben. 1. Verzerrungen Verzerrungen entstehen nach der Darlegung der Autoren im Zusammenhang mit nicht-intendierten Anwendungsfehlern von Künstlicher Intelligenz, etwa infolge falscher Ursache-Wirkungs-Vermutungen, wenn beispielsweise Menschen mit Tieren verwechselt oder ganze Ethnien von Algorithmen ignoriert werden. Ein moralisches Problem stellen diese Fehler aber, soweit ich sehe, nur in einer konsequentialistischen Moral dar. Insofern diese allein auf die Folgen einer Handlung schaut, nicht aber auf die Motive, aus denen sie gewählt wird, kann eine Folgenethik innere Handlungen nicht berücksichtigen. Es ist in moralischer Hinsicht doch ein Unterschied, ob ein Arzt einem sterbendem Krebspatienten Morphin als wirksames Schmerzmittel gibt und dabei voraussieht, aber nicht beabsichtigt, dass dies im Nebeneffekt das 1 Zu den unterschiedlichen Ethiken aus wirtschafts- und unternehmensethischer Sicht siehe etwa den Überblick bei Müller/Loerwald (2017). 2 Nach Homann gelten moralische Normen nur insoweit, als ihre Adressaten Anreize haben, diese zu befolgen. In seiner Diktion: „Die Implementierbarkeit schlägt auf die Geltung durch“ (Homann 2002, S. 257). 3 Vgl. Kliemt (1993), Homann/Pies (1994).

Zur Ethik der Künstlichen Intelligenz

43

Leben des Patienten verkürzen wird, oder der Arzt einem sterbenden Krebspatienten absichtlich eine sehr große Morphin-Dosis verabreicht, um seinen Tod zu beschleunigen, wobei er die Wirkung als Schmerzmittel als Nebeneffekt in Kauf nimmt – auch wenn die Folgen in beiden Fällen die gleichen sein sollten.4 Moralische Relevanz erfährt die Handlung erst durch das Motiv. So peinlich solche Fehler mitunter sein können, so wird man sich im Sinne einer deontologischen oder Tugendethik, die auch auf das Motiv achtet, doch fragen, ob hier überhaupt ein moralisches Versagen vorliegt. Wenn Menschen gar keine Absicht hatten zu diskriminieren, wird man ihnen nach deontologischer oder tugendethischer Ansicht letztlich keinen moralischen Vorwurf machen können. 2. Böswillige KI Eine völlig andere Situation stellt sich hingegen im genannten Fall der „böswilligen KI“ (S. 18), also solcher Systeme, die darauf abzielen, die Sicherheit von Individuen, Gruppen oder ganzer Gesellschaften in Gefahr zu ziehen. Die Annahme der Böswilligkeit führt in nichtkonsequentialistischen Ethiken direkt zu einer moralisch negativen Beurteilung. Das Umgekehrte könnte indes für konsequentialistische Ethiken gelten: Wenn und insoweit böswillige KI nicht zu einem Schaden führt, ist sie nach folgenethischen Kalkülen auch nicht moralisch anstößig. 3. Dateninput Schwieriger erscheint die Bewertung in Bezug auf das diskutierte Problem der Dateninputs, also von Daten, die ohne Wissen oder Zustimmung von Personen abgeschöpft werden (S. 19 f.). Die Autoren diskutieren in diesem Zusammenhang ein „Abwehrrecht gegenüber staatlichen Behörden“ (S. 19). Ob es ein solches Recht geben kann, hängt wiederum von der zugrundeliegenden Moraltheorie ab. So kann es etwa in einer konsequentialistischen Moral generell keine kategorischen Rechte geben. Denn das moralisch Gesollte oder Erlaubte hängt hierbei allein von individuellen Vor- und Nachteilskalkülen ab, die je nach Situation sehr unterschiedlich ausfallen können. 4. Dilemmasituationen Die vierte Kategorie von Problemen, welche die Autoren anführen, sind Dilemmasituationen, in welchen gute Gründe für die Wahl zweier unangenehmer oder schwieriger Alternativen sprechen. Ein bekanntes Beispiel ist das sog. Trolley-Dilemma (S. 20), in dem ein Autofahrer nur die Entscheidung treffen kann, ob er mit hoher Geschwindigkeit in die eine oder in die andere Menschenmenge rast. 4

Zu diesem Beispiel Cheffers/Pakaluk (2007), S. 67.

44

Christian Müller

Hier verweisen die Autoren selbst auf die Relevanz der zugrunde gelegten Moraltheorie: Während es nach dem Utilitarismus darauf ankomme, die Zahl der Getöteten (oder besser: der durch Tötungen ausgelösten Disnutzensumme) zu minimieren, verbiete sich nach deontologischen Ethiken eines solche Abwägung im Hinblick auf die kategoriale Unverletzlichkeit menschlichen Lebens (S. 20).

III. Zu den vorgeschlagenen Lösungsansätzen In Bezug auf die vorgeschlagenen Lösungsansätze setzen die Autoren auf institutionelle Ansätze: „Die Implementierung ethischer Normen durch formelle und informelle Regeln ist … von zentraler Bedeutung“ (S. 22), führen die Autoren aus. Moralische Normen sollen, mit anderen Worten, im Regelrahmen der Handelnden implementiert werden, so dass diese aus Eigeninteresse so handeln, als ob sie selbst die Einhaltung der Norm anstreben würden. Als Anhänger der Theorie der Marktwirtschaft, die ihre theoretische Begründung vor allem in der deutschen Ordnungstheorie nach Eucken5 findet und die man insgesamt als eine ethische Konzeption verstehen kann6, wird man dem nur zustimmen können. Wo aber kommen, wenn die Autoren tatsächlich eine konsequentialistische Anreizethik verfolgen, die moralischen Normen her, die im Regelrahmen zu implementieren wären? Wenn es stimmt, dass, wie Homann schreibt, moralische Normen nur dann gelten, wenn sie implementiert sind7, gäbe es gar keine Verpflichtung, irgendwelche Normen im Regelrahmen zu institutionalisieren. Denn solange diese Normen nicht implementiert sind, könnten sie ja auch keinerlei Geltung beanspruchen. Die Autoren fordern auch eine „Stärkung des Haftungsprinzips“ (S. 22), das wiederum ein Grundpfeiler der Theorie der Sozialen Marktwirtschaft ist.8 Wofür aber genau sollen die Beteiligten haften, wenn nach ihrer Analyse mangels konkreter ethischer Basis doch gar nicht klar ist, wann genau Individuen sich moralisch verfehlen und wann nicht? Die Autoren favorisieren auch „die Entwicklung von Ethikkodizes, wie die Ethik-Richtlinien für das autonome und vernetzte Fahren oder die AsilomarPrinzipien“ (S. 23). Aber welche Handlungsrelevanz könnten solche Kodizes auf der Basis einer Anreizethik haben, wenn Verstöße gegen sie mit keinerlei Sanktionen verbunden und aus spieltheoretischer Sicht kaum mehr als „cheap talk“ sind?

5

Vgl. Eucken (2004). Vgl. Müller (2013). 7 Vgl. Homann (2002), S. 257. 8 Vgl. Eucken (2004), S. 279 ff. 6

Zur Ethik der Künstlichen Intelligenz

45

IV. Humanethik für humanoide Roboter? Das Phänomen der Künstlichen Intelligenz – dies zeigt der Beitrag von Max und Kriewitz eindrücklich – stellt nicht völlig neuartige Fragen für die Ethik; allenfalls stellen sich im Zusammenhang mit KI die alten Fragen der Ethik völlig neu. Die Antworten, die man auf diese moralischen Herausforderungen findet, hängen dabei nicht zuletzt von der zugrunde gelegten Ethik ab. Hiergegen mag man in Frage ziehen, ob die traditionellen Humanethiken überhaupt auf die Künstliche Intelligenz noch Anwendung finden können. Könnte es nicht sein, dass – vor allem im Bereich der sog. starken KI – Maschinen den Menschen so weit ähnlich werden, dass sie eigenständige moralische Subjekte sein können? Dann wären die moralisch Verantwortlichen nicht mehr die Menschen, die solche Maschinen schaffen oder nutzen, sondern die humanoiden Roboter selbst. Natürlich ist es denkbar, dass auch andere Einheiten als natürliche Personen moralfähige Subjekte sein können.9 So behandeln wir in den Rechtswissenschaften oder in der Wirtschaftsethik oft auch Unternehmen als juristische oder moralische Subjekte. Als juristische Personen können sie „als solche“ Träger von Rechten und Pflichten sein. Sie können Steuern bezahlen oder hinterziehen, sie können für Fehlverhalten juristisch oder – in einem gewissen Sinne – auch moralisch haften. Und vielleicht wird man eines Tages auch humanoiden Robotern eine Steuerpflicht und eine gewisse juristische oder moralische Verantwortung auferlegen. Aber solche Analogien haben stets Grenzen. Denn in letzter Konsequenz können tatsächlich nur Menschen Steuern bezahlen; wenn ein Unternehmen seine Gewinne an die Anteilseigner ausschüttet, werden die schon entrichteten Unternehmenssteuern angerechnet. Auch in Bezug auf die Haftung stößt die Analogie an Grenzen: Eine strafrechtliche Haftung gibt es nicht; man kann Unternehmen oder Roboter für Fehlverhalten kaum in Gefängnisse sperren. Und schuldrechtlich haften letztlich auch stets die natürlichen Personen, die das Unternehmen als Shareholder tragen und die im Haftungsfalle entsprechend niedrigere Gewinnausschüttungen zu erwarten haben. Es ist nicht zu sehen, dass dies bei noch so intelligenten Maschinen jemals anders sein könnte. Verantwortlich für das Verhalten von Artificial Agents werden stets diejenigen natürlichen Personen sein, die sie herstellen und/oder nutzen. Auch die Tatsache, dass durch KI Schädigungen auftreten können, für die niemand persönlich verantwortlich ist, ist nicht völlig singulär. Solche Phänomene sind schon jetzt aus rechts- und moralwissenschaftlichen Diskursen bekannt. In den Rechtswissenschaften kennen wir den Fall der verschuldensunabhängigen Gefährdungshaftung. Und auch im moralischen Bereich können Menschen Verantwortlichkeiten zufallen, für die sie keine individuelle Schuld trifft. Obwohl beispielsweise die allermeisten heute lebenden Deutschen keinerlei moralische Schuld am Holocaust trifft, akzeptieren viele von ihnen eine aus der deutschen Geschichte erwach-

9

Vgl. Göbel (2010), S. 100 ff.

46

Christian Müller

sende spezifische moralische Verantwortlichkeit, etwa gegenüber dem Staat Israel. Auch insoweit stellt die KI aus ethischer Sicht kein völlig neues Phänomen dar. Wer behauptet, dass in ethischer Hinsicht der Unterschied zwischen Mensch und Maschine völlig verschwinden könnte, muss die Frage beantworten, ob er ab einem bestimmten Entwicklungsstand humanoiden Robotern auch Menschenrechte zuerkennen will. Und stellen wir uns vor, beim Trolley-Problem ginge es darum, dass das Auto mit großer Geschwindigkeit einen Menschen überfährt oder einen Artificial Agent. Würde irgendwer ernsthaft behaupten, dass es keinen moralischen Unterschied macht, welche der beiden Optionen hier konkret gewählt wird? Vor diesem Hintergrund ist dem Befund der beiden Autoren nachhaltig zuzustimmen, dass auch im Zeitalter Künstlicher Intelligenz ein kategorialer Unterschied zwischen Mensch und Maschine fortzubestehen scheint. Denn Menschen sind in der Lage, in moralischer Hinsicht zu lernen und überkommene Vorurteile zu überdenken, während kritische Reflexion bisher nicht in Form von KI einprogrammiert werden kann. Die moralische Reflexion und Bewertung kann die Maschine, so „intelligent“ sie auch sein mag, dem Menschen offenkundig nicht abnehmen. Dies mag man, bei aller Aufregung um die Künstliche Intelligenz, alles in allem für eine Beruhigung halten. Literatur Cheffers, Mark/Pakaluk, Michael: Understanding Accounting Ethics, 2nd Edition, Sutton/MA 2007. Eucken, Walter: Grundsätze der Wirtschaftspolitik, 7. Auflage, Tübingen 2004: Mohr Siebeck. Göbel, Elisabeth: Unternehmensethik, 2. Auflage, Stuttgart 2010. Homann, Karl: Ökonomik: Fortsetzung der Ethik mit anderen Mitteln, in: Christoph Lütge (Hrsg.): Vorteile und Anreize, Tübingen, S. 243 – 263. Homann, Karl/Pies, Ingo: Wirtschaftsethik in der Moderne: Zur ökonomischen Theorie der Moral. In: Ethik und Sozialwissenschaften, Band 5 (1994), S. 3 – 12. Kliemt, Hartmut: Ökonomische Analyse der Moral, in: Bernd-Thomas Ramb und Manfred Tietzel (Hrsg.), Ökonomische Verhaltenstheorie, München 1993, S. 281 – 310. Müller, Christian: Die Soziale Marktwirtschaft als wirtschaftsethische Konzeption. In: Alexander N. Krylov (Hrsg.), Corporate Social Responsibility: Wirtschaftsmodelle – Moral – Erfolg – Nachhaltigkeit, Moskau – Berlin 2013, S. 41 – 64. Müller, Christian/Loerwald, Dirk: Wirtschafts- und Unternehmensethik: Ein Überblick. Unterricht Wirtschaft und Politik 2/2017, S. 2 – 8.

Auswirkungen des Einsatzes von Künstlicher Intelligenz auf verschiedene Märkte Von Eric Meyer Computers will overtake humans with AI at some point within the next 100 years. When that happens, we need to make sure the computers have goals aligned with ours. Stephen Hawking (2015)1

I. Einleitung Die Entwicklung der Künstlichen Intelligenz scheint geeignet, Untergangsängste hervorzurufen. Gibt es Anlass zu solchen Befürchtungen? Es scheint so, wenn man der Medienberichterstattung glaubt. Als Googles AlphaGo im März 2016 den besten Go-Spieler Lee Sedol in fünf Go-Partien viermal besiegte, schien ein weiterer Durchbruch erreicht. Das Go-Spiel zeichnet sich unter anderem dadurch aus, dass die Zahl der möglichen Spielzüge so groß ist, dass sie nicht vollständig berechnet werden können. Daraus folgerte man, dass AlphaGo eben nicht nur ein guter Rechner war, sondern so etwas wie Intuition entwickelt habe.2 Dieses ist eine Eigenschaft, die man bisher exklusiv dem Menschen zugeschrieben hat. Und es sollte noch schlimmer kommen, als AlphaGo von seinem Nachfolger AlphaGo Zero im Jahr 2017 in hundert Partien hundertmal besiegt wurde. Ein Erfolg der Technologie? Oder doch eher ein Erfolg der Marketing-Abteilung von Google? Denn so eindrucksvoll diese Leistung auch ist, so darf es auch nicht darüber hinwegtäuschen, dass dieses Spiel prädestiniert für die Anwendung von Künstlicher Intelligenz ist und dass die Ergebnisse dann recht geschickt mit dem Begriff der Intuition verknüpft worden ist, für den eine präzise Definition schwerfällt, der jedoch sehr nahe mit dem Menschsein verbunden ist. Es stellt sich also die Frage, was Künstliche Intelligenz leisten kann und wie weit deren Entwicklung fortgeschritten ist. Ebenso gilt es zu fragen, welche wirtschaftlichen Folgen der Einsatz der Künstlichen Intelligenz haben könnte. Dieses soll Teil des vorliegenden Beitrags sein. Um die Wirkungen von Künstlicher Intelligenz einzuschätzen, muss diese zunächst definiert und abgegrenzt werden. Wenn die Begriffe 1 2

Newsweek (2015). Nielsen (2018).

48

Eric Meyer

und die Eigenschaft der Technologie geklärt sind, kann auch untersucht werden, welche ökonomischen Voraussetzungen die Künstliche Intelligenz benötigt, wie die Künstliche Intelligenz selbst produziert werden kann und wie sie in den betrieblichen Prozessen eingesetzt werden kann. Prognosen über die tatsächlichen wirtschaftlichen Folgen der Künstlichen Intelligenz zu erstellen ist in vielerlei Hinsicht ein gewagtes Unterfangen, so dass folglich dieser Beitrag nicht eine weitere waghalsige Schätzung hinzufügen wird. Vielmehr wird es darum gehen, welche Wirkungskanäle es gibt, über die die Künstliche Intelligenz verschiedene Wirtschaftsbereiche beeinflussen kann, so dass positive oder negative Wirkungen entstehen, wobei dieses meist die Beschäftigungswirkungen adressiert. Schließlich soll auch ein Überblick gegeben werden, welche Tätigkeiten und welche Industrien voraussichtlich von der Künstlichen Intelligenz besonders betroffen sein werden.

II. Künstliche Intelligenz 1. Definition und Abgrenzung Gerade empirische Studien differenzieren nicht immer scharf zwischen den Wirkungen der Künstlichen Intelligenz und anderen Erscheinungsformen von Informationstechnologien wie z. B. Digitalisierung, Big Data, Robotik oder Automatisierung. Digitalisierung ist dabei ein Oberbegriff, der sämtliche Phänomene von Informationstechnologien erfasst. Dieses sind insbesondere die Erfassung, Verarbeitung und Speicherung von digitalen oder digitalisierten Daten. Die Künstliche Intelligenz ist also Teil der Digitalisierung, jedoch umfasst die Digitalisierung wesentlich mehr Aktivitäten, so dass auch bei Wirkungsanalysen weitere Effekte hinzutreten können. Big Data hingegen ist ein eng mit der Künstlichen Intelligenz verbundener Begriff. Daten können durch Sensorik und schnelle Erfassung in hohem Umfang generiert werden und damit weiteren Anwendungen zur Verfügung gestellt werden. Dieses ist – aufgrund der Größe dieser Datenmengen – eine Verarbeitung mittels Künstlicher Intelligenz, muss es aber nicht zwingend sein. Auf den Zusammenhang von Datengenerierung und deren Verarbeitung wird in Abschnitt II.3. weiter eingegangen. Auch in den Bereichen der Robotik und Automatisierung gibt es Schnittmengen mit der Künstlichen Intelligenz. Natürlich gab es Automatisierung und Fertigungsroboter auch schon vor der Künstlichen Intelligenz, die allerdings nur festgelegte Abläufe abgearbeitet haben. Mit Hilfe der Künstlichen Intelligenz können nun Roboter und Automatisierungen konstruiert werden, die in der Lage sind sich dem Umfeld oder bestimmten Eigenschaften des Fertigungsobjektes anzupassen. Es entsteht also eine neue Art von Robotern, die ohne Künstliche Intelligenz so nicht möglich wäre. Auch die Definition der Künstlichen Intelligenz ist nicht unumstritten, weil bereits der Begriff der Intelligenz in der Psychologie zahlreiche Interpretationen erfah-

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

49

ren hat. Thomas Malone zitiert eine Studie, in der 52 Psychologen Intelligenz wie folgt beschreiben: „Intelligenz ist das sehr allgemeine mentale Vermögen, das – neben anderen Dingen – die Fähigkeit zu Schlussfolgerungen, Planungen, Problemlösen, abstraktem Denken, Verständnis komplexer Ideen, schnellem Lernen und dem Lernen aus Erfahrungen einschließt. […] Sie spiegelt die breitere und tiefere Fähigkeit wider, sein Umfeld zu verstehen, Dingen Sinn zu verleihen oder Herauszufinden, was zu tun ist.“3 Etwas kompakter und technischer definiert die Encyclopedia Britannica die Intelligenz als mentales Vermögen aus Erfahrungen zu lernen, sich an neue Situationen anzupassen, abstrakte Konzepte zu verstehen und erstellen und die Umwelt damit zu verändern. Wesentlich ist bei den beiden Definitionen, dass Teil der Intelligenz auch das Lernen aus Erfahrungen ist, was für Teile der Künstlichen Intelligenz bedeutsam wird. Gemeinsam ist beiden Definitionen auch, dass Intelligenz beinhaltet, (logische) Schlussfolgerungen zu ziehen und daraus Handlungen abzuleiten, die ebenso Teil der Intelligenz und nicht eine algorithmische Folgerung sind. Die Abstraktheit der Definition weist auch noch auf eine weitere Eigenschaft der Intelligenz hin. Sie ist so vielfältig, dass es schwerfällt sie präzise zu konkretisieren. In diesem weiten Verständnis ist Künstliche Intelligenz noch weit von der menschlichen Intelligenz entfernt, da sie – wie noch zu zeigen sein wird – meist in sehr spezialisierten Kontexten auftritt. Schließlich ist auch noch auf die Funktion von Intelligenz hinzuweisen. Die (menschliche) Intelligenz hat sich entwickelt, um Anpassungen an ein sich änderndes Umfeld zu ermöglichen, indem neue Lösungen erdacht und erarbeitet werden, die zu diesem neuen Umfeld passen und ein Überleben in diesem Umfeld erlauben. Dieses hat zwei weitere Implikationen. Erstens ist Intelligenz an eine Körperlichkeit gebunden, und sie erlaubt zweitens die Weiterexistenz dieses Körpers in einem geänderten Umfeld. Dieses ist eine deutlich andere Anpassungsstrategie als man sie in der Natur z. B. von Ameisenvölkern kennt, die zwar als Ganzes (als „Superorganismus“) sich anpassen können, nicht aber als Individuum. Intelligenz ist also auch Kern von Individualität und von individuellen (ökonomischen) Entscheidungen. Für die Künstliche Intelligenz treffen diese Definitionen und Eigenschaften nur sehr bedingt zu. In der Folge haben sich zwei Unterscheidungen von Künstlicher Intelligenz herausgebildet. Schwache oder auch spezialisierte Intelligenz, beschreibt die Fähigkeit spezielle Ziele in einem spezifischen Umfeld zu erreichen.4 Diese – wieder sehr allgemeine – Definition beschreibt die aktuellen Anwendungsmöglichkeiten der Künstlichen Intelligenz. Diese benötigen eine sehr genaue Beschreibung des Problems, woraus dann auch die Erkenntnisziele abgeleitet werden können. Dieses lässt sich sehr gut am AlphaGo und den KI-Systemen zur Mustererkennung illustrieren. In diesen sehr eng begrenzten Bereichen kann die Künstliche Intelligenz dann herausragende Leistungen erbringen. Auch wenn diese Leistungen eindrucksvoll sind und menschliche Leistungsfähigkeit übertreffen, so ist sie doch keinesfalls 3 4

Vgl. Malone (2018), S. 25. Vgl. Malone (2018), S. 24.

50

Eric Meyer

mit der menschlichen Intelligenz vergleichbar. So kann AlphaGo zwar die besten menschlichen Go-Spieler besiegen, sich aber nach der Partie nicht einmal die Schuhe zubinden, was jedes kleine Kind könnte. Am Rande sei bemerkt, dass es auch bei Menschen vereinzelt solche herausragenden Inselbegabungen gibt (sog. Savants), was jedoch häufig Menschen sind, die kaum ein eigenständiges Leben führen können. Dem gegenüber steht die starke oder auch allgemeine Intelligenz, mit der eine Vielzahl unterschiedlicher Ziele in unterschiedlichen Umgebungen erreicht werden können. Die menschliche Intelligenz entspricht genau dieser starken Intelligenz. Diese kann aber bislang noch nicht für die Künstliche Intelligenz beobachtet werden. Gleichwohl zielen alle apokalyptischen Szenarien genau auf diese Form der Intelligenz ab, bei der Maschinen den Menschen gleichwertig ersetzen können. Dabei wird die spezialisierte Intelligenz gerne extrapoliert, so als wäre die menschliche Intelligenz einfach eine Sammlung zahlreicher spezialisierter Intelligenzen, was doch zumindest deutlich zu hinterfragen und weiter zu untersuchen wäre. So besteht immerhin die Möglichkeit, dass die menschliche Intelligenz eben nicht nur die Summe von zahlreichen Spezialisierungen ist, sondern eine eigene Art von Intelligenz, deren Imitation ganz eigene technische Ansätze erfordern würde. Shanahan weist u. a. auf Schwierigkeiten hin, die man bei der Simulation des menschlichen Gehirns zur Produktion von Intelligenz erhalten würde. Nicht nur dass die Milliarden Dendriten eine so hohe Komplexität darstellen, dass sie nicht – und auch in mittlerer Zukunft nicht – durch Computer simuliert werden können, so benötigen diese zudem auch ein Vieltausendfaches der Energie des menschlichen Hirns.5 Abschließend ist noch auf ein Teil der Definition hinzuweisen, der unerklärt bleibt und vorgegeben wird. Sowohl bei spezialisierter Intelligenz als auch bei allgemeiner Intelligenz ist von Zielen die Rede, die erreicht werden sollen. Aber woher kommen diese Ziele? Im Falle der menschlichen Intelligenz sind diese selbst erzeugt. Ein erstes Grundziel und Treiber von Intelligenz ist das Überleben, aber es treten natürlich weitere Ziele hinzu: Freude, Bequemlichkeit (Energie sparen!), Sinnsuche, vieles weitere ist denkbar. In der Ökonomie wird dieses gerne mit der Nutzenmaximierung beschrieben, wobei der Nutzen einer sehr weiten Interpretation und Operationalisierung offen ist. Anders ist es bei der Künstlichen Intelligenz, wo diese Ziele im Rahmen der Produktion der Künstlichen Intelligenz von Menschen vorgegeben werden. Es handelt sich (noch!?) nicht, um eine autonome Zielfindung durch die Künstliche Intelligenz. So ist es eben nicht so, dass sich AlphaGo Zero nun beim Go-Spielen langweilt und beschlossen hat, mit seinen Computerkollegen nun Mensch-ärgereDich-nicht zu spielen. Philosophisch ist die Beschäftigung mit der allgemeinen Intelligenz sicherlich sehr viel reizvoller, für die ökonomische Analyse der wirtschaftlichen Auswirkungen von Künstlicher Intelligenz wird der Schwerpunkt jedoch auf der spezialisierten Intelligenz liegen. 5

Vgl. Shanahan (2015).

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

51

2. Aktueller Stand der Entwicklung Künstlicher Intelligenz Eine allgemeine Künstliche Intelligenz gibt es bislang nicht. Die aktuell eingesetzten IT-Systeme sind meist sehr spezieller Natur und können nur genau die Aufgabe ausführen, für die sie entwickelt wurden. Dieses sind insbesondere die Mustererkennung und die damit verwandte Spracherkennung und eigenständige Sprachausgabe. Dabei produzieren die Systeme teilweise amüsante, teilweise auch gefährliche Fehlleistungen. Garry Kasparow berichtet von einem frühen Schachprogramm, das mit den Daten von vielen erfolgreichen Schachspielen gefüttert wurde und das beim tatsächlichen Schachspielen möglichst schnell die Dame abgab, da es gelernt hatte, dass im Endspiel der meisten Partien die Damen abgetauscht wurden, dieses also augenscheinlich der sichere und schnelle Weg zum Sieg ist.6 Gut trainierte Neuronale Netzwerke zur Bilderkennung können eklatante Fehler liefern, sofern die Bilder mit winzigen Störungen versehen werden, die für das menschliche Auge nicht wahrnehmbar sind, aber die Datenwahrnehmung so stören, das jegliches Bild für diese Intelligenz immer einen Vogel Strauß darstellt.7 In ähnlicher Weise reichen winzige Farbmuster aus, um Systeme des autonomen Fahrens zu stören und zu falschen Reaktionen zu verleiten.8 D. h. diese Systeme, die offenbar Erkennungs- und Prognoseleistungen erbringen können, die schon oberhalb des normalen menschlichen Niveaus liegen, sind bei bestimmten leicht abweichenden Daten nicht in der Lage, diese eigenständig zu korrigieren bzw. erliegen Fehlschlüssen, die zu negativen Resultaten und Fehlern führen können. D. h. selbst KI-Systeme, die hochfunktional sind und Ergebnisse erzielen könne, die besser sind als menschliche Erkennungsleistungen, können bei kleinen, untypischen Störungen massive Fehler produzieren, die die (generalisierte) Intelligenz des Menschen ggf. noch abfangen könnte. Dieses gilt es bei der Betrachtung der Leistungen Künstlicher Intelligenz zu beachten. Aufgrund der spezialisierten Natur der aktuellen Künstlichen Intelligenz ist deren Messung nicht einfach. Tests oder Messungen, die sehr nahe an den Zielen eines KISystems sind, werden dann naturgemäß bessere Leistungen aufweisen. In der KIAnalyse haben sich verschiedene KI-Tests etabliert, die es erlauben, bestimmte Fähigkeiten zu messen. Diese Tests haben natürlich auch das grundsätzliche Problem, dass die KI genau gegen diese Tests optimiert (und damit spezialisiert) werden kann, was zu einer Überschätzung der Leistungsfähigkeit führen würde. Ein bekannter Test zur Erkennung von Bildmustern ist ImageNet, wo die KI etwa im Jahr 2014 die menschliche Leistungsfähigkeit erreicht hat.9 Die Bilderkennung insb. für spezialisierte Objekte (wie z. B. Gesichtserkennung) ist in der Tat weit fortgeschritten, insbesondere, wenn diese Objekte hinreichend gut präsentiert werden. 6

Vgl. Kasparow (2017), S. 99 f. Vgl. Nielsen (2018), S. 42. Fairerweise muss eingestanden werden, dass auch die menschliche Bilderkennung fehlerhaft sein kann, wie man es an optischen Täuschungen erkenn kann. 8 Vgl. Schäfer (2019). 9 Vgl. Shoam et al. (2018), S. 47. 7

52

Eric Meyer

Komplexe Mustererkennungsaufgaben, bei denen Objekte erkannt, segmentiert und richtig benannt werden müssen (man könnte von einfachen Wimmelbildern sprechen), zeigen noch nicht ganz diese Performance (z. B. COCO-Kontexttest).10

Abbildung 1: KI-Leistungen in der Mustererkennung11

Auch im Bereich der Spracherkennung wird – in bestimmten Tests – die menschliche Leistungsfähigkeit erreicht, was sich auch in Sprachsteuerungssystemen wie sie mittlerweise im Markt eingeführt sind deutlich wird. Tests für die Spracherkennung und Konversation sind z. B. Switchboard und CallHome, bei denen ebenfalls die menschliche Leistungsfähigkeit erreicht wird bzw. dieser bereits sehr nahekommt.12

Abbildung 2: KI-Leistung in der Spracherkennung13

Schließlich finden sich auch ähnliche Ergebnis im verwandten Bereich des Textverständnisses. Für das Textverständnis wurde u. a. der SQuAD-Test entwickelt., bei dem 100.000 Fragen zu Texten entwickelt wurden, die von der KI beantwortet werden musste. Während Menschen hier eine Quote von über 85 Prozent richtigen Antworten erreichten, waren dieses für ein KI-System lediglich 51 Prozent. Im Jahr 2018 10

Vgl. Shoam et al. (2018), S. 49; Lin et al. (2014). Abbildung aus Shoam et al. (2018), S. 47, 49. 12 Vgl. Saon (2017). 13 Abbildung aus Saon (2017).

11

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

53

jedoch nutzen Google und Alibaba diese Testfragen und erreichten damit richtige Antworten, die oberhalb des Niveaus der menschlichen Antworten lagen.14 Insgesamt erzielen die KI-Systeme damit zunehmend Ergebnisse, die in ausgewählten Handlungsbereichen, die Qualität der menschlichen Leistungen übertreffen, wobei – wie oben angesprochen – berücksichtig werden muss, das hier z. T. erhebliche Spezialsierungen vorliegen. 3. Ökonomische Aspekte der KI-Produktion Die Ausprägung der aktuell verfügbaren Künstlichen Intelligenz als spezialisierte Intelligenz hat auch Konsequenzen für den wirtschaftlichen Einsatz der KI. Um diese Form der Künstlichen Intelligenz überhaupt einsetzen zu können, bedarf es einer sehr feinen Prozessanalyse, also einer Analyse von einzelnen Arbeitsteilschritten. Dabei geht es nun jedoch um eine genaue Untersuchung der ausgeübten Tätigkeiten, der Daten und Informationen, die genutzt oder produziert werden und der Verknüpfung dieser Tätigkeiten. Insgesamt fallen drei wesentliche Analyseschritte an: – Wo werden Daten produziert, genutzt oder erfasst? Bei der Erhebung der Daten tritt erschwerend noch hinzu, dass diese möglicherweise gar nicht explizit im Produktionsprozess auftreten, sondern in den dort beschäftigen Menschen vorhanden sind und verarbeitet werden. Neue Sensorik-Technologien können zudem auch noch neue Informationen entstehen lassen, die in einzelnen Prozessschritten produziert und weiter genutzt werden können. – Wo existieren Tätigkeiten, die eine Nähe zu den Fähigkeiten der existierenden KI besitzen, wie sie im vorangegangenen Abschnitt beschrieben wurden? Dieses ist also insb. die Mustererkennung mit den daraus resultierenden Handlungskonsequenzen und die Spracherkennung, die insb. im einfachen Kundenkontakt genutzt werden kann. – Wie können Tätigkeiten neu zwischen KI-Systemen und Menschen aufgeteilt werden? Dieses beinhaltet insbesondere auch eine Neudefinition von menschlichen Tätigkeiten und den Schnittstellen zur KI, die in den speziellen Einsatzgebieten, aber eben auch nur dort, bessere Leistungen erbringen kann. Folglich bedarf es für einen Einsatz der KI einer Anpassung der flexiblen, weil generalisierten menschlichen Intelligenz an die „dümmeren“ aber in ihrer Spezialisierung hocheffizienten KI-Systeme. Überspitzt könnte man auch von einem „digitalen Taylorismus“ sprechen, der für die Digitalisierung im Allgemeinen und für die Künstliche Intelligenz im Besonderen eine Anwendung findet. Menschliche Arbeit kann durch die KI auch aufgewertet werden, sofern die Schnittstellen zur KI genau erfasst, gestaltet und standardisiert werden, so dass die KI ihre maximale Wirkung

14

Vgl. Berger (2018).

54

Eric Meyer

entfalten kann. Digitalisierung funktioniert immer dann schlecht, wenn Prozesse, Datenflüsse und auch Datenstrukturen nicht präzise beschrieben sind. Um die Künstliche Intelligenz für diese so identifizierten Einsatzgebiete produzieren, sind im Wesentlichen drei Schritte nötig: die Erfassung und Strukturierung von Informationen bzw. Daten, die Erstellung geeigneter Algorithmen und die Ergebniskontrolle im Lernprozess (siehe Abbildung 3). Diese drei Schritte haben auch entsprechende wirtschaftliche Konsequenzen insb. bei der Beschäftigung von Arbeitskräften.

Abbildung 3: Produktion von Künstlicher Intelligenz

Die Möglichkeit, (spezialisierte) Künstliche Intelligenz zu produzieren, hängt auch maßgeblich davon ab, dass Daten zum Trainieren und Lernen vorhanden sind. Diese Daten müssen gesammelt und in einer KI-kompatiblen Weise aufbereitet werden. Je mehr solche Daten zur Verfügung stehen, desto besser wird das Lernergebnis sein. Zwar nimmt der Grenznutzen weiterer Daten gleicher Art ab, jedoch können immer noch kleine Verbesserungen erzielt werden. Will man also eine KI zur Erkennung von Schäferhunden konstruieren, so sind die ersten hundert oder tausend Schäferhundbilder für das Training wichtig, jedoch wird das millionste Foto nur noch kleine Verbesserungen erzielen. Bei unstrukturierten Zielstellungen schwächt sich dieser Effekt ab. Dieses gilt insb. dann, wenn aus Datenmengen eigenständig Strukturen identifiziert werden sollen, die dann entsprechende Prognosen erlauben, wie z. B. bei Kreditwürdigkeitsprüfungen oder bei der Identifikation krimineller Handlungen (z. B. Kreditkartenmissbrauch). Hier können mehr Daten zu ständig besseren Prognosen führen. Ökonomisch bedeutet dieses, dass bei der Produktion von Künstlicher Intelligenz Größenvorteile bestehen. Ein Zugang zu großen Datenmengen verschafft zumindest die Grundlage, auch bessere KI-basierte Prognosesysteme zu schaffen und neue Einsatzmöglichkeiten für diese Systeme zu testen. Entsprechend ergeben sich Beschäftigungswirkungen in den Bereichen neuer Datenerzeugungs- und erfassungstechnologien, wie z. B. der Sensorik, aber teilweise auch in geringer qualifizierten Bereichen der technischen Aufbereitung dieser Daten durch Arbeiter. Diese erfassten und aufbereiteten Daten müssen dann durch Algorithmen, die das Lernen abbilden, verarbeitet werden. Zwar gibt es auch KI-Technologien, die ohne

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

55

externe Vorgaben versuchen zu lernen, jedoch basieren die meisten Systeme auf einer Art Zielfunktion oder auch einer Verlustfunktion, die es zu optimieren bzw. zu minimieren gilt. Typischerweise wird versucht, die Zahl der Fehlprognosen zu minimieren, indem Gewichtungen in diesen Algorithmen verändert werden. Dieses erfolgt im Zusammenspiel mit dem dritten Schritt, den Ergebnissen. Bei beaufsichtigtem Lernen sind diese Ergebnis bereits Teil der Lerndaten, d. h. das KI-System kann die erstellte Prognose sofort selbst überprüfen. In anderen Fällen werden die Prognoseergebnis vom Arbeitern (häufig Gig-Workern) überprüft und nach richtig oder falsch einsortiert, so dass sich sukzessive die Qualität der KI verbessert.15 In beiden Fällen wird jedoch eine Vorgabe von Menschen erstellt, was ein KI-System leisten soll und wie eine solche Verlust- oder Zielfunktion aussieht. Bei unbeaufsichtigtem Lernen hingegen wird auf die Vorgabe der Zielwerte verzichtet, vielmehr soll die Künstliche Intelligenz eigenständig Muster und Strukturen erkennen. Dieses Vorgehen ist verwandt zur Clusteranalyse und ähnlich wie bei der Clusteranalyse müssen die von der Künstlichen Intelligenz produzierten Ergebnis im Nachgang nach ihrer Sinnhaftigkeit eingeordnet werden. Auch das unbeaufsichtigte Lernen kommt also nicht ganz ohne solch menschliche Vorgaben aus. Insgesamt ist die Produktion von KI also in erheblichem Umfang von menschlichem Input und menschlicher Arbeitskraft abhängig, die nicht nur in hochqualifizierte Entwicklungsaufgaben umfasst, sondern auch im Bereich der Erfassung und Auswertung geringer qualifizierte Arbeitsmöglichkeiten bietet. Wenn man diese Schritte kennt, wird deutlich, warum manche KI-Systeme so erfolgreich sein können. Im Falle des Go-Spiels ist die Strukturierung der Daten (Positionen und Züge auf dem Go-Brett) sehr einfach. Auch die Entscheidung, ob eine Go-Strategie erfolgreich war ist sehr einfach (Sieg/Niederlage). Mit hinreichender Rechenleistung konnten für AlphaGo Zero also schnell viele Millionen Spiele produziert werden, die dann das Lernen vereinfachen. Ganz anders verhält es sich bei einer vom Autor herbeigesehnten KI zur Korrektur von Klausuren. Die Daten sind schwer zu erfassen (unleserliche Handschrift), schwer zu strukturieren und es gibt nur relativ wenige Fälle zum Lernen, da ständig neue Klausurfragen gestellt werden. Schließlich ist auch das Ergebnis nicht auf ein „richtig“ oder „falsch“ einschränkbar sondern hat zahlreiche Bewertungsdimensionen.

III. Ökonomische Folgen von Künstlicher Intelligenz Für die wirtschaftlichen Auswirkungen der Künstlichen Intelligenz können verschiedene Wirkungskanäle ausgemacht werden, die zunächst jedoch sehr allgemein sind. Eine weitere Konkretisierung und damit auch Gewichtung dieser Kanäle hängt 15 Ein Beispiel ist die Aufzeichnung und Transkription der Gespräche mit Sprachassistenten, die von Mitarbeitern genutzt werden, um die KI-Ergebnisse zu verbessern, vgl. Spiegel (2019).

56

Eric Meyer

von den tatsächlich verfügbaren KI-Systemen ab und wie sie die Wertschöpfungsprozesse verändern können. Am naheliegendsten sind die Substitutionseffekte der Künstlichen Intelligenz, bei denen die Arbeit durch Kapital, also die KI-Systeme, ersetzt wird, so dass hierdurch entsprechende negative Beschäftigungswirkungen entstehen.16 Neben dieser direkten Substitution können auch indirekte Substitutionseffekte auftreten, wenn die Einführung von KI-Systemen in komplementären Prozessschritten auch die Einführung von KI-Systemen oder andere Substitutionen durch Kapital ermöglicht.17 So erlaubt die Erkennung von Bildern oder bestimmten Fahrmustern bereits heute Fahrassistenzsysteme. Diese können wiederum durch Künstliche Intelligenz so erweitert werden, dass auch die Fahrreaktionen durch die KI vollständig übernommen wird und autonome Fahrsysteme entwickelt werden können. Neben den Substitutionseffekten zwischen Kapital und Arbeit sind auch lokale Substitutionen vorstellbar, wo Arbeitsplätze ins Ausland an andere Standorte verlagert werden. Dieses kann in zwei Bereichen geschehen. Erstens, könnten KI-Systeme in anderen Standorten (z. B. aufgrund anderer rechtlicher Rahmenbedingungen) besser und kostengünstiger eingesetzt werden, so dass Prozessschritte an diese Standorte verlagert werden. Hierbei tritt hinzu, dass dieses nicht nur die Substitution von Arbeit durch Kapital ist, der an einem anderen lokalen Standort erfolgt, sondern meist auch benachbarte Prozessschritte und damit verbundene Arbeitsplätze verlagert werden. Zweitens, könnten KI-Systeme an anderen Standorten besser produziert werden, weil die Größenvorteile in der Datenerfassung besser gegeben sind oder andere rechtliche Rahmenbedingungen für den Umgang mit Daten bestehen oder weil an diesen Standorten das technische Know-How zur Entwicklung dieser Technologien besser verfügbar ist. Diesen negativen Beschäftigungswirkungen der Künstlichen Intelligenz stehen jedoch auch noch potentiell positive Wirkungen gegenüber. Dieses sind zunächst die Produktivitätseffekte.18 Durch die Einführung von KI-Systemen kann die Produktivität gesteigert werden, so dass in Wettbewerbsmärkten die Produkte günstiger werden. Die Kunden für diese Produkte müssen folglich weniger bezahlen, sind also relativ reicher geworden und können Ausgaben für diese oder auch andere Produkte tätigen, die produziert werden müssen, so dass neue Arbeitsplätze entstehen. Daneben kann bei steigender Produktivität – abhängig von den vorliegenden Marktstrukturen – auch die Entlohnung des Faktors Arbeit steigen, was zu einer erhöhten Nachfrage führt oder auch die Profitabilität der Unternehmen steigt, was die Investitionsnachfrage erhöhen kann. Die Produktivitätseffekte und deren Größe hängen jedoch von mehreren Faktoren ab. Die Marktstrukturen wurden schon angesprochen. Daneben ist die Preiselastizität der Nachfrage für diese Effekte von hoher Relevanz.19 An16

Vgl. z. B. Acemoglu/Restrepo (2018), S. 198 oder Agrawal/Gans/Goldfarb (2019), S. 32. Vgl. Agrawal/Gans/Goldfarb (2019), S. 33. 18 Vgl. z. B. Acemoglu/Restrepo (2019), S. 198 und 203 oder Agrawal/Gans/Goldfarb (2019), S. 32. 19 Vgl. Bessen (2018). 17

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

57

genommen die Preisnachfrage nach den durch KI günstiger produzierten Produkten ist vollkommen preisunelastisch, dann treten auch keine entsprechenden beschäftigungswirksamen Nachfrageeffekte auf. Ist die Preiselastizität für diese Produkte hingegen hoch, so steigt auch die Nachfrage für diese Produkte stark, so dass die negativen Beschäftigungseffekte sogar überkompensiert werden können. Neben diesen direkten Produktivitätseffekten können auch wieder indirekte Produktivitätseffekte in komplementären Prozessschritten auftreten, die dann zu denselben Wirkungen führen würden. Solche Produktivitätseffekte können bei Automatisierungen in der Vergangenheit, bei denen Arbeit durch Kapital ersetzt wird, nachgewiesen werden.20 Allerdings existiert für die Informationstechnologie das bekannte Produktivitätsparadoxon.21 Obwohl durch den Einsatz von Informationstechnologien seit den 90er Jahren eine solche Produktivitätssteigerung zu erwarten gewesen wäre, ist die Produktivität eher gesunken. Nun ist dieser Befund jedoch auch nicht unstrittig und hängt auch von der Messung der Produktivität ab. Insbesondere ist jedoch auch darauf hinzuweisen, dass die Effekte der Künstlichen Intelligenz erst am Anfang stehen und damit eine erhebliche Zeitverzögerung dieser Produktivitätseffekte auftreten wird. Der Einsatz von KI-Systemen kann außerdem zu weiteren Automatisierungen führen, die weitere Investitionen erfordern, so dass Kapitalakkumulationseffekte auftreten.22 Diese Investitionen ziehen entsprechende Einkommenseffekte nach sich und erhöhen damit auch die Arbeitsnachfrage. Ebenso kann die KI die Produktivität von bestehenden Maschinen erhöhen, so dass wiederum Produktivitätseffekte auftreten. Schließlich werden durch die Künstliche Intelligenz Produkt- und Aufgabeninnovationen geschaffen.23 Dieses sind einerseits die direkten Beschäftigungseffekte, die bei der Entwicklung der Künstlichen Intelligenz entstehen. Diese Beschäftigungsmöglichkeiten folgen den drei Schritten der KI-Produktion aus Abschnitt II.3. Im Kern sind es die Programmieraufgaben für die KI, aber natürlich auch die weitere Entwicklung passender Hardware für Künstliche Intelligenz. Daneben entsteht Beschäftigung im weiten Bereich der Datenerfassung und Datenaufbereitung. Dieses sind einerseits Tätigkeiten in der Neugenerierung von Daten im Bereich der Sensorik und Bilderfassung aber auch der Informatik zur Strukturierung dieser Daten. Schließlich entstehen auch neue Beschäftigungen in der Ergebnisauswertung im Lernprozess der KI. Zum anderen entstehen durch die KI neue Produkte, die produziert werden müssen und entsprechend Arbeitsmarktwirkungen haben. Dies sind z. B. jede Form von Assistenzsystemen (Wohnung, Navigation etc.).

20

Vgl. Bessen (2018), S. 5. Vgl. Bynjolfsson/Rock/Syverson (2017). 22 Vgl. z. B. Acemoglu/Restrepo (2019), S. 198. 23 Vgl. z. B. Acemoglu/Restrepo (2019), S. 198 und Agrawal/Gans/Goldfarb (2019), S. 32. 21

58

Eric Meyer

Ausprägung und Gewichtung dieser Effekte sind ex ante völlig unklar und hängen u. a. von der Art der eingesetzte KI und auch den Marktstrukturen (Wettbewerbsintensität, Nachfrageelastizitäten) ab. Daneben werden die Wirkungskanäle auch durch verschiedene Rahmenbedingungen beeinflusst. Der rechtliche Rahmen reguliert z. B. den Umgang mit Daten. Dieses kann die für die KI-Entwicklung notwendige Erfassung und Aufbereitung und die Verarbeitung von Daten in der Anwendung der KI einschränken, so dass positive Beschäftigungswirkungen durch neue Produkte und durch Produktivitätseffekte reduziert werden. Auch die Innovationsaffinität und der innovationspolitische Rahmen beeinflussen insb. die positiven Beschäftigungseffekte. Wenn eine Bevölkerung kulturell eher innovationsaffin ist, so würde auch dieses die positiven Effekte verstärken und eine Transformation der Wirtschaft vereinfachen. Auch die negativen Substitutionseffekte sind Rahmenbedingungen unterworfen, die sie beeinflussen. Es wurde schon angedeutet, dass die KI-Systeme auf recht spezielle Anwendungen fokussiert sind, die nur Teile der Tätigkeiten der Beschäftigten betreffen. Diese anderen Tätigkeiten müssen aber nach wie vor ausgeübt werden, was die negativen Beschäftigungseffekte abmildern kann.

IV. Auswirkungen auf verschiedene Märkte 1. Herausforderungen für die Abschätzungen Im vorangehenden Abschnitt wurde aufgezeigt, dass die Auswirkungen der Künstlichen Intelligenz über verschiedene Kanäle laufen, die zudem auch noch gegenläufige Wirkungen entfalten können, die zudem noch von den rechtlichen und wirtschaftlichen Rahmenbedingungen abhängen. Schon dieses allein sollte deutlich machen, dass (langfristige) Wirkungsanalysen zur Künstlichen Intelligenz mit erheblichen Unwägbarkeiten verbunden sind, die kaum tragfähige Prognosen zulassen. Die Herausforderungen beginnen mit den Anwendungsfeldern der Künstlichen Intelligenz. Diese spezialisierte Form der Intelligenz kann (wie in Abschnitt II.2. gezeigt) bereits menschliches Niveau erreichen. Es müsste für längerfristige Abschätzungen jedoch auch konkretisiert werden, welche neuen Formen der spezialisierten Intelligenz entwickelt werden und welche Einsatzfelder sich für diese ergeben. Auch die Abschätzung der Einsatzfelder, die u. a. von den Prozessanalysen abhängen, ist mit Unsicherheiten verbunden. Um Beschäftigungswirkungen prognostizieren zu können, bedarf es Aussagen über die Wirkungen auf bestimmte Sektoren oder auch auf bestimmte Berufe. Dieses steht jedoch im Widerspruch zu den KI-Systemen, die auf Ebene der Tätigkeiten konstruiert und eingesetzt werden. Statistische Erhebungen über die Tätigkeiten von Beschäftigten, die dann auch noch geeignet mit den Fähigkeiten aktueller und prognostizierter KI-Systeme abgeglichen werden müssten, existieren jedoch kaum. Damit ist auch eine Verbindung zu den Berufen oder zu den Branchen kaum sinnvoll kon-

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

59

struierbar. Es bedarf also zunächst starker Annahmen oder anekdotischer Evidenz, welche Tätigkeiten, in welchen Branchen vertreten sind. Damit jedoch noch nicht genug. Selbst wenn eine solche Zuordnung verlässlich getroffen werden könnte, müsste zudem abgeschätzt werden, inwiefern diese Tätigkeiten der KI-Systeme menschliche Arbeitskraft tatsächlich vollständig ersetzt oder diese nur neuorientiert und eine fokussiertere (und damit vielleicht auch produktivere) Beschäftigung ermöglicht. Auch die Erschließung neuer Beschäftigungspotentiale und die Abschätzung von möglichen Produktivitätsgewinnen ist sehr herausfordernd, so dass auch mögliche positive Beschäftigungseffekte nur mit Unsicherheit abgeschätzt werden können. Schließlich ist hierbei auch noch zu berücksichtigen, in welchen Zeiträumen die negativen und positiven Beschäftigungseffekte auftreten. Auch hier finden sich für alle Varianten (positiv vor negative, positiv und negativ etwa gleichzeitig, negativ vor positiv) mögliche Argumente. Damit verbunden ist auch die Frage, inwiefern positive Beschäftigungseffekte überhaupt die negativen Beschäftigungseffekte aufwiegen könne, wenn die erforderlichen Qualifikationen nicht übereinstimmen, d. h. es besteht die Möglichkeit, dass Arbeitslosigkeit und Arbeitskräftemangel zeitgleich bestehen, da Neuqualifikationen aufgrund der Unterschiedlichkeit der Beschäftigungen nur schwer möglich sind. Schließlich sind auch internationale Verschiebungen in der Beschäftigung möglich, d. h. einige Staaten könnten insbesondere von den negativen Substitutionseffekten betroffen sein, während andere von den positiven Produktivitäts- und Innovationseffekten profitieren. Dieses ist zwingend zu beachten, wenn nachfolgend über mögliche Auswirkungen auf die Beschäftigung gesprochen wird. Dabei wird zunächst auf mögliche Veränderungen in den Tätigkeitsbereichen abgezielt, ehe dann Abschätzungen zu einzelnen Wirtschaftsbereichen getroffen werden. 2. Auswirkungen auf Tätigkeiten Viele Studien untersuchen, welche Berufe oder Tätigkeiten durch den Einsatz von KI-Systemen besonders bedroht sind. Dabei werden nicht immer Größenordnungen für Jobverluste errechnet, sondern eine Bedrohungswahrscheinlichkeit ermittelt. Nicht alle Studien isolieren dabei die Effekte der Künstlichen Intelligenz, sondern untersuchen die breiteren Wirkungen der Automatisierung oder Digitalisierung, die KI-Effekte einschließt, jedoch auch darüber hinausgehende Effekte erfassen.

60

Eric Meyer Tabelle 1 Studien zu den Auswirkungen auf berufliche Tätigkeiten

Studie

Bemerkungen

Besonders betroffene Tätigkeiten

Muro/ Maxim/ Witten (2019)

Studie für die USA Schwerpunkt Automatisierung Lohnwirkungen: Insbesondere die unteren Lohngruppen werden betroffen sein

1. Packaging and Filling Machine Operators 2. Food Preparation Workers 3. Payroll and Timekeeping Clerks 4. Light Truck or Delivery Services Drivers 5. Computer Network Support Specialists

Deloitte (2015)

Studie für UK Lohnwirkungen: Betroffen sind insbesondere die untere Dezile

1. Typists and related keyboard occupations 2. Bank and post office clerks 3. Retail cashiers and check-out operators 4. Assemblers 5. Personal assistants and other secretaries

Frey/Osborne (2013)

Studie zur Computerisierung, nicht nur KI Sehr feine Gliederung der Tätigkeiten (702 Tätigkeiten)

Höchste Wahrscheinlichkeit: Data Entry Keyers, Library Technicians, New Accounts Clerks, Photographic Process Workers and Processing Machine Operators, Tax Preparers, Cargo and Freight Agents, Watch Repairers, Insurance Underwriters, Mathematical Technicians, Sewers (Hand), Title Examiners Abstractors and Searchers, Telemarketers

McKinsey Global Institute (2017)

Studie mit Fokus auf Industrieländer (US, D, JP) und Emerging Markets (CH, IN, MX) Deutliche Unterschiede der Wirkungen für die Tätigkeitsgruppen Negative Wirkungen insb. bei:

Besonders betroffen in Industrieländern:

– der Sammlung von Daten – der Verarbeitung von Daten – vorhersehbaren Aufgaben Deutschland: Automatisierungspotential bei 24 % der Beschäftigten, aber neue Jobs kompensieren wegfallende Jobs vollständig

1. Customer interaction (esp. Personal appearance workers, travel workers) 2. Office support (esp. Financial workers, office support workers) 3. Other jobs, predictable environment (esp. Cleaning equipment operators, Dish washers) 4. Other jobs, unpredictable environment (esp. Machinery installation and repair workers)

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

61

Tabelle 1 (Fortsetzung) Studie

Bemerkungen

Besonders betroffene Tätigkeiten Für Emerging markets sind diese Bedrohungen von Tätigkeiten geringer oder gar nicht vorhanden.

McKinsey Global Institute (2018a) ITU (2018)

Fokus auf KI Analyse für zahlreiche Länder mit deutlichen Unterschieden insb. im Bereich der Jobschaffung in KIProduktion Insg. leicht negativer Nettobeschäftigungseffekt

Besonders betroffen sind Jobs mit repetitiven Aufgaben und Routineaufgaben (keine Konkretisierung dieser Tätigkeiten)

Office for National Statistics (2019)

Studie für UK Studie für Automatisierung allgemein

1. Elementary occupations 2. Process, plant and machine operatives 3. Sales and customer service occupations

Vermeulen et al. (2018)

Projektion Beschäftigungsentwicklung für Jobs 2016 – 2026

1. 2. 3. 4. 5.

Locomotive firers Respiratory therapy technicians Parking enforcement workers Word processors and typists Watch repairers

– Bei den untersuchten Tätigkeiten fällt auf, dass entweder eine sehr feine Abstufung gewählt wurde, so dass leicht der Überblick verloren gehen kann, welche Tätigkeiten betroffen sein können, oder die Aggregation der Tätigkeiten ist sehr hoch gewählt, so dass man manche Tätigkeiten nicht wiederfindet, für die eine Wirkung erwartet wird. Auch wenn diese Studien sehr heterogene Ansätze verfolgen, indem sie nicht nur die KI, sondern auch Automatisierung allgemein erfassen, unterschiedliche Regionen untersuchen und unterschiedliche Methoden verwenden, die alle den Herausforderungen aus Abschnitt IV.1. unterliegen, so zeichnet sich doch gemeinsame Trends in den Wirkungen auf bestimmte Tätigkeiten ab: – Am stärksten sind einfache, repetitive Aufgaben vom Einsatz von KI-Systemen insb. in der Automatisierung betroffen. Dieses liegt an der spezialisierten Intelligenz, die genau in den für sie konzipierten Bereichen die Leistungen erbringen, die schneller und qualitativ besser sind als es Menschen erledigen können. Dafür müssen diese Tätigkeiten jedoch – wie in Abschnitt II.3. beschrieben auch entsprechend definiert und identifiziert werden. – Folglich sind vom Einsatz der Künstlichen Intelligenz eher Tätigkeiten und Berufe der unteren Lohngruppen betroffen, die diese Aufgaben ausüben. – Im Gegensatz zur klassischen Automatisierung Anfang des 20. Jahrhunderts sind von der Künstlichen Intelligenz auch höherqualifizierte Tätigkeiten betroffen. Es

62

Eric Meyer

sind also nicht nur „blue collar“-Jobs, sondern auch „white collar“-Jobs, in denen KI-Systeme eingesetzt werden. Dieses sind z. B. Bilderkennungssysteme in bildgebenden Verfahren der Medizin, Assistenzsysteme bei medizinischen Operationen oder auch Unterstützungsverfahren bei Steuerberatern oder Rechtsanwälten. Im Gegensatz zu den Tätigkeiten bei geringqualifizierter Beschäftigten, sind diese Berufe aber teilweise durch andere Tätigkeiten geschützt, d. h. hier sind Produktivitätseffekte durch bessere Spezialisierung zu erwarten. – Künstliche Intelligenz und Automatisierung werden beträchtliche Beschäftigungswirkungen in den betroffenen Beschäftigungen haben, jedoch werden diese gemäß den Prognosen und Simulationen kompensiert oder überkompensiert durch positive Effekte wie z. B. der Produktivitätseffekte. – Sofern es Teil der Untersuchung war, kommen die Studien zu deutlich unterschiedlichen Wirkungen für einzelne Länder, insb. sind die Beschäftigungseffekte in den Industrieländern deutlich negativer als in den Emerging markets. Auch die Struktur der Wirkungen unterscheidet sich, so dass es auch zu regionalen Wirkungsdifferenzen kommen kann.

3. Auswirkungen auf Industrien Um die Wirkungen auf einzelne Sektoren hochzurechnen, bedarf es der Verknüpfung der erfassten Tätigkeiten mit den einzelnen Sektoren. Da dieses – wie bereits angedeutet – nicht in hinreichendem Maße verfügbar ist, wird zum Teil auf andere Abschätzungen ausgewichen. Eine solche Abschätzung betrifft die Wertbeiträge in einzelnen Sektoren, die sich z. B. aus dem Wert von Personalsierungen, Zeitersparnis und Qualität zusammensetzen.24 Solche Wertbeiträge sind nur indirekt mit den Beschäftigungswirkungen verknüpft, da sie einerseits durch die Substitution von Arbeit durch Kapital und den dann folgenden Produktivitätswirkunegn innerhalb dieser Sektoren herrühren kann, jedoch können dieses in den Sektoren auch indirekte Produktivitätswirkungen sein, die durch die KI-Technologieanwendung in anderen Sektoren hervorgerufen werden. Die nachfolgende Tabelle gibt einen Überblick über mögliche sektorale Wirkungen.

24

So z. B. bei PwC (2018b).

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

63

Tabelle 2 Sektorale Wirkungen der KI Studie

Bemerkungen

Besonders betroffene Branchen

Muro/ Maxim/ Witten (2019)

Studie für die USA Schwerpunkt Automatisierung

1. Accommodation and Food Services 2. Manufacturing 3. Transportation and Warehousing 4. Agriculture, Forestry, Fishing and Hunting 5. Retail Trade

IAB (2018)

Studie für Deutschland Betrachtung der Effekte der Digitalisierung nicht nur der KI

1. Fahrzeugbau 2. Sonst. Verarbeitendes Gewerbe 3. Land- und Forstwirtschaft, Fischerei 4. Metallerzeugung und -bearbeitung, Herstellung von Metallerzeugnissen 5. Bergbau, Gewinnung von Steinen und Erden 6. Verkehr und Lagerei

McKinsey Global Institute (2018b)

Sehr detaillierte Beschreibung unterschiedlicher KI-Fähigkeiten und Wirkungsanalysen

Höchste potentielle Wertbeiträge der KI in:

McKinsey Global Institute (2017)

Studie mit Fokus auf Industrieländer (US, D, JP) und Emerging Markets (CH, IN, MX)

Wirkungen für Deutschland bis 2030 insb. im Bereich Transport und Landwirtschaft Szenarienabhängig müssen zwischen 8 und 32 % der Beschäftigten ihre Beschäftigung wechseln.

McKinsey Global Institute (2018a) ITU (2018)

Fokus auf KI Analyse für zahlreiche Länder mit deutlichen Unterschieden insb. im Bereich der Jobschaffung in KIProduktion Insg. leicht negativer Nettobeschäftigungseffekt

Höchste Wert der KI in (absolut):

1. 2. 3. 4. 5.

1. 2. 3. 4.

Travel Transport and logistics Retail Automotive and assembly High Tech

Retail Transport and logistics Automotive assembly Public and social sector

Höchster Wert der KI in (Anteil Branchenerträge): 1. Travel 2. High Tech 3. Transport and logistics

64

Eric Meyer Tabelle 2 (Fortsetzung)

Studie

Bemerkungen

Besonders betroffene Branchen 4. Retail 5. Insurance

PwC (2018a)

Studie für Deutschland

Höchste Effekte auf das BIP: 1. Health, Education, Public and Arts 2. Retail, Wholesale Trade, Consumer Goods, Accomodation and Food Services

PwC (2018b)

Globale Studie für die großen entwickelten Volkswirtschaften und emerging markets

Höchste Effekte auf das BIP: 1. Other public and personnel services 2. Retail, Wholesale Trade, Consumer Goods, Accomodation and Food Services

Noch deutlicher als bei den Analysen der Tätigkeiten ergibt sich hier ein deutlich heterogenes Bild, was insbesondere durch die höheren methodischen Anforderungen und deutlich unterschiedlichen methodischen Ansätze erklärbar ist. Aus den Studien ragt die IAB-Analyse heraus, als hier deutliche Unterschied für einzelne Industrien auftreten. Eine gewisse Ähnlichkeit ergibt sich im Bereich der Wirkungen auf den Handel, der in fast allen Studien zu einer der wesentlich betroffenen Branchen zählt.

V. Fazit Die Prognose der Auswirkungen der Künstlichen Intelligenz auf verschiedene Märkte wird sich als schwierig erweisen, da einerseits die technischen Möglichkeiten der Künstlichen Intelligenz selbst schwer prognostizierbar sind und diese zudem auch dann noch entsprechend in die Produktionsprozesse integriert werden muss, bevor diese Wirkungen überhaupt manifest werden können. Zudem ist es empirisch weitgehend unklar, wie KI-Fähigkeiten auf einzelne Berufe oder Branchen wirken, da entsprechende Erhebungen schlicht fehlen und selbst nur grober Natur sein können. Wesentlich fruchtbarer erscheint es deshalb die Wirkungskanäle genauer zu kennen. D. h. neben den negativen Wirkungen der Substitution menschlicher Arbeitskraft auch jene Produktivkanäle zu identifizieren, die diese negativen Wirkungen kompensieren können.

Einsatz von Künstlicher Intelligenz auf verschiedene Märkte

65

Literatur Acemoglu, D./Restrepo, P. (2018): Artificial Intelligence, Automation and Work, in: Agrawal, A./Gans, J. S./Goldfarb, A. (Hrsg.): The Economics of Artificial Intelligence: An Agenda, Chicago, London, S. 197 – 236. Agrawal, A./Gans, J. S./Goldfarb, A. (2019): Artificial Intelligence – The Ambigious Labor Market Impact of Automating Prediction, in: Journal of Economic Perspectives, Vol. 33, Nr. 2, S. 31 – 50. Berger, D. (2018): KI kann besser lesen als Menschen. URL: https://www.heise.de/newsticker/ meldung/KI-kann-besser-lesen-als-Menschen-3942209.html Bessen, J. (2018): AI and Jobs: The Role of Demand, NBER Working Paper Series No. 24235. Brynjolfsson, E./Rock, D./Syversson, C. (2017): Artificial Intelligence and the Modern Productivity Paradox – A Clash of Expectations and Statistics, NBER Working Paper Series No. 24001. Deloitte (2015): From brain to brawns – The impact of technology on jobs in the UK. Frey, C. B./Osborne, M. A. (2013): The Future of Unemployment – Howsusceptible are jobs to computerisation? IAB (2018): Arbeitsmarkteffekte der Digitalisierung bis 2035 Regionale Branchenstruktur spielt eine wichtige Rolle, IAB-Kurzbericht 9/2018. ITU (2018): Assessing the Economic Impact of Articifial Intelligence, ITUtrends – Emerging trends in ICT, Issue Paper No. 1, September 2018. Kasparov, G. (2018): Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins. Lin, T.-Y./Maire, M./Belongie, S./Bourdev, L./Girshik, R./Hays, J./Perona, P./Ramanan, D./Zitnick, C. L./Doll’ar, P. (2015): Microsoft COCO: Common Objects in Context, in: Fleet, D./ Pajdla, T./Schiele, B./Tuytelaars, T. (Hrsg.) Computer Vision – ECCV 2014. ECCV 2014. Lecture Notes in Computer Science, Vol. 8693. Springer, Cham, S. 740 – 755. Malone, T. (2018): Superminds, London. McKinsey Global Institute (2017): Jobs gained, jobs lost – Workforce transitions in a time of automation. McKinsey Global Institute (2018a): Notes from the AI frontier – Modeling the impact of AI on the world economy. McKinsey Global Institute (2018b): Notes from the AI frontier – Insights from hundreds of use cases. Muro, M./Maxim, R./Whiton, J. (2019): Automation and Artificial Intelligence – How Machines are Affecting People and Places, Washington. Newsweek (2015): Stephen Hawking warns computers will overtake humans within 100 years, URL: https://www.newsweek.com/stephen-hawking-warns-artificial-intelligence-could-endhumanity-332082 Nielsen, M. (2018): Computer lernen Intuition; in: Spektrum kompakt: Künstliche Intelligenz, Heft 6.18, S. 38 – 45.

66

Eric Meyer

Office for National Statistics (2019): Which occupations are at highest risk of being automated, URL: https://www.ons.gov.uk/employmentandlabourmarket/peopleinwork/employmentan demployeetypes/articles/whichoccupationsareathighestriskofbeingautomated/2019-03-25 PwC (2018a): Impact of Artificial Intelligence in Germany. PwC (2018b): The macroeconomic impact of Artificial Intelligence. Rajpurkar, P./Zhang, J./Lopyrev, K./Liang, P. (2016): SQuAD: 100,000+ Questions for Machine Comprehension of Text. URL: https://arxiv.org/abs/1606.05250 Saon, G. (2017): Man vs. Machine in Conversational Speech Recognition, Presentation ASRU Conference. URL: https://asru2017.org/Slides/AS17_InvitedTalk_Saon.pdf Schäfer, P. (2019): Farbmuster können selbstfahrende Systeme stören URL: https://www.sprin gerprofessional.de/automatisiertes-fahren/unternehmen-institutionen/farbmuster-koennenselbstfahrende-systeme-stoeren/17323182 Shoham, Y./Perrault, R./Brynjolfsson, E./Clark, J./Manyika, J./Niebles, J. C./Lyons, T./Etchemendy, J./Grosz, B./Bauer, Z. (2018): The AI Index 2018 Annual Report, AI Index Steering Committee, Human-Centered AI Initiative, Stanford University, Stanford, CA, December 2018. Spiegel (2019): Amazon-Mitarbeiter hören sich Privatgespräche mit Alexa an. URL: https:// www.spiegel.de/netzwelt/gadgets/amazon-mitarbeiter-hoeren-sich-tausende-privatgespra eche-mit-alexa-an-a-1262315.html Vermeulen, B./Kesselhut, J./Pyka, A./Saviotti, P. P. (2018): The Impact of Automation on Employment: Just the Usual Structural Change, in: Sustainability 2018, 10, 1661; doi:10.3390/ su10051661

Artifizielle Agenten, hybride Netzwerke und digitale Verantwortungsteilung auf Märkten – Korreferat zu Eric Meyer – Von Ludger Heidbrink Die Auswirkung von Künstlicher Intelligenz (KI) auf Märkte ist ambivalent, wie Eric Meyer in seinem Beitrag zeigt. KI-Systeme können in einzelnen Sektoren Leistungen erzielen, die menschliche Qualifikationen übertreffen, mit Substitutionseffekten einhergehen und negative Beschäftigungswirkungen erzeugen. KI-Systeme können aber auch subsidiäre Funktionen übernehmen und neue Beschäftigungspotentiale schaffen oder positive Produktivitätseffekte bewirken. Ambivalent sind auch rechtliche und ethische Konsequenzen des Einsatzes lernender Algorithmen und digitaler Netzwerke, wie sie etwa in der kommerziellen Datenverwertung oder bei der Steuerung von Robotern und automatisierten Fahrzeugen zu beobachten sind. Es ist davon auszugehen, dass artifizielle Agenten auf zukünftigen Märkten eine wichtige ökonomische Rolle spielen werden, etwa in Gestalt von Service-, Dienstleistungs- und Produktionsrobotern oder in autonomen Steuerungssystemen, wie sie in der Mobilität und beim Militär jetzt schon zunehmend Verwendung finden. Mit dem Einsatz von artifiziellen Agenten und künstlichen Systemen werden neben den genannten Markteffekten auch Schadenseffekte und Drittwirkungen in der Form von Fehlfunktionen, Unfällen oder Rechtsverletzungen entstehen, die spezielle Fragen der Zurechenbarkeit und Verantwortlichkeit aufwerfen.

I. Zur Autonomie und Moralität artifizieller Agenten Die Verantwortlichkeit artifizieller Agenten hängt davon ab, inwieweit sich ihnen eigenständige Handlungsfähigkeit zuschreiben lässt. Luciano Floridi und Jeff W. Sanders nennen drei Kriterien, die artifizielle Agenten kennzeichnen: – Interaktivität, mit der Akteure untereinander und auf ihre Umwelt reagieren und sich wechselseitig beeinflussen, – Autonomie, durch die Akteure ihren Zustand unabhängig voneinander und von ihrer Umwelt verändern können,

68

Ludger Heidbrink

– Adaptibilität, mit der Akteure sich aneinander und an ihre Umwelt anpassen und Regeln für Zustandsänderungen entwickeln.1 Von diesen Eigenschaften ist die Autonomie die Kategorie, die üblicherweise bei natürlichen Personen neben Freiheit als Basisbedingung für die Zuschreibung von Verantwortung zugrunde gelegt wird. Personale Akteure gelten dann als verantwortungsfähig, wenn sie frei und selbstbestimmt agieren können.2 Da wir es mit artifiziellen Agenten zu tun haben, stellt sich die Frage, welche Art der Autonomie im Unterschied zu personalen Akteuren vorliegt. Nach Stephen Darwall lassen sich grundsätzlich vier Formen der Autonomie unterscheiden: personale, moralische, rationale und Handlungsautonomie.3 Von diesen vier Formen bildet die Handlungsautonomie (agent autonomy) die schwächste Form der Autonomie, da sie keine rationalen, moralischen oder personalen Gründe der Selbstbestimmung und Selbststeuerung voraussetzt. Wenn man unter Handlungsautonomie die „Selbstursprünglichkeit“4 von Akteuren versteht, die in einem deterministischen Sinn operative Prozesse durchführen können, lassen sich artifizielle Agenten als quasi-autonome Akteure klassifizieren. Artifizielle Agenten verfügen zwar über keine Handlungsgründe und führen keine kausal eigenständigen Handlungen durch, sie operieren aber auf der Grundlage von algorithmischen Programmen, die ihren Operationen eine funktionale Eigenständigkeit äquivalent zu personalen Akteuren verleiht: Roboter und künstliche Systeme lassen sich in ihren Operationen so betrachten, als ob sie die gleichen Eigenschaften wie Bewusstsein, mentale Zustände und Intentionen besitzen würden, die natürliche Agenten kennzeichnen.5 Aus der Quasi-Autonomie von artifiziellen Agenten, die in der funktionalen Äquivalenz zu natürlichen Akteuren besteht, lassen sich Kriterien für die Moralität und Zurechnungsfähigkeit von künstlichen Systemen ableiten. Artifizielle Agenten in der Gestalt von Robotern und autonomen Steuerungssystemen können nach einer Kategorisierung von James Moor in die Klasse der „explicit ethical agents“6 eingeordnet werden, die nicht nur in Übereinstimmung mit moralischen Regeln handeln, sondern auch auf der Grundlage moralischer Kriterien agieren. Explizite ethische Agenten – etwa autonome Fahrzeuge – sind aufgrund ihrer Programmierung in der Lage, so zu reagieren, dass ihre Reaktionen als moralische Entscheidungen interpretiert werden können, denen ein hinreichendes Verständnis der Entscheidungssituation zugrunde liegt. „Just as a computer system can represent emotions without having emotions, computer systems may be capable of functioning as if they under-

1

Vgl. Floridi/Sanders (2004), S. 7. Vgl. Heidbrink (2017), S. 9 f. 3 Vgl. Darwall (2006), S. 265. 4 Misselhorn (2018), S. 76. 5 Vgl. Wallach/Allen (2009), S. 68. 6 Moor (2006), S. 19 f. 2

Artifizielle Agenten, hybride Netzwerke u. digitale Verantwortungsteilung

69

stand the meaning of symbols without actually having what one would consider to be human understanding.“7 Artifizielle moralische Agenten sind somit dadurch gekennzeichnet, dass sie über „innere Zustände“ verfügen, „die als funktional äquivalent mit Überzeugungen und Pro-Einstellungen betrachtet werden können“. Roboter und künstliche Systeme bilden moralische Agenten, wenn sie „Maschinen mit inneren Zuständen“ gleichen, „die moralischen Meinungen und Pro-Einstellungen funktional hinreichend ähnlich sind, um als moralische Gründe gelten zu können“.8 Unter diesen Voraussetzungen ist es möglich, artifiziellen Agenten einen normativ schwachen, aber pragmatisch relevanten Status moralischer Handlungsfähigkeit zuzuschreiben, der zu der Frage nach der spezifischen Verantwortlichkeit von KI-Systemen führt.

II. Responsibility Gap Ich habe gezeigt, dass artifizielle Agenten auf der Grundlage einer analogen und schwachen Moralität operieren. Daraus ergibt sich aber nicht zwingender Weise, dass artifizielle Agenten auch verantwortlich für ihre Operationen sind. Moralisches Handeln schließt nicht subsumtionslogisch verantwortliches Handeln ein: „x is capable of moral action even if x cannot be (or is not yet) a morally responsible agent“.9 Zwischen Moralität und Verantwortlichkeit besteht insofern ein Unterschied, als moralisch relevante Operationen keinen verantwortlichen Akteur voraussetzen, sondern es ausreicht, dass die Operationen selbst ethisch oder rechtlich evaluiert werden können. Unter Zugrundelegung der funktionalen Autonomie agieren Roboter und künstliche Systeme so, dass ihnen ihre Operationen moralisch zugeschrieben werden können, ohne dass sie dafür die Verantwortung tragen: „there is no responsibility but only moral accountability and the capacity of moral action“.10 Die Unterscheidung von responsibility und moral accountability erlaubt es, Roboter und künstliche Systeme als artifizielle moralische Agenten zu beschreiben, die prima facie ethisch und rechtlich zurechnungsfähig sind, ohne verantwortlich sein zu müssen. Die Konzeption einer morality without responsibility ist heuristisch sinnvoll, um die spezifische Operativität artifizieller Agenten normativ erfassen zu können. Roboter und künstliche Systeme operieren in der Regel auf der Grundlage lernender Algorithmen und adaptiver Programme, durch die sie eigenständig mit ihrer Umwelt interagieren, ohne dass sich die Folgen handlungskausal auf sie zurückführen lassen. Die handlungskausalen Entscheidungen liegen vielmehr bei den Herstellern und Programmierern, zum Teil auch bei den Betreibern und Nutzern von KI-Systemen.

7

Wallach/Allen (2009), S. 69. Misselhorn (2018), S. 88. 9 Floridi/Sanders (2004), S. 16. 10 Ebd., 21.

8

70

Ludger Heidbrink

Je höher einerseits nun der Grad der funktionalen Autonomie artifizieller Agenten ist, umso schwieriger wird es andererseits, die Hersteller und Betreiber für die Operationen von KI-Systemen verantwortlich zu machen. Die artifiziellen Agenten handeln eigenständig, ohne die Verantwortung für ihre Operationen zu tragen. In Fällen, in denen „the machine itself“ operiert, entsteht ein „responsibility gap“ zwischen Handlungsursachen und Handlungsfolgen, die in der verminderten oder fehlenden Handlungskontrolle der Hersteller, Betreiber und Nutzer über die digitalen Systeme und artifiziellen Agenten besteht.11 In Fällen der operativen Autonomie und fehlenden Kontrolle von KI-Systemen, die überall dort auftreten können, wo Daten durch lernende Algorithmen verarbeitet und in neuronalen Netzwerken funktional selbstständige Entscheidungen generiert werden, geraten deshalb herkömmliche Verantwortungsmodelle an ihre Grenzen. Der responsibility gap lässt sich nicht dadurch schließen, dass entweder den KI-Systemen oder den Herstellern, Betreibern und Nutzern primäre Verantwortlichkeiten zugeschrieben werden, sondern nur durch geteilte Verantwortungskonzepte, die der hybriden Netzwerkstruktur aus artifiziellen und natürlichen Akteuren Rechnung tragen.

III. Distributed Moral Responsibility: das DMR-Modell Mit dem Einsatz von KI-Systemen auf Märkten treten somit zwei grundlegende Probleme auf: Roboter und künstliche Systeme sind nicht nur durch eine Moralität ohne Verantwortung (morality without responsibility) gekennzeichnet, sondern ihr Einsatz führt auch zu einer Verantwortungslücke zwischen Herstellern, Betreibern und Nutzern auf der einen Seite und der Selbststeuerung intelligenter digitaler Systeme (responsibility gap) auf der anderen Seite. Dies gilt nicht nur für den Einsatz von Service-, Dienstleistungs- und Produktionsrobotern oder autonome Fahr- und Waffensysteme, sondern auch für algorithmische Verfahren der Datenerfassung und -verarbeitung, wie sie im Bereich des Recruiting, der Evaluation oder des Scoring eingesetzt werden.12 Überall dort, wo KI-Systeme eigenständig operieren oder Big Data zur Steuerung ökonomischer und sozialer Prozesse benutzt werden, kommt es zur Überlagerung natürlicher und artifizieller Handlungslogiken, die Modelle der geteilten Verantwortung (shared responsibility) erforderlich machen. Ein solches Modell bildet das Konzept der „distributed moral responsibility“ (DMR) von Floridi, das netzwerktheoretische Elemente mit moralischen und juristischen Konzeptionen der „faultless responsibility“ und „strict liability“ verbindet.13 Floridi geht von „multi-agent systems“ aus, die sich als „multi-layered neural networks“ beschreiben lassen. Im Unterschied zu kollektiven oder korporativen Grup11

Vgl. Matthias (2004), S. 177, S. 181 f. Vgl. Martin (2017). 13 Vgl. Floridi (2016), S. 2 f. 12

Artifizielle Agenten, hybride Netzwerke u. digitale Verantwortungsteilung

71

penakteuren operieren Agenten in Netzwerken weder kausal noch intentional, so dass ihnen ihre Handlungsfolgen nicht direkt zugerechnet werden können. Gleichwohl erzeugen Mehrebenen-Netzwerke Wirkungen und Effekte, die ohne ihre Operationen nicht zustande gekommen wären. Netzwerkoperationen, die über dezentrale Knotenpunkte ablaufen und an denen hybride Akteursformen beteiligt sind, generieren „distributed moral actions“ (DMA), die normativ relevant sind, sich aber nicht auf intentionale Urheber oder kausale Zustände zurückverfolgen lassen.14 MultiLayered Neural Networks sind vielmehr dadurch gekennzeichnet, dass Input-Aktionen über ein Netz an Knotenpunkten laufen, die als ungesteuerte („gesellschaftliche“) Verteiler Output-Effekte erzeugen, welche als DMR-Handlungen wirksam werden (vgl. Abb. 1).

Quelle: Floridi 2016, S. 7

Abbildung 1: A multi-agent system as a multi-layered neural network

Bei distributiven Netzwerk-Folgen geht es nicht um die normative Bewertung der Handlungsträger, sondern der Handlungsketten, die im Fall von Schädigungen verantwortungsrelevant sind: „All that matters is that change in the system caused by the DMA is good or evil and, if it is evil, that one can seek to rectify or reduce it by treating the whole network as accountable for it, and hence back propagate responsibility to all its nodes/agents to improve the outcome.“15 Mit Hilfe des DMR-Modells werden Netzwerke als Ganzes beurteilt, die Rolle von Knotenpunkten sowie Agenten analysiert und Verantwortung den Elementen des Netzwerks und seiner Verfassung zugeschrieben. Je nach Fehler und Schaden greifen Maßnahmen der Gefährdungs14 15

Ebd., S. 6. Ebd., S. 7.

72

Ludger Heidbrink

haftung, der Verbesserung der ethischen Infrastrukturen oder operative Lernprozesse, durch die Risiken der Fehlfunktionen reduziert werden. Das DMR-Modell zielt auf selbstregulative Zustandsänderungen komplexer Systeme, bei denen kausale und intentionale Verantwortungskonzepte nicht greifen. Insofern könnte das DMR-Modell hilfreich sein, um KI-Systeme, die in der Regel kollaborative Produkte aus Herstellern (Programmierern), Betreibern, Nutzern und Aufsicht (z. B. TÜV) sind, verantwortungsfähig zu machen, so dass ihr Markteinsatz mit einer sinnvollen Regulierung von Drittwirkungen einhergehen kann. Die Beispiele, die Floridi anführt, sind allerdings wenig geeignet, um das DMR-Modell auf seine Anwendungsfähigkeit zu überprüfen. Es handelt sich zum einen um drei Radfahrer, die sich untereinander auf die gemeinsame Nutzung des Radweges einigen, zum anderen um das Anlegen von vier Schiffen in einem Kanal, bei dem das zuletzt hinzukommende Schiff die primäre Verantwortung für das Anlegemanöver trägt.16 Diese Fälle fallen eher unter Probleme des „joint commitment“, mit dem sich Gruppenakteure als Pluralsubjekte auf gemeinsame Ziele festlegen,17 als dass sie Aufschluss über die Verteilung von Verantwortlichkeiten bei KI-Systemen geben.

IV. Shared Digital Responsibility Ein alternativer Vorschlag besteht darin, vor dem Hintergrund des Responsibility Gaps die Verantwortung für Fehlfunktionen und Schäden artifizieller Agenten und digitaler Maschinen, soweit sie sich nicht durch Institute der Produkt- und Gewährleistungshaftung regeln lässt, mit einem kollektiven Versicherungs- und Haftungspool aufzufangen. Auch wenn Roboter und künstliche Systeme keinen Rechtsstatus wie natürliche Personen besitzen, ließe sich ihnen ein digitaler Personenstatus zuschreiben. Ähnlich wie Organisation und Unternehmen de lege legata als „legal persons“ behandelt werden, könnten artifizielle Agenten de lege ferenda als „electronic persons“ normiert werden, die spezifische Rechte und Pflichten besitzen.18 Das Konzept der electronic personhood würde es möglich machen, rechtliche Verantwortlichkeiten, die über das Netzwerk aus Herstellern, Betreibern, Nutzern und Aufsicht verteilt sind, auf die artifiziellen Agenten und autonomen Maschinen zu bündeln und sie über einen kollektiv eingerichteten Kapitalstock abzusichern, der durch eine „electronic person Ldt.“ verwaltet wird: „In practice, this would mean that each machine would be entered in a public register (similar to the commercial register) and would obtain their legal status at the moment of registration. (…) A certain financial basis would be affixed to autonomous machines, depending on the area of application, hazard, abilities, degree of autonomy etc. This sum which

16

Ebd., S. 9. Vgl. Gilbert (2010), S. 38 – 44. 18 Vgl. Beck (2016), S. 479.

17

Artifizielle Agenten, hybride Netzwerke u. digitale Verantwortungsteilung

73

would have to be raised by the producers and users alike, would be called the capital stock of the robot and collected before the machine was put into public use.“19

Durch den gesellschafterisch verwalteten Kapitalstock wären Schäden mit Drittwirkungen, die beim Einsatz der digitalen Maschinen entstehen, abgesichert, ohne dass im Einzelfall die spezifischen Verantwortlichkeiten geklärt werden müssten. Das Betreibernetzwerk als solches würde über die getätigten Einzahlungen bei Inbetriebnahme der KI-Systeme die accountability without responsibility übernehmen, die digitale Netzwerke und Verbundsysteme kennzeichnet. In eine ähnliche Richtung argumentiert Gunther Teubner, auch wenn er einen personenanalogen Rechtstatus von Softwareagenten ablehnt, da es sich um „digitale Sklaven“20 handele, die in einem abhängigen Prinzipal-Agenten-Verhältnis zu ihren Betreibern stehen. Um der funktionalen Autonomie digitaler Agenten zu entsprechen, muss stattdessen von einer partiellen Rechtssubjektivität digitaler Agenten ausgegangen werden: „Die Antwort auf das Autonomierisiko wäre ihr Status als Aktanten, als teilrechtsfähige Akteure, deren autonome Entscheidungen mit Rechtsverbindlichkeit ausgestattet werden und Haftungsfolgen auslösen können.“21 Die partielle Rechtssubjektivität von Softwareagenten erlaubt es, Institute der Gehilfen- und Assistenzhaftung in Anspruch zu nehmen, wenn KI-Systeme teilautonom Schäden verursachen, etwa in Fällen der Fehlfunktion von Service- oder Pflege-Robotern. In solchen Fällen haftet der Betreiber mit, da er sich im Unterschied zum unselbstständigen Prinzipal-Agenten-Verhältnis auch das Versagen einer verschuldensunfähigen Maschine zurechnen lassen muss. Die digitale Assistenzhaftung für rechtswidrige Entscheidungen von Softwareagenten stößt allerdings dort an Grenzen, wo hybride Mensch-Maschine-Verbünde agieren, etwa bei autonomen Fahrsystemen und digitalen Multi-Agenten-Netzwerken. In diesen Fällen geht es um das körperschaftsähnliche Gesamthandeln des Verbundes, der in seiner hybriden Verfassung zum Adressaten der Rechtsnormierung gemacht werden muss. Damit würde das gesamte Netzwerk aus Herstellern, Betreiber, Nutzern und Aufsicht zu einem kollektiven Rechtssubjekt, dem Schadensfolgen zugeschrieben werden können. Wenn Verbünde und Netzwerke zu Zurechnungsobjekten gemacht werden, also nicht mehr Handlungsträger, sondern Handlungen selbst normativ adressiert werden, ist es sinnvoll, wie im Fall der elektronischen Personen-GmbH einen „Risiko-Pool“22 einzurichten, der valide Rechtszusammenhänge herstellt und die Netzwerk-Akteure in Kollektivhaftung nimmt, unabhängig davon, ob eine schadenskausale Eigenverantwortung vorliegt. Mit dem Übergang von Handlungsträgern zu Handlungsketten und der Übertragung der Haftung auf das Multi-Agenten-Netzwerk ließen sich Verantwortlichkeiten auf die Netzwerk-Akteure verteilen, ohne sie direkt verantwortlich machen zu müs19

Ebd., S. 480. Teubner (2018), S. 162. 21 Ebd., S. 177. 22 Ebd., S. 202.

20

74

Ludger Heidbrink

sen. Der normative Umgang mit Verbundrisiken wird dadurch ermöglicht, dass der Verbundzweck, z. B. die Marktfähigkeit eines autonomen Fahrsystems oder eines kreditrelevanten Scoringsystems, primärer Adressat von Verantwortungszuschreibungen wird. Im Fall von Fehlern oder Schäden werden die Verantwortlichkeiten, soweit keine Fälle der Gefährdungs- oder Assistenzhaftung vorliegen, dem Gesamtverbund zugerechnet, der regress- und schadenspflichtig ist, auch wenn Teilakteure des Verbundes die Schäden erzeugt haben. Die Teilung der Verantwortlichkeiten wird über einen Versicherungs- oder Risikopool gewährleistet, in den die Verbundund Netzwerkagenten verpflichtend eingebunden sind. Der Pool gewährleistet in Gestalt eines kollektiven Sicherungsfonds, dass digitale Multi-Agenten-Systeme zu distributiven Verantwortungsträgern werden. Dieses Modell einer Shared Digital Responsibility (SDR) führt dazu, dass artifizielle Agenten und Mensch-Maschine-Verbünde, die über keine eigenständige Moral- und Rechtssubjektivität verfügen, für ihren Einsatz auf Märkten verantwortungsfähig gemacht werden können, indem das Netzwerk aus Herstellern, Betreibern, Nutzern und Aufsicht für den Fall von Schäden mit Drittwirkungen kollektive Versicherungslösungen etabliert. Denkbar ist, dass Einzahlungen in den Versicherungspool durch die Marktakteure stattfinden, indem Abgaben oder Steuern auf Roboter und digitale Systeme erhoben werden. Unternehmen könnten über den „Verhaltensüberschuss“,23 den Daten am Markt erzeugen, den Pool mitfinanzieren. Das Kapitalstock- und Versicherungsmodell hat den ökonomischen und gesellschaftlichen Vorteil, dass Innovationen nicht durch staatliche Regulierungen des Marktes unterbunden werden, sondern die Marktakteure selbst Regeln etablieren, die in direkter Auseinandersetzung und auf praktischer Erfahrungsgrundlage mit KI-Systemen entwickelt werden. Anstatt wie die Datenethikkommission der Bundesregierung einen „risikoadaptierten Regulierungsansatz algorithmischer Systeme“24 zu verfolgen, der von einer fünfstufigen Kritikalität mit abgestuftem Schädigungspotential ausgeht, dürfte es praktikabler sein, KI-Systeme mit vorläufigen Zulassungen zu versehen und unter Realbedingungen zu beobachten, welche Kritikalität besteht und wie sich Schadensfolgen durch die Multi-Agenten-Verbünde selbst kompensieren lassen. Das SDR-Modell trägt den Ungewissheitsrisiken artifizieller Agenten und hybrider Netzwerke Rechnung, indem es zuerst auf eigenverantwortliche Selbstregulierung und dann auf kollektive Verantwortungsübernahme durch die Einrichtung von Versicherungs- und Haftungspools setzt.

V. Fazit Wenn Märkte zunehmend durch KI-Systeme bestimmt werden, die zu schädigenden Drittwirkungen führen können, ist eine digitale Verantwortungsteilung aus ethi23 24

Vgl. Zuboff (2018), S. 96 – 105. Gutachten der Datenethikkommission (2019), S. 24.

Artifizielle Agenten, hybride Netzwerke u. digitale Verantwortungsteilung

75

schen und ökonomischen Gründen angebracht. Dies gilt umso mehr, weil sich, wie Eric Meyer am Schluss seines Beitrags schreibt, die „ Prognose der Auswirkungen der Künstlichen Intelligenz auf verschiedene Märkte (…) als schwierig erweisen (wird), da einerseits die technischen Möglichkeiten der Künstlichen Intelligenz selbst schwer prognostizierbar sind und diese zudem auch dann noch entsprechend in die Produktionsprozesse integriert werden muss, bevor diese Wirkungen überhaupt manifest werden können.“25 Negative Arbeitsmarkt- und Beschäftigungseffekte, die durch den Einsatz von KISystemen entstehen, lassen sich durch das SDR-Modell nicht ohne weiteres auffangen, wohl aber Schadenseffekte in Gestalt von Fehlfunktionen, Unfällen oder Rechtsverletzungen Dritter. Da bei artifiziellen Agenten und digitalen Mensch-Maschine-Verbünden Verantwortungslücken entstehen, die eine Zurechnung der Drittwirkungen auf Handlungsträger in der Regel ausschließen, ist die Attribution des Verbund- oder Netzwerksystems auf der Grundlage des Distributed Moral Responsibility (DMR)-Modells ein erster sinnvoller Lösungsweg. Weil das DMR-Modell sich auf vernetzte Entscheidungsprozesse bezieht, die sich im Prinzip weiterhin kollektiv steuern lassen, ist es von Vorteil, eine weitere Ergänzung durch das Digital Shared Responsibility (DSR)-Modell vorzunehmen. Auf diese Weise werden digitale Agenten- und Netzwerkrisiken durch einen Versicherungs- und Haftungspool aufgefangen, der den markt- und gesellschafskonformen Einsatz von KI-Systemen ermöglicht. Literatur Beck, Susanne (2016): The Problem of Ascribing Legal Responsibility in the Case of Robotics, in: AI & Soc 31 (4), S. 473 – 481. Darwall, Stephen (2006): The Value of Autonomy and Autonomy of the Will, in: Ethics 116, Nr. 2, 263 – 284. Floridi, Luciano (2016): Faultless responsibility: on the nature and allocation of moral responsibility for distributed moral actions, in: Phil. Trans. R. Soc. A 374: 20160112. http://dx.doi. org/10.1098/rsta.2016.0112. Floridi, Luciano/Sanders, Jeff W. (2004): On the Morality of Artificial Agents, in: Minds and Machines 14, Nr. 3, S. 349 – 379. Gilbert, Margaret (2010): Wer ist zu verurteilen? Kollektive moralische Verantwortung und ihr Auswirkung auf Gruppenmitglieder, in: Gerber, Doris/Zanetti, Veronique (Hrsg.), Kollektive Verantwortung und internationale Beziehungen, Berlin, S. 31 – 65. Gutachten der Datenethikkommission (2019): https://www.bmi.bund.de/SharedDocs/down loads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission-kurzfas sung.pdf;jsessionid=2D3F771129FE36B3E65F587217FEC3FF.2_cid373?__blob=publica tionFile&v=4 (30. 3. 2020). 25

Meyer, in diesem Band, S. 64.

76

Ludger Heidbrink

Heidbrink, Ludger (2017): Definitionen und Voraussetzungen der Verantwortung, in: Heidbrink, Ludger/Langbehn, Claus/Loh, Janina (Hrsg.), Handbuch Verantwortung, S. 3 – 34. Matthias, Andreas (2004): The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata, in: Ethics and Information Technology 6, 175 – 183. Misselhorn, Catrin (2018): Maschinenethik: Maschinen als moralische Akteure, 3. Aufl., Stuttgart 2018. Moor, James H. (2006): The Nature, Importance, and Difficulty of Machine Ethics, in: IEEE Intelligent Systems 21, Nr. 4, 18 – 21. Teubner, Gunther (2018): Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten, AcP 218, 155 – 205 – DOI: 10.1628/acp-2018 – 0009, Tübingen. Wallach, Wendel/Allen, Colin (2009): Moral Machines. Teaching Robots Right from Wrong, Oxford. Zuboff, Shosanna (2018): Das Zeitalter des Überwachungskapitalismus, Frankfurt am Main.

Die Diversifizierung der Arbeitswelten durch den Einsatz von Künstlicher Intelligenz – Korreferat zu Eric Meyer – Von Traugott Jähnichen

Einleitung In dem Beitrag sollen exemplarisch die Veränderungen der Arbeitswelten durch den Einsatz von Künstlicher Intelligenz (KI) thematisiert werden. Generell werden sich die Arbeitswelten durch KI – einen gegenwärtigen Trend aufnehmend und deutlich verstärkend – weiter pluralisieren und im Blick auf die Arbeitsinhalte und die erwarteten Kompetenzen noch deutlicher diversifizieren. So wird die klassische Form der Industriearbeit – viele Menschen arbeiten in einem Betrieb unter vergleichsweise ähnlichen Bedingungen – zwar nicht gänzlich verschwinden, aber zu einem immer weniger typischen Bereich der Arbeitswelt werden. Zudem ist absehbar, dass sich die Polarisierung des Arbeitsmarktes fortsetzen und damit auch eine weitere Spreizung der Arbeitseinkommen mit den Gefahren einer zunehmenden Erosion der Mittelschichten abzeichnen wird. Ungeachtet dieser Veränderungen, deren bisher erkennbare Grundmuster im Folgenden skizziert werden sollen, ist kein Ende der Erwerbsarbeitsgesellschaft zu erwarten, aber deren tiefgreifende Transformation. Die sich daraus ergebenden gesellschaftspolitischen Veränderungen können hier nicht näher entfaltet werden.1 Vorrangig werden als eine kommentierende Ergänzung zum Hauptbeitrag von Eric Meyer2 die sich verändernden Gestaltungen der Arbeitsverhältnisse und deren sozialethische Konsequenzen erörtert.

1 2

Vgl. Jähnichen/Wiemeyer (2020), S. 179 – 226. Vgl. die ausführlichere Darstellung in dem Beitrag von Eric Meyer in diesem Band.

78

Traugott Jähnichen

I. Bedingungen des Einsatzes von Künstlicher Intelligenz in den Arbeitswelten 1. Das Spannungsfeld von technologischer Machbarkeit, ökonomischer Rentabilität und rechtlichen Rahmenbedingungen Die technische Machbarkeit des Einsatzes von KI-Systemen scheint sich gegenwärtig forciert weiter zu entwickeln. Definiert man „Intelligenz“ relativ simpel und eindimensional als Problemlösungskompetenz, verbessern sich die Leistungen von KI geradezu sprunghaft. Die Logik, welche KI-Systemen zu Grunde liegt, lässt sich vereinfachend an Hand der Entwicklung von Strategien bei immer komplexeren Spielsituationen darstellen. Die Tatsache, dass KI-Systeme neuerdings in der Lage sind, nicht nur die weltbesten Go-Spieler, sondern nunmehr auch die Elite der Pokerspieler zu besiegen, hat vielfach für Verwunderung gesorgt. Denn das Pokerspiel ist ein für Ökonomen noch interessanteres Beispiel für Entscheidungen unter unvollständigen Informationen: Psychische Muster wie erfolgreiches „Bluffen“ gehören bei menschlichen Pokerspielern ebenso zur Strategie wie logisch kalkulierende Abwägungen. In seiner Grundstruktur kann Pokern auf verschiedene reale Handlungsfelder, etwa Vertragsverhandlungen zwischen Unternehmen, Rechtsstreitigkeiten u. a., übertragen werden. Der verblüffende Erfolg – d. h. die Problemlösungskompetenz – von KI-Systemen im Pokerspiel beruht darauf, dass mit Hilfe der jeweiligen Programme versucht wird, hochkomplexe Vernetzungen aufzubauen. Im Kern handelt es sich bei den sog. „selbstlernenden“ KI-Systemen um probabilistische Modelle, d. h. aus einer Vielzahl von Beobachtungen und Messdaten werden Wahrscheinlichkeiten berechnet, so dass KI-Systeme auf statistischer Basis zu immer besseren Schlussfolgerungen gelangen. In einer ständigen Wiederholung von einzelnen Schritten werden bewährte – d. h. im Durchschnitt erfolgreiche – Schlussfolgerungen verstärkt, andere Schritte angepasst und verbessert, so dass sich das KI-System auf diese Weise optimieren kann. Beim Pokerspiel können KI-Systeme in Sekundenschnelle die Wahrscheinlichkeiten des Blattes der Mitspieler ebenso wie die Wahrscheinlichkeiten des Erfolges unterschiedlicher eigener Strategien kalkulieren und auf der Basis statistischer Regeln die erfolgversprechendste Strategie auswählen: Diese führt zwar nicht immer zum Erfolg, bei einer hinreichend großen Zahl von Spielen bzw. Wiederholungen ist diese Strategie jedoch aufgrund des mathematischen Gesetzes der großen Zahlen bereits auf mittlere und erst recht auf längerer Sicht sehr erfolgversprechend. In Verbindung mit deutlichen Verbesserungen von Bild- und Spracherkennungsprogrammen erweitern sich die technischen Einsatzmöglichkeiten enorm. Hinzu kommen zunehmende manuelle Fähigkeiten, wie das Nähen von „Schuhen“ und von einfach zu fertigenden Kleidungsstücken, so dass die Einsatzmöglichkeiten entsprechender Systeme sich immer mehr erweitern. Die rechtlichen Rahmenbedingungen sind bei vielen Automatisierungsprozessen, etwa bei selbstfahrenden Verkehrsmitteln wie Bussen, LKW oder Taxis, bisher nur

Diversifizierung der Arbeitswelten durch den Einsatz von KI

79

teilweise geklärt, was allerdings grundsätzlich im Blick auf Haftungsfragen u. a. kein prinzipielles Hindernis des Einsatzes solcher Systeme darstellen dürfte.3 Der zentrale Faktor des Einsatzes von KI-Systemen ist in der Regel die Kostenstruktur, nicht zuletzt weil der technisch mögliche Einsatz von KI-gesteuerten Maschinen zumindest gegenwärtig nicht immer kostengünstiger und einfacher zu handhaben ist als der Einsatz von Menschen. Dies gilt etwa für „Nähereien“ und manche anderen Einsatzmöglichkeiten, wo relativ preiswerte menschliche Arbeit – vor allem in den Ländern des globalen Südens – zurzeit nicht immer durch technische Systeme ersetzt werden dürfte. Sowohl die Fehleranfälligkeit wie der hohe technologische Aufwand schränken vielfach den Einsatz im Vergleich zum technisch Machbaren noch ein. Ein Beispiel ist die Inbetriebnahme und nunmehr relativ schnell geplante Schließung einer modernen Produktionsstätte von Adidas in der Nähe von Ansbach, wo eine vollautomatisierte Produktion von Sportschuhen ca. eine Million Paar Schuhe im Jahr mit maximal 300 Beschäftigten ermöglichen sollte. Auf Grund der dennoch relativ hohen Kosten und einer unterschätzten Fehleranfälligkeit wurde dieses System zumindest vorläufig aufgegeben, nicht zuletzt weil in Ländern des Südens, wie etwa in Indonesien oder Vietnam, zumindest zum gegenwärtigen Zeitpunkt verlässlicher und kostengünstiger entsprechende Arbeiten durchgeführt werden. Letztlich werden Kosten- und Qualitätserwägungen den Ausschlag geben, ob und in welchem Ausmaß es zu einer Veränderung entsprechender Produktionsverfahren in den weltweiten Wertschöpfungsketten kommen wird. Grundsätzlich werden jedoch nach und nach einfacher strukturierte, arbeitsintensive Formen der Produktion und Dienstleistung durch KI ersetzt werden. Darüber hinaus zeichnet sich in Deutschland in den letzten fünf Jahren bereits deutlich die Tendenz ab, dass Beschäftigungsverhältnisse speziell mit einem mittleren Qualifikationsniveau kaum noch an dem allgemeinen Beschäftigungswachstum partizipieren4, weil gerade hier, nachdem einfachere Arbeiten bereits weitgehend substituiert wurden, entsprechend automatisierte Systeme vermehrt eingesetzt werden. 2. Probleme der Akzeptanz durch Kund*innen Ein weiterer entscheidender Faktor für den Einsatz von KI-Systemen ist schließlich deren Akzeptanz durch die Kund*innen. Experimente in Hotels oder in der Gastronomie mit Servicerobotern auf der Basis der sog. Pepper-Modelle sind bisher höchst ambivalent. Vielfach sind Neugier und ein gewisser „Spieltrieb“ der Kund*innen hilfreiche Impulse, um die Akzeptanz des Einsatzes solcher Systeme zu verbessern. Allerdings ist die Frustrationstoleranz der Nutzer*innen häufig nicht sehr hoch

3

Die Grundfragen und Details der rechtlichen Dimensionen der Thematik finden sich in diesem Band in einem gesonderten Abschnitt. 4 Vgl. den Bericht über eine aktuelle Studie des Chefökonomen der ING Deutschland, Carsten Brzeski, in: Die Welt, 6. 2. 2020, S. 10.

80

Traugott Jähnichen

ausgeprägt, so dass Wiederholungen von Fehlreaktionen zu Abbruchbefehlen bzw. zu einem Ignorieren des Systems führen. Während es sich bei diesen Beispielen um prinzipiell zu behebende Einführungsprobleme einer technischen Innovation handelt, ist darüber hinaus festzustellen, dass in einigen Dienstleistungs-Bereichen Kund*innen auf eine menschliche Interaktion hohen Wert legen und dementsprechend KI-Systeme auch bei einer hohen Funktionalität kaum akzeptieren werden. Ein Beispiel ist hier die Gastronomie, wo die Kommunikation und teilweise ein Event-Faktor ebenso wichtige Aspekte des Produktes sind wie die funktionale Seite. Chancen und Grenzen des Einsatzes von KI-Systemen im Bereich personaler Dienstleistungen lassen sich exemplarisch im Blick auf die Sozialwirtschaft aufzeigen. Exkurs: Potenziale der Digitalisierung in der Sozialwirtschaft Die Einsatzmöglichkeiten digitaler Technik im Bereich der Arbeit mit kranken, behinderten oder zu pflegenden Menschen beinhaltet eine große Spannweite von innovativen Perspektiven. Diese können die Qualität und Leistungsfähigkeit helfender Zuwendung in bedeutsamer Weise verbessern, sofern diese Techniken nicht lediglich zu Standardisierungen, Kontrollen und Rationalisierungen von Handlungsabläufen sowie einer Zunahme des Effizienzdruckes beim Pflegepersonal führen.5 Digitalisierungsstrategien in Sozialunternehmen umfassen im Wesentlichen drei Ebenen, die Optimierung organisationsinterner Abläufe durch integrierte IT-Systeme, der Einsatz sozialer Medien in der Außenkommunikation sowie schließlich der Einsatz digitaler Hilfsmittel in der unmittelbaren Arbeit mit Klient*innen.6 Im Blick auf die hier diskutierte Fragestellung der Akzeptanz ist die Arbeit mit Klient*innen vorrangig zu diskutieren. Das gegenwärtig am weitesten entwickelte Feld ist dabei das der digitalen Hilfsmittel, die im Bereich der Medizin und der Behindertenhilfe im Wesentlichen eine Fortentwicklung bzw. durch digitale Technik verbesserte Weiterentwicklung klassischer Hilfsmittel darstellen. Diese Hilfsmittel erweitern die Möglichkeit zum selbständigen Leben, zur Kommunikation und zur Teilhabe und eröffnen für viele Menschen sogar Perspektiven für eine berufliche Tätigkeit. Ein Bereich, der hingegen oft hoch emotional diskutiert wird, ist die Frage, ob und inwieweit eine Ergänzung oder sogar ein Ersatz personaler Begegnungen in der Pflege durch digitaltechnische Assistenten, den sogenannten Pflegerobotern, möglich ist. Gegenwärtig wird intensiv an solchen Robotern7 geforscht, die sich selbständig bewegen und lernfähig sind, um Menschen als Assistenten zur Seite zu stehen. Solche Roboter sind Aufsteh- und Gehhilfen, zudem können sie Patient*innen Getränke, 5

Meireis (2017), S. 226, S. 233 f. Vgl. Breitenbach (2017). 7 Vgl. Ramge (2018), S. 20. 6

Diversifizierung der Arbeitswelten durch den Einsatz von KI

81

Speisen oder auch Tabletten zu festgelegten Zeiten anreichen. Diese Formen des Einsatzes können als Weiterentwicklungen zur Aufrechterhaltung oder sogar Verbesserung der körperlichen Autonomie von Patient*innen bewertet werden und werfen insofern „keine grundsätzlich neuen ethischen Probleme“8 auf. Andere Herausforderungen stellen sich dort, wo digitale Assistenten durch ihre Sprech- und sonstigen Reaktionsfunktionen bestimmte Formen der Kommunikation und auch Emotionalität simulieren. Hier ist insofern eine qualitativ neue Stufe des Einsatzes digitaler Systeme zu erblicken, da diese nunmehr als „selbständige Komponenten der Interaktion auftreten“ und Pflegebedürftige in solchen Kontexten „dyadisch mit diesen interagieren“9 würden. So können digitale Systeme die Mimik, Gestik und den Tonfall eines Menschen analysieren, durch entsprechende Programmierungen die Gefühlslage ihres Gegenübers „berechnen“ und entsprechend adäquate Reaktionen zeigen.10 Speziell diese Ebene des Einsatzes digitaler Hilfsmittel ist in der Sozialwirtschaft ethisch umstritten. Dabei ist unter ethischen Gesichtspunkten insbesondere die Frage zu klären, ob diese Systeme die Autonomie der Pflegebedürftigen schützen und das in den Interaktionen entwickelte Vertrauen rechtfertigen können: „Eine Täuschung Pflegebedürftiger durch vermeintliche personale Gegenüber in Form autonomer Systeme bzw. Robotik darf aus ethischen Gründen nicht erfolgen, da sie die Autonomie der Pflegebedürftigen und damit ihre Würde verletzt.“11 Grundsätzlich kommt es in Pflege-Beziehungen darauf an, die zentrale Rolle der unmittelbar menschlichen Zuwendung zu bewahren. Nur solche Beziehungen lassen personales Vertrauen entstehen, welches der Autonomie und personalen Integrität von Pflegebedürftigen entspricht.12 Ob und inwieweit Befürchtungen zutreffen, dass der Einsatz von robotischen Hilfsmitteln die menschliche Empathiefähigkeit des Pflegepersonals verändern oder gar schwächen könnte, ist offen und muss als weiterer Problemhorizont im Blick bleiben.

II. Veränderungen der Beschäftigungs- und Einkommensstrukturen 1. Entwicklungen des Beschäftigungswachstums in Abhängigkeit von Qualifikationen Der technologische Fortschritt vollzieht sich gegenwärtig mit einer Dynamik und Geschwindigkeit, die einen hohen Anpassungsbedarf auf Seiten der Beschäftigten nach sich zieht. Die digitale Vernetzung der Wirtschaft in all ihren Ausprägungen und neueren Entwicklungen erfordert vielfältige neue Fähigkeiten: „Neue Profile bilden sich heraus, Eigenverantwortung nimmt zu, Belastungen wandeln sich. Ande8

Gräb-Schmidt/Stritzelberger (2019), S. 361. Ebd. 10 Vgl. Ramge (2018), 77. 11 Gräb-Schmidt/Stritzelberger (2019), S. 367 f. 12 Vgl. Gräb-Schmidt/Stritzelberger (2019), S. 369. 9

82

Traugott Jähnichen

re, neuartige Leistungsanforderungen ziehen in die Arbeitswelt ein: Zentrale Anforderungen sind Selbstständigkeit, psychische Präsenz, Interaktionsfähigkeit und Darstellungskompetenz.“13 Diese Situation kann als Chance für die Intensivierung sozialer und kommunikativer Kompetenzen in der Arbeitswelt einhergehend mit einem höheren Maß an Selbstbestimmung und eine stärkere Konzentration auf kreative Tätigkeiten verstanden werden. Auf der anderen Seite besteht aber die Gefahr einer Überforderung oder eines permanenten Leistungsdrucks für viele Beschäftigte. Zudem entwickelt sich die Nachfrage nach Arbeit sehr ungleich. Das größte Beschäftigungswachstum besteht immer mehr in den Bereichen, die eine hohe Qualifikation erfordern, formal in der Regel einen Universitätsabschluss. Relativ stabil bzw. teilweise leicht ansteigend ist interessanter Weise auch der Bereich, der geringere Fachkenntnisse voraussetzt, da es hier nach wie vor nicht automatisierbare Tätigkeiten gibt, die zudem relativ schlecht bezahlt werden, wie z. B. das Friseurhandwerk. Dementsprechend besteht hier keine oder eine geringere Automatisierungswahrscheinlichkeit. Die größten Beschäftigungsverluste zeichnen sich zurzeit demgegenüber bei mittleren Qualifikationen ab, wo es nach wie vor eine Vielzahl von Assistenztätigkeiten gibt, die eine recht hohe Automatisierungswahrscheinlichkeit aufweisen. So dürfte beispielsweise im Bereich von Banken und Versicherungen in den nächsten Jahren ein größerer Einschnitt beim Abbau an Arbeitsplätzen erfolgen. Eine Vielzahl von Tätigkeiten im Bereich der Finanzdienstleistungen, etwa das Kreditwesen, wird zunehmend durch IT-Anwendungen geregelt. Ähnliche Entwicklungen sind in der Versicherungswirtschaft und in anderen Dienstleistungsbereichen absehbar. Einer solchen Ersetzung menschlicher Arbeitskraft durch digitale Technologien stehen auf der anderen Seite die Entwicklung neuer Berufe sowie ein vermehrter Bedarf in bereits bestehenden Bereichen, etwa bei der Softwareentwicklung und dem Projektmanagement, entgegen. Zudem herrscht bereits gegenwärtig in Deutschland ein hoher Bedarf an Fachkräften, insbesondere in der Elektrotechnik- und Elektronikindustrie. Insgesamt ist somit ein recht hoher Bedarf an hochqualifizierten Fachkräften erkennbar, während zunehmend mittlere Tätigkeiten substituiert werden. Die Veränderungen der Arbeitswelt sind auch unter Gender-Aspekten zu betrachten. Nach einer Untersuchung des IAB14 betrifft der mögliche Wegfall von Arbeitsplätzen Männer und Frauen sehr asymmetrisch. Während 21 % der sozialversicherungspflichtigen Arbeitsplätze von Männern gefährdet sind, trifft dies lediglich auf 8 % der Arbeitsplätze von Frauen zu. Hingegen arbeiten lediglich 36 % der Männer, aber 46 % der Frauen in einem Beruf, der ein geringes Substitutionsrisiko aufweist. Dass Männer ein höheres Risiko als Frauen haben, gilt für alle Qualifikationsstufen von Helferberufen, über Fachkräfte, Spezialisten bis hin zu Experten. Diese Unterschiede erklären sich dadurch, dass in den Wirtschaftssektoren, die, wie Fertigungsberufe der Industrie, das höchste Substitutionspotential aufweisen, mehr Män13 14

EKD (2015), S. 62. Vgl. Dengler/Matthes (2016).

Diversifizierung der Arbeitswelten durch den Einsatz von KI

83

ner beschäftigt sind, während in sozialen und kulturellen Dienstleistungsberufen, mit einem vergleichsweise geringen Substitutionspotential, Frauen dominieren. 2. Die Tendenz einer weitergehenden Polarisierung der Arbeitsmärkte Angesichts der aktuellen Daten der Beschäftigungsentwicklung dürfte sich trotz der gegenwärtig kaum zu übersehenden Unwägbarkeiten der Umfang der Arbeit in Industrienationen nicht dramatisch verändern.15 Tiefgreifende Transformationen sind jedoch im Blick auf die Struktur der Arbeitsmärkte zu erwarten. So könnte die Polarisierung der Arbeitsmärkte deutlich zunehmen und es zu einer sich fortsetzenden Erosion der Mittelschicht kommen.16 Gewinner der Durchdringung der Arbeitswelt durch digitale Technologien sind hochqualifizierte Beschäftigte, insbesondere in den sog. MINT-Bereichen. Der Bedarf an Fachkräften übersteigt hier deutlich das auf den Arbeitsmärkten verfügbare Angebot. Insofern lässt sich die These, dass sich die modernen Informationstechnologien mit ihrem hohen Bedarf an Expert*innen und Fachkräften als Ungleichheitsverstärker erweisen, durchaus im Blick auf die bereits beobachtbaren Arbeitsmarktentwicklungen im Horizont von Arbeit 4.0 vertreten.17 Des Weiteren erfordert die Durchdringung der Arbeitswelt durch digitale Technologien eine beständige Weiterentwicklung der Qualifikation der Beschäftigten. Dementsprechend ist neben der Ausbildung auch die Weiterbildung zu optimieren, die in Deutschland, speziell bei älteren Arbeitnehmern über 50 Jahren, im internationalen OECD-Vergleich unterentwickelt ist.18 Zwar ist und bleibt Erfahrungswissen in Unternehmen durchaus von hohem Wert, gerade um auf ungewohnte Herausforderungen und Situationen angemessen reagieren zu können. Indem gegenwärtig allerdings Erfahrungswissen vermehrt in Algorithmen transformiert und auf diese Weise versachlicht und leichter verfügbar wird, spielt diese Dimension von Kompetenzen in der zukünftigen Entwicklung möglicherweise nur noch eine untergeordnete Rolle. Exkurs: Crowdwork als „Arbeit der Zukunft“? Die Neuorganisation von Arbeit durch den digitalen Wandel lässt sich exemplarisch an Hand von Crowdworking darstellen, da in diesem Bereich die Keimzelle für eine umfassende Neugestaltung der Erwerbsarbeit liegen könnte. Crowdwork ist eine über Plattformen vergebene und organisierte Arbeit, die eine große Spannweite an Tätigkeiten von Expertenberufen bis hin zu einfachen Aufgaben umfasst. Die meis15

Vgl. hierzu auch den Beitrag von Eric Meyer in diesem Band. Vgl. Geiger/Prettner/Schwarzer (2018). 17 Vgl. Wilhelms (2018), S. 3 – 9, insbes. S. 8. 18 Vgl. Tornau (2016), S. 17. 16

84

Traugott Jähnichen

ten Beschäftigten arbeiten formal selbständig und ohne angemessene Sozialversicherung. Diese Formen der Arbeit kommen den Individualisierungsschüben moderner Gesellschaften im Blick auf selbständig einzurichtende Arbeitszeiten und -orte entgegen. Allerdings liegen die in diesem Bereich zu erzielenden Einkommen zumindest bisher meist unter dem Durchschnitt. Für Unternehmen ist die Nachfrage nach Crowdwork dann sinnvoll, wenn es sich um einmalige Aufgaben, kleinere Projekte oder auch um besonders spezialisierte, zeitlich begrenzte Aufgaben handelt. Nachteile von Crowdwork für Unternehmen bestehen ebenfalls, insbesondere im Blick auf die genaue Definition von Arbeitsaufträgen, da diese im Prozess oft nicht so leicht abgeändert oder erweitert werden können. Zudem erhöhen sich ggf. die Sicherheitsrisiken. Die Perspektiven und Motivationen von Crowdarbeiter*innen sind vielschichtig. Generell sind sie in Deutschland überdurchschnittlich gut ausgebildet, mehr als 50 % von ihnen verfügen über einen Universitätsabschluss. Sie sind frei verfügbar, in der Mehrheit ledig und schätzen ihre persönliche Freiheit und damit auch unregelmäßige Arbeitszeiten.19 3. Sinndeutungen der Erwerbsarbeit im Horizont digitaler Arbeitswelten a) Erwerbsarbeit als Basis von gesellschaftlicher Teilhabe und Anerkennung Für die Ausgestaltung der Lebensführung der meisten Menschen in Industriegesellschaften steht die Erwerbsarbeit im Mittelpunkt. Sie ist die Quelle von Einkommen, sichert die großen Lebensrisiken wie Krankheit, Alter oder auch Arbeitslosigkeit und Pflege ab, gibt der Lebensführung eine klare Struktur und trägt wesentlich zur sozialen Integration der Menschen bei. Darüber hinaus ist sie Grundlage der sozialen Anerkennung, eröffnet die Wahrnehmung von Verantwortung für den eigenen Lebensbereich und kann vielfach als sinnstiftend erlebt werden. Daher ist, wie die beiden Kirchen immer wieder betonen, eine „breite Beteiligung an Erwerbsarbeit als wichtiger Ausdruck gesellschaftlicher Teilhabe“20 zu bezeichnen. Solche hohen Erwartungen, die mit der Erwerbsarbeit verbunden sind, spiegeln sich durchaus in empirischen Daten wider. Exemplarisch soll hier kurz auf die vom Bundesministerium für Arbeit und Soziales erhobenen Ergebnisse der „Wertewelten Arbeiten 4.0“21 Bezug genommen werden. Die Befunde dieser Studie zeigen vor allem eine deutliche Pluralisierung der Ansprüche, Idealbilder und Erwartungen im Blick auf die Erwerbsarbeit auf. Die Studie identifiziert sieben sog. Wertewelten, wobei die einzelnen Dimensionen des „Arbeitsversprechens“ als wesentliche Kennzeichen für jeweils eine Wertewelt dienen. Die quantitativ größte Gruppe mit 30 % 19

Vgl. Jähnichen/Wiemeyer (2020), S. 89 – 96. EKD/DBK (2014), Nr. 8. 21 Vgl. dazu die Homepage www.arbeitenviernull.de.

20

Diversifizierung der Arbeitswelten durch den Einsatz von KI

85

der Befragten ist von der Suche nach sozialer und ökonomischer Sicherheit geprägt, als Wertehaltung wird hier das Muster „sorgenfrei von der Arbeit leben zu können“ genannt. Zwei weitere Wertegruppen mit jeweils rd. 15 % sind stark von Gefühlen mangelnder Anerkennung und der Tendenz einer zu starken Beanspruchung geprägt, sie werden als Wertemuster „Wohlstand hart erarbeiten“ bzw. „Balance zwischen Arbeit und Leben finden“ bezeichnet. Drei weitere Gruppen betonen demgegenüber postmaterialistische Dimensionen der Arbeit in pointierter Weise: 11 % der Befragten wollen engagiert Höchstleistung erzielen, 10 % sich in der Arbeit selbst verwirklichen mit einer starken Tendenz zur Individualisierung und für rd. 8 % der Befragten ist es wichtig, in einer starken Solidargemeinschaft zu arbeiten, wobei die Kollegialität als zentral eingeschätzt wird. Eine letzte Gruppe mit 12 % der Befragten kann die eigenen Sinndimensionen nicht mit der Arbeitswelt verbinden („Sinn außerhalb der Arbeit suchen“), sie sind von einem Gefühl der Verschlechterung in der Arbeitswelt geprägt und verstehen sich daher so, ihren individuellen Lebenssinn außerhalb der Arbeit zu suchen. Im Blick auf die Einschätzung zukünftiger Entwicklungen ist es aufschlussreich, wie die Befragten der „pluralen Arbeitswelten“ den Einfluss der Digitalisierung auf ihre Lebens- und Arbeitswirklichkeit bewerten. Eine Mehrheit erwartet durchaus positive Entwicklungen, lediglich die Gruppe „den Sinn außerhalb der Arbeit suchen“ und die relativ große Gruppe „möglichst sorgenfrei arbeiten“ befürchten negative Auswirkungen. Insgesamt erwarten die Befragten für das Jahr 2030 eine deutlich gesteigerte Effizienz und Geschwindigkeit in der Arbeitswelt, die durchaus Möglichkeiten der Kreativität und Selbstbestimmung verstärkt. Auf der anderen Seite befürchten sie einen höheren Arbeitsdruck und zunehmend eine Arbeitswelt mit einer schwächer ausgeprägten Solidarität. Erstaunlich ist, dass insgesamt positive Zukunftserwartungen im Blick auf die Arbeitswelt von einer Mehrzahl der Befragten geäußert werden. Sogar 50 % der Befragten hoffen, dass sich die Arbeitswelt im Jahr 2030 nahe an ihrem Idealbild entwickelt haben wird. b) Sozialethische Perspektive der digitalen Arbeitswelt Für die sozialethische Beurteilung ist es wesentlich zu untersuchen, wie sich die erwartbaren Entwicklungen des digitalen Wandels auf die grundlegenden Werte, wie sie die christliche Sozial- und Arbeitsethik vertritt, auswirken können. Im Blick auf den Wert der Solidarität lassen sich vorrangig die Risiken zukünftiger Entwicklungen beschreiben. Durch eine Verstärkung der Individualisierungstendenzen im Horizont der Entgrenzungen der Arbeit mit zunehmend flexibilisierten Arbeitsformen wird es immer weniger gemeinsame Lebenszeiten und -räume in der Arbeitswelt geben. Es besteht die Gefahr, dass dadurch die gleichsam naturwüchsige Solidarität, wie sie sich vor allem unter den Bedingungen der traditionellen Industriearbeit in den großen Massenbetrieben seit der vorletzten Jahrhundertwende herausgebildet hat, zunehmend erodiert. Hinzu kommen Prozesse der Entpersönlichung und Versachlichung von Entscheidungsabläufen, wenn eher Algorithmen als konkret ansprechbare

86

Traugott Jähnichen

Menschen für teilweise problematische Entscheidungen, die unmittelbar das Arbeitsklima beeinflussen, als zuständig deklariert werden. Auf der anderen Seite verbessert die digitale Vernetzung Möglichkeiten spontaner Verabredungen und Prozesse der Selbstorganisation. Insofern sind Solidarität bzw. die gemeinsame Verfolgung von Anliegen keinesfalls durch die modernen technischen Entwicklungen in Frage gestellt. Für eine humane und soziale Gestaltung der Arbeitswelt wird es in Zukunft darauf ankommen, den Gedanken der Solidarität in neuer Weise unter den Bedingungen von Arbeit 4.0 zu profilieren. Auch die Bereiche der sozialen Sicherheit und einer verlässlichen sozialpartnerschaftlichen Organisation des Arbeitsrechts sowie der geltenden Regelungsinstrumentarien in der Arbeitswelt sind durch die digitale Vernetzung unter Druck geraten. Neben der zunehmenden Polarisierung des Arbeitsmarktes ist es insbesondere die in hoher Weise geforderte Flexibilität hinsichtlich der Arbeitszeiten und -räume, aber auch die Flexibilität im Blick auf neue Geschäfts-, Produkt- oder Prozessabläufe, die einen dynamischen Wandel und damit tendenziell eine Infragestellung von sozialer Sicherheit in der Arbeitswelt bedeuten können. Da auf der anderen Seite dem Arbeitsmarkt aufgrund des demographischen Wandels in Zukunft eher weniger Arbeitskräfte zur Verfügung stehen, könnte das Problem der Sicherheit von Erwerbsarbeit unter der Voraussetzung einer Bildungsoffensive, die entsprechende Kompetenzen möglichst allen Jugendlichen und Beschäftigten zukommen lässt, bewältigt werden. Durch die tendenzielle Auflösung klassischer Betriebsstrukturen sind nicht zuletzt die in der alten Bundesrepublik eingespielten Formen der Sozialpartnerschaft und die darauf basierenden rechtlichen Ausgestaltungen der Arbeitswelt vor tiefgreifende Herausforderungen gestellt. Je weniger klassische Betriebsstrukturen in der Arbeitswelt zu finden sind, desto schwieriger werden die Verbände der Sozialparteien, Gewerkschaften und Arbeitgeberverbände, eine starke Regulierungsmacht in den entsprechenden Bereichen ausüben können. Die großen Chancen der modernen Entwicklung liegen sicherlich im Bereich der Zunahme von Selbstbestimmung der Beschäftigten. Die absehbaren Entwicklungen zeigen, dass vermehrte Handlungsspielräume und neue Formen der Autonomie in der Erwerbsarbeit deutlich gefördert werden. Dies bringt eine hohe Zunahme an Verantwortung und auch an Komplexität des Handelns mit sich, die, nach Bildungsabschlüssen und zum Teil auch nach Alter variierend, von Beschäftigten als positive Herausforderung, teilweise aber als drohende Gefahr interpretiert werden. Insgesamt kommt es darauf an, eine Kultur der Selbstbestimmung, die gleichzeitig deren Grenzen thematisiert, zu entwickeln. Daher erfordert der gegenwärtige, technisch induzierte Gestalt- und Kulturwandel der Arbeitswelt durch den Einsatz von KI-Systemen insbesondere eine neue Bildungsoffensive, welche lernförderliche, kooperative und insbesondere partizipative Formen der Arbeitsplatzgestaltung und entsprechende Formen der Aus- und Weiterbildung ermöglicht. Die vielfältigen Chancen der digitalen Vernetzung lassen sich vor allem dann nutzen, wenn entspre-

Diversifizierung der Arbeitswelten durch den Einsatz von KI

87

chende Kompetenzen – technische sowie wesentlich soziale und kommunikative Kompetenzen – den Beschäftigten vermittelt werden. Neben dieser Bildungsaufgabe in einem umfassenden Sinn kommt es darauf an, Menschen nicht allein zur Selbstbestimmung, sondern auch zur Solidarität zu befähigen und ihnen ein ausreichendes Maß an sozialer Sicherheit und an Teilhabe zu gewährleisten. Dementsprechend sind die Leitbilder der christlichen Arbeitsethik nach wie vor grundlegend und es kommt darauf an, die durch den digitalen Wandel vollzogenen Innovationen sozial und menschengerecht einzubetten. Literatur Breitenbach, Günter: Digitalisierung in der Sozialwirtschaft – Eine Skizze, Rummelsberg 2017. Dengler, Katharina/Matthes, Britta: Aktuelle Berichte Auswirkungen der Digitalisierung auf die Arbeitswelt: Substituierbarkeitspotenziale nach Geschlecht, IAB-Aktuelle Berichte Nr. 24/16 (2016). Geiger, Niels/Prettner, Klaus/Schwarzer, Johannes A.: Die Auswirkungen der Automatisierung auf Wachstum, Beschäftigung und Ungleichheit, in: Perspektiven der Wirtschaftspolitik 19. Jg. (2018), S. 59 – 77. Gräb-Schmidt, Elisabeth/Stritzelberger, Christian F.: Ethische Herausforderungen durch autonome Systeme und Robotik im Bereich der Pflege, in: Zeitschrift für Medizinische Ethik 64 Jg. (2018), S. 357 – 372. Jähnichen, Traugott/Wiemeyer, Joachim: Wirtschaftsethik 4.0, Stuttgart 2020. Meireis, Torsten: Digitalisierung und Wirtschaft 4.0 – Herausforderungen für eine Ethik der Arbeit, in: Zeitschrift für Evangelische Ethik 61 Jg. (H.3/2017), Gütersloh, S. 222 – 238. Ramge, Thomas: Mensch fragt, Maschine antwortet. Wie Künstliche Intelligenz Wirtschaft, Arbeit und unser Leben verändert, in: APuZ 68 Jg. Heft 6 – 8, Bonn 2018, S. 15 – 21. Rat der EKD: Solidarität und Selbstbestimmung – Eine Denkschrift des Rates der EKD zu Arbeit, Gewerkschaften und Sozialpartnerschaften, Gütersloh 2015. Rat der EKD/DBK (2014): Gemeinsame Verantwortung für eine gerechte Gesellschaft – Initiative des Rates der EKD und der DBK für eine erneuerte Wirtschafts- und Sozialordnung, Hannover/Bonn 2014. Tornau, Joachim F.: Neue Kultur in den Ausbildungswerkstätten, in: Mitbestimmung. Das Magazin der Hans-Böckler-Stiftung (H.1/2016), Frankfurt a. M., S. 15 – 17. Wilhelms, Günter: Wie die Digitalisierung das Verhältnis des Menschen zu seiner Arbeit verändert – Versuch einer Kritik, in: Amosinternational 12 Jg. (H.1/2018), S. 3 – 9.

Corporate Digital Responsibility: Unternehmensverantwortung neu denken am Beispiel von Künstlicher Intelligenz Von Nick Lin-Hi und Luca Haensse

I. Einleitung Digitalisierung und neue Technologien werden zu tiefgreifenden Änderungen in nahezu allen Wirtschafts- und Lebensbereichen führen.1 Die damit verbundenen Auswirkungen bieten auf der einen Seite ganz neue Möglichkeiten für wirtschaftliche und soziale Interaktionen, auf der anderen Seite stellen sie Wirtschaft und Gesellschaft aber auch vor ganz neue Herausforderungen. Vor dem Hintergrund, dass mit der Digitalisierung sowohl Chancen als auch Risiken verbunden sind, wird es zu einer gesellschaftlichen Aufgabe, den anstehenden Wandel positiv zu gestalten. Die Gestaltung der (digitalen) Zukunft ist dabei nicht nur eine politische Aufgabe, sondern fällt auch in den Verantwortungsbereich von Unternehmen. Als allgemeiner Rahmen hierfür kann auf die Diskussion zu Corporate Social Responsibility (CSR) zurückgegriffen werden2. Ausgehend von einem allgemeinen CSR-Verständnis3 kann in dieser Hinsicht die Aufgabe von Unternehmen darin verortet werden, positive Effekte der Digitalisierung für die Gesellschaft zu stärken und negative Effekte zu reduzieren. Um die Spezifika einer Verantwortung von Unternehmen im Kontext Digitalisierung herauszustellen, sei der Begriff Corporate Digital Responsibility (CDR) genutzt, welcher zunehmend im praktischen Diskurs zu finden ist4 und zudem in ersten wissenschaftlichen Publikationen auftaucht5. Der vorliegende Beitrag ist darauf ausgerichtet, die grundlegende Relevanz von CDR herauszuarbeiten sowie erste Orientierungspunkte für deren Konkretisierung zu liefern. Hierfür wird im nächsten Schritt mit Bezug auf Merkmale der Digitalisierung begründet, warum es überhaupt eines spezifischen CDR-Konzepts bedarf. Am Beispiel künstlicher Intelligenz (KI) werden diese Überlegungen dann an einem konkreten Handlungsfeld illustriert. Dies bildet die Grundlage, um Implikationen für 1

Vgl. Kenney/Rouvinen/Zysman (2015); Loebbecke/Picot (2015). Vgl. Grigore/Molesworth/Watkins (2017). 3 Siehe etwa Carroll (1979). 4 Siehe etwa Esselmann/Brink (2016); Jänig/Mühlner (2016). , 5 Siehe etwa Lobschat et al. (2020); Orbik/Zozulaková (2019); Pfeifer/Wulf (2019). 2

90

Nick Lin-Hi und Luca Haensse

CDR als regulative Idee zu skizzieren. Der Beitrag endet mit einer Schlussbemerkung.

II. Digitalisierung und Verantwortung Grundsätzlich stellt sich die Frage, ob es sinnvoll ist, einen neuen Begriff einzuführen oder ob dies nicht vielmehr dazu führt, die terminologisch ohnehin überladene Diskussion an der Schnittstelle zwischen Wirtschaft und Gesellschaft in unproduktiver Weise weiter zu zerfasern. Dem kann jedoch entgegengehalten werden, dass das Phänomen Digitalisierung über zwei konstitutive Merkmale verfügt, welche das Konzept Verantwortung in der bisherigen Form an Grenzen bringen. Zu diesen Merkmalen gehören 1. die Hervorbringung von disruptiven Technologien und 2. die massive Beschleunigung von Veränderungen. Beide Phänomene bedingen eine erhebliche Zunahme von Unsicherheiten. Zu 1.: Stand heute wird davon ausgegangen, dass Digitalisierung zu diversen disruptiven Veränderungen in Wirtschaft und Gesellschaft führen wird6. Disruptionen lassen sich verstehen als eine sprunghafte Entwicklung von etwas radikal Neuem, was zugleich Bestehendes entwertet. Im Kontext der Digitalisierung werden insbesondere Veränderungen in Abläufen und Interaktionen disruptive Effekte zugeschrieben, welche u. a. durch die Vernetzung von Menschen, Maschinen und Produkten ausgelöst werden, infolgedessen intelligente und selbststeuernde Systeme entstehen7. Beispiele für disruptive Technologien sind etwa 3D-Druck, Computer-Gehirn-Schnittstellen, Elektroautos, Kryptowährungen und veganes Fleisch. Da Disruptionen der Logik der „schöpferischen Zerstörung“8 folgen, wird Digitalisierung auf der einen Seite gänzlich neue Geschäftsmodelle und Geschäftsfelder ermöglichen9, auf der anderen Seite aber zur Transformation bzw. dem Niedergang von etablierten Industrien und Tätigkeiten führen10. Die Heftigkeit des zu erwartenden Wandels spiegelt sich etwa darin wider, dass bisweilen prognostiziert wird, dass der Großteil der heutigen Schulkinder später in Berufen arbeiten werden, welche heute noch nicht bekannt sind11. Angesichts dessen wird plausibel, warum im Zuge der Digitalisierung von einer neuen (vierten) industriellen Revolution gesprochen wird12. Der disruptive Charakter der Digitalisierung und die damit einhergehende Firmierung von neuen wirtschaftlichen und gesellschaftlichen Phänomenen bringen das 6

Vgl. Kenney et al. (2015); Loebbecke/Picot (2015); Russo (2018). Vgl. Gulliksen (2017); Monostori (2014); Schirner/Erdogmus/Chowdhury/Padir (2013). 8 Schumpeter (1942/2005). 9 Vgl. Berman (2012). 10 Vgl. Andal-Ancion/Cartwright/Yip (2003). 11 Vgl. etwa Institut for the Future (2018). 12 Vgl. Kenney et al. (2015); Ruppert/Jaskó/Holczinger/Abonyi (2018).

7

Corporate Digital Responsibility

91

normative Konzept CSR nicht nur an Grenzen, sondern CSR kann in diesem Kontext gar kontraproduktive Wirkung entfalten. Im Kern kann das Problem darin verortet werden, dass CSR auf bekannten Strukturen basiert, welche vermutlich nicht mit der zukünftigen Realität identisch sein werden. Anders formuliert verändern sich empirische Bedingungen, welche wiederum eine dezidierte Reflexion der neuen Situation erfordern, da anderenfalls problematische (normative) Handlungsempfehlungen drohen13. Ein Diskurs zur Verantwortung von Unternehmen unter dem Konzept CSR leistet somit der Idee Vorschub, mit bekannten Lösungsstrategien neue Herausforderungen zu greifen. Hingegen kann der neue Begriff CDR dazu genutzt werden, um dezidiert eine (normative) Reflexion über veränderte Handlungsbedingungen und Handlungsmöglichkeiten anzustoßen. Zu 2.: Seit ihren Anfängen in den 1940er Jahren verzeichnet die computerbasierte Technologie eine kontinuierliche Leistungssteigerung. Letztere weist eine exponentielle Entwicklung auf, welche bis heute weitestgehend dem Mooreschen Gesetz14 folgt. Dem Mooreschen Gesetz zufolge verdoppelt sich die Anzahl der Transistoren in einem integrierten Schaltkreis festgelegter Größe etwa alle zwölf bis 24 Monate. Hieraus resultiert eine enorme Leistungsexplosion, welche sich etwa darin zeigt, dass technische Alltagsgeräte heute, etwa Smartphones und Spielekonsolen, über Millionen mal mehr Rechenleistung verfügen als Supercomputer aus den 70er Jahren. Mit der im September 2019 von Google demonstrierten Quantenüberlegenheit von Quantencomputern gegenüber heutigen Supercomputern15 wurde die Basis für eine weitere Beschleunigung der Leistungssteigerung gelegt, wobei hier die Möglichkeit einer doppelt exponentiellen Entwicklung, auch als Nevens Gesetz bezeichnet, in Betracht gezogen wird. Digitalisierung steht somit für den schnellsten Wandel, der jemals in der Menschheitsgeschichte stattgefunden hat. Die exponentielle Leistungssteigerung im Computerbereich ist ein Treiber für Disruptionen und den mit diesen einhergehenden enormen Auswirkungen auf Wirtschaft und Gesellschaft16. Hinzu kommt, dass aufgrund der Logik von exponentieller Entwicklung davon auszugehen ist, dass die Anzahl an Disruptionen je Zeitperiode kontinuierlich steigt. Eben dies kann als Beschleunigung von Veränderungen bezeichnet werden. Diese Beschleunigung bringt es mit sich, dass die zur Verfügung stehende Zeit für einzelne durch Disruptionen notwendige Anpassungsprozesse stetig kleiner wird. In Verbindung mit dem zuvor genannten Argument, dass es aufgrund der mit Disruptionen einhergehenden Veränderung von empirischen Bedingungen (normativer) Reflexionsprozesse zur Adaption von Verantwortungskonzepten bedarf, kann hieraus schnell eine (normative) Überforderung der Gesellschaft erwachsen.

13

Siehe hierzu auch allgemein Lin-Hi (2009); Suchanek (2000). Siehe hierzu Moore (1965). 15 Vgl. Arute et al. (2019). 16 Vgl. Lobschat et al. (2020).

14

92

Nick Lin-Hi und Luca Haensse

Die nachfolgenden Ausführungen zu KI illustrieren die Implikationen der hier skizzierten Merkmale der Digitalisierung für das Konzept Verantwortung.

III. Normative Implikationen von Künstlicher Intelligenz Innerhalb weniger Jahrzehnte hat eine Entwicklung von einfachen Rechenoperationen hin zu Algorithmen stattgefunden, welche eigenständig Autofahren und Schachgroßmeister schlagen können. KI kann definiert werden als die Wissenschaft und Konstruktionsaufgabe, menschliche Intelligenz durch künstliche Mittel zu imitieren, erweitern und zu verbessern und intelligente Maschinen zu entwickeln17. Die KI-Entwicklung hat gerade in jüngerer Zeit durch Technologien wie Deep Learning und Reinforcement Learning eine massive Beschleunigung erfahren18, was sich beispielsweise in substantiellen Fortschritten in Bildmuster- und Spracherkennung niederschlägt19. KI kann auf der einen Seite als eine digitale Disruption bezeichnet werden20, auf der anderen Seite bringt sie selbst wieder neue Disruptionen hervor21. Als sogenannte General-Purpose-Technology kann KI verschiedenste Industrien in ihren Kernprozessen transformieren22. Das Handlungsfeld KI weist somit die Merkmale der Disruption sowie von Beschleunigung auf, was es gewissermaßen prädestiniert, um die Bedeutung einer eigenständigen CDR-Diskussion herauszuarbeiten. Der Kern der KI-Revolution ist das Potential künstlicher Intelligenz, nahezu alle mentalen Aufgaben zu übernehmen, die momentan von Menschen ausgeübt werden23. Es ist durchaus denkbar, dass KI langfristig nicht nur in speziellen Domänen agiert, sondern eine generelle KI entsteht, welche menschlicher Intelligenz mindestens ebenbürtig ist und über eine große Anzahl Kontexte hinweg funktioniert24. So kommt eine von der Universität Oxford durchgeführte Umfrage zu dem Ergebnis, dass eine Mehrheit von KI-Experten eine mehr als 90 %ige Chance sieht, dass Maschinen bis zum Jahr 2075 menschliches Denken simulieren können25. Uneinig sind sich die Experten indes, welche Konsequenzen eine dem Menschen überlegene Superintelligenz für die Menschen hätte: Knapp die Hälfte der Experten (52 %) prognostizieren gute oder sehr gute Konsequenzen für die Menschheit, während knapp ein Drittel (30 %) schlechte oder sehr schlechte Konsequenzen vorhersagt.

17

Vgl. Shi (2011). Vgl. Brynjolfsson/McAfee (2017). 19 Siehe etwa Gu et al. (2018); Wei/Landai (2018). 20 Vgl. Dinh/Thai (2018). 21 Vgl. Tushar et al. (2018). 22 Vgl. Brynjolfsson/McAfee (2017). 23 Vgl. Makridakis (2017). 24 Vgl. Bostrom/Yudkowsky (2014). 25 Vgl. Müller/Bostrom (2016). 18

Corporate Digital Responsibility

93

Eine für das Konzept Verantwortung relevante Neuerung resultiert nun daher, dass KI eine entscheidungsfähige Instanz26 darstellt. Dies bedeutet, dass Entscheidungen nicht mehr von Menschen getroffen werden, sondern von Algorithmen. Ein klassisches Beispiel hierfür ist das autonom fahrende Auto im Trolley-Dilemma27: Wie entscheidet sich die KI im Auto im Falle eines nicht mehr vermeidbaren Unfalls, welcher entweder Person A oder Person B schwerwiegenden Schaden zufügen wird? Während beim klassischen Trolley-Dilemma ein Mensch eine Entscheidung treffen muss, die in Leben oder Tod resultieren kann, erfolgt diese Entscheidung nun durch eine KI. Übertragen auf die typische Verantwortungsrelation, dergemäß ein Subjekt A für ein Objekt X aufgrund von Y zuständig ist bzw. sein soll28, impliziert dies, dass die KI zum Verantwortungssubjekt wird. Indes erscheint in dieser einfachen Relation eine Verantwortungszuweisung an die KI wenig sinnvoll, da selbige nicht zur Verantwortung gezogen werden kann bzw. die Verantwortungszuweisung wirkungslos bleibt. Hinzu kommt, dass eine KI alle Entscheidungen gebunden an ihre Programmierung trifft, infolgedessen sie gerade nicht über Handlungsfreiheit verfügt. Indes gehört es zu den konstitutiven Merkmalen einer gehaltvollen Verantwortungszuschreibung, dass die entsprechenden Subjekte eben über jene verfügen29. Ein weiteres Problem bei der Adaption des Verantwortungskonzepts auf KI resultiert aus ihrer Unabhängigkeit von der einsetzenden Institution. Eine KI kann Entscheidungen treffen, die nicht vom Unternehmen intendiert waren, aber moralische Relevanz für Stakeholder haben. Als Beispiel sei auf Algorithmen verwiesen, welche in der Personalauswahl eingesetzt wurden und dort diskriminierend auswählten30. Zudem gleichen KI-Technologien in Bezug auf transparentes Entscheidungsverhalten mitunter einer „Black-Box“31, womit gemeint ist, dass im Nachhinein nur schwer erklärbar ist, warum ein bestimmter Input zu einer bestimmten Entscheidung geführt hat. Aufgrund mangelnder Transparenz und Vorhersagbarkeit sind Probleme für Verantwortungszuweisungen zu erwarten, wenn eine moralisch fragwürdige KI-Entscheidung nicht vom Unternehmen intendiert war. In diesem Zusammenhang kann etwa auf empirische Befunde verwiesen werden, dass Menschen dazu tendieren, die KI selbst und nicht ihre Entwickler moralisch für Fehlverhalten verantwortlich zu halten32. Hieraus drohen Verantwortungsdiffusionen. Letzteres gilt umso mehr aufgrund des „many hands“-Problems33, da oftmals eine Vielzahl an Akteuren an der Entwicklung digitaler Technologien wie KI beteiligt sind – man denke hier beispielsweise an Open Source Programme. 26

Siehe etwa Russell/Norvig/Canny/Malik/Edwards (1995). Siehe etwa Bonnefon/Shariff/Rahwan (2016). 28 Vgl. etwa Bayertz (1995). 29 Vgl. Lin-Hi (2009). 30 Vgl. Hajian/Bonchi/Castillo (2016). 31 Vgl. Castelvecchi (2016); Gilpin et al. (2018). 32 Vgl. Shank/DeSanti (2018). 33 Siehe hierzu Nissenbaum (1994).

27

94

Nick Lin-Hi und Luca Haensse

Mit der exponentiellen Leistungssteigerung von Computern ist verbunden, dass auch komplexe KI-Technologien zunehmend flexibler eingesetzt werden können. Letzteres wiederum bedingt, dass sich die Handlungsfelder von KI mit hoher Geschwindigkeit erweitern. Prognosen sagen voraus, dass sich der mit KI generierte Umsatz im Zeitraum 2018 – 2025 mehr als verzehnfachen wird34. Als General-Purpose-Technology fungiert KI als Inkubator für Disruptionen in ganz unterschiedlichen Bereichen. Zu den heute bereits bekannten Einsatzfeldern gehört etwa der Gesundheitsbereich, in welchem KI ganz neue Möglichkeiten für Diagnosen und Therapie eröffnet35. Zudem zählt KI zu den Schlüsseltechnologien für das Gelingen der Energiewende, da sie einen dezentralen Netzbetrieb möglich macht36. Hinzu kommt der Bereich Predictive Analytics, welcher Handlungsfelder wie Logistik, Handel und innere Sicherheit grundlegend transformieren wird37. Da KI grundsätzlich flexibel eingesetzt werden kann, lässt sich ex ante nicht sagen, wo und unter welchen Bedingungen positive oder negative Effekte für die Gesellschaft erzeugt werden. KI – ebenso wie andere disruptive Technologien – ist damit normativ kontingent. Einfach formuliert kann eine KI sowohl Musik als auch persönliche Daten verkaufen. KI kann genutzt werden, um die Einhaltung von Menschenrechten in Lieferketten abzusichern, aber ebenso auch dafür, Menschen permanent zu überwachen und zu kontrollieren. Diese Beispiele machen deutlich, dass KI konzeptuelle Verwerfungen auslösen kann. Damit ist gemeint, dass aufgrund der inhärenten Formbarkeit von Computertechnologie regelmäßig zunächst unklar bleibt, welche konzeptuelle Bedeutung einer bestimmten Technologie zukommt38. Aufgrund konzeptueller Verwerfungen ist jedes Handlungsfeld von KI einzeln in den Blick zu nehmen, um die spezifischen Verantwortungsimplikationen abzuleiten. Letzteres stößt indes bereits vor dem Hintergrund des zu erwartenden rapiden Anstiegs an Einsatzmöglichkeiten bei gleichzeitig begrenzt verfügbaren (Reflexions-)Ressourcen an Grenzen.

IV. Das Konzept CDR Im Mittelpunkt von CDR steht die Idee, dass Unternehmen darauf hinwirken, positive Effekte der Digitalisierung für die Gesellschaft zu stärken und negative Effekte zu reduzieren. Anders formuliert adressiert CDR die Verantwortung von Unternehmen, die Digitalisierung in der Praxis vor dem Hintergrund von Chancen und Risiken gezielt zu gestalten. Eine grundlegende Herausforderung hierbei resultiert aus den spezifischen Merkmalen der Digitalisierung in Form von disruptiven Veränderungen 34

Vgl. Tractica (2019). Vgl. Dilsizian/Siegel (2014). 36 Vgl. Vale/Morais/Khodr (2010). 37 Vgl. Waller/Fawcett (2013). 38 Vgl. Moor (1985).

35

Corporate Digital Responsibility

95

und der Beschleunigung von Veränderungen. Das Bespiel KI hat gezeigt, dass eben diese Merkmale etablierte Verantwortungskonzepte an ihre Grenzen bringen. Letztendlich spiegelt sich hierin wider, was bereits Jonas konstatierte: „neuartige Vermögen des Handelns [erfordern; die Verf.] neue Regeln der Ethik und vielleicht sogar eine neuartige Ethik“ (1979/2003, S. 58). Generell wird es im Zeitalter der Digitalisierung schwieriger, ethische Konsequenzen unternehmerischer Handlungsakte a priori zu bestimmen. Unternehmen agieren immer mehr digital und realisieren hierüber gesellschaftliche Auswirkungen. Im Rahmen der Informationsethik wird von einer Re-Ontologisierung der Wirklichkeit gesprochen39, bei der Objekte und Prozesse in ihrer Essenz zunehmend dephysikalisiert und kopierbar werden. Als Resultat entsteht Unsicherheit über ethische Konsequenzen digitalen Agierens, zumal digitale Technologien eine grundlegende Formbarkeit vorweisen, woraus sich unvorhergesehen moralische Dynamiken entwickeln können. Letzteres bedingt es, dass Digitalisierung allgemein normativ kontingent ist. Die normative Kontingenz der Digitalisierung führt dazu, dass es schwer möglich ist, bestehende normative Strukturen und Konzepte einfach anzuwenden. Entsprechend laufen Konzepte wie der Kategorische Imperativ – „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“ (Kant 1785/1968, S. 421) – ins Leere, da eine Allgemeingültigkeit in der digitalen Welt nicht mehr möglich ist. Hinzu kommt, dass eine Fokussierung auf das „Wollen“ im digitalen Zeitalter unterkomplex und gar gefährlich ist, da sie davon entlastet, sich mit Folgen auseinanderzusetzen. Aber auch eine konsequentialistische Ethik stößt in der digitalen Welt an Grenzen, da selbige hinreichendes Wissen über Handlungsfolgen voraussetzt, welches indes aufgrund der Kontingenz von Digitalisierungsfolgen nicht mehr existiert. Angemerkt sei, dass das an anderer Stelle gerne geforderte Vorsichtsprinzip40 nicht zielführend ist, da selbiges zwar auf die Reduzierung von Risiken und damit negativen Effekten abzielt, hierfür aber die Ergreifung von Chancen, und damit die Schaffung von positiven Effekten, opfert.41 Letzteres ist problematisch, da angesichts der Schwere gesellschaftlicher Herausforderungen in Verbindung mit einem sich schließenden Zeitfenster zur Handhabung selbiger – erinnert sei hier etwa an die Begrenzung des Klimawandels – digitale Innovationen möglicherweise neue Lösungswege eröffnen und eventuell sogar die einzige Möglichkeit darstellen, die Erde als Lebensgrundlage zur erhalten42. Zudem sei an dieser Stelle daran erinnert, dass unsere aktuellen Konsum- und Produktionsmuster nur dann das Kriterium der Nachhaltigkeit erfüllen können, wenn selbige in der schwa39

Vgl. Floridi (2013). Siehe etwa Som/Hilty/Köhler (2009). 41 Es ließe sich jedoch argumentieren, dass es Teil des Vorsichtsprinzips ist, auch beim Auslassen von Chancen entsprechende Vorsicht vor den damit verbundenen Konsequenzen walten zu lassen. Hiermit verbunden ist der Gedanke, dass Verantwortlichkeiten nicht nur für Handlungen, sondern auch für Unterlassungen bestehen. 42 Siehe hierzu auch Ganju/Pavlou/Banker (2015); Gulliksen (2017). 40

96

Nick Lin-Hi und Luca Haensse

chen Form definiert wird43. Der einer schwachen Nachhaltigkeit inhärente Technikoptimismus verlangt damit gewissermaßen, dass die Chancen der Digitalisierung zu ergreifen sind. Um die Chancen und Risiken der Digitalisierung besser handhaben zu können, bedarf es eines spezifischen unternehmerischen Verantwortungskonzepts in Form von CDR. Die Bedeutung eines eigenständigen Konzepts CDR tritt auch vor dem Hintergrund der aktuellen CSR-Diskussion zutage. Obgleich immer wieder betont wird, dass CSR eine normative Dimension hat44, ist die Forschung in diesem Bereich stark instrumentell ausgerichtet45. Deutlich spiegelt sich dies darin wider, dass die Frage nach dem Business Case den Diskurs seit Jahren dominiert46. Neben Abhandlungen zum Zusammenhang zwischen CSR und Unternehmenserfolg47 finden sich diverse Beiträge, welche die Effekte von Verantwortungsübernahme auf vorökonomische Größen wie Mitarbeiterzufriedenheit48, Arbeitgeberattraktivität49, Unternehmensreputation50 oder Kundenloyalität51 in den Blick nehmen. Die heutige, vor allem im betriebswirtschaftlichen Bereich existierende CSR-Forschung ist dabei stark durch ein empirisch-quantitatives Paradigma geprägt, im Rahmen dessen UrsacheWirkungs-Zusammenhängen untersucht werden. Eben damit liegt der Forschungsfokus auf beobachtbaren und quantifizierbaren Größen, infolgedessen ein retrospektives Paradigma den Rahmen definiert. Indes impliziert Digitalisierung, wie zuvor zunächst allgemein beschrieben und anschließend am Beispiel KI illustriert, sowohl die Entstehung von disruptiven Technologien als auch eine massive Beschleunigung von Veränderungen. Beide Phänomene bedingen eine erhebliche Zunahme von Unsicherheiten, infolgedessen eine kausal-ausgerichtete Forschung zur Verantwortung von Unternehmen wenig dazu beitragen kann, Orientierungspunkte für das Management von Chancen und Risiken der Digitalisierung zu generieren. Damit Orientierungspunkte generiert werden können, ist somit ein prospektives Paradigma notwendig, bei dem keine Ursache-Wirkungs-Zusammenhänge adressiert werden, sondern im Sinne einer regulativen Idee abstrakte Zielzustände. Der Fokus auf Zielzustände ist indes nicht so zu verstehen, dass zukünftige Chancen und Risiken von Technologien zwecks Ableitung von Verantwortungsempfehlungen antizipiert werden. Eine solche Antizipationsleistung würde aufgrund normativer Kontingenzen und der Schwierigkeit bzw. Unmöglichkeit eine nicht-triviale 43

Zur schwachen Nachhaltigkeit siehe etwa Ott/Döring (2008). Vgl. etwa Jones/Wicks (1999); Maignan/Ferrell (2004). 45 Vgl. Vogel (2007). 46 Vgl. Blumberg/Lin-Hi (2015). 47 Siehe etwa Margolis/Elfenbein/Walsh (2007). 48 Vgl. Valentine/Fleischman (2008). 49 Vgl. Albinger/Freeman (2000). 50 Vgl. Minor/Morgan (2011). 51 Vgl. Martinez/del Bosque (2013).

44

Corporate Digital Responsibility

97

Zukunft vorherzusehen schnell an Grenzen kommen52. Vielmehr gilt es, anhand flexibler Leitplanken zu denken. Auf ganz allgemeiner Ebene haben diese Leitplanken die Funktion, eine gesellschaftliche Offenheit für Digitalisierung und den damit verbundenen Veränderungen zu schaffen. Letzteres hat eine übergeordnete Relevanz, da es anderenfalls schwierig ist, Digitalisierung als Gestaltungsaufgabe zu denken. In diesem Kontext kann mit Rückgriff auf eine sozio-technische Logik53 Einstellungen von Menschen gegenüber neuen Technologien eine zentrale Rolle zugeschrieben werden. Die sozio-technische Perspektive stellt heraus, dass der Erfolg von neuen Technologien nicht nur eine technologische Dimension hat, sondern ebenso eine soziale. Einfach formuliert benötigt sowohl das technische als auch das soziale System das jeweils andere, um einen Input in einen Output zu transformieren54. Hieraus erwächst der Ansatz einer „joint optimization“, welche auf die Interdependenz beider Dimensionen anspielt, so dass nur eine gleichzeitige Optimierung beider Systeme Wiedersprüche abfangen und Komplementaritäten realisieren kann. Aus der sozio-technischen Perspektive lässt sich ableiten, dass CDR eine Empfänglichkeit für die Wahrnehmung von Technologie und deren soziale Auswirkungen bewahrt. So können Wahrnehmungsfaktoren wie Technologieakzeptanz oder Vertrauen in Technologie Orientierungspunkte für CDR bilden, da diese mit Diskrepanzen und Synergien bei der Entwicklung beider Systeme einhergehen. Einstellungen wie Technologieakzeptanz oder Vertrauen setzen voraus, dass Unternehmen permanent danach streben, Digitalisierung in den Dienst gesellschaftlicher Interessen zu stellen, d. h. ihre positiven Effekte maximieren und ihre negativen Effekte minimieren. Dieses Streben ist dabei gleichfalls permanent nachzuweisen, was etwa impliziert, dass Unternehmen laufend ihre Prozesse und Evaluationsmethoden anpassen, um Auswirkungen von Technologien frühzeitig zwecks Steuerungsmöglichkeiten erfassen zu können. Ebenfalls impliziert dies die Notwendigkeit einer gesteigerten Transparenz, welche zudem über die damit verbesserten Kontrollmöglichkeiten als individueller Selbstbindungsmechanismus fungiert. Hinzu kommt, dass Transparenz sich positiv für den Aufbau und Erhalt von Vertrauen auswirken kann55. Für die Verbesserung von Transparenz können Unternehmen gezielt neue Technologien, wie etwa Distributed-Ledger-Technologien, einsetzen56. Auch kann Transparenz dadurch erzeugt werden, dass Stakeholder in die Entwicklung einer Technologie miteinbezogen werden57. Schließlich kann ein Link zur Transparenz von digitalen Technologien selbst gezogen werden. Transparente Technologien können nor52

Vgl. Nordmann (2014). Siehe hierzu Fox (1995); Trist (1981). 54 Vgl. Trist (1981). 55 Vgl. Albu/Flyverborn (2019); Schnackenberg/Tomlinson (2016). 56 Vgl. Francisco/Swanson (2018). 57 Vgl. etwa Stilgoe/Owen/Macnaghten (2013); von Schomberg (2013). 53

98

Nick Lin-Hi und Luca Haensse

mative Kontingenzen leichter aufschlüsseln, da sie die Ursachen für resultierende moralische Konsequenzen sichtbar machen. Gleichzeitig machen transparente und offene Technologien wie Open-Source-Programme einen konstruktiven Dialog zwischen Stakeholdern und partizipative Gestaltungsprozesse möglich, welche sich an Technologieakzeptanz orientieren.

V. Schlussbemerkung Der vorliegende Beitrag liefert erste Überlegungen, wie das Konzept Verantwortung vor einer Erodierung durch die mit der Digitalisierung einhergehenden Beschleunigungs- und Disruptionsprozesse bewahrt und für ein wertschaffendes Zusammenspiel von Wirtschaft und Gesellschaft fruchtbar gemacht werden kann. Im Mittelpunkt hierbei steht das Plädoyer für eine prospektive Konzeption von CDR als regulative Idee. Hierdurch soll es ermöglicht werden, technische Entwicklungen im Dienste der Gesellschaft anhand bestimmter Leitplanken voranzutreiben, ohne dass Unternehmen die normativen Konsequenzen der technischen Entwicklung selbst vorhersagen müssen. Durch die Ausrichtung von CDR auf Technologieakzeptanz wird Transparenz zu einem zentralen Faktor, wobei selbigem sinnvollerweise ein Diskurselement zur Seite gestellt wird. Die Verknüpfung von Transparenz und Diskurs schafft einen Raum, um (normative) Erwartungen an Technologien sichtbar zu machen sowie grundlegende Vorstellungen über das moralisch Wünschenswerte an sich zu reflektieren. Hierdurch wird eine Empfänglichkeit des technischen Systems gegenüber den Erwartungen des sozialen Systems befördert, um einen gemeinsamen Entwicklungspfad zu ebnen. Für Unternehmen besteht nun die Herausforderung darin, zeitnah die notwendigen Strukturen und Kompetenzen aufzubauen, um die hier zugewiesenen Verantwortlichkeiten ausfüllen zu können. Vor dem Hintergrund der rasanten Technologieentwicklung erscheint es wichtig, dass Unternehmen sich sehr zeitnah mit ihrer Rolle im Zeitalter des disruptiven Wandels beschäftigen und hierbei berücksichtigen, dass sie vermutlich vermehrt mit neuen Erwartungen und Anforderungen konfrontiert werden. Die neuen Anforderungen könnten auch beinhalten, dass Unternehmen in Zukunft selbst an der Weiterentwicklung von Moralvorstellungen im Diskurs mitwirken und damit eine neue Form von freiheitseröffnender Ordnungsverantwortung praktizieren. Indes wird ihnen dies – ebenso wie alles andere an der Schnittstelle zur Gesellschaft – nur dann möglich sein, wenn die Gesellschaft darin vertraut und vertrauen kann, dass sie danach streben, mit CDR gesellschaftliche Risiken zu reduzieren und die gesellschaftlichen Chancen bestmöglich zu ergreifen.

Corporate Digital Responsibility

99

Literatur Albinger, H. S./Freeman, S. J. (2000): Corporate social performance and attractiveness as an employer to different job seeking populations. Journal of Business Ethics, 28(3), 243 – 253. Albu, O. B./Flyverbom, M. (2019): Organizational transparency: Conceptualizations, conditions, and consequences. Business & Society, 58(2), 268 – 297. Andal-Ancion, A./Cartwright, P. A./Yip, G. S. (2003): The digital transformation of traditional business. MIT Sloan Management Review, 44(4), 34 – 41. Arute, F./Arya, K./Babbush, R./Bacon, D./Bardin, J. C./Barends, R./Burkett, B. (2019): Quantum supremacy using a programmable superconducting processor. Nature, 574(7779), 505 – 510. Bayertz, K. (1995): Eine kurze Geschichte der Herkunft der Verantwortung. In: ders. (Hrsg.), Verantwortung: Prinzip oder Problem? (S. 3 – 17). Darmstadt: Wissenschaftliche Buchgesellschaft. Berman, S. J. (2012): Digital transformation: opportunities to create new business models. Strategy & Leadership, 40(2), 16 – 24. Blumberg, I./Lin-Hi, N. (2015): Business case-driven management of CSR: Does managers’ „cherry picking“ behavior foster irresponsible business practices? Business and Professional Ethics Journal, 33(4), 321 – 350. Bonnefon, J. F./Shariff, A./Rahwan, I. (2016): The social dilemma of autonomous vehicles. Science, 352(6293), 1573 – 1576. Bostrom, N./Yudkowsky, E. (2014): The ethics of Artificial Intelligence. In: K. Frankish/W. Ramsey (Hrsg.), The Cambridge handbook of artificial intelligence (S. 316 – 336). Cambridge: Cambridge University Press. Brynjolfsson, E./Mcafee, A. (2017): The business of Artificial Intelligence: What it can – and cannot – do for your organization. Harvard Business Review Digital Articles, 7, 3 – 11. Abgerufen unter: https://hbr.org/cover-story/2017/07/the-business-of-artificial-intelligence (29. 12. 2019). Carroll, A. B. (1979): A three-dimensional conceptual model of corporate performance. Academy of Management Review, 4(4), 497 – 505. Castelvecchi, D. (2016): Can we open the black box of AI?. Nature News, 538(7623), 20 – 23. Dilsizian, S. E./Siegel, E. L. (2014): Artificial intelligence in medicine and cardiac imaging: harnessing big data and advanced computing to provide personalized medical diagnosis and treatment. Current Cardiology Reports, 16(1), 441. Dinh, T. N./Thai, M. T. (2018): Ai and blockchain: A disruptive integration. Computer, 51(9), 48 – 53. Esselmann, F./Brink, A. (2016): Corporate Digital Responsibility: Den digitalen Wandel von Unternehmen und Gesellschaft erfolgreich gestalten. Spektrum, 12(1), 38 – 41. Floridi, L. (2013): The ethics of information. Oxford: Oxford University Press. Fox, W. M. (1995): Sociotechnical system principles and guidelines: past and present. The Journal of Applied Behavioral Science, 31(1), 91 – 105.

100

Nick Lin-Hi und Luca Haensse

Francisco, K./Swanson, D. (2018): The supply chain has no clothes: Technology adoption of blockchain for supply chain transparency. Logistics, 2(1), 2. Ganju, K. K./Pavlou, P. A./Banker, R. D. (2016): Does Information and Communication Technology Lead to the WellBeing of Nations? A Country-Level Empirical Investigation. MIS Quarterly, 40(2), 417 – 430. Gilpin, L. H./Bau, D./Yuan, B. Z./Bajwa, A./Specter, M./Kagal, L. (2018): Explaining explanations: An approach to evaluating interpretability of machine learning. arXiv preprint arXiv:1806.00069. Grigore, G./Molesworth, M./Watkins, R. (2017): New corporate responsibilities in the digital economy. In: A. Theofilou/G. Grigore/A. Stancu (Hrsg.), Corporate Social Responsibility in the Post-Financial Crisis Era (S. 41 – 62). Cham: Palgrave Macmillan. Gu, J./Wang, Z./Kuen, J./Ma, L./Shahroudy, A./Shuai, B./Chen, T. (2018): Recent advances in convolutional neural networks. Pattern Recognition, 77, 354 – 377. Gulliksen, J. (2017): Institutionalizing human-computer interaction for global health. Global Health Action, 10(sup. 3), 68 – 73. Hajian, S./Bonchi, F./Castillo, C. (2016): Algorithmic bias: from discrimination discovery to fairness-aware data mining. In: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (S. 2125 – 2126). New York: ACM. Institute for the Future (2018): Emerging technologies’ impact on society & work in 2030. Palo Alto: Institute for the Future. Abgerufen unter: http://www.iftf.org/fileadmin/user_up load/downloads/th/SR1940_IFTFforDellTechnologies_Human-Machine_070717_reader high-res.pdf (29. 12. 2019). Jänig, J. R./Mühlner, J. (2016): Corporate Digital Responsibility: Verantwortung in der digitalen Gesellschaft. Frankfurt: Frankfurter Allgemeine Buch. Jonas (1979): Das Prinzip Verantwortung: Versuch einer Ethik für die technologische Zivilisation (6. Aufl., 2003). Berlin: Suhrkamp. Jones, T. M./Wicks, A. C. (1999): Convergent stakeholder theory. Academy of Management Review, 24(2), 206 – 221. Kant, I. (1785): Grundlegung zur Metaphysik der Sitten, Akademie-Ausgabe Kant Werke IV (Nachdr.1968). Berlin: Walter de Gruyter. Kenney, M./Rouvinen, P./Zysman, J. (2015): The digital disruption and its societal impacts. Journal of Industry, Competition and Trade, 15(1), 1 – 4. Lin-Hi, N. (2009): Eine Theorie der Unternehmensverantwortung: Die Verknüpfung von Gewinnerzielung und gesellschaftlichen Interessen. Berlin: Erich Schmidt Verlag. Lobschat, L./Müller, B./Eggers, F./Brandimarte, L./Diefenbach, S./Kroschke, M./Wirtz, J. (2020): Corporate Digital Responsibility, wird erscheinen in: Journal of Business Research. Loebbecke, C./Picot, A. (2015): Reflections on societal and business model transformation arising from digitization and big data analytics: A research agenda. The Journal of Strategic Information Systems, 24(3), 149 – 157. Maignan, I./Ferrell, O. C. (2004): Corporate social responsibility and marketing: An integrative framework. Journal of the Academy of Marketing Science, 32(1), 3 – 19.

Corporate Digital Responsibility

101

Makridakis, S. (2017): The forthcoming Artificial Intelligence (AI) revolution: Its impact on society and firms. Futures, 90(sup. C), 46 – 60. Margolis, J./Elfenbein, H./Walsh, J. (2007): Does it pay to be good? A meta-analysis and redirection of research on the relationship between corporate social and financial performance. Working paper, Harvard Business School. Boston: Harvard Business School. Martínez, P./del Bosque, I. R. (2013): CSR and customer loyalty: The roles of trust, customer identification with the company and satisfaction. International Journal of Hospitality Management, 35, 89 – 99. Minor, D./Morgan, J. (2011): CSR as reputation insurance: Primum non nocere. California Management Review, 53(3), 40 – 59. Monostori, L. (2014): Cyber-physical production systems: Roots, expectations and R&D challenges. Procedia CIRP, 17, 9 – 13. Moor, J. H. (1985): What is computer ethics?, Metaphilosophy, 16(4), 266 – 275. Moore, G. E. (1965): Cramming more components onto integrated circuits. Electronics, 38(8), 82 – 85. Müller, V. C./Bostrom, N. (2016): Future progress in artificial intelligence: A survey of expert opinion. In: V. C. Müller (Hrsg.), Fundamental Issues of Artificial Intelligence (S. 553 – 570). Basel: Springer International. Nissenbaum, H. (1994): Computing and accountability. Communications of the ACM, 37(1), 72 – 81. Nordmann, A. (2014): Responsible innovation, the art and craft of anticipation. Journal of Responsible Innovation, 1(1), 87 – 98. , Orbik, Z./Zozulaková, V. (2019): Corporate Social and Digital Responsibility. Management Systems in Production Engineering, 27(2), 79 – 83. Ott, K./Döring, R. (2004): Theorie und Praxis starker Nachhaltigkeit (2. Aufl.). Marburg: Metropolis. Pfeifer, G./Wulf, I. (2019): Corporate Responsibility in der digitalen Arbeitswelt 4.0. In: T. Kümpel/T. Schlenkrich/T. Heupel (Hrsg.), Controlling & Innovation 2019 (S. 83 – 110). Wiesbaden: Springer Gabler. Ruppert, T./Jaskó, S./Holczinger, T./Abonyi, J. (2018): Enabling technologies for operator 4.0: A survey. Applied Sciences, 8(9), 1650. Russell, S. J./Norvig, P./Canny, J. F./Malik, J. M./Edwards, D. D. (1995): Artificial Intelligence: a Modern Approach. Upper Saddle River: Prentice Hall. Russo, F. (2018): Digital technologies, ethical questions, and the need of an informational framework. Philosophy & Technology, 31(4), 655 – 667. Schirner, G./Erdogmus, D./Chowdhury, K./Padir, T. (2013): The future of human-in-the-loop cyber-physical systems. Computer, 46(1), 36 – 45. Schnackenberg, A. K./Tomlinson, E. C. (2016): Organizational transparency: A new perspective on managing trust in organization-stakeholder relationships. Journal of Management, 42(7), 1784 – 1810.

102

Nick Lin-Hi und Luca Haensse

Schomberg, R. von (2013): A vision of responsible research and innovation. In: R. Owen/M. Heintz/J. Bessant (Hrsg.), Responsible innovation. London: Wiley. Schumpeter, J. A. (1942): Kapitalismus, Sozialismus und Demokratie (8. Aufl., 2005). Tübingen: Francke Verlag. Shank, D. B./DeSanti, A. (2018): Attributions of morality and mind to artificial intelligence after real-world moral violations. Computers in Human Behavior, 86, 401 – 411. Shi, Z. (2011): Advanced Artificial Intelligence-Series on Intelligence Science, Singapur: World Scientific. Som, C./Hilty, L. M./Köhler, A. R. (2009): The precautionary principle as a framework for a sustainable information society. Journal of Business Ethics, 85(3), 493 – 505. Stilgoe, J./Owen, R./Macnaghten, P. (2013): Developing a framework for responsible innovation. Research Policy, 42(9), 1568 – 1580. Suchanek, A. (2000): Normative Umweltökonomik: Zur Herleitung von Prinzipien rationaler Umweltpolitik. Tübingen: Mohr Siebeck. Tractica (2019): Artificial intelligence market forecasts. Abgerufen unter: https://www.tractica. com/research/artificial-intelligence-market-forecasts (29. 12. 2019). Trist, E. L. (1981): The evolution of socio-technical systems. Toronto: Ontario Ministry of Labour. Tushar, W./Wijerathne, N./Li, W. T./Yuen, C./Poor, H. V./Saha, T. K./Wood, K. L. (2018): Internet of things for green building management: Disruptive innovations through low-cost sensor technology and artificial intelligence. IEEE Signal Processing Magazine, 35(5), 100 – 110. Vale, Z. A./Morais, H./Khodr, H. (2010): Intelligent multi-player smart grid management considering distributed energy resources and demand response. In: IEEE PES General Meeting (S. 1,7, 25 – 29). Minneapolis: IEEE. Valentine, S./Fleischman, G. (2008): Ethics programs, perceived corporate social responsibility and job satisfaction. Journal of Business Ethics, 77(2), 159 – 172. Vogel, D. (2007): The market for virtue: The potential and limits of corporate social responsibility. Washington: Brookings Institution Press. Waller, M. A./Fawcett, S. E. (2013): Data science, predictive analytics, and big data: a revolution that will transform supply chain design and management. Journal of Business Logistics, 34(2), 77 – 84. Wei, Z./Landay, J. A. (2018): Evaluating Speech-Based Smart Devices Using New Usability Heuristics. IEEE Pervasive Computing, 17(2), 84 – 96.

Corporate Digital Responsibility: Künstliche Verantwortung für Künstliche Intelligenz? – Korreferat zu Nick Lin-Hi und Luca Haensse – Von Detlef Aufderheide

I. Einleitung Eine durch Künstliche Intelligenz ausgelöste Revolution steht nicht bevor. Vielmehr ist sie bereits in vollem Gange – jedenfalls dürften bei verständiger Betrachtung zumindest alle diejenigen zu diesem Schluss gelangen, die den Begriff der Revolution nicht allein auf plötzliche, sich in sehr kurzer Frist ereignende gesellschaftliche oder wirtschaftliche Umwälzungen angewendet sehen möchten. Sowohl Strukturen als auch Prozesse, in denen jeweils intelligentes Verhalten automatisiert stattfindet oder maschinell erlernt wird, haben bereits in bemerkenswert viele Bereiche von Wirtschaft und Politik Einzug gehalten, wie auch mehrere Beiträge in diesem Band beeindruckend zeigen. Dass wir zugleich erst am Anfang einer viel weiter reichenden Entwicklung stehen, darf inzwischen ebenfalls als unbestritten gelten, auch wenn viele Entwicklungen noch – wie dieser Band ebenfalls zeigt – aus heutiger Sicht von Wissenschaft und Praxis als höchst ungewiss, in großem Umfang sogar als schlicht noch unbekannt gelten dürfen.

II. Ist Unternehmensverantwortung neu zu denken? Nick Lin-Hi und Luca Haensse (im Folgenden auch: die Autoren) gehen einige Schritte weiter. Im Kern postulieren sie, zugleich mit Bezug auf neuere einschlägige Literatur, die konzeptionelle Verankerung eines eigenen wirtschafts- und unternehmensethischen Forschungsgebietes samt praktischer Anwendung unter dem Rubrum einer digitalen Verantwortung von Unternehmen, neudeutsch: Corporate Digital Responsibility (CDR). Den initiierenden Grund – vor einer bemerkenswerten Reihe weiterer – sehen die Autoren darin, „dass KI eine entscheidungsfähige Instanz … darstellt.“1 Dies wird, inzwischen beinahe klassisch, anhand des sogenannten Trolley-Dilemmas illustriert. Die weiteren Argumente bauen auf der genannten Grundüberlegung auf. 1

Lin-Hi/Haensse (2020), S. 93.

104

Detlef Aufderheide

Ist dies ein weiterer Versuch, Altbekanntes bzw. leichte Variationen des längst Untersuchten im Sinne eines more of the same mit einem neuen Etikett zu versehen? Oder gibt es gute Gründe, bereits in diesem Stadium eine solche Eigenständigkeit auch begrifflich zu verankern? Dies mag an dieser Stelle durchaus offen bleiben. Festzuhalten ist jedenfalls, dass die Autoren auf geradezu wohltuende Weise systematisch vorgehen und auch begriffliche und konzeptionelle Grundlagen zur möglichst weitgehenden Vermeidung von Missverständnissen angehen. Sodann unterfüttern sie ihr Postulat mit einer Reihe von Argumenten, die für CDR als eigenständiges Konzept sprechen, genauer: für CDR zwar nicht als unmittelbar handlungsleitendes Werkzeug, aber – vielleicht viel wichtiger – als regulative Idee aktuellen und zukünftigen Denkens und Handelns.2 Zwar wäre eine weitere Vertiefung und Ergänzung wünschenswert, jedoch macht die Argumentationskette den unvoreingenommenen Leser und die Leserin ausgesprochen neugierig auf das, was in dieser Hinsicht noch kommen wird.

III. Das Vorsichtsprinzip: Anzuwenden in beide Richtungen Vor diesem Hintergrund erscheint es angemessen, im Folgenden eine Beschränkung auf einige wenige kritische Aspekte vorzunehmen, deren Erörterung eine gewisse Weiterentwicklung oder Modifikation der von den Autoren angestellten Überlegungen nahelegen könnte. Zu nennen ist hier zunächst die von ihnen vorgebrachte Skepsis gegenüber dem Vorsichtsprinzip. Dieses sei nicht zielführend, „da selbiges zwar auf die Reduzierung von Risiken und damit negativen Effekten abzielt, hierfür aber die Ergreifung von Chancen, und damit die Schaffung von positiven Effekten, opfert.“3 Dem ist entgegenzuhalten, dass das Vorsichtsprinzip klugerweise in alle bzw. beide Richtungen zu denken ist: Auch mit dem Auslassen einer technologischen Option sind ja Kosten verbunden, eben die Kosten des Verzichts auf die sich bietenden Möglichkeiten.4 Eine solche negative Entscheidung kann sich bei allzu zögerlichem Handeln im globalen Wettbewerb und insbesondere aufgrund der Eigenheiten digitaler Märkte (first mover’s advantage oder gar winner takes all, Netzeffekte auf Angebots- und/oder Nachfrageseite etc. bei der Schaffung und Entstehung neuer, digitaler Märkte) ggf. als irreversibel herausstellen. Das in Rede stehende Prinzip kann es daher sogar gebieten, aktiv zu sein oder es rasch zu werden. Vorsichtshalber. Ohnehin ist grundlegend und insbesondere in dem hier in Rede stehenden Kontext ausdrücklich darauf hinzuweisen, dass die erfolgreiche Investition in neue Technologien zwei (!) typische Auswirkungen zeitigt, von denen eine immer wieder in der politischen wie ethischen Debatte übersehen wird. Die beiden Auswirkungen können 2

Vgl. Lin-Hi/Haensse (2020), S. 90 et passim. Lin-Hi/Haensse (2020), S. 95. 4 Nick Lin-Hi und Luca Haensse haben diesen Hinweis des Verfassers als solchen dankenswerterweise aufgegriffen, siehe Lin-Hi/Haensse (2020), S. 95, Fn. 41. 3

Corporate Digital Responsibility

105

als Substitutionseffekt und Produktivitätseffekt bezeichnet werden. Der erstgenannte tritt typischerweise eher kurzfristig ein: Kapital (hier: investiert in KI) verdrängt Arbeit (hier: natürliche Intelligenz) – erstmals (?) auch bei bisher gut bezahlten, komplexen Tätigkeiten, wodurch sich neuartige gesellschaftliche Herausforderungen bereits abzeichnen. Kapital verdrängt Arbeit, künstlich geschaffene Intelligenz verdrängt menschliche: Kapitalinvestitionen zeigen sich insofern, gewissermaßen für alle sichtbar, als ,Feind der Arbeitskraft‘. Demgegenüber wird der Produktivitätseffekt von Kapitalinvestitionen nicht selten gänzlich übersehen, zumal er eher langfristig auftritt und typischerweise über zahlreiche Märkte und/oder die gesamte Gesellschaft diffundiert. Die verbleibende Arbeit sowie neu hinzukommende Tätigkeiten – auf die die Autoren auch selbst völlig zu Recht verweisen – werden durch Investitionen in Sachkapital aus Sicht der beschäftigenden Unternehmen um so produktiver. Diese Produktivitätssteigerung zwingt Unternehmen geradezu – ob sie es wollen oder nicht – auf lange Sicht zu deutlich höherer Entlohnung im unternehmerischen Wettbewerb um Arbeitskräfte und in nunmehr zusätzlich wachsenden Märkten. Bildhaft gesprochen, schrubbt man nun die Wäsche nicht mehr mit Kernseife und Waschbrett (in der Sprache der Ökonomik: arbeitsintensiv, mit geringem Kapitaleinsatz), sondern lässt die zuvor körperlich anstrengende Arbeit von hochleistungsfähigen Waschmaschinen erledigen und gewinnt zudem Zeit für (hoffentlich) sinnvollere Tätigkeiten als das stundenlange Bearbeiten von Schmutzwäsche.5 Langfristig erweisen sich Investitionen somit sogar als ,bester Freund der Arbeitskraft‘ und – jedenfalls im Rückblick – sogar als Voraussetzung nicht nur für stark gewachsenen materiellen Wohlstand im Privaten, sondern z. B. auch für eine stark verbesserte öffentliche Infrastruktur einschließlich Gesundheitsversorgung und Bildungseinrichtungen: Diese können aus stetig gewachsener wirtschaftlicher Leistung und den dadurch erst ermöglichten höheren Steuereinnahmen finanziert werden, was in einer Reihe von demokratisch verfassten Industrieländern immerhin bereits recht beeindruckend gelungen ist. Keine Frage: Für die von Arbeitsplatzverlust direkt und persönlich Betroffenen, ihre Familien und ihr Umfeld ist dies, zumal bei fortgeschrittenem Lebensalter, wenig tröstlich, und es gilt weiterhin der markante Spruch, der dem Ökonomen John Maynard Keynes aus einem anderen Kontext zugeschrieben wird, wonach wir ,langfristig alle tot‘ sind. Entsprechend bestehen sehr gute Gründe für eine wahrzunehmende Verantwortung: Es geht dann darum, das Problem des Substitutionseffekts nicht zu ignorieren, sondern stets politisch aktiv und nach Kräften anzugehen, so dass seine erheblichen negativen Folgen für die betroffenen Menschen mindestens kompensiert oder überkompensiert werden. Somit ist in der Frage der Güterabwägung auch hier ohne Zweifel ein weiteres Feld wirtschaftsethisch hoch relevanter 5

Und – ja, die ökologischen und ggf. weitere mögliche Nebenwirkungen gehören hier selbstverständlich auch auf die Liste, wenn es um das Abwägen von Chancen und Risiken geht. Immerhin erzielen Mitarbeitende etwa in der Wäscherei eines Hotels mit hoher Wahrscheinlichkeit einen höheren Lohn in der Stunde als – anderswo oder in früheren Zeiten, ohne Maschinenausstattung – an einem ganzen Tag.

106

Detlef Aufderheide

Topoi zu reklamieren – aber eben eines, das sich klugerweise an die Erörterung des zweiseitigen Vorsichtsprinzips anschließt und von diesem getrennt zu betrachten ist.

IV. Die Verantwortung korporativer Akteure Ein weiteres wiederkehrendes Sujet zeigt sich in der Frage, ob oder inwiefern denn nun korporativen Akteuren als solchen (!) – hier: erwerbswirtschaftlich aufgestellten Unternehmen – sinnvollerweise eine Verantwortung zugeschrieben werden kann, wenn es um die Gestaltung der Digitalisierung geht. Wohlgemerkt: Hier ist nicht die langjährige ,Friedman-Debatte‘ aufzufrischen, zumal diese sich inzwischen ohnehin auf weitgehend ausgetretenen Pfaden zu bewegen scheint, wenn sie immer wieder einmal, wohl auch mit jeweils guten Gründen, in wirtschafts- und unternehmensethischen Diskussionen auftaucht. Allerdings scheinen Lin-Hi und Haensse doch recht weit zu gehen, wenn sie postulieren: „Einstellungen wie Technologieakzeptanz oder Vertrauen setzen voraus, dass Unternehmen permanent danach streben, Digitalisierung in den Dienst gesellschaftlicher Interessen zu stellen, d. h. ihre positiven Effekte maximieren und ihre negativen Effekte minimieren.“6 Wirklich? Einmal abgesehen von Fragen der Logik (simultane Maximierung einer Größe und Minimierung der anderen): Ist man nicht besser beraten mit der Erinnerung an die konzeptionellen Grundlagen des Stakeholder Approach, die wir R. Edward Freeman verdanken? Dieser will ja offenbar – anders als hier und dort gelegentlich vermutet – das Interesse von Unternehmen an deren eigenem wirtschaftlichen Erfolg und konkret an der Gewinnerzielung keineswegs in Frage gestellt oder auch nur relativiert sehen, insbesondere nicht durch so etwas wie eine simultane, gewissermaßen mehrdimensionale Orientierung an anderen, namentlich gesellschaftlichen Zielen ,auf Augenhöhe‘ und ggf. in Konkurrenz zum Gewinnprinzip. Hier scheint es in der CSR-Debatte wiederholt zu Konfusion gekommen zu sein. Vielmehr geht es bei Freeman offenbar darum, dass das Interesse an Gewinnerzielung unter den Bedingungen moderner Gesellschaften nur dann erfolgreich weiter verfolgt werden kann, wenn die Interessen aller relevanten Stakeholder strategisch im Handeln der Unternehmung berücksichtigt werden – als veränderte Bedingungen eines erfolgsorientierten unternehmerischen Handelns. Formal gesprochen, geht es nach der hier vertretenen Lesart der Arbeiten von Freeman jedenfalls für die privatwirtschaftlich organisierte, traditionell gewinnorientierte Unternehmung nicht um eine Neudefinition unternehmerischer Ziele – oder gar um Maximierung oder Minimierung gesellschaftlicher Ziele –, sondern um eine kluge und zugleich verantwortungsvolle Berücksichtigung veränderter gesellschaftlicher Restriktionen im eigenen Gewinninteresse.7 Für Freeman scheint dies so selbstverständlich zu sein, dass die 6

Lin-Hi/Haensse (2020), S. 97. Vgl. in diesem Zusammenhang u. a. auch Aufderheide (2015). Man mag die damit skizzierte Motivation, im Sinne einer eher naiven Kant-Interpretation, als ethisch zweifelhaft einstufen – oder als logische Konsequenz einer reflektierten Ethik des fairen Wettbewerbs. 7

Corporate Digital Responsibility

107

entsprechende Frage, wenn überhaupt, von ihm nur beiläufig und eher wenig pointiert angerissen wird, etwa wenn er im Jahre 2004 rückblickend und auf Fehlinterpretationen seines Ansatz eingehend schreibt: „Some of the more obvious misinterpretations are … (3) the stakeholder concept can and should be used to formulate a new, non-shareholder theory of the firm.“8 Kurz danach betont er mit Hinweis auf eine Reihe seiner Arbeiten, dass „I am claiming that there is one univalent ,stakeholder theory‘ that will work for all businesses“9, um – mit scheinbar verbleibender Mehrdeutigkeit – hinzuzufügen: „Surely there are lots of ways to run a firm. All of these ways have to ultimately generate profits and satisfy some set of stakeholders, but context and other factors may well determine which kind of narrative works best.“10

V. Ethische Argumentation in der Anwendung auf KI-Dilemmata: überfordert oder weiterhin gut geeignet? Die Autoren zeigen sich außerordentlich skeptisch mit Blick auf die zukünftige Tragfähigkeit bisher bewährter ethischer Argumentationsmuster, namentlich der Deontologie in Kantischer Tradition und des Konsequentialismus. Ihrer Auffassung nach „laufen Konzepte wie der Kategorische Imperativ – ,Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.‘ (Kant 1785/1968, S. 421) – ins Leere, da eine Allgemeingültigkeit in der digitalen Welt nicht mehr möglich ist. Hinzu kommt, dass eine Fokussierung auf das ,Wollen‘ im digitalen Zeitalter unterkomplex und gar gefährlich ist, da sie davon entlastet, sich mit Folgen auseinanderzusetzen. Aber auch eine konsequentialistische Ethik stößt in der digitalen Welt an Grenzen, da selbige hinreichendes Wissen über Handlungsfolgen voraussetzt, welches indes aufgrund der Kontingenz von Digitalisierungsfolgen nicht mehr existiert.“11 Aber gerade unter den von den Autoren so luzide beschriebenen aktuellen Bedingungen und Herausforderungen wie z. B. Komplexität und Ergebnisoffenheit könnte doch dem im Zitat erwähnten Kategorischen Imperativ in seiner ersten Formulierung durchaus eine besondere Stärke zukommen! Immerhin geht es ja hier wie auch in Sachen Konsequentialismus mit Blick auf die unternehmerische Praxis sinnvollerweise nicht um so etwas wie ein philosophisches ,Bekenntnis‘ – zur Deontologie oder zum Konsequentialismus oder … –, sondern um die vielversprechende Option, die bewährten ethischen Argumentationsmuster als einander potentiell ergänzende regulative Ideen aufzufassen, die insbesondere in Zeiten disruptiver Veränderungen eine allgemeine Orientierung geben. Beide – Kantische wie konsequentialistische Denkmuster – können sich in der Unternehmenspra8

Freeman (2004), S. 231. Freeman (2004), S. 232. 10 Freeman (2004), S. 232. 11 Lin-Hi/Haensse (2020), S. 95. 9

108

Detlef Aufderheide

xis durchaus als hilfreiche Tools – als gedankliche Werkzeuge – erweisen, die bei ethischen KI-Dilemmata zum Einsatz gelangen können: warum nicht? Darüber hinaus kann ja gerade die zweite Formulierung des Kategorischen Imperativs durchaus helfen, eine ansonsten vielleicht bei einigen auftretende, allzu forsche KI-Euphorie zu dämpfen. Dies gilt insbesondere dann, wenn man sich daran erinnern lässt, dass wir ja gerade gehalten sind, Menschen nicht nur (!) als Mittel zur Verfolgung unserer eigenen Interessen zu behandeln, sondern auch (!) ihre Fähigkeiten zu respektieren und sie darin zu fördern, autonome (!) Entscheidungen zu treffen.12

VI. Schlussbemerkung In der Gesamtschau gibt es offenbar gute Gründe, zumindest bis auf Weiteres explizit mit dem Konzept einer Corporate Digital Responsibility zu arbeiten. Dies gilt umso mehr, wenn offene konzeptionelle Fragen, die zum Teil hier angesprochen werden konnten, aufmerksam weiterverfolgt werden. Dann gibt es Anlass zu Optimismus dahingehend, dass die stürmische weitere Entwicklung und Gestaltung in Sachen Künstlicher Intelligenz im besten Sinne von wirtschafts- und unternehmensethischer Forschung nicht nur begleitet wird, sondern in ihr mehr als nur hier und dort auch wesentliche Anregungen findet. Ganz in diesem Sinne ist dem Beitrag von Nick Lin-Hi und Luca Haensse die gebührende Aufmerksamkeit in Wissenschaft und Praxis zu wünschen. Literatur Aufderheide, Detlef (2015): Zur Debatte um die gesellschaftliche Verantwortung von Unternehmen: Ist die CSR-Bewegung Teil der Lösung oder Teil des Problems?, in: Detlef Aufderheide/Martin Dabrowski (Hrsg.), Markt und Verantwortung. Wirtschaftsethische und moralökonomische Perspektiven, Berlin, S. 57 – 88. Freeman, R. Edward (2004): The stakeholder approach revisited. Zeitschrift für Wirtschaftsund Unternehmensethik, Jahrgang 5, Heft 3, S. 228 – 254. Friedman, Milton (1970): „The social responsibility of business is to increase its profits“, The New York Times Magazine vom 13. 09. 1970, S. 32 – 33 und S. 122 – 126. Kant, Immanuel (1785/1968): Grundlegung zur Metaphysik der Sitten, Kants Werke, Akademie-Textausgabe. Unveränderter photomechanischer Abdruck des Textes der von der Preußischen Akademie der Wissenschaften 1902 begonnenen Ausgabe von Kants gesammelten Schriften, Band IV, Berlin, S. 385 – 464. Lin-Hi, Nick/Haensse, Luca (2020): Corporate Digital Responsibility: Unternehmensverantwortung neu denken am Beispiel von Künstlicher Intelligenz, in diesem Band.

12

Vgl. Kant (1785/1968), S. 429.

Corporate Digital Responsibility – sinnvoll oder Marketing? – Korreferat zu Nick Lin-Hi und Luca Haensse – Von Joachim Wiemeyer

I. Problemstellung In den Medien ist von Digitalisierung und von Künstlicher Intelligenz (KI) allerorten die Rede. Dabei geht es einerseits um Schreckensszenarien wie den Wegfall von vielen Arbeitsplätzen und andererseits um Szenarien einer schönen neuen Welt mit vielfältigen Konsum- und Unterhaltungsmöglichkeiten. Für die einen ist die Neuschaffung des Menschen im Sinne des Transhumanismus eine Bedrohung, für andere eine positive Zukunftsvision. Angesichts solcher Ambivalenzen bedarf es nüchterner gesellschaftlicher Diskurse und ethischer Reflexion über den Umgang mit neuen Technologien. Welche stellen einen humanen Fortschritt dar? Wie sind sie zu regulieren, damit negative Nebenwirkungen, die bisher Bestandteil aller technologischen Neuerungen waren1, eingedämmt werden? Sind, wie es einleitend bei Lin-Hi/Haensse (2020) heißt, die „Änderungen“ tiefgreifend und die Herausforderungen „neu“? Sind also die Veränderungen „disruptiv“ und nimmt die Schnelligkeit der Veränderungen zu? Ist eine neue Art normativer Reflexion über „veränderte Handlungsbedingungen und Handlungsmöglichkeiten“ notwendig? Für gesellschaftliche Diskurse und ethische Reflexionen über KI und Digitalisierung stellt sich die Frage, ob man dafür neue Begrifflichkeiten und ethische Kriterien, andere Verantwortungszuschreibungen, neue Verfahren und neue Inhalte, etwa den Ersatz oder die Ergänzung von Corporate Social Responsibility durch Corporate Digital Responsibility benötigt? Wenn Unternehmen diesen Begriff benutzen, kann es sein, dass dies in der Absicht geschieht, Aufmerksamkeit zu erzielen und Reputation zu erwerben. Weiterhin ist es möglich, dass man – wie bei dem entsprechenden Kreis von Unternehmen beim Bundesministerium für Justiz und Verbraucherschutz2 – entweder gesetzliche Regulierungen abwehren, sollte es diese aber geben, dann beeinflussen kann (Lobbyarbeit). 1 2

Dafür plädiert Zweig (2019), S. 279 f. Bundesministerium für Justiz und Verbraucherschutz (2019).

110

Joachim Wiemeyer

Genauso wie Unternehmen unterliegen Wissenschaftler zunehmend einem Wettbewerb. Dieser veranlasst sie, Innovationen hervorzubringen und Aufmerksamkeit zu erregen. Ein Mittel dazu ist, neue Begriffe in die Diskussion einzubringen und vermeintlich neue Diskurse zu eröffnen.3 Dies ist aber nur sinnvoll, wenn es tatsächlich neue Problemlagen gibt, wenn neue Begrifflichkeiten bestehende Diskurse erhellen und weiterführen können. Dies ist im Folgenden zu prüfen.

II. Das Produktivitätsparadox Eine im Kontext von KI und Digitalisierung behauptete Änderung ist die auch von Lin-Hi/Haensse angenommene zunehmende Geschwindigkeit technologischen und davon abgeleiteten organisatorischen Fortschritts. Lin-Hi/Haensse4 schreiben: „Digitalisierung steht somit für den schnellsten Wandel, der jemals in der Menschheitsgeschichte stattgefunden hat.“ Dies wird formuliert in einer Periode, in der vermutlich der geringste Anstieg der Arbeitsproduktivität seit dem Beginn der Industrialisierung vor 250 Jahren in einer wachsenden Wirtschaft stattfindet und 2019 die Arbeitsproduktivität in Deutschland sogar um ca. 0,8 % gesunken, nicht gestiegen ist. In einer Zeit, in der von rasanten Änderungen die Rede ist, sinkt nicht nur in Deutschland, sondern in allen großen Industrienationen der Anstieg der Arbeitsproduktivität seit Jahren. Dies wird in der wissenschaftlichen Literatur zunehmen als Produktivitätsparadoxon diskutiert. Selbst bei einem marginalen Wirtschaftswachstum 2019 in Deutschland von 0,6 % wächst die Beschäftigung schneller als die Gesamtwirtschaft. In seinem neuesten Jahresgutachten rätselt der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung5 in einem langen Kapitel über mögliche Erklärungsansätze, ohne aber überzeugende theoretisch fundierte Deutungen für das Produktivitätsparadox bieten zu können. Über die dort genannten Hypothesen hinaus erscheinen folgende Erklärungsansätze denkbar, die empirisch näher geprüft werden sollten: Cyberkriminalität hat ein hohes Ausmaß. Sie verursacht hohe Kosten, wenn z. B. mehrtätige Produktionsstörungen vorliegen, wertvolle Informationen gestohlen werden bzw. zur Prävention hohe Sicherheitsaufwendungen erforderlich werden. Der Interessenverband der Internetwirtschaft in Deutschland (Bitkom) geht von einer Verdoppelung der Schäden von Cyberkriminalität auf über 100 Mrd. innerhalb von 2 Jahren aus.6 75 % der Unternehmen waren betroffen. Weiterhin muss jedes Unternehmen zur Prävention erhebliche Investitionen tätigen. Wenn diese eine signifikante Höhe haben, können 3

In Jähnichen/Wiemeyer (2020) wird versucht zu zeigen, dass Phänomene der digitalen Wirtschaft mit herkömmlichen wirtschafts- und unternehmensethischen Konzepten der christlichen Sozialethik angemessen bearbeitet werden können. 4 Lin-Hi/Haensse (2020). 5 Sachverständigenrat (2019), Kap. 2, S. 84 – 127. 6 Bitkom (2019).

Corporate Digital Responsibility – sinnvoll oder Marketing?

111

sie Produktivitätsfortschritte an anderer Stelle konterkarieren oder gar überkompensieren. Weiterhin kann die Qualität des Humankapitals – trotz formal höherer Qualität – abnehmen, weil eine jüngere Generation durch die fortlaufende Nutzung von Smartphones und anderer digitaler Angebote weniger konzentriert und kreativ ist. Die neueren Ergebnisse von Pisa-Studien könnten diese Annahme stützen. In Unternehmen könnten Mitarbeiter mit unproduktiven Tätigkeiten (Durchsicht und Löschung von relativ belanglosen E-Mails bzw. internen Rundmails) beschäftigt sein, durch private Facebook-, WhatsApp- oder Twitter-Meldungen abgelenkt werden, Online-Shopping betreiben, nach neuen Reisezielen im Internet surfen etc. An anderer Stelle werden mögliche Produktivitätsgewinne nicht ausgeschöpft, weil leitende Mitarbeiter aus Prestigegründen oder zur Sicherheit vor temporären bzw. zukünftigen Personalengpässen einen höheren Mitarbeiterstab als nötig behalten möchten. Vor allem in langen Aufschwung- und Gewinnphasen ist dies denkbar. Falls Unternehmen die neuen technischen Möglichkeiten nutzen, um diese Phänomene aufzudecken, könnte die lückenlose Kontrolle dazu führen, dass Fluktuation und Krankenstand zunehmen und die Bereitschaft breiter Kreise der Mitarbeiter sinkt, mitzudenken und Vorschläge zur Verbesserung von Betriebsabläufen zu machen. Man wird dann aber auch kaum kleinere Probleme selbständig auf dem „kleinen Dienstweg“ ohne Einbeziehung von Vorgesetzen regeln und eher „Dienst nach Vorschrift“ machen. Eine weitere Möglichkeit besteht darin, dass Digitalisierung nicht bisher analoge Tätigkeiten ersetzt, sondern diese ergänzt, so dass Mehraufwand in der Werbung auftritt, z. B. weil man ältere Kunden wie bisher analog anspricht, hingegen jüngere Kunden über digitale Wege, so dass ein identischer Umsatz mehr Kosten mit sich bringt. Dies könnte ein temporäres Phänomen sein, bis auch die Rentnergeneration durchgehend digitale Medien nutzt. Darüber hinaus ist denkbar, dass Programmierer durch die hohen Rechen- und Speicherkapazitäten veranlasst werden, jeweils Roboter, Laptops und andere Geräte mit einer Vielzahl von Programmen und Funktionen auszustatten. Wenn diese von der Mehrzahl der Nutzer nicht gebraucht werden, handelt es sich um unwirtschaftliche Spielereien. Wenn es in einzelnen Branchen zu einem deutlichen Abbau von Arbeitsplätzen kommen sollte, wie dies gegenwärtig etwa für Banken und Sparkassen oder die Automobilindustrie gilt, ist dies nicht auf den technologischen Fortschritt allein, sondern darauf zurückzuführen, dass weitere Herausforderungen wie der Umstieg auf Elektromobilität oder die Negativzinspolitik der EZB gleichzeitig hinzukommen. Die im unternehmensethischen Diskurs schon lange diskutierten Probleme des Umgangs mit den „Stakeholdern“ Arbeitnehmer und die ethische Grundfrage, diese nicht bloß als Arbeitskraft, sondern als Person zu behandeln, bleiben auch

112

Joachim Wiemeyer

in der digitalen Welt bestehen. Daher dürfen Roboter/ Maschinen keine Anweisungen erteilen. Trendveränderungen stellen sich als Irrtum heraus, wenn Adidas7 für die Rückverlagerung der Schuhproduktion aus einem Entwicklungsland nach Deutschland zunächst mit dem deutschen Innovationspreis ausgezeichnet wird und kurze Zeit später wiederum die Schließung dieser gerade errichteten Fabrik ankündigt. Damit bleibt das Strukturmuster der Globalisierung, einer Verlagerung arbeitsintensiver Produktion in Entwicklungs- und Schwellenländer, erhalten.

III. Dilemmakonstellationen – Aufgabe von Corporate Digital Responsibility oder staatlicher Ordnungspolitik? In der traditionellen wirtschaftsethischen Debatte ist das Verhältnis von staatlicher Ordnungspolitik zu unternehmensethischen Verantwortungs- und Handlungsräumen thematisiert worden. Dabei hat Homann8 den Vorrang der Ordnungspolitik unter Wettbewerbsbedingungen betont, wobei die staatliche Ordnungspolitik immer etwas langsamer als der technische Fortschritt reagiert bzw. von internationalen Unternehmen, die in globalen Märkten agieren, Regelungslücken (Regulierungsarbitrage) ausgenutzt werden können. Durch KI entstehen hier aber keine ganz neuen Herausforderungen. Wenn im KI-Diskurs Auswahl-Techniken bei der Neueinstellung9 thematisiert werden, betrifft dies die Problematik der Nichtdiskriminierung, die bereits ein Thema war, für das Personalabteilungen sensibilisiert wurden. Soweit bei einer absehbaren Verknappung von Arbeitskräften aus demographischen Gründen in vielen Bereichen überhaupt eine KI-gesteuerte Vorauswahl (mangels Masse) sinnvoll ist, können Unternehmen testen, ob z. B. KI andere Personen für eine engere Auswahl vorschlägt, als dies nach bisherigen analogen Verfahren geschieht. Grundlegende ethische Fragen, die mit KI in Verbindung gebracht werden, sind Dilemmakonstellationen, die mit Gesundheit und Leben von Menschen zu tun haben. Dafür werden selbstfahrende Kraftfahrzeuge angeführt, wenn in besonderen Verkehrssituationen die Gefährdung von Leib und Leben von Menschen nicht vermieden werden kann. Unter ethischen Gesichtspunkten ist zunächst wichtig, dass autonomes Fahren zu einer drastischen Senkung von Verkehrsunfällen führen sollte, etwa weil zwei Hauptursachen wegfallen, nämlich das Fahren mit Alkohol und das Überschreiten von Geschwindigkeitsbegrenzungen bzw. der der Witterungssituation angemes7 Manager-Magazin (2019), https://www.manager-magazin.de/unternehmen/handel/adidasspeedfactorys-in-ansbach-und-atlanta-werden-geschlossen-a-1295877.html. 8 Vgl. Homann (1990), S. 38 ff. 9 Vgl. Zweig (2019), S. 205 ff.

Corporate Digital Responsibility – sinnvoll oder Marketing?

113

senen Geschwindigkeit. Falls es möglich wäre, die Unfallzahl tatsächlich um 80 – 90 % zu senken, müsste das autonome Fahren eingeführt werden. Allerdings dürften keine neuen Gefährdungen auftreten, indem z. B. Terroristen LKWs als Waffen manipulieren und ggf. fernsteuern könnten. Die immer genannten Alternativen, ob bei unvermeidbaren Unfällen eher ein Kind oder ein älterer Mensch getötet wird, ob die Insassen eines Autos selbst eher geschützt werden, als andere Verkehrsteilnehmer etc. könnten auch nach einem Zufallsprinzip geregelt werden.10 Dies wäre dann ein Restrisiko, das alle Verkehrsteilnehmer teilen müssten. Dilemmakonstellationen, die ein Restrisiko darstellen, dürfen aber nicht Gegenstand von „Corporate Digital Responsibilty“ sein, denn solche Fragen können unternehmerische Entscheidungen nicht allein beantworten und regeln. Dies sind vielmehr politische Entscheidungen, die gesellschaftlich legitimiert sein müssen. Hier besteht das in der Wirtschafts- und Unternehmensethik bekannte Verhältnis von staatlicher Ordnungspolitik und unternehmerischer Selbstverantwortung. Insofern gibt es durch KI keine Notwendigkeit für „Corporate Digital Responsibility“. Am Beispiel von „Uber“ und „Airbnb“ lässt sich ablesen, dass staatliche Ordnungspolitik auch in Bereichen „disruptiver“ Geschäftsmodelle auf KI-Basis in der Lage ist, diese zu regulieren, indem die bisherige Regulierung des Taxi-Marktes in Deutschland Uber daran hindert, in den Markt einzusteigen und Uber analog zu anderen konkurrierenden Unternehmen (Mietwagen) agieren muss. Airbnb hat mit einer Reihe von deutschen Großstädten Vereinbarungen über den Einzug der Hotelsteuer getroffen.11 Dass auch andere wirtschafts- und unternehmensethische Herausforderungen der digitalen Welt im Horizont bisheriger Ansätze bearbeitet werden können, soll an einem weiteren Beispiel erläutert werden.

IV. Suchtförderung Die eigentlich unternehmensfreundliche Zeitschrift „Economist“12 bezeichnet die großen US-amerikanischen Digitalkonzerne wie Amazon, Apple, Google (bzw. Mutterkonzern Alphabet) und Facebook als „BAAD“. Dies ist eine Abkürzung für „Big, Anti-Competitive, Addictive, Destructive to Democrazy“. Hier soll „Addictive“13 herausgegriffen werden. Das unternehmensethische Problem besteht darin, dass Produkte entwickelt und auf den Markt gebracht werden, die zumindest einen Teil der Nachfrager abhängig machen. Aus absatzpolitischer Sicht kann einem Unternehmen 10

Vgl. Wiemeyer (2019). Zur Problematik auch Zweig (2019), S. 274 – 277; Grunwald (2019), S. 104 ff. 11 Vgl. Wiemeyer (2020). 12 Vgl. Smith (2018). 13 Dieses Phänomen wird auch von der Datenethikkommission der Bundesregierung S. 96 f. thematisiert.

114

Joachim Wiemeyer

eigentlich nichts Besseres passieren, als dass seine Kunden von ihren Produkten abhängig sind. Sie haben dann treue und zahlungsbereite Nachfrager. Es gibt zwei Konstellationen für Suchtverhalten: Die eine Konstellation ist, dass vom Unternehmen Sucht nicht beabsichtigt war, sich aber bei einem Teil der Konsumenten eingestellt hat. Die hohe Nachfrage und die Preisunelastizität der Nachfrage zeigt einem Unternehmen dies an. Die andere Konstellation besteht darin, dass Unternehmen gezielt solche Abhängigkeiten schaffen und ihre Produkte entsprechend konzipieren. Dieses Phänomen gibt es in der analogen Wirtschaft in der Tabakindustrie und bei der Arzneimittelherstellung, z. B. Schmerzmittel. In der Tabakindustrie wurde Suchtverhalten durch gezielte Mischung der Zusammenstellung der Zigaretten bewusst herbeigeführt. Daher laufen in den USA hohe Schadensersatzprozesse. Ähnliches gilt für Schmerzmittel. Solche Abhängigkeitsprobleme gibt es zunehmend auch in der digitalen Wirtschaft, wenn etwa Spiele entwickelt werden, die Kinder und Jugendliche in bestimmten Altersstufen zu stundenlangem Verharren vor dem Bildschirm veranlassen. Da auf diesem Feld digitale Unternehmen durch das Nutzerverhalten ihrer Kunden viel unmittelbarer als Unternehmen der analogen Welt bedenkliches Suchtverhalten ihrer Nutzer feststellen können, liegt hier eine besondere unternehmensethische Verantwortung. Solches Suchtverhalten wird schrittweise intensiviert und breitet sich erst langsam aus, so dass es vom Anbieter eher identifiziert werden kann. Erst später wird es Gegenstand der breiten Öffentlichkeit, wenn Sekundärphänomene von Eltern, Lehrern und Kinderärzten entdeckt werden und es dann erst zu einer gesellschaftlichen Debatte und möglichen staatlichen Regulierungsschritten kommt. Hier handelt es sich sicher um einen Problembereich einer „CSR“ und der staatlichen Ordnungspolitik. Suchtfördernde Angebote im Internet unterliegen aber nicht anderen ethischen Bewertungsmaßstäben als die Suchtförderung durch Tabak- oder Pharmakonzerne. Daher kann auch dieses Phänomen keine Notwendigkeit eines speziellen „CDR“ begründet.

V. Der unterlegene oder der überlegene Mensch? In seinem Band „Der unterlegene Mensch“ 14 beschreibt Armin Grunwald zunächst die verschiedenen Zukunftsperspektiven von Algorithmen, künstlicher Intelligenz und Robotern und die damit hervorgerufenen Herausforderungen. Er schließt aber mit einem Kapitel15 mit der Überschrift „Der überlegene Mensch“. Er zeigt die Grenzen technologischer Entwicklungen auf, etwa anhand von Konstellationen, in denen Roboter kaum gegenüber Menschen überlegen agieren, weil z. B. Robotern nicht spontan auf eine nichtprogrammierte Situation reagieren können und nicht in der Lage sind, normativ zu reflektieren und neue moralische Ziele zu entwerfen. 14 15

Grunwald (2019). Grunwald (2019), S. 237 – 241.

Corporate Digital Responsibility – sinnvoll oder Marketing?

115

Menschen können aus einmaligen Fehlern innovativ lernen und Problemlösungen können im Team erarbeitet werden, wobei sich die Kommunikation grundlegend von der Kommunikation zwischen Computern unterscheidet. Wichtige Fragen müssen durch Abwägen geklärt werden. Zentrale ethische Begriffe wie Solidarität und Freiheit sind nicht in mathematische Algorithmen übertragbar. Algorithmen und Robotern fehlt die Vision zu einer besseren (humaneren) Welt. Es ist zu bezweifeln, dass KI, als starke KI, die Fähigkeiten von Menschen in den nächsten Jahrzehnten erreichen wird. Die Wissenschaft ist sich nicht einig, ob es überhaupt eine starke KI geben kann.16 Es muss gesellschaftlich diskutiert und entschieden werden, ob und wie es sie geben soll. Dies ist nicht Aufgabe von Unternehmen im Sinne von Corporate Digital Responsibility, so dass eine Verlagerung von Verantwortung öffentlicher Diskurse und demokratischer Entscheidungsprozesse hin zu Unternehmen nicht erforderlich erscheint. Für solche Diskurse ist es problematisch, wenn Lin-Hi/ Haensse mit der Behauptung des „schnellsten Wandels in der Menschheitsgeschichte“ potentielle Diskursteilnehmer eher verschrecken, statt sie wie Zweig dazu zu ermuntern.

VI. Fazit Bisher erscheinen die Argumente, die für eine eigenständige „Corporate Digital Responsibility“ vorgetragen werden, als nicht überzeugend. Weder ist eine hohe Geschwindigkeit technologischer Neuerungen festzustellen, noch zeichnen sich kurzfristig normative Herausforderungen ab, die nicht auf der Basis herkömmlicher ethischer Kriterien bearbeitet werden können. Es ist möglich, auch normative Herausforderungen, die sich aus der schrittweisen Digitalisierung verschiedener Lebensbereiche und dem unterschiedlichen Einsatz von KI ergeben, im Kontext bisheriger unternehmensethischer Konzepte sowie der staatlichen Ordnungspolitik zu behandeln.

Literatur Bitkom (2019): https://www.bitkom.org/Presse/Presseinformation/Angriffsziel-deutsche-Wirt schaft-mehr-100-Milliarden-Euro-Schaden-pro-Jahr (Zugriff am 22. 01. 2020). Bundesministerium für Justiz und Verbraucherschutz (2019): CDR-Initiative – eine gemeinsame Plattform. Berlin 2019. https://www.bmjv.de/DE/Themen/FokusThemen/CDR_Initiati ve/_downloads/cdr_plattform.pdf?__blob=publicationFile&v=3. (Zugriff 20. 01. 2020). Datenethikkommission (2019): Gutachten der Datenethikkommission der Bundesregierung, hrsg. V. Bundesministerium des Innern, für Bau und Heimat, Berlin Oktober 2019. https:// www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutach ten-datenethikkommission.html (Zugriff 22. 01. 2020). 16

Vgl. Zweig (2019), S. 269.

116

Joachim Wiemeyer

Grunwald, Armin (2019): Der unterlegene Mensch. Die Zukunft der Menschheit im Angesicht von Algorithmen, künstlicher Intelligenz und Robotern, München 2019. Homann, Karl (1990): Wettbewerb und Moral, in: Jahrbuch für Christliche Sozialwissenschaften 31. Bd., S. 34 – 56. Jähnichen, Traugott/Wiemeyer, Joachim (2020): Wirtschaftsethik 4.0. Stuttgart 2020. Lin-Hi, Nick/Haenesse, Luca (2020): Corporate Digital Responsibility, in diesem Band. Manager-Magazin (2019). https://www.manager-magazin.de/unternehmen/handel/adidasspeedfactorys-in-ansbach-und-atlanta-werden-geschlossen-a-1295877.html (Zugriff am 22. 01. 2020). Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2019): Jahresgutachten 2019/2020, „Den Strukturwandel meistern“. https://www.sachverstaendigenratwirtschaft.de/jahresgutachten-2019.html (Zugriff am 22. 01. 2020). Smith, Eve (2018): The techlash against Amazon, Facebook and Google – and what they can do: Which antitrust remedies to welcome, which to fight. https://www.economist.com/briefing/ 2018/01/20/the-techlash-against-amazon-facebook-and-google-and-what-they-can-do (Zugriff 02. 05. 2019). Wiemeyer, Joachim (2019): Ethik der Mobilität, in: Amosinternational Gesellschaft gerecht gestalten, 13. Jg. Heft 3 Münster, S. 17 – 24. Wiemeyer, Joachim (2019): „Steueroase Internet“, in: Martin Dabrowski/Mark Radtke/Patricia Ehret (Hrsg.), Digitale Transformation und Solidarität, Paderborn. Zweig, Katharina (2019): Ein Algorithmus hat kein Taktgefühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können, 2. Aufl., München 2019.

Haftung beim Einsatz von Künstlicher Intelligenz Von Rüdiger Wilhelmi

I. Einleitung Die juristischen Fragen im Zusammenhang mit dem Einsatz von Künstlicher Intelligenz (KI) im wirtschaftlichen Bereich stellen inzwischen ein weites Feld dar. Sie reichen von Fragen des Vertragsschlusses durch KI1 über den Einsatz von KI in Gesellschaften und ihren Organen,2 im Kapitalmarktrecht,3 Arbeitsrecht4 und Immaterialgüterrecht5 bis zum Datenschutzrecht.6 Ein besonders prominentes Gebiet stellt dabei das außervertragliche Haftungsrecht dar. Der vorliegende Beitrag untersucht, auf welche Probleme eine Haftung für das Verhalten von KI im geltenden Recht – de lege lata – stößt und geht auch kurz auf mögliche Lösungen im künftigen Recht – de lege ferenda – ein. Dazu wird zunächst kurz geklärt, was hier unter KI verstanden wird. Sodann werden die einschlägigen Anspruchsgrundlagen für die Frage kommenden Haftungsadressaten durchgemustert, also auf der einen Seite die Hersteller und auf der anderen Seite die Eigentümer, Halter oder Nutzer einer KI oder eines damit verbundenen Produkts. Anschließend wird kurz auf Vorschläge für künftiges Recht eingegangen, etwa die Einführung einer neuen gesetzlichen Gefährdungshaftung, Versicherungslösungen oder der KI als Haftungssubjekt, bevor ein Fazit gezogen wird.

II. Künstliche Intelligenz Hier soll kein neuer Versuch unternommen werden, Künstliche Intelligenz zu definieren. Vielmehr soll nur dargelegt werden, welche heuristischen Begriffe und Unterscheidungen den nachfolgenden Ausführungen zugrunde gelegt werden.

1

Dazu etwa Foerster (2019), S. 424 ff. Dazu etwa Teichmann (2019). 3 Dazu etwa Söbbing (2019). 4 Dazu etwa Günther/Böglmüller (2017). 5 Dazu etwa Ory/Sorge (2019). 6 Dazu etwa Klar (2019). 2

118

Rüdiger Wilhelmi

1. Schwache und starke KI Häufig wird zwischen schwacher und starker KI unterschieden.7 Dabei ist die schwache KI auf die Lösung einzelner oder zumindest einer begrenzten Anzahl von Problemen gerichtet, etwa das autonome Fahren. Demgegenüber wäre die starke KI in der Lage, in vielen und unterschiedlichen Bereichen wie oder besser als ein Mensch zu denken und zu handeln. Sie ist jedoch zum gegenwärtigen Zeitpunkt noch im Bereich der Science-Fiction anzusiedeln, zumindest aber noch Jahrzehnte entfernt, so dass sich der vorliegende Beitrag nicht auf sie konzentriert. 2. Automatisierte und autonome Systeme Die Definition von KI als Nachahmung menschlicher Intelligenz8 ist denkbar weit. Unterschieden werden soll hier zunächst zwischen automatisierten Systemen sowie autonomen Systemen in einem weiteren und einem engeren Sinne. Als automatisiert werden hier Systeme verstanden, die selbsttätig auf Reize von außen reagieren, dies aber nach festen Regeln, die das System und seine Verhaltensmuster determinieren und sowohl ex ante als auch ex post nachvollziehbar sind, was insbesondere für explizit programmierte Programme gilt.9 Der Anwender beschränkt sich hier auf die Eingabe bestimmter Reize und die vorherige Festlegung der Regeln, nach denen diese verarbeitet werden. Als autonom im weiteren Sinne werden hier Systeme verstanden, die nicht auf Eingaben des Anwenders angewiesen sind, sondern automatisch auf eigene Wahrnehmungen reagieren.10 Derartige Systeme können Reize unabhängig vom Anwender verarbeiten und damit unabhängig vom Anwender agieren. Jedoch beruht das Verhalten dieser Systeme auf festen Regeln, so dass das Verhalten der Systeme abhängig von den verarbeiteten Reizen determiniert sowie nachvollziehbar und vorhersehbar ist. Der Anwender beschränkt sich hier auf die vorherige Festlegung der Regeln, nach denen die wahrgenommenen Reize verarbeitet werden. Als autonom im engeren Sinne werden hier Systeme verstanden, die nicht nur nicht auf Eingaben des Anwenders angewiesen sind, sondern bei denen auch die Regeln, nach denen das System reagiert, nicht von vornherein vollständig definiert sind, sondern von dem System entwickelt und sich selbst beigebracht werden; sie sind selbstlernende Systeme mit KI auf der Basis von Machine Learning.11 Der Anwender beschränkt sich hier auf die Festlegung der Regeln, nach denen das System seine eigenen Verhaltensregeln entwickelt. 7

Vgl. Bitkom, Künstliche Intelligenz (2017), S. 31. So etwa Zech (2019), S. 199. 9 Vgl. Zech (2019), S. 199. 10 Vgl. Zech (2019), S. 200. 11 Vgl. Zech (2019), S. 200 f.; ähnlich Russel/Norvig (2010), S. 39. 8

Haftung beim Einsatz von Künstlicher Intelligenz

119

Bei autonomen Systemen im engeren Sinne sind häufig die von dem System selbst entwickelten Verhaltensregeln nicht direkt beobachtbar. Dies gilt insbesondere beim Deep Learning unter Verwendung künstlicher neuronaler Netze, die aus künstlichen und auf verschiedenen Schichten angeordneten Neuronen bestehen, die nicht nur auf der Eingangsschicht (input layer) und der Ausgangsschicht (output layer) angeordnet sind, sondern auch auf einer Vielzahl verborgener Zwischenschichten (hidden layers), in denen die eigentlichen Operationen stattfinden. Hier können nicht nur die Operationen nicht direkt beobachtet werden, vielmehr beruhen die Operationen auf statistischen Verfahren, so dass derartige Systeme ein inhärent probabilistisches Verhalten zeigen.12 Ihnen liegen zwar mathematische Berechnungsvorschriften zugrunde, so dass es sich um einen deterministischen Prozess handelt, der grundsätzlich nachvollziehbar ist und transparent gemacht werden kann; aber sie können so komplex sein, dass sie nach menschlichen Maßstäben nicht mehr nachvollziehbar bzw. interpretierbar sind.13 Dann kann nur eingeschränkt erklärt werden, wie das System zu seinen Lösungen gekommen ist; sein Verhalten ist insofern nicht nachvollziehbar und vorhersehbar. Das System stellt sich als insoweit als Black Box dar. 3. Einschränkungen der Autonomie Allerdings kann die Autonomie von Systemen eingeschränkt werden. So kann sich ein System zwar seine Verhaltensregeln selbst beibringen, jedoch dann auf einem bestimmten Stand eingefroren werden, so dass es für die Zukunft kein selbstlernendes System mehr ist.14 Hier sind die Regeln für die Zukunft definiert, aber nicht explizit programmiert und damit nur eingeschränkt erkennbar und nachvollziehbar sowie in den Ergebnissen vorhersehbar, da sie auf statistischen Verfahren beruhen. Dieses Probabilitätsrisiko wird sich zwar regelmäßig dadurch verringern lassen, dass die Vorhersehbarkeit und damit Beherrschbarkeit des Systems durch kontrolliertes Training und Tests verbessert wird,15 aber ausschließen lässt es sich dadurch nicht. Auch ist es denkbar, dass die Freiheitsgrade des autonomen Systems in der Weise beschränkt werden, dass in dem System selbstlernende und explizit programmierte Komponenten im Sinne einer Rahmenprogrammierung so kombiniert werden, dass die explizit programmierten Komponenten als Schranke für die selbstlernenden Komponenten fungieren. Dies setzt allerdings voraus, dass die möglichen Ergebnisse der selbstlernenden Komponenten hinreichend bestimmbar sind, was auf Schwierigkeiten stoßen kann, wenn die Verhaltensmuster selbstlernender Systeme nur eingeschränkt erkennbar und nachvollziehbar sowie in ihren Ergebnissen vorhersehbar sind. 12

Vgl. Zech (2019), S. 201 f. Vgl. Gesellschaft für Informatik (2018), S. 54 f. 14 Vgl. Zech (2019), S. 209. 15 Vgl. Zech (2019), S. 209.

13

120

Rüdiger Wilhelmi

Weiter wird die Autonomie von Systemen durch ihre Einbettung beschränkt. So kann sich die Interaktion mit der Umwelt auf die Anzeige von Ergebnissen auf einem Bildschirm oder die Ansteuerung sonstiger Schnittstellen eines Computers beschränken. Möglich ist aber auch die physische Interaktion mit der Umwelt, etwa im Rahmen sogenannter Roboter. Dabei können autonomen Systeme ortsfest oder mobil sein und sich in einem abgesperrten oder einem für bestimmte Menschen oder andere Systeme zugänglichen Bereich oder in der Öffentlichkeit bewegen. Zudem ist es denkbar, dass die innerhalb eines autonomen Systems stattfindenden Operationen sichtbar und damit erklärbar gemacht werden, so dass es von einer Black Box zu einer White Box wird.16 Insoweit spricht man von erklärbarer KI (Explainable AI – XAI).17 Die Erklärbarkeit geht in der Regel damit einher, dass jedenfalls die momentanen und vergangenen Verhaltensmuster erkennbar und nachvollziehbar und in ihren Ergebnissen vorhersehbar sind. Nicht klar ist mir, ob dies aufgrund des probabilistischen Verhaltens auch für zukünftige Verhaltensmuster nach weiteren Lernschritten des Systems gilt.

III. Haftung des Herstellers Der Hersteller haftet insbesondere im Rahmen der spezialgesetzlichen Produkthaftung nach dem Produkthaftungsgesetz und im Rahmen der deliktischen Produzentenhaftung. 1. Produkthaftung nach Produkthaftungsgesetz Für die Haftung nach § 1 Abs. 1 ProdHaftG muss der Haftende der Hersteller eines Produkts sein, dieses Produkt einen Fehler aufweisen, der Fehler die Verletzung des Lebens, des Körpers oder der Gesundheit eines anderen bewirkt oder eine fremde Sache beschädigt haben, die zum privaten Ge- oder Verbrauch bestimmt und verwendet worden war. Zudem darf kein Ausschlussgrund der § 1 Abs. 2, 3 ProdHaftG vorliegen. Bei Personenschäden wird der Anspruch durch die Höchstbetragsregelung des § 10 ProdHaftG begrenzt; bei Sachbeschädigungen sieht § 11 ProdHaftG eine Selbstbeteiligung vor. Der Anspruch erlischt nach § 13 ProdHaftG grundsätzlich nach 10 Jahren. a) Hersteller eines Produkts Produkte sind nach § 2 ProdHaftG Sachen und Elektrizität. In Hardware implementierte KI unterliegt daher als Teil eines Produkts dem Produkthaftungsrecht. Da die meisten autonomen Systeme auf Interaktion mit ihrer Umwelt angelegt 16 17

Vgl. Gesellschaft für Informatik (2018), S. 30 f. Vgl. Zech (2019), S. 202.

Haftung beim Einsatz von Künstlicher Intelligenz

121

sind und über eine entsprechende Hardware verfügen (embedded systems), dürften sie daher ein Produkt sein. Problematisch ist die gewissermaßen nackte KI ohne Hardwareimplementierung. Diese zählt nach dem Wortlaut nicht zu den Produkten. Allerdings erscheint eine Differenzierung zwischen Software auf einem Datenträger, die ein Produkt ist, und solcher, die aus dem Internet heruntergeladen wurde und mangels physischer Verkörperung kein Produkt wäre, willkürlich. Zudem ist das Produkthaftungsrecht auf die Haftung für industriell hergestellte Güter gerichtet. Angesichts der technischen Entwicklung scheint es daher geboten, das Produkthaftungsrecht auf Software und damit auch auf Computerprogramme mit Künstlicher Intelligenz entsprechend anzuwenden, da es auch hier um die Risiken arbeitsteiliger Produktion von standardisierten und massenhaft hergestellten Gütern geht.18 Damit ist das Produkthaftungsrecht auf die Hersteller von Künstlicher Intelligenz anwendbar. Hersteller ist dabei nach § 4 ProdHaftG insbesondere, wer das Endprodukt oder ein Teilprodukt hergestellt hat, wer sich als Hersteller ausgibt, etwa durch das Anbringen seines Namens oder seiner Marke, oder wer das Produkt importiert hat. b) Fehler Einen Fehler hat ein Produkt nach § 3 ProdHaftG, wenn es nicht die Sicherheit bietet, die berechtigterweise erwartet werden kann. Fehler sind hier sowohl Konstruktions- und Instruktionsfehler, bei denen der Hersteller bei der Konstruktion des Produkts oder der Instruktion des Nutzers nicht mit der erforderlichen Sorgfalt gehandelt hat,19 als auch Fabrikationsfehler, also Ausreißer bei der Produktion, die sich auch unter Aufbietung größter Sorgfalt nicht vermeiden lassen.20 Demgegenüber statuiert das Produkthaftungsgesetz keine Pflichten zur Beobachtung sowie gegebenenfalls zur Warnung vor und zum Rückruf von Produkten; derartige Pflichten können sich aus der deliktischen Haftung und dem Produktsicherheitsgesetz ergeben.21 aa) Maßgeblicher Zeitpunkt für das Vorliegen eines Fehlers Maßgeblicher Zeitpunkt für das Vorliegen eines Fehlers ist derjenige des Inverkehrbringens.22 Ein Produkt ist gemäß § 3 Abs. 1 lit. c) ProdHaftG an den Sicherheitserwartungen zu messen, die im Zeitpunkt seines Inverkehrbringens gegolten haben, und wird gemäß § 3 Abs. 2 ProdHaftG nicht dadurch fehlerhaft, dass später ein verbessertes Produkt in den Verkehr gebracht wurde. Die Ersatzpflicht des Herstellers ist auch ausgeschlossen, wenn das Produkt zwar zum Zeitpunkt des Inverkehrbringens fehlerhaft war, der Fehler damals aber nach dem Stand von Wissen18

Vgl. Wagner (2017), S. 717 ff.; auch Zech (2019), S. 212. Vgl. Wagner (2017), S. 711 f. 20 BGHZ 129, 353, 358 ff.– Mineralwasserflasche; Wagner (2017), S. 712. 21 Wilhelmi, in: Erman (2017), Vor § 1 ProdHaftG Rn. 4. 22 BGHZ 181, 253 Rn. 16 – Airbags. 19

122

Rüdiger Wilhelmi

schaft und Technik nicht erkennbar war. Bei autonomen Systemen kann ein Fehler auch in der Weise auftreten, dass es sich im Rahmen des Selbstlernens unerwünschtes Verhalten beibringt. Ob hier bereits zum Zeitpunkt des Inverkehrbringens ein Fehler vorliegt, hängt davon ab, inwieweit die Gefahr einer solchen Entwicklung bereits zu diesem Zeitpunkt erkennbar war.23 bb) Fabrikationsfehler Fabrikationsfehler weisen Produkte auf, die vom Bauplan des Herstellers abweichen, etwa weil Fehler bei der Produktion von Hardwarekomponenten passieren oder weil Software fehlerhaft aufgespielt oder übertragen wird.24 Dass sich das autonome System anders verhält, als es der Hersteller geplant hatte, begründet für sich noch keinen Fabrikationsfehler,25 sondern nur dann, wenn sie auf einer planwidrigen Beschaffenheit beruhen. Denn bei selbstlernenden Systemen kann das planwidrige Verhalten auch dann auftreten, wenn das System selbst nicht vom Bauplan abweicht. cc) Instruktionsfehler Ein Instruktionsfehler liegt vor, wenn der Hersteller den Verwender des Produkts nicht oder nur unzureichend über die Art und Weise der Verwendung des Produkts und die mit dem Produkt und seiner Verwendung verbundenen Gefahren aufklärt.26 Dies gilt auch für die Verwendung von Produkten, die auf KI basieren, so dass auch auf den richtigen Umgang mit KI und die aus der KI resultierenden Gefahren hingewiesen werden muss.27 dd) Konstruktionsfehler Konstruktionsfehler haben Produkte, bei denen bereits die Konzeption Mängel aufweist.28 Allerdings wäre ein allgemeines Verbot, andere nicht zu gefährden, utopisch.29 Vielmehr geht die ständige Rechtsprechung des BGH zwar davon aus, dass derjenige, der eine Gefahrenlage schafft oder andauern lässt, grundsätzlich die notwendigen Vorkehrungen treffen muss, um eine Schädigung anderer möglichst zu verhindern; aber dies gilt nicht absolut, sondern nur im Rahmen des Zumutbarkeit, für die Maßstab ist, was ein umsichtiger und verständiger, in vernünftigen Grenzen vorsichtiger Mensch im Hinblick auf die Vermeidung von Schäden für andere für not23

Vgl. auch Wagner (2017), S. 750; zweifelnd Sosnitza (2016), S. 769. Vgl. Wagner (2017), S. 725 f. 25 Unklar insofern Wagner (2017), S. 725. 26 Wagner, in: Säcker u. a. (2017), § 3 ProdHaftG Rn. 41. 27 Vgl. für autonome Fahrzeuge auch Wagner (2017), S. 748. 28 Vgl. BGHZ 181, 253 Rn. 15 – Airbags; Wagner (2017), S. 726. 29 BGHZ 195, 30 Rn. 7 – zu § 823 Abs. 1 BGB; Wagner (2017), S. 728. 24

Haftung beim Einsatz von Künstlicher Intelligenz

123

wendig und ausreichend hält.30 Dabei existiert auch dann, wenn bestimmte Risiken, die mit der Produktnutzung einhergehen, nach dem maßgeblichen Stand von Wissenschaft und Technik nicht zu vermeiden sind, nicht per se ein Verbot, das gefahrträchtige Produkt überhaupt in den Verkehr zu bringen; vielmehr bedarf es einer Prüfung, bei der nicht nur Art und Umfang der Risiken und die Wahrscheinlichkeit ihrer Verwirklichung abzuwägen sind, sondern auch der mit dem Produkt verbundenen Nutzen.31 Der Grundsatz, dass absolute Sicherheit nicht geschuldet ist, gilt zwar zunächst nur für das Deliktsrecht, beansprucht aber wie der im Rahmen der deliktsrechtlichen Produkthaftung entwickelte Fehlerbegriff auch im Produkthaftungsrecht Geltung.32 ee) Maßstab für das Vorliegen eines Fehlers Ob ein Fehler vorliegt, bestimmt sich dabei nach dem Sicherheitsstandard, den die Verkehrsauffassung der Erwerber oder Nutzer, aber auch unbeteiligter Dritter in dem entsprechenden Bereich für erforderlich hält, so dass erhöhte Sicherheitsanforderungen herrschen, wenn Endverbraucher oder Risikogruppen betroffen sind, wobei der Hersteller bei mehreren Adressatenkreisen den jeweils höchsten Sicherheitsstandard zu gewährleisten hat.33 Art und Umfang der erforderlichen Sicherheitsmaßnahmen hängt von der Größe der Gefahr ab, so dass bei erheblichen Gefahren für Leben und Gesundheit von Menschen weitergehende Maßnahmen erforderlich sind als dann, wenn lediglich Sachbeschädigungen oder kleinere körperliche Beeinträchtigungen zu befürchten sind.34 Darüber hinaus sind die wirtschaftlichen Auswirkungen der Sicherungsmaßnahme unter Berücksichtigung insbesondere der Verbrauchergewohnheiten, der Produktionskosten, der Absatzchancen für ein entsprechend verändertes Produkt und der Kosten-Nutzen-Relation maßgeblich.35 Der BGH nimmt hier zwar auch auf den so genannten risk-utility-test des US-amerikanischem Rechts Bezug. Aber ob dies so zu lesen ist, dass er sich damit auch diesem Test angeschlossen hat,36 erscheint eher zweifelhaft, da diese Auswirkungen nur über den Rang der betroffenen Rechtsgüter hinaus zu berücksichtigen sind und auch die Verbrauchergewohnheiten einfließen. ff) Fehler bei autonomen Systemen Wenn die Risiken, die mit dem Einsatz höher oder voll automatisierter Produkte verbunden sind, geringer sind als die Risiken, die bei der herkömmlichen Steuerung 30

Vgl. etwa BGHZ 195, 30 Rn. 6; vgl. auch Wagner (2017), S. 728. BGHZ 181, 253 Rn. 17 – Airbags. 32 Wagner (2017), S. 728; vgl. auch BGHZ 181, 253 Rn. 12 – Airbags. 33 BGH, NJW 2009, S. 1669 Rn. 6 f. – Kirschtaler. 34 BGHZ 181, 253 Rn. 18 – Airbags; BGH, NJW 2009, S. 1669 Rn. 8 – Kirschtaler. 35 BGHZ 181, 253 Rn. 18 – Airbags. 36 So Wagner (2017), S. 732. 31

124

Rüdiger Wilhelmi

durch Menschen akzeptiert werden, soll ein Fehler zu verneinen sein.37 Nach anderer Auffassung sollen autonome Systeme doppelt so sicher sein, wie solche mit herkömmlicher Steuerung durch Menschen, da sonst jede Verzögerung des Inverkehrbringens per Saldo mehr Schäden verursachen würde als durch die Verbesserung des Algorithmus mit Hilfe weiterer Testreihen noch vermieden werden könnten.38 Abzustellen sei insofern nicht auf die Sicherheit im jeweiligen Einzelfall, ob also die konkrete Schädigung hätte vermieden werden können, sondern auf die Sicherheit des Systems, ob sich also eine statistische Verbesserung feststellen lässt.39 Vor diesem Hintergrund wird auch der Befund, dass beim Einsatz von KI die Regeln, die das Verhalten des autonomen Systems steuern, unter Umständen nicht erkennbar und nachvollziehbar sowie in den Ergebnissen vorhersehbar sind, so dass auch keine klassische Fehlfunktion feststellbar ist, als unabänderliches Faktum aufgefasst, dem keine haftungsrechtliche Relevanz zukomme, und stattdessen im Ergebnis auf eine auf Statistik beruhende Teilhaftung verbunden mit einer Versicherungslösung gesetzt.40 Nach den allgemeinen Grundsätzen wäre hier eigentlich an einen genaueren Vergleich mit anderen Systemen, eine differenziertere Betrachtung des einzelnen Schadensfalls angesichts der konkreten Ausgestaltung des Systems und die Zuweisung des Risikos der Unaufklärbarkeit an denjenigen, der es gesetzt hat, zu denken. Dabei ist die Frage, ob KI in einem autonomen System im engeren Sinne eingesetzt werden darf, zunächst die sich auch sonst stellende Frage, ob eine bestimmte Technologie eingesetzt werden darf. Dies setzt zunächst voraus, dass die Technologie nicht mit Risiken verbunden ist, die in einem absoluten Sinne nicht hinnehmbar sind, weil die mit dem Einsatz der Technologie verbundenen Nachteile in keinem Verhältnis zu ihren Vorteilen stehen. Ob deshalb autonome Systeme im engeren Sinne einen Konstruktionsfehler aufweisen, wenn sie erst nach der Auslieferung gefährliche Verhaltensweisen erlernen, da insoweit nicht nur ein Entwicklungsrisiko besteht,41 sondern konstruktionsbedingt Risiken geschaffen werden, die unbeherrschbar seien,42 erscheint jedoch zweifelhaft. Denn wie auch sonst wäre hier zunächst zu prüfen, wie groß die zu erwartenden Risiken sind. Zudem wäre zu fragen, ob diese Risiken nicht durch die Einschränkung der Freiheitsgrade des autonomen Systems auf ein erträgliches Maß reduziert werden können, etwa indem nur eingefrorene und hinreichend getestete oder mit einer Rahmenprogrammierung versehene Systeme in den Verkehr gebracht werden. Auch wenn die mit einer bestimmten Technologie verbundenen Risiken in einem absoluten Sinn vertretbar erscheinen, ist wie auch sonst in einen relativen Sinn zu fragen, ob zur Lösung derselben Aufgaben nicht andere Technologien in Betracht 37

So Zech (2019), S. 213; ähnlich Schirmer (2018), S. 568 ff. So für autonome Fahrzeuge Wagner (2017), S. 734 f. 39 So für autonome Fahrzeuge Wagner (2017), S. 733 ff. 40 So wohl Wagner (2017), S. 735 f., 737 ff. 41 Teubner (2018), S. 189 f. 42 So Zech (2019), S. 213.

38

Haftung beim Einsatz von Künstlicher Intelligenz

125

kommen, die besser sind. Dazu sind die Vor- und Nachteile der in Frage stehenden Technologien gegeneinander abzuwägen, was notwendigerweise nur auf einer aggregierten Ebene erfolgen kann. Ergibt die Abwägung, dass eine Technologie bessere Ergebnisse verspricht, ist diese vorzuziehen. Allerdings wird das Ergebnis häufig davon abhängen, welche Szenarien mit welchen konkreten Präferenzen der Abwägung zugrunde liegen, so dass auch verschiedene Technologien mit unterschiedlichen Niveaus der Produktsicherheit gewählt werden können, um die Präferenzen zu bedienen. Diese Abwägung ist auch vorzunehmen, wenn es um die Frage geht, ob ein auf KI basierendes System ein fehlerhaftes System ist. Erweist sich ein solches System in allen relevanten Szenarien als einem herkömmlichen durch Menschen gesteuerten oder ohne KI im weiteren Sinne autonomen System unterlegen, wäre es fehlerhaft. Dabei wird autonomen Systemen ein erheblicher Sicherheitsgewinn zugesprochen, da sie, wenn sie richtig konstruiert und hinreichend getestet seien, im Durchschnitt bessere Entscheidungen träfen als Menschen, so dass der besonders fehlerhafte Faktor Mensch und insbesondere auch menschliches Versagen durch Computertechnik ersetzt und damit neutralisiert werde.43 Allerdings sind auch hier bei autonomen Systemen im engeren Sinne, wenn sie sich im Betrieb weiterentwickeln können, die daraus resultierenden Gefahren ins Kalkül zu ziehen und gegebenenfalls durch Einschränkung der Freiheitsgrade des Systems zu verringern. Wenn demgemäß eine Technologie gewählt werden darf, ist auch diese zu optimieren, also für jedes relevante Schadensszenario zu prüfen, ob es mit zumutbarem Aufwand vermeidbar gewesen wäre. Zu fragen ist dabei allerdings nicht, ob dieses Szenario mit einer anderen als der gewählten Technologie vermeidbar gewesen wäre, also um den Preis eines Systemwechsels, sondern ob es im Rahmen der gewählten Technologie vermeidbar ist, wobei natürlich auch eine (punktuelle) Kombination von Technologien denkbar ist. In diesem Zusammenhang ist zu beachten, dass die Möglichkeiten der Verringerung von Risiken durch den Einsatz von automatisierten oder im weiteren oder engeren Sinne autonomen Systemen den Risikomaßstab allgemein verschärft. Demgemäß ist der Maßstab für ein autonomes System nicht unbedingt ein herkömmliches System mit einem menschlichen Anwender und Bediener, sondern kann auch ein (teil-)automatisiertes System sein, dass die mit dem Faktor Mensch verbundenen Gefahren reduziert. Soweit die Frage nach der Vermeidbarkeit eines Schadensszenarios nicht beantwortet werden kann, weil die innerhalb des autonomen Systems ablaufenden Operationen und damit die für die Verhaltenssteuerung maßgeblichen Regeln nicht sichtbar sind, gelingt auch der Nachweis eines Fehlers nicht. Allerdings ist hier zu überlegen, ob nicht die für Fabrikationsfehler geltende Befundsicherungspflicht, die aus der Verkehrssicherungspflicht resultiert und die Aufklärung des Ursachenzusammenhangs ermöglichen soll,44 auch auf Konstruktionsfehler zu übertragen ist. Der Her-

43 44

So für autonome Fahrzeuge Wagner (2017), S. 709. Vgl. BGHZ 104, 323.

126

Rüdiger Wilhelmi

steller müsste dann die Mängelfreiheit durch entsprechende Tests oder durch Methoden der erklärenden KI feststellen und das Ergebnis dokumentieren. c) Schaden Die Produkthaftung umfasst nur die Verletzung bestimmter Rechtsgüter. Dazu gehören nach § 1 Abs. 1 S. 1 ProdHaftG zunächst die höchstpersönlichen Rechtsgüter Leben, Körper und Gesundheit. Für die Beschädigung von Sachen wird nach § 1 Abs. 1 S. 1 und 2 ProdHaftG nur gehaftet, soweit es sich um andere Sachen als das fehlerhafte Produkt handelt und die Sachen für den privaten Ge- oder Verbrauch bestimmt und verwendet worden waren. d) Ausschluss der Haftung Einen Haftungsausschluss sieht das Produkthaftungsrecht insbesondere für den Fall des § 1 II Nr. 5 ProdHaftG vor, dass der Fehler nach dem Stand der Wissenschaft und Technik nicht erkannt werden konnte. Dies gilt für Konstruktions- bzw. Entwicklungsfehler, nicht aber für Produktionsfehler – sog. Ausreißer.45 e) Beweislast Der Geschädigte trägt gemäß § 1 Abs. 4 ProdHaftG die Beweislast für den Fehler, den Schaden sowie die haftungsbegründende Kausalität zwischen Fehler und Schaden, ebenso für die Herstellereigenschaft, während der Hersteller nur die Voraussetzungen des Haftungsausschlusses beweisen muss.46 Allerdings muss der Hersteller Vorgänge innerhalb seines Unternehmens beweisen.47 Zudem genügt der Nachweis des Fehlers des Produkts, während das pflichtwidrige Verhalten des Herstellers nicht nachzuweisen ist.48 Weiter wird dem Geschädigten der Beweis durch die Möglichkeit des Anscheinsbeweises erleichtert, für den das Vorliegen eines typischen Geschehensablaufs genügt.49 Demgemäß dürfte es für das Vorliegen eines Fehlers bei KI zunächst genügten, wenn diese ein Verhalten zeigt, das von den zu stellenden Anforderungen abweicht. Wie die KI zu diesem fehlerhaften Verhalten gekommen ist, muss dann der Hersteller aufklären, um den Anscheinsbeweis erschüttern zu können.

45

Wilhelmi, in: Erman (2017), § 1 ProdHaftG Rn. 10. Wilhelmi, in: Erman (2017), § 1 ProdHaftG Rn. 12. 47 Wagner (2017), S. 713. 48 Wagner (2017), S. 713. 49 Vgl. Wilhelmi, in: Erman (2017), § 1 ProdHaftG Rn. 12.

46

Haftung beim Einsatz von Künstlicher Intelligenz

127

2. Produzentenhaftung nach § 823 Abs. 1 BGB Bei Konstruktions- und Instruktionsfehlern beruht die Verkehrspflichtverletzung im Rahmen des § 823 Abs. 1 BGB auf den gleichen Verhaltensstandards wie der Fehlerbegriff des § 3 ProdHaftG.50 Der Fehlerbegriff des Produkthaftungsrechts ist mit dem deliktischen Fehlerbegriff identisch.51 Allerdings erfasst die Produzentenhaftung des § 823 Abs. 1 BGB nur Konstruktions- und Instruktionsfehler, während die Produkthaftung des § 1 ProdHaftG auch für Fabrikationsfehler gilt.52 Anders als die Produkthaftung erfordert die Produzentenhaftung nicht nur Tatbestandsmäßigkeit und Rechtwidrigkeit, sondern auch Verschulden, also Fahrlässigkeit oder – weitergehend – Vorsatz. Dabei soll jedoch die in § 276 Abs. 2 BGB als Außerachtlassung der im Verkehr erforderlichen Sorgfalt definierte Fahrlässigkeit dem Fehlerbegriff des Produkthaftungsrechts entsprechen, so dass dem Verschulden kein eigenständiger Anwendungsbereich verbleibe.53 Dies gilt jedoch nur unter dem – herrschenden – objektivierten Verschuldensbegriff, der das Verschulden aufgrund einer typisierenden Betrachtungsweise bestimmt.54 Folgt man demgegenüber dem subjektivierten Verschuldensbegriff, der auf subjektiven Verhaltensstandards, also dem Verstoß gegen innere Sorgfaltspflichten beruht, so dass die Verantwortlichkeit des Schädigers entfällt oder gemindert wird, soweit er die objektiven Sorgfaltsstandards nicht einhalten kann, weil es ihm aus Gründen, die in seiner Person liegen, an der dazu notwendigen Einsichts- oder Steuerungsfähigkeit fehlt,55 so bleibt dem Verschulden ein – kleiner – eigenständiger Anwendungsbereich. a) Inverkehrbringen Der § 823 Abs. 1 BGB schützt die zentralen Rechtsgüter, wie Leben, Körper und Gesundheit sowie Eigentum, aber nicht das Vermögen als solches gegen rechtswidrige und vorsätzliche oder fahrlässige Verletzungen. Anders als im Produkthaftungsgesetz wird nicht nur für die Herstellung beweglicher Sachen (Waren) gehaftet, sondern für jedwedes Verhalten, also auch für die Herstellung von nicht verkörperter Software.56 Zudem wird hier nicht nur für Schäden an anderen Sachen als dem fehlerhaften Produkt gehaftet, sondern kann auch für Schäden am fehlerhaften Produkt selbst gehaftet werden, wenn es sich um einen sogenannten Weiterfresserschaden handelt, bei dem der eingetretene Schaden und der anfängliche Mangelunwert des Fehlers nicht stoffgleich sind, es also technisch möglich und wirtschaftlich vertretbar 50

BGHZ 181, 253 Rn. 12 – Airbags. Wagner (2017), S. 712. 52 Wagner (2017), S. 712. 53 So Wagner (2017), S. 712. 54 Vgl. Grundmann, in: Säcker u. a. (2019), § 276 Rn 54 ff. 55 Vgl. Wilhelmi, in: Erman (2017), § 823 Rn. 152a. 56 Wagner (2017), S. 714, 716. 51

128

Rüdiger Wilhelmi

war, den Fehler zu beheben.57 Zumindest in den hier interessierenden Konstellationen erfordert die Haftung einen Sorgfaltspflichtverstoß. Das Inverkehrbringen einer Gefahrenquelle setzt voraus, dass alle objektiv möglichen und zumutbaren Vorkehrungen getroffen werden, um Schädigungen zu vermeiden; ist dies nicht der Fall oder lassen sich Schädigungen durch diese Vorkehrungen nicht hinreichend sicher vermeiden, läge in dem Inverkehrbringen ein haftungsbegründender Sorgfaltspflichtverstoß.58 Dabei ist der Fehlerbegriff der Produkthaftung im Sinne der Definition des rechtlich gebotenen Sicherheitsstandards auch maßgeblich für die Bestimmung der Sorgfaltspflichten im Rahmen der deliktischen Produzentenhaftung.59 b) Produktbeobachtungspflicht Während das Produkthaftungsrecht keine Produktbeobachtungspflicht kennt, nimmt die Rechtsprechung für die deliktische Produzentenhaftung eine derartige Pflicht an. Maßgeblich ist, welche Maßnahmen ein sorgfältiger Hersteller ergriffen hätte, um Verletzungen durch seine vertriebenen Produkte zu verhindern.60 Inhalt und Umfang sowie Zeitpunkt der Pflicht werden wesentlich durch das jeweils gefährdete Rechtsgut bestimmt und sind vor allem von der Größe der Gefahr abhängig.61 Der Hersteller muss seine Produkte zunächst hinsichtlich noch nicht bekannter schädlicher Eigenschaften beobachten und sich auch über deren sonstige, eine Gefahrenlage schaffenden Verwendungsfolgen informieren.62 Dabei umfasst die passive Produktbeobachtungspflicht die Entgegennahme und Auswertung von Beschwerden über Schadensfälle und Sicherheitsdefizite, während die aktive Produktbeobachtungspflicht sich auf die Generierung von Informationen über mögliche Schadensrisiken durch Auswertung öffentlich zugänglicher Quellen bezieht.63 Die Produktbeobachtungspflicht ist für KI von besonderer Relevanz, da dort die das Verhalten steuernden Regeln nur eingeschränkt erkennbar und nachvollziehbar sowie in den Ergebnissen vorhersehbar sind, so dass der Beobachtung des tatsächlichen Verhaltens besondere Bedeutung zukommt. Erkennt der Hersteller ein unerlaubtes Gefährdungspotential, muss er die Nutzer seines Produktes zumindest warnen.64 Demgegenüber ist es umstritten, ob er seine Produkte auch zurückrufen und (auf eigene Kosten) reparieren muss.65 Eine derartige 57

BGH, NJW 1992, S. 1678 f. – Austauschmotor; Wagner (2017), S. 723 f. BGHZ 195, 30. 59 Vgl. BGHZ 181, 253 Rn. 12; Wagner (2017), S. 729. 60 Wagner (2017), S. 754. 61 BGHZ 80, 186, 191 – Apfelschorf; BGHZ 179, 157 Rn. 10 – Pflegebetten. 62 BGHZ 80, 199, 202 ff. – Apfelschorf. 63 Vgl. Wagner, in: Säcker u. a. (2017), § 823 Rn. 838 f.; für eine Pflicht zur integrierten Produktbeobachtung Schmidt (2019), S. 143 ff. 64 BGHZ 80, 199, 202 – Apfelschorf. 65 Zurückhaltend BGHZ 179, 157 Rn. 19 – Pflegebetten; im Ausgangspunkt auch Wagner (2017), S. 755. 58

Haftung beim Einsatz von Künstlicher Intelligenz

129

Pflicht wird zum Teil unter Hinweis auf die niedrigen Kosten der Gefahrvermeidung bejaht.66 Darüber hinaus muss er Produkte, die er nach dem Erkennen der Gefahrenlage in den Verkehr bringt, so modifizieren, dass sie trotz der Gefahrenlage nicht fehlerhaft sind, was aber nicht Inhalt der Produktbeobachtungspflicht ist, sondern sich bereits aus Pflicht ergibt, keine fehlerhaften Produkte in den Verkehr zu bringen.67 c) Beweislast Grundsätzlich hat im Rahmen des § 823 Abs. 1 BGB der Geschädigte nicht nur die Schädigung, sondern auch die Pflichtverletzung darzulegen und zu beweisen, während es keine vom Hersteller zu beweisenden Ausschlussgründe gibt. Allerdings entsprechen die Modifikationen und Erleichterungen der Beweislast bei der deliktischen Produzentenhaftung weitgehend denjenigen der Produkthaftung nach dem Produkthaftungsgesetz.68 Auch hier muss der Geschädigte nur einen Produktfehler im Sinne eines objektiven Mangels, der im Organisationsbereich des Herstellers verursacht wurde, nachweisen, nicht aber die Verletzung konkreter Verhaltenspflichten im Unternehmen des Herstellers durch bestimmte Organwalter oder Mitarbeiter.69 3. Zwischenergebnis Die Produkthaftung nach dem Produkthaftungsgesetz erfasst die wesentlichen Fallkonstellationen. Sie wird insbesondere hinsichtlich der Produktbeobachtungspflicht durch die deliktische Produzentenhaftung ergänzt.

IV. Haftung des Eigentümers/Halters/Betreibers Neben dem Hersteller können der Eigentümer und der Halter sowie der Betreiber haften. Das Produkthaftungsgesetz greift hier nicht, da es nur für Hersteller gilt. Eine Haftung kann sich aber insbesondere aus der allgemeinen Sachhalterhaftung nach § 823 Abs. 1 BGB ergeben. Diskutiert wird jedoch auch die analoge Anwendung anderer Vorschriften. 1. Allgemeine Sachhalterhaftung nach § 823 Abs. 1 BGB Nach der ständigen Rechtsprechung des BGH muss derjenige, der eine Gefahrenlage schafft oder andauern lässt, grundsätzlich die notwendigen und zumutbaren Vorkehrungen treffen, um eine Schädigung anderer möglichst zu verhindern; Maßstab 66

So für autonome Fahrzeuge Wagner (2017), S. 755 ff. Wagner (2017), S. 754. 68 Wagner (2017), S. 713. 69 Wagner (2017), S. 724 f. m.V.a. BGHZ 51, 91, 105 – Hühnerpest.

67

130

Rüdiger Wilhelmi

für diese Verkehrssicherungspflicht ist, was ein umsichtiger und verständiger, in vernünftigen Grenzen vorsichtiger Mensch im Hinblick auf die Vermeidung von Schäden für andere für notwendig und ausreichend hält.70 Soweit die KI noch weitgehend menschlich determiniert ist, trägt der Eigentümer und insbesondere der Halter oder Betreiber die Verantwortung für das ordnungsgemäße Funktionieren und die Vermeidung der Schädigung Dritter. Insoweit stellen sich nur geringe Haftungsprobleme.71 Denn kommt es doch zu einer Schädigung Dritter, wird in der Regel eine rechtswidrige und schuldhafte Verkehrspflichtverletzung gegeben sein, so dass nach § 823 Abs. 1 BGB gehaftet wird, wenn eins der dortigen Rechtsgüter verletzt wurde. Aber auch bei autonomen Systemen, die auf KI beruhen und bei denen die Regeln für Steuerung des zukünftigen Verhaltens nicht definiert und damit nur eingeschränkt erkennbar und nachvollziehbar sowie in den Ergebnissen vorhersehbar sind, ist wie auch sonst darauf abzustellen, ob das Halten oder Betreiben eines solchen Systems ein Verstoß gegen eine Verkehrspflicht darstellt, weil damit eine nicht hinnehmbare Gefährdung Dritter verbunden ist. Die Verkehrspflicht wird dabei anhand einer Interessenabwägung bestimmt, bei der zugunsten des Geschädigten vor allem die Eintrittswahrscheinlichkeit des Risikos sowie die Größe des drohenden Schadens und der Rang des bedrohten Rechtsguts zu berücksichtigen sind,72 während für den Schädiger seine wirtschaftliche Belastung streitet, die häufig zur Folge hat, dass keine völlige Risikolosigkeit zu garantieren ist.73 Eine Orientierung kann hier insbesondere ein Vergleich zu herkömmlichen Systemen bieten, die entweder durch Menschen oder durch explizit programmierte Programme gesteuert werden. Sind die Interessen potentieller Geschädigter beim Einsatz autonomer Systeme aus der ex ante Perspektive zumindest gleichwertig geschützt, wie bei herkömmlichen Systemen, dürfte ihr Einsatz in der Regel kein pflichtwidriges Verhalten des Halters oder Benutzers darstellen. Verursacht das autonome System aufgrund eines Fehlers einen Schaden, trifft den Halter oder Nutzer keine Ersatzpflicht, wenn der Fehler für ihn nicht erkennbar war; jedoch kann eine Produkt- oder Produzentenhaftung in Betracht kommen. Ist ein auf KI beruhendes autonomes System im engeren Sinne ohne Fehler in den Verkehr gebracht worden und vom Eigentümer, Halter bzw. Benutzer entsprechend seinem Verwendungszweck benutzt worden, trifft weder den Hersteller, noch den Eigentümer, Halter oder Benutzer eine Haftung aus § 823 Abs. 1 BGB, auch wenn das System einen Schaden verursacht.74 Dies entspricht jedoch der Rechtslage bei sonstigen Produkten.

70

Vgl. etwa BGHZ 195, 30. Denga (2018), S. 70. 72 Vgl. auch Hacker (2018), S. 266 73 Vgl. Wilhelmi, in: Erman (2017), § 823 Rn. 80 ff. 74 Vgl. Teubner (2018), S. 189 f. 71

Haftung beim Einsatz von Künstlicher Intelligenz

131

2. Halterhaftung aus gesetzlicher Gefährdungshaftung Neben der allgemeinen Sachhalterhaftung kann eine Halter- oder Betreiberhaftung aus spezialgesetzlichen Gefährdungshaftungstatbeständen bestehen. So haftet der Halter eines Kraftfahrzeugs für Personen- und Sachschäden, die beim Betrieb des Fahrzeugs verursacht werden, verschuldensunabhängig aus dem Straßenverkehrsrecht (§ 7 Abs. 1 StVG). Dies gilt auch für Fahrzeuge, die zum Zeitpunkt des Unfalls nicht durch Menschen, sondern durch Computerprogramme und KI gesteuert wurden.75 Ausgeschlossen ist diese Gefährdungshaftung in Fällen höherer Gewalt (§ 7 Abs. 2 StVG). Diese liegt vor, wenn sich ein betriebsfremdes, von außen durch elementare Naturkräfte oder Handlungen Dritter verursachtes Risiko verwirklicht.76 Durch autonome Systeme verursachte Unfälle stellen jedoch keinen Fall höherer Gewalt dar,77 so dass hier stets der Halter haftet. Beruht der Unfall auf einem fehlerhaften autonomen System, treten neben die Halterhaftung die Produktund Produzentenhaftung, so dass der Halter nach den Grundsätzen des Gesamtschuldnerausgleichs Rückgriff beim Hersteller nehmen kann (§ 426 BGB). Die Halterhaftung des Straßenverkehrsrechts erfasst jedoch nur Kraftfahrzeuge, nicht jedoch autonome Systeme außerhalb von Kraftfahrzeugen. Demgemäß wird vorgeschlagen, für autonome Systeme, die keine Kraftfahrzeuge sind, eine gesetzliche Halterhaftung als Gefährdungshaftung wie bei Kraftfahrzeugen einzuführen.78 Dies solle allerdings weniger zu einer Schadensvermeidung als zu einer Schadensstreuung führen.79 Jedoch ergibt sich die Schadensstreuung nicht aus der Gefährdungshaftung, sondern aus der Kraftfahrzeughaftpflichtversicherung, die jedoch aufgrund der Abhängigkeit der Beitragspflichten von Versicherungsfällen auch gewisse Lenkungseffekte hat. Problematischer ist, ob eine derartige Gefährdungshaftung und eine entsprechende Pflichtversicherung, die auch hinreichend durchgesetzt werden müsste, auch für alle – auch kleineren – autonomen Systeme praktikabel ist. Demgemäß hat der Gesetzgeber eine Gefährdungshaftung bisher nur für bestimmte Risikoquellen eingeführt, die großes Schadenspotential haben, neben Kraftfahrzeugen etwa für Luftfahrzeuge (§ 33 LuftVG), Bahnen, Strom- und Rohrleitungen sowie Bergwerke und Fabriken (§§ 1 ff. HaftPflG), Kernenergie (§§ 25 ff. AtomG), Arzneimittel (§ 84 (AMG) oder Gentechnik (§ 32 GenTG).

75

Wagner (2017), S. 758; kritisch Schirmer (2018), S. 470. BGHZ 109, 8, 14 f.; Wagner (2017), S. 758. 77 Wagner (2017), S. 758. 78 Vgl. Spindler (2015), S. 775 f.; Schirmer (2018), S. 473; Zech (2019), S. 215. 79 So Zech (2019), S. 215. 76

132

Rüdiger Wilhelmi

3. Analogie zur Haftung aus vermutetem Verschulden? Trotzdem wird dies zum Teil für unbefriedigend gehalten.80 Abhilfe wird dann entweder bei einer Haftung aus vermutetem Verschulden gesucht, mit dem eine Umkehr der Beweislast zu Lasten des Eigentümers, Halters bzw. Benutzers einhergeht, die häufig de facto zu einer Haftung führt, oder in einer Analogie zu einer Gefährdungshaftung. a) Analogie zur Haftung für Verrichtungsgehilfen nach § 831 BGB? Vorgeschlagen wird eine Analogie zur Haftung des Geschäftsherrn für seine Verrichtungsgehilfen.81 Danach haftet der Geschäftsherr für Schäden, die durch natürliche Personen verursacht wurden, die von ihm für Verrichtungen bestellt wurden (§ 831 Abs. 1 S. 1 BGB). Die Haftung ist ausgeschlossen, wenn sich der Geschäftsherr exkulpieren kann, weil er bei der Auswahl und Anleitung seines Verrichtungsgehilfen die im Verkehr erforderliche Sorgfalt beobachtet hat oder der Schaden nicht auf der Nichtbeachtung dieser Sorgfalt beruht, was er darzulegen und zu beweisen hat (§ 831 Abs. 1 S. 2 BGB). Die Haftung für Verrichtungsgehilfen ist wie diejenige aus § 823 Abs. 1 BGB eine Haftung für eigenes pflichtwidriges und schuldhaftes Verhalten, kehrt jedoch die Beweislast hinsichtlich der Pflichtwidrigkeit und der Kausalität um und begünstigt so den Geschädigten.82 Allerdings wird der Einsatz autonomer Systeme als nur wenig vergleichbar mit der Bestellung von Verrichtungsgehilfen angesehen, da autonome Systeme einerseits nicht willentlich handeln und andererseits anders als ein zu beaufsichtigender Verrichtungsgehilfe autonom handeln und auch handeln sollen.83 Zudem entsprechen die sich aus der Exkulpationsmöglichkeit des § 831 Abs. 1 S. 2 BGB ergebenen Verhaltenspflichten im Ergebnis im Wesentlichen den Verkehrspflichten der Haftung aus § 823 Abs. 1 BGB84 und auch die mit der Exkulpationsmöglichkeit verbundene Beweislastumkehr lässt sich auch aus anderen Regelungen herleiten,85 so dass zweifelhaft erscheint, ob beim Einsatz von KI überhaupt ein praktisches Bedürfnis und damit die planwidrige Regelungslücke als Voraussetzung der Analogie besteht. Eine Analogie zu § 831 Abs. 1 BGB ist darüber hinaus auch insofern problematisch, als sie ein autonomes System einem Menschen gleichstellen würde.

80

So etwa Spindler (2015), S. 774 ff.; Teubner (2018), S. 189 ff. So Denga (2018), S. 74 ff.; Hacker (2018), S. 265 ff.; Zech (2019), S. 211; de lege ferenda für eine digitale Assistenzhaftung in Orientierung an § 831 BGB, aber unter Verzicht auf den Entlastungsbeweis und die Weisungsgebundenheit Teubner (2018), S. 191 ff. 82 Wilhelmi, in: Erman (2017), § 831 Rn. 1 f. 83 So Grützmacher (2016), S. 697 f. 84 So auch Hacker (2018), S. 266 f. 85 Vgl. auch Foerster (2019), S. 433. 81

Haftung beim Einsatz von Künstlicher Intelligenz

133

b) Analogie zur Tierhalterhaftung nach § 833 BGB? Vorgeschlagen wird auch eine Analogie zur Tierhalterhaftung des § 833 BGB, da selbstlernende Systeme in ihrer Unvorhersehbarkeit Tieren ähneln würden.86 Allerdings ist die Tierhalterhaftung nur bei Haustieren, nicht aber bei Nutztieren als Gefährdungs- und nicht als Verschuldenshaftung ausgestaltet (§ 833 S. 2 BGB),87 so dass eine derartige Analogie gerade bei den in der Praxis relevanten Fallkonstellationen mit wirtschaftlichem Hintergrund nicht zu einer Gefährdungshaftung führen würde. Jedoch wird für Nutztiere eine Beweislastumkehr angeordnet,88 da bei durch Nutztiere verursachten Schäden der Tierhalter nachweisen muss, dass er bei der Beaufsichtigung seines Tieres die im Verkehr erforderliche Sorgfalt beobachtet hat oder der Schaden nicht auf der Nichtbeachtung dieser Sorgfalt beruht. Gegen eine Analogie wird indes angeführt, dass die schärfere Haftung des Tierhalters durch die spezifische Tiergefahr gerechtfertigt werde, während es bei KI an tierischen Trieben fehle.89 Stellt man hingegen darauf ab, dass Tiere in dem Sinne unberechenbar sind, als sich tierisches Verhalten nicht vollständig kontrollieren lasse,90 ist eine gewisse Parallele zur KI nicht zu leugnen. c) Analogie zur Haftung des Gebäudebesitzers nach § 836 BGB? Vorgeschlagen wird weiter eine Analogie zur Haftung des Gebäudebesitzers.91 Dieser haftet für Schäden, die durch die fehlerhafte Errichtung oder die mangelhafte Unterhaltung eines Gebäudes verursacht werden, wobei die Haftung ausgeschlossen ist, wenn der Besitzer die im Verkehr erforderliche Sorgfalt zur Abwendung der Gefahr beobachtet hat, so dass auch hier eine Beweislastumkehr angeordnet ist.92 Eine Analogie sei hier geboten, weil die Haftung darauf beruhe, dass ein besonderes Gefahrenpotential bestehe, was auch bei autonomen Systemen der Fall sei.93 Problematisch ist insofern jedoch, dass nur für fehlerhafte errichtete oder mangelhaft unterhaltende Gebäude gehaftet wird, so dass sich die Frage stellt, ob die KI auch dann ein entsprechendes Gefahrenpotential hat, wenn sie nicht fehlerhaft ist, oder ob nur für autonome Systeme mit Fehlern gehaftet werden soll.

86

So Zech (2019), S. 215. Zech (2019), S. 215. 88 Vgl. Wilhelmi, in: Erman (2017), § 833 Rn. 1. 89 So Grützmacher (2016), S. 698. 90 Dazu Wagner, in: Säcker u. a. (2017), § 833 Rn. 15. 91 So Grützmacher (2016), S. 698 92 Vgl. Wilhelmi, in: Erman (2017), § 836 Rn. 1. 93 So Grützmacher (2016), S. 698. 87

134

Rüdiger Wilhelmi

4. Halterhaftung aus Gesamtanalogie zur gesetzlichen Gefährdungshaftung? Vorgeschlagen wird schließlich, eine Halterhaftung als Gefährdungshaftung aus einer Gesamtanalogie zur Gefährdungshaftung zu begründen.94 Dies könnte durch die Rechtsprechung geschehen, so dass der Gesetzgeber nicht tätig werden müsste. Allerdings wird eine derartige Gesamtanalogie bisher überwiegend abgelehnt.95 Grund dafür sind Teil übergeordnete Erwägungen, zum Teil aber auch praktischen Gründe, weil die Analogie zugleich voraussetzen würde, eine Haftungsobergrenze zu bestimmen, um das Risiko versicherbar zu machen, und auch eine Versicherungspflicht umfassen müsste. Ob ein auf KI beruhendes autonomes System im engeren Sinne hinsichtlich der mit ihm verbundenen Gefahren einem der Fälle der gesetzlichen Gefährdungshaftung gleichzustellen ist, erscheint zweifelhaft. Die spezifische Gefährdung ergibt sich eher aus der Kombination mit entsprechend gefährlichen Technologien, wie dem Kraftfahrzeug. Vor diesem Hintergrund erscheint es sinnvoll, wenn auch nur für diese Kombinationen gehaftet wird, wie es bereits de lege lata der Fall ist. 5. Zwischenergebnis Die allgemeine Sachhalterhaftung erfasst nicht alle Fälle, in denen es zu Schäden durch KI kommt. Eine Einzelanalogie zu den Regelungen der Haftung aus vermutetem Verschulden der §§ 831 ff. BGB überzeugt nicht. Denkbar wäre aber eine Gesamtanalogie, die sich auf die mangelnde Kontrollierbarkeit und die Nähe zum Gefahrenpotential stützten könnte. Allerdings ist diese Gesamtanalogie aufgrund der unterschiedlichen Gesichtspunkte, auf denen die Regelungen der §§ 831 ff. BGB beruhen, wenig überzeugend. Eine Analogie zur Gefährdungshaftung lässt sich nicht überzeugend begründen; hier erscheint die Anknüpfung an die Kombination der KI mit einem der anerkannten Fälle der Gefährdungshaftung überzeugender.

V. Notwendigkeit einer neuen Gefährdungshaftung? Vorgeschlagen wird auch die Einführung einer gesetzlichen Haftung für die Hersteller und professionellen Anwender von KI, die sich an der Haftung für Gentechnik aus § 32 GenTG orientiert, weil es sich ebenfalls um eine neuartige Technologie handele, bei der die Entwickler und Hersteller überlegenes Risikowissen haben.96 Allerdings kombiniert das Gentechnikgesetz die Gefährdungshaftung mit öffentlichrechtlichen Bestimmungen, insbesondere behördlichen Prüf-, Genehmigungs- und 94

So Zech (2019), S. 215. Vgl. BGHZ 55, 234; BGHZ 63, 234; Sosnitza (2016), S. 772; Foerster (2019), S. 433. 96 So Zech (2019), S. 215 f.

95

Haftung beim Einsatz von Künstlicher Intelligenz

135

Überwachungsverfahren sowie konkreten Sicherheitsvorkehrungen, durch die bereits die Gefährdung von Mensch und Umwelt möglichst ausgeschlossen soll.97 Der Gesetzgeber wollte den Bürgern das verbleibende Gefahrenrisiko der Gentechnologie nur zumuten, wenn die Schaffung einer Gefahr mit der Verpflichtung zum Einstand für negative Folgen verknüpft ist.98 Es handelt sich also weniger um eine Haftung für überlegenes Risikowissen als um eine Haftung für ein Restrisiko. Eine entsprechende Entscheidung des Gesetzgebers ist allerdings auch für den Bereich der KI denkbar. Problematischer ist jedoch auch hier, ob eine derartige Gefährdungshaftung und eine entsprechende Pflichtversicherung, die auch hinreichend durchgesetzt werden müsste, auch für alle – auch kleineren – autonomen Systeme praktikabel ist, oder ob es nicht sinnvoll ist, mit der bisherigen Gefährdungshaftung nur an bestimmte Risikoquellen anzuknüpfen, die ein großes Schadenspotential haben. Darüber hinaus sieht § 34 GenTG eine Ursachenvermutung vor, dass durch gentechnisch veränderte Organismen verursachte Schäden auf den auf die Gentechnik zurückzuführenden Eigenschaften der Organismen beruhen. Jedoch stößt diese Beweislastumkehr auf Probleme bei Multikausalität, wie § 6 und § 7 UmwHG zeigen,99 da sie weder eine Abgrenzung zwischen verschiedenen vermuteten Schadensverursachern ermöglicht, noch eine solche zu anderen möglichen Schadensverursachungen.

VI. Versicherungslösung sowie KI als Haftungssubjekt? Vorgeschlagen wird ferner eine Versicherung für sämtliche aus KI resultierenden Schäden, die von den Herstellern und professionellen Anwendern finanziert würde und staatlich oder genossenschaftlich zu organisieren sei sowie insbesondere das Problem des Kausalitätsnachweises lösen würde.100 Allerdings stellt sich dies als eine sehr weitgehende Lösung dar, wie auch der Rückgriff auf eine staatliche oder genossenschaftliche Stelle zeigt. Zudem wird hinsichtlich der Kausalität zwar das Problem nicht bestimmbarer Verursachungsbeiträge verschiedener Hersteller oder professioneller Anwender im Verhältnis zu Geschädigten vermieden, nicht aber das Problem der Bestimmung der anteiligen Beteiligung an der Beitragslast und das Verhältnis zu als Mitverursacher in Frage kommenden Dritten. Auch die vorgeschlagene Qualifizierung autonomer Systeme als (teilrechtsfähige) Rechtssubjekte101 setzt ein entsprechendes Haftungssubstrat und damit eine entsprechende Versicherung voraus. Sie würde zwar von der Notwendigkeit entheben, 97

Vgl. Hirsch/Schmidt-Didczuhn (1990), S. 1193. Regierungsbegründung, BT-Drs. 11/5622, S. 33. 99 Zech (2019), S. 218. 100 Zech (2019), S. 216 f.; vgl. auch Teubner (2018), S. 195. 101 Dazu etwa Schirmer (2019), S. 716 f. 98

136

Rüdiger Wilhelmi

die Verursachungsbeiträge von Herstellern und Anwendern auseinanderzudividieren, würde aber dazu führen, dass die Verantwortlichkeit der Hersteller wie der Anwender in den Hintergrund geriete, und so die Gefahr falscher Verhaltensanreize bergen.

VII. Fazit Das überkommene Haftungssystem und insbesondere die Produzenten- und Produkthaftung sind angesichts der mit der Nutzung von KI verbundenen Gefahren nicht per se überfordert, sondern bei differenzierter Betrachtung durchaus in der Lage, angemessene Ergebnisse zu liefern. Dabei ist zwar davon auszugehen, dass die Bedeutung der Haftung des Halters/Betreibers und des Anwenders zurückgehen und die Bedeutung der Haftung des Herstellers zunehmen wird.102 Dies entspricht jedoch der Verschiebung des Einflusses auf die Gefahrenquelle vom Halter/Betreiber auf den Hersteller, dem die Verantwortung und Haftung nur folgen. Das überkommene Haftungssystem ist insbesondere über das Instrument der Verkehrspflichten im Rahmen des § 823 Abs. 1 BGB in der Lage, den Herausforderungen des Einsatzes autonomer Systeme zu begegnen. Eine Ausweitung der Haftung durch eine Analogie zur Haftung aus vermutetem Verschulden oder eine Gesamtanalogie zu den gesetzlichen Gefährdungshaftungstatbeständen erscheint nicht notwendig. Auch die Einführung einer Versicherungslösung und die Qualifizierung autonomer Systeme als eigenes Haftungssubjekt vermögen nicht zu überzeugen. Die Ablehnung des bisherigen rechtlichen Instrumentariums und der daraus resultierende Ruf nach neuen Instrumenten – sei es durch richterliche Rechtsfortbildung, sei es durch den Gesetzgeber – übersieht zudem, dass das bisherige Instrumentarium die Wertungen enthält, die sich bis in die Gegenwart entwickelt haben. Es bedarf daher einer genauen Analyse, ob und warum diese Wertungen nunmehr keine Geltung mehr beanspruchen, etwa weil sie zu widersprüchlichen Ergebnissen führen oder als nicht mehr angemessen empfunden werden, was aber eine richterliche Rechtsfortbildung nur sehr eingeschränkt legitimieren würde.

Literatur Bitkom (2017): Künstliche Intelligenz. Denga, Michael (2018): Deliktische Haftung für künstliche Intelligenz, in: CR (Computer und Recht), S. 69 ff. Erman, Walter (2017): Bürgerliches Gesetzbuch, 15. Aufl. Foerster, Max (2019): Automatisierung und Verantwortung im Zivilrecht, in: ZfPW (Zeitschrift für die gesamte Privatrechtswissenschaft), S. 418 ff. 102

So für autonome Fahrzeuge etwa Wagner (2017), S. 708 f.

Haftung beim Einsatz von Künstlicher Intelligenz

137

Gesellschaft für Informatik (2018): Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren. Grützmacher, Malte (2016): Die deliktische Haftung für autonome Systeme – Industrie 4.0 als Herausforderung für das bestehende Recht?, in: CR (Computer und Recht), S. 695 ff. Günther, Jens/Böglmüller, Matthias (2017): Künstliche Intelligenz und Roboter in der Arbeitswelt, in BB (Betriebs-Berater), S. 53 ff. Hacker, Philipp (2018): Verhaltens- und Wissenszurechnung beim Einsatz von Künstlicher Intelligenz, in: RW (Rechtswissenschaft), S. 243 ff. Hirsch, Günther/Schmidt-Didczuhn, Andrea (1990): Die Haftung für das gentechnische Restrisiko, in: VersR (Versicherungsrecht), S. 1193 ff. Klar, Manuel (2019): Künstliche Intelligenz und Big Data – algorithmenbasierte Systeme und Datenschutz im Geschäft mit Kunden, in: BB (Betriebs-Berater), S. 2243 ff. Ory, Stephan/Sorge, Christioph (2019): Schöpfung durch Künstliche Intelligenz?, in: NJW (Neue Juristische Wochenschrift), S. 710 ff. Russel, Stuart J./Norvig, Peter (2010): Artificial Intelligence, 3. Aufl. Säcker, Franz Jürgen/Rixecker, Roland/Oetker, Hartmut/Limperg, Bettina (2017): Münchener Kommentar zum Bürgerlichen Gesetzbuch, Band 6, 7. Aufl. Säcker, Franz Jürgen/Rixecker, Roland/Oetker, Hartmut/Limperg, Bettina (2019): Münchener Kommentar zum Bürgerlichen Gesetzbuch, Band 2, 8. Aufl. Schirmer, Jan-Erik (2018): Robotik und Verkehr, in: RW (Rechtswissenschaft), S. 453 ff. Schirmer, Jan-Erik (2019): Von Mäusen, Menschen und Maschinen – Autonome Systeme in der Architektur der Rechtsfähigkeit, in: Juristenzeitung (JZ), S. 711 ff. Schmidt, Alexander (2019): Pflicht zur „integrierten Produktbeobachtung“ für automatisierte und vernetzte Systeme, in: CR (Computer und Recht), S. 141 ff. Söbbing, Thomas (2019): Der algorithmisch gesteuerte Wertpapierhandel und die gesetzlichen Schranken für künstliche Intelligenz im digitalen Banking, in: ZIP (Zeitschrift für Wirtschaftsrecht), S. 1603 ff. Sosnitza, Olaf (2016): Das Internet der Dinge – Herausforderung oder gewohntes Terrain für das Zivilrecht?, in: CR (Computer und Recht), S. 764 ff. Spindler, Gerald (2015): Roboter, Automation, künstliche Intelligenz, selbst-steuernde Kfz – Braucht das Recht neue Haftungskategorien?, in: CR (Computer und Recht), S 766 ff. Teichmann, Arndt (2019): Digitalisierung und Gesellschaftsrecht, in: ZfPW (Zeitschrift für die gesamte Privatrechtswissenschaft), S. 247 ff. Teubner, Gunther (2018): Digitale Rechtssubjekte?, in: AcP (Archiv für die civilistische Praxis) 218, S. 155 ff. Wagner, Gerhard (2017): Produkthaftung für autonome Systeme, in: AcP (Archiv für die civilistische Praxis) 217, S. 707 ff. Zech, Herbert (2019): Künstliche Intelligenz und Haftungsfragen, in: ZfPW (Zeitschrift für die gesamte Privatrechtswissenschaft), S. 198 ff.

Künstliche Intelligenz im Wirtschaftsbereich und in weiteren Lebensbereichen – Korreferat zu Rüdiger Wilhelmi – Von Manfred Bardmann

I. Einleitung Im vorliegenden Korreferat geht es nicht um eine inhaltliche Kritik an den von Rüdiger Wilhelmi vorgelegten juristischen, insbesondere haftungsrechtlichen Aussagen zum Einsatz von Künstlicher Intelligenz (KI) im wirtschaftlichen Bereich.1 Vielmehr ist beabsichtigt: – Inhalt und Struktur seiner Abhandlung und Ergebnisse seiner Überlegungen zusammenzufassen. – Begriff, Formen, Eigenschaften und Anwendungen der KI vorzustellen. In diesem Zusammenhang wird auch auf Beiträge der KI zur Bewältigung der Corona-Pandemie eingegangen. – Elemente aufzulisten, aus denen sich der wirtschaftliche Bereich zusammensetzt, um zu verdeutlichen, dass digitale Techniken und KI mittlerweile sämtliche Aspekte des Wirtschaftens erfasst haben.

II. Inhalt, Struktur und Ergebnisse des Referats von Rüdiger Wilhelmi In seinem Referat konzentriert sich Wilhelmi auf die außervertragliche Schadensersatzhaftung2 und strukturiert seine diesbezüglichen Aussagen, indem er mögliche 1

Wenn im Folgenden Rüdiger Wilhelmi zitiert wird, so beziehen sich die Zitate auf seinen Beitrag in diesem Tagungsband. 2 Neben der außervertraglichen Haftung ist für den wirtschaftlichen Bereich insbesondere die Vertragshaftung von besonderer Bedeutung. Wenn mit KI ausgestattete Systeme in die Lage versetzt werden, selbstständig ihre Vertragspartner (dies kann auch eine andere KI sein) auszuwählen, die Vertragskonditionen auszuhandeln und Verträge abzuschließen und über die Art und Weise, wie diese erfüllt werden, autonom zu entscheiden, dann sind nach Auffassung des Europäischen Parlaments „die herkömmlichen Regeln [der Vertragshaftung] unanwendbar“, vgl. Entschließung des Europäischen Parlaments (2017) Punkt AG.

140

Manfred Bardmann

Haftungsadressaten mit den Anspruchsgrundlagen, auf denen Schadensersatzansprüche beruhen können, kombiniert. Ist der Hersteller einer KI Haftungsadressat, kommen als Anspruchsgrundlagen für einen Geschädigten insbesondere in Frage: – die Produkthaftung nach dem Produkthaftungsgesetz. Hiernach haftet der Hersteller einer KI unabhängig vom Verschulden, wenn das Produkt (die KI) fehlerhaft ist und dies zur Verletzung von Rechtsgütern führt. Wilhelmi definiert die folgenden Begriffe: Hersteller, Fehler, Zeitpunkt des Auftretens eines Fehlers, Fehlerarten (Fabrikationsfehler, Instruktionsfehler, Konstruktionsfehler) und den Schadensbegriff. Darüber hinaus diskutiert er Maßstäbe für das Vorliegen eines Fehlers, erläutert die Möglichkeit von Haftungsausschlüssen und verdeutlicht, dass der Geschädigte die Beweislast trägt. – die deliktische Produzentenhaftung unter Berufung auf § 823 Abs. 1 BGB. In diesem Fall muss dem Hersteller einer KI ein Verschulden, also Vorsatz oder Fahrlässigkeit, nachgewiesen werden. Ist der Hersteller seinen Verkehrssicherungspflichten in ihren Ausprägungen als Organisations-, Instruktions-, Produktbeobachtungs- und Gefahrenabwendungspflichten nicht nachgekommen, so haftet er für hierdurch entstandene Schäden. Dies gilt nicht nur für materielle Produkte, sondern auch für immaterielle Software und anders als im Fall der Produkthaftung ebenfalls für Schäden an der fehlerhaften KI oder der mit KI ausgestatteten Maschine. Wilhelmi kommt zu dem Ergebnis, dass bestehende Haftungsregeln zur Produzenten- und Produkthaftung ausreichen, um Haftungsfragen, die mit der Nutzung von KI auftreten können, angemessen zu beurteilen. Diese Einschätzung gewinnt zusätzlich an Gewicht, da davon auszugehen ist, dass „die Bedeutung der Haftung des Herstellers zunehmen wird“. Neben dem Hersteller können Eigentümer, Halter oder Betreiber für Schäden, die von einer Sache ausgehen, haften. Vier Möglichkeiten für Schäden zu haften, die eine KI verursacht hat, werden von Wilhelmi diskutiert: – Allgemeine Sachhalterhaftung nach § 823 Abs. 1 BGB. – Haftungsregeln in Analogie zu Spezialgesetzen der Gefährdungshaftung. Beachtenswert ist, dass die Gefährdungshaftung eingeführt wurde, um einen Schadensausgleich bei der Nutzung von Systemen zu ermöglichen, die ein hohes Schadenspotential aufweisen. Dies betrifft beispielsweise die Halter von Kraftfahrzeugen, die Betreiber von Luftfahrzeugen und Bahnen, Strom- und Rohrleitungen, Bergwerke, Fabriken, Anlagen der Kernenergie sowie die Produzenten und die Vertreiber von Arzneimitteln sowie die Hersteller und Nutzer von Gentechnik. – Haftungsregeln in Analogie zur Haftung aus vermutetem Verschulden. Was diesen Vorschlag angeht, bespricht Wilhelmi drei Fälle. So wie der Geschäftsherr unter bestimmten Voraussetzungen für Schäden haftet, die sein Verrichtungsgehilfe an-

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

141

richtet (§ 831 Abs. 1 S. 1 BGB), könnte der Betreiber einer KI zum Ausgleich für durch diese verursachte Schäden verpflichtet werden. Weiter wird die Tierhalterhaftung nach § 833 BGB erwähnt, nach der die KI-Betreiberhaftung geregelt werden könnte. Und schließlich wird eine Analogie zur Haftung des Immobilienbesitzers (§ 836 BGB) angedacht. – Haftungsregeln in einer Gesamtanalogie zur gesetzlichen Gefährdungshaftung. Wilhelmi kommt zu dem Schluss, dass die vom § 823 Abs. 1 BGB geforderten Verkehrssicherungspflichten ausreichen, um den durch autonome Systeme ausgelösten Haftungsherausforderungen zu begegnen und eine Analogie zur Haftung aus vermutetem Verschulden oder eine Gesamtanalogie zu den gesetzlichen Gefährdungshaftungstatbeständen nicht notwendig ist. Auch die Einführung neuer Rechtsregeln, die sich beispielsweise an die im Gentechnikgesetz vorgesehene Gefährdungshaftung anlehnen oder die Kreation einer E-Person als eigenständiges elektronisches Rechtssubjekt vorsehen, in Analogie zu dem juristischen Konstrukt der natürlichen oder juristischen Person, kombiniert mit einer Versicherungslösung überzeugen Wilhelmi nicht.3 Sein Fazit lautet: Für die gegenwärtigen und in naher Zukunft zu erwartenden Ausprägungen der KI ist das bestehende Haftungssystem in der Lage, akzeptable Ergebnisse zu liefern. Diese Ansicht wird auch von anderen Autoren und dem Bundesministerium für Wirtschaft und Energie vertreten.4 Eine ständige Überprüfung und gegebenenfalls Anpassung der Regeln, die sich auf die Erhebung und Nutzung von Daten sowie die Herstellung und Anwendung von KI beziehen, sollte allerdings stattfinden. Denn die Auffassung, dass „keine haftungsrechtlichen Regelungslücken im geltenden Recht“ bestehen5, beruht u. a. auf einer bestimmten Vorstellung über den Begriff sowie über die realisierten Formen und Eigenschaften der KI. Letztere allerdings entwickeln sich teilweise disruptiv, so dass es geboten erscheint, im folgenden Gliederungspunkt die angesprochenen Themen tiefergehend zu behandeln.

III. Begriff, Eigenschaften und Formen der Schlüsseltechnologie Künstliche Intelligenz Zu den Schlüsseltechnologien der Digitalisierung gehören Künstliche Intelligenz, maschinelles Lernen, Cloud-Computing, Big Data-Techniken, Internet (Vernetzung der Daten, der Dinge, der Werte, des Sozialen), Sensortechnologien, Robotik, 3D3 Gemäß einem Vorschlag des EU-Parlaments könnte zur Haftung für Schäden, die eine KI anrichtet, eine zu konstruierende E-Person als eigenständiges Rechtssubjekt herangezogen werden. Zu diesem und weiteren Vorschlägen des EU-Parlaments hinsichtlich der Haftung für durch KI verursachte Schäden, vgl. Entschließung des Europäischen Parlaments (2017) Nr. 59 a bis f. 4 Vgl. Söbbing (2019) S. 5, vgl. weiter BMWI (2019) S. 7 und S. 19. 5 Vgl. BMWI (2019) S. 15.

142

Manfred Bardmann

Druck, Blockchain, Cybersicherheit, Monitoring und virtuelle Techniken6. Hingewiesen sei auf den Sachverhalt, dass einzelne der aufgelisteten digitalen Schlüsseltechnologien isoliert nicht eingesetzt werden können bzw. ihre volle Wirksamkeit teilweise nur erreichen, wenn sie im Verbund zusammenwirken. Einige der genannten digitalen Techniken übertragen die in der Natur zu beobachtenden Informationsverarbeitungsprozesse in den Computer. Die Datenbionik, ein Teilbereich der Bionik, erklärt sich hierfür zuständig und baut künstliche neuronale Netzwerke in Maschinen ein, um derart die Wirkungsweise biologischer neuronaler Netzwerke eines Gehirns nachzubilden. Darüber hinaus befasst sie sich mit der Übertragung universeller biologischer Speicherfunktionen der DNA auf digitale Maschinen. Auch die Schwarmbildung von biologischen Systemen und das hiermit einhergehende Emergenzphänomen modelliert die Datenbionik digital. In biologischen Systemen und in Systemen der nicht belebten und nicht vom Menschen gestalteten Natur, die aus vielen Teilchen bestehen (sogenannte Vielteilchen-Systeme), bilden sich, ohne dass von außen steuernd oder regelnd eingegriffen wird, emergente Strukturen durch Selbstorganisation. Auch diese Eigenschaften versucht die Datenbionik maschinell nutzbar zu machen.7 Für viele Autoren, die sich mit der Beziehung zwischen Geist und Körper befassen, ist Intelligenz an einen Körper gebunden.8 Für sie gilt: Ohne Körper keine Intelligenz.9 Es gibt Auffassungen, die über eine derartige Vorstellung hinausgehen, denn sie wollen den Gegensatz zwischen Körper und Geist aufgehoben wissen und problematisieren eine derartige Trennung. „Wenn am Grunde von Energie, Materie, Raum und Zeit möglicherweise die Information als einziges konstitutives Element liegt, dann sind auch Körper und Geist fundamental identisch – lediglich in der Wahrnehmung des Subjekts finden sich zwei Seiten einer Medaille“.10 John McCarthy et al., die den Begriff KI in die Welt gesetzt haben und sich bei seiner Bestimmung an menschlicher Intelligenz orientieren, heben hervor, das KI ein technisches System ist zur Simulation aller „Aspekte des Lernens“ oder jedes ande6 Virtuelle Techniken kommen dort zum Einsatz, wo räumlich-geometrische Aufgaben zu lösen sind, vgl. WBGU (2019) S. 69 ff. 7 Vgl. hierzu Ultsch (2014) S. 4 ff. 8 Übertragen auf KI-Systeme zeigt sich dieser Dualismus, indem die Hardware zum Körper und die Software zum Geist erklärt werden. 9 Antonio Damasio behauptet: „Der Geist ist in der ursprünglichen Bedeutung des Wortes verkörpert, nicht nur verhirnt.“ Damasio (2004) S. 166. Mit der Entwicklung einer verkörperten KI (Embodied Artificial Intelligence) wird beabsichtigt, den traditionellen KI-Ansatz zu überwinden, indem eine Maschinenintelligenz geschaffen wird, die durch eine Interaktion von Software, Hardware und Umwelt zu Stande kommt. So fordert Rodney Brooks eine KI, die auf einer künstlichen, sozialen und autonomen Verhaltensabstimmung mehrerer Roboter ausgelegt ist, um ein abgestimmtes, gemeinsames Handeln der Roboter bei sich ändernden Umweltbedingungen zu erreichen. KI entsteht für Brooks durch eine kollektive Leistung einfach gebauter Systemelemente ohne Einsatz einer koordinierenden Zentralinstanz, vgl. Brooks (2005). 10 Daum (2008) S. 349.

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

143

ren „Merkmals der Intelligenz“, der „Sprache“, menschlicher „Abstraktionen und Konzeptentwicklung“ und „intelligenten menschlichen Problemlösungsverhaltens“. Darüber hinaus erklären McCarthy et al., dass intelligente Maschinen die Fähigkeit besitzen, „sich selbst zu verbessern.“11 Mit KI ausgestattete technische Systeme zeichnen sich durch weitere Fähigkeiten aus. Mittels Sensorik (Wahrnehmung) und möglicher Aktuatorik (Bewegung) sind sie in der Lage, mit anderen maschinellen, psychischen, sozialen und biologischen Systemen zu interagieren, sich zu vernetzen und Daten via Interfaces weiterzugeben und zu empfangen. KI ist mit Resonanzfähigkeit ausgestattet, die es ermöglicht, Daten in Informationen zu transformieren, die zur Fundierung ihrer Entscheidungen und Handlungen genutzt werden. Unter Rückgriff auf ihre Rechenfähigkeit können Systeme der KI Daten verarbeiten und in einem Gedächtnis speichern. Darüber hinaus sind sie in der Lage, aus Erfahrungen zu lernen und über ein Re-entry eine intern repräsentierte Maschine/Umwelt-Differenz zu erzeugen.12 KI besitzt die Fähigkeit Komplexität zu reduzieren, Muster, Bilder, Sprachen und Texte zu erkennen, zu analysieren und zu bearbeiten, Erklärungen zu liefern, Vorhersagen anzufertigen, Entscheidungen und Handlungen eigenständig zu bestimmen und auszuführen, sich flexibel an einer sich ändernden Umwelt und veränderten Zielsetzung anzupassen. Derart sind mit KI ausgestattete technische Systeme in der Lage, selbstständig zu handeln, um Probleme zu lösen. Intelligente Maschinen besitzen genau dann selbstständige Handlungsfähigkeit, wenn sie ihr Verhalten an Gründen orientieren (an Zweck- und/oder Konditionalprogrammen) und mit Selbstbezüglichkeit ausgestattet sind.13 Die zuletzt genannte Eigenschaft ist realisiert, wenn die Maschine auf Reize aus der Umwelt reagieren kann, indem sie ihren Zustand ändert (Interactivity), diese Zustandsänderung eigenständig leistet (basale Autonomy) und nicht immer auf die gleiche Weise auf Umweltreize reagieren muss (Adaptivity).14 Wilhelmi bemerkt, dass der Begriff KI sehr weit gefasst wird, wenn man ihn als „Nachahmung menschlicher Intelligenz“ versteht.15 Er übernimmt daher die Unter11

Vgl. McCarthy et al. (1955). Zur Figur des Re-entry, vgl. Spencer-Brown (1999) S. 60 ff. Niklas Luhmann erklärt: „Die Differenz System/Umwelt kommt zweimal vor: als durch das System produzierter Unterschied und als im System beobachteter Unterschied.“ Luhmann (1997) S. 45. 13 Vgl. Misselhorn (2016). 14 Vgl. Floridi/Sanders (2004) S. 349 – 379 sowie Misselhorn (2018) S. 31. Abhängig von unterschiedlichen Ausprägungen der aufgelisteten Fähigkeiten einer KI lassen sich Intelligenzgrade unterscheiden. 15 Der Versuch KI zu definieren, wird nicht nur dadurch erschwert, dass die Frage, was menschliche Intelligenz ausmacht, bis heute unbeantwortet geblieben ist, sondern auch durch die Tatsache, dass menschliche Intelligenz nicht die einzige Form von Intelligenz darstellt und es daher vermessen ist, sich bei der Bestimmung von KI auf ihre menschliche Form zu konzentrieren. Neben der menschlichen Psyche und dem menschlichen Organismus gibt es wei12

144

Manfred Bardmann

scheidung zwischen schwacher und starker KI16 und konzentriert sich auf die schwache KI, da sie nach seiner Einschätzung für absehbare Zeit die einzig realisierbare KI sein wird. Die sogenannte schwache KI beschränkt ihr Problemlösungsangebot auf spezifische, sehr begrenzte Fragestellungen. Sie unterstützt und erweitert die menschliche Intelligenz beim Umgang mit Unsicherheit, versucht sie aber nicht zu ersetzen. Daher wird die Ausgestaltung der Interaktion von Menschen- und Maschinenintelligenz17 wichtig. Chatbots, mit natürlicher Sprache ausgestattete Dialogsysteme, können die Interaktion zwischen Mensch und Maschine erleichtern und sicherstellen. Neben der Unterscheidung von schwacher und starker KI beschreibt Wilhelmi Unterschiede zwischen automatisierten sowie autonomen Maschinensystemen. Letztere unterteilt er in autonome Systeme i.w.S. und autonome Systeme i. e.S. Die vorgeführte Klassifikation kann mit den Begriffen triviale und nicht-triviale Maschinen, die Heinz von Förster eingeführt hat18, tiefergehend verdeutlicht werden. Triviale Maschinen sind fremdgemacht. Sie umfassen automatisierte Systeme und autonome Systeme i.w.S. Beide Systemarten sind mit extern vorgegebenen, festen Regeln ausgestattet, die einen Input in einen vorab definierten Output transformieren. Autonome Systeme i.w.S. besitzen darüber hinaus, anders als automatisierte Systeme, einen eigenen Wahrnehmungsapparat. Ihre Aktivitäten und die hieraus resultierenden Ergebnisse der genannten Systeme sind durchschaubar und vorhersehbar. Sie arbeiten ohne KI. Für autonome Systeme i. e.S. gilt dies nicht. Sie sind mit KI ausgestattet und gehören zur Klasse der nicht-trivialen Maschinen, da sie einen eigenen Wahrnehmungs- und eventuell Bewegungsapparat besitzen und entsprechend selbstgemachter Regeln, die maschinelles Lernen hervorbringen, eigenständig agieren. Damit weisen autonome Maschinensysteme i. e.S. Eigenschaften auf, die auch organische, psychische und soziale Systeme besitzen.19 Die Begriffe Heinz von Försters erleichtern es, Theoriefiguren der neueren Systemtheorie wie Autopoiese, operative Geschlossenheit, Unvorhersehbarkeit, Geschichtsabhängigkeit, Zirkularität, Komplexität, Entmaterialisierung u.v.a.m. in die Betrachtung von Systemen, die mit KI ausgestattet sind, einzubeziehen. In dietere Organismen und Bewusstseinssysteme, die sich in unterschiedlichem Umfang intelligent verhalten, vgl. hierzu Mainzer (2019) S. 2. 16 Von einer starken KI ist die Superintelligenz zu unterscheiden. Vor einer Superintelligenz mit kognitiven Superkräften wird gewarnt, denn sie übertrifft den Menschen in all seinen Begabungen und allem, was er kann. Darüber hinaus besteht die Möglichkeit, dass sie sich gegen den Menschen selbst wendet, vgl. Bostrom (2017) S. 131 ff. 17 Unter dem Begriff Maschinenintelligenz fasst Shoshana Zuboff Maschinenlernen, klassische Algorithmen, Predective Analytics und KI zusammen, vgl. Zuboff (2020) S. 87. 18 Vgl. von Foerster (1993) S. 206 ff. sowie S. 244 ff. 19 Psychische Systeme können denken. Organische und soziale Systeme können dies nicht. Soziale Systeme können kommunizieren, psychische Systeme können dies nicht. Mit autonomen maschinellen Systemen versucht man das Denken zu mechanisieren.

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

145

sem Korreferat können derartige Gedanken nicht weiter ausgebreitet werden. Dies ist an anderer Stelle bereits geleistet.20 Geht man davon aus, dass autonome maschinelle Systeme i. e.S. in der Lage sind, aus Daten selbstständig Informationen und Wissen zu kreieren, hieraus eigenständig Mitteilungen zu formulieren, die sie an andere autonome maschinelle Systeme weitergeben können21 und sind sie mit einer Apparatur ausgestattet, die ein Verstehen oder Miss-Verstehen von Mitteilungen ermöglicht, erfüllen sie nach den Vorstellungen der neueren Systemtheorie alle Voraussetzungen, dass Information, Mitteilung und Verstehen eine Einheit bilden. Ist dies der Fall, kommt Kommunikation zustande. Bleibt dieses Phänomen keine Episode, etabliert sich ein soziales System, das ausschließlich aus Kommunikation besteht und die Eigenschaften der operativen Geschlossenheit und Autopoiese besitzt. Entsprechend dieser Überlegungen könnte ein Kommunikationssystem (ein soziales System) zustande kommen, ohne dass psychische Systeme sich als Umwelt zur Verfügung stellen (und damit auch ohne entsprechende organische Umweltvoraussetzungen). Sollten intelligente Maschinen in die Lage versetzt werden, im Unternehmen sämtliche Entscheidungen über Zahlungen bzw. Nichtzahlungen22 zu treffen, etabliert sich ein Unternehmen als soziales System, ohne dass psychische Systeme als Umweltelemente beteiligt wären. Mit Zahlungs- bzw. Nichtzahlungsentscheidungen ist auch das Autopoiese-Element benannt, dass Unternehmen auf der sozialen Ebene der Realität die Qualität eines operativ geschlossenen Systems verleiht. Die vorstehenden Überlegungen verdeutlichen, dass die Eigenarten maschineller Kommunikation von Entscheidungen und das Verhältnis des Menschen zur intelligenten Maschine zu klären sind, da Kommunikation, bei der nicht nur das psychische System des Menschen, sondern auch intelligente Maschinen Umweltelemente bilden, in Zukunft einen immer größeren Raum einnehmen wird.

IV. Künstliche Intelligenz in ausgewählten Lebensbereichen und während der COVID-19-Pandemie Zunächst war es der Bereich der Spiele, in dem KI der menschlichen Intelligenz überlegen war. Mittlerweile übertrifft Maschinenintelligenz die Menschenintelligenz auch in anderen Lebensbereichen. Hierfür ist die KI namens Watson23 ein Bei20

Vgl. Bardmann (2019) S. 440, S. 453 ff, S. 461 ff., S. 475, S. 758 und S. 803 f. Mitteilungen von intelligenten Maschinen können auch an psychische, und/oder soziale und/oder biologische Systeme gerichtet sein. 22 Derartige Entscheidungen bestimmt Luhmann als Elemente des sozialen Systems von Unternehmen, vgl. Luhmann (1994) S. 53. 23 Das intelligente Computerprogramm der Maschine wurde nach dem ersten Vorstandsvorsitzenden von IBM Thomas J. Watson benannt. Nach Auskunft von IBM ist Watson eine KI, vgl. https://www.ibm.com/watson. 21

146

Manfred Bardmann

spiel. Watson entwickelt Chatbots und virtuelle Assistenten, wird als Übersetzungsmaschine, als Diktiergerät oder als Lautsprecher, der u. a. geschriebenen Text als natürliche Sprache ausgibt, genutzt. Anhand von geschriebenen und gesprochenen Texten kann Watson Emotionen, Bedürfnisse, Persönlichkeitsmerkmale und Wertvorstellungen von Menschen bestimmen. Strukturen in Datenmassen, Bildern und Gesichtern zu erkennen, ist für Watson problemlos möglich. Watson befasst sich mit der Verhütung von Cyberkriminalität und mit der digitalen Ausgestaltung des Finanzwesens. Ein weiterer Aktivitätsschwerpunkt von Watson ist das Gesundheitssystem. Watson unterstützt die Entwicklung einer individualisierten medizinischen Versorgung, hilft bei Prävention, Diagnose, Therapie und Nachsorge von Krankheiten, bei der Einrichtung von Operationssälen, der Optimierung von Abläufen in Krankenhäusern und bei vielem mehr. „Ansonsten macht Watson, was es will und da es ein System ist, das selbstständig lernt, ist nicht mehr so genau einzuschätzen, was dabei herauskommt.“24 Zurzeit können KI-Systeme und digitale Produkte auf unterschiedliche Weise einen wichtigen Beitrag zur Eindämmung und Überwindung der COVID-19-Pandemie25 leisten und damit weltweit zur Entlastung der Gesundheitssysteme beitragen. – So wird im Kampf gegen die Ausbreitungsgeschwindigkeit des Corona-Virus der Einsatz einer App diskutiert, die ein Bewegungsprofil des Nutzers erstellt, seine sozialen Kontakte aufzeichnet und sein individuelles Infektionsrisiko bestimmt. Mit diesen Erkenntnissen sollen eine länderweite bzw. Kontinente umfassende Ausgangssperre verhindert und Quarantänemaßnahmen auf Personen, die Symptome einer Corona-Erkrankung aufweisen, und potentiell infizierte Personen konzentriert werden.26

24 Bardmann (2019) S. 584. Wer wissen will, woran Watson gerade arbeitet, erfährt es auf der Website von IBM unter der Rubrik Cognitive Stories. 25 Die WHO benannte das neuartige Corona-Virus mit den Begriffen: Severe Acute Respiratory Syndrome-Corona-Virus-2, abgekürzt: Sars-CoV-2. Die Atemwegserkrankung, die durch Sars-Cov-2 ausgelöst werden kann, trägt den Namen COVID-19 (Coronavirus Disease 2019). Bereits heute hat COVID-19 das Leben und Denken der Menschen grundlegend verändert. Soziale Kontakte finden vermehrt im Internet statt. Es wird darüber nachgedacht, verstärkt auf regionale, ortsnahe Produktion und Service-Einrichtungen zu setzen. Statt Just in Time-Produktion wird über eine Produktion gesprochen, die mit Lagerhaltung arbeitet, um die Versorgungssicherheit zu erhöhen. Die Verlagerung der Herstellung von wichtigen pharmazeutischen Produkten, von Schutzmasken und -kleidung ins Ausland wird genauso kritisiert wie die überzogene Ökonomisierung des Gesundheitswesens sowie fehlendes Klinik- und Pflegepersonal und dessen Bezahlung. 26 Zu Einzelheiten der bereits im Einsatz befindlichen Stopp-Corona-App des Österreichischen Roten Kreuzes, vgl. https://www. roteskreuz.at/site/faq-app-stopp-corona/. Das Bundesinnenministerium ist der Auffassung, dass „längerfristig der Einsatz von Big Data und Location Tracking unumgänglich [ist].“ BMI (2020) S. 15. Die Einführung der vorgesehenen Maßnahmen zum Datentracking werfen datenschutzrechtliche und ethische Fragen auf, die an dieser Stelle nicht tiefergehend behandelt werden können.

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

147

– Eine der Forschungsabteilungen der Handels- und Kommunikationsplattform Alibaba.com entwickelte eine KI, die in 96 % der Fälle anhand der Analyse von Computertomografie-Aufnahmen erkennt, ob die untersuchte Person an einer gewöhnlichen Lungenentzündung oder an COVID-19 erkrankt ist. Darüber hinaus gibt es Systeme der KI, die mit ihren Sensoren Krankheitssymptome von infektiösen Erkrankungen der Atemwege am Hustengeräusch identifizieren.27 – Es ist bekannt, dass das kanadische Unternehmen BlueDot bereits am 31. 12. 2019 über die Ausbreitung von COVID-19 informiert hat. Die von BlueDot veröffentlichte Prognose basiert auf einer KI, die Auffälligkeiten ermittelt, indem sie Data Mining von Suchmaschinen und sozialen Medien nutzt, regionale Nachrichten, Datenbanken sowie Meldungen zu Tier- und Pflanzenkrankheiten, Gesundheitswarnungen offizieller Stellen sowie Ticketdaten von Fluggesellschaften durchsucht. – Der Corona-Schnelltest, den die Medizinsparte Healthcare Solutions des Autozulieferers Bosch zur Verfügung stellt, ist der erste vollautomatisierte, molekulardiagnostische Test, der in der Lage ist, mit COVID-19 infizierte Personen zu identifizieren. – Das dänische Unternehmen Blue Ocean Robotics hat den autonom durch Krankenhäuser fahrenden Desinfektionsroboter UVD Robot auf den Markt gebracht, der mit UV-C-Licht das Corona-Virus, Bakterien und weitere schädliche Mikroorganismen eliminiert. Nach eigenen Angaben liegt die Desinfektionsrate bei 99,99 %. – Das Center for Systems Science and Engineering (CSSE) der Johns Hopkins Universität verfolgt die Ausbreitung von COVID-19 in Echtzeit. Es veröffentlicht die bestätigten Fallzahlen der Personen, die sich weltweit und differenziert nach Ländern und Regionen mit COVID-19 infiziert haben, hieran gestorben sind und die vollständig geheilt, die Infektion überstanden haben.28 – Bereits heute ist zu beobachten und in Zukunft verstärkt zu erwarten, dass die Corona-Krise den Einsatz von digitaler Technik und KI weiter vorantreibt. Immer häufiger sind Arbeitnehmer im Home-Office tätig. Diese Aktivitäten, Telefonund Videokonferenzen sowie die Übertragung von Kulturveranstaltungen übers Internet und das Streaming von Filmen und Online-Spielen haben das Datenaufkommen rasant ansteigen lassen. Die Corona-Pandemie hat nicht nur dramatische Auswirkungen auf das Gesundheitssystem, das Arbeits- und Freizeitleben, sondern verändert die gesamte Gesell27

Forscher der amerikanischen University of Massachusetts Amherst haben die KI FluSense zur Vorhersage möglicher Pandemien entwickelt. FluSense wurde bereits erfolgreich in Krankenhäusern und Arztpraxen eingesetzt und soll nun auch in Bahnhöfen, Flughäfen sowie in anderen öffentlichen Bereichen getestet werden. 28 Vgl. https://coronavirus.jhu.edu/map.html. Die von der Johns Hopkins Universität veröffentlichten Fallzahlen werden teilweise automatisch, teilweise manuell ermittelt.

148

Manfred Bardmann

schaft, ihre Subsysteme, Organisationen und Interaktionen.29 Dies insbesondere auch deshalb, weil KI ein noch viel breiteres Spektrum von Aufgaben übernehmen soll, als das bis hierher skizzierte. Es ist davon auszugehen, dass Digitalisierung und KI in sämtlichen Funktionssystemen der Gesellschaft weiter voranschreiten. Dies gilt für das Politik-, Verwaltungs-, Rechts-, Bildungs-, Wissenschafts-, Kunst- und Familiensystem sowie insbesondere auch für das Wirtschaftssystem.

V. Künstliche Intelligenz im Wirtschaftsbereich Wenn das Thema KI im Wirtschaftsbereich bearbeitet werden soll, sind nicht nur Charakteristika der KI vorzustellen, sondern es ist auch zu klären, was den Wirtschaftsbereich ausmacht. 1. Elemente des Wirtschaftsbereichs Der wirtschaftliche Bereich ist mit dem real existierenden Wirtschaftssystem gleichzusetzen. Dieses umfasst die jeweilige Wirtschaftsordnung, Wirtschaftsverfassung, Wirtschaftspolitik, Wirtschaftsfaktoren und den Wirtschaftsprozess.30 – Die Wirtschaftsordnung besteht aus faktisch zur Geltung kommenden Formen des Wirtschaftens, rechtlichen Regeln, die Elemente der Wirtschaftsverfassung sind, sowie aus auf die Wirtschaft bezogene Sitten und Gebräuche.31 Zu den Formen des Wirtschaftens gehören die Formen der Wirtschaftsgebilde, Koordinationsformen, Eigentumsformen, Formen der Geld- und Finanzverfassung sowie Formen der Verwaltung. – Menschliche Bedürfnisse und Verhaltensweisen, Bestände an Produktionsfaktoren, das technische und organisatorische Wissen und die allgegenwärtige Unsicherheit werden unter dem Begriff Wirtschaftsfaktoren zusammengefasst. – Auch die Wirtschaftspolitik, die als Ordnungs- und/oder Prozesspolitik ausgestaltet sein kann, gehört zum Wirtschaftssystem. 29 Entsprechend einer vom Bundesinnenministerium in Auftrag gegebenen Studie wird das Bruttoinlandsprodukt in Deutschland im Jahr 2020 bestenfalls um 4 %, im schlimmsten Fall um 32 % sinken. Die Autoren der Studie kommen zu dem Schluss: „Es droht, dass dies die Gemeinschaft in einen völlig anderen Grundzustand bis hin zur Anarchie verändert.“ BMI (2020) S. 8. Das Sondergutachten des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung 2020 sieht die wirtschaftliche Entwicklung nicht derart dramatisch, vgl. Sachverständigenrat (2020). 30 Zu einer derartigen Begrifflichkeit und zu alternativen Begriffsverwendungen, vgl. Bardmann (1988) S. 34 ff. und S. 61 ff. 31 Nicht sämtliche Elemente der Wirtschaftsordnung sind auf bewusste Entscheidungen von Menschen zurückzuführen. Von bewusst gesetzten Ordnungselementen sind gewachsene, durch das Zusammenspiel der wirtschaftenden Akteure evoluierte, zu unterscheiden.

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

149

– Der durch die bisher genannten Elemente geordnete Wirtschaftsprozess, der als Produktion, Verteilung und Konsum erscheint, ist ebenfalls Bestandteil des Wirtschaftssystems.32 Sämtliche Wirtschaftssystemelemente können Gegenstand betriebswirtschaftlicher Forschung sein. Ihr besonderes Interesse allerdings gilt den Einzelwirtschaften und der näheren Umgebung dieser Wirtschaftsgebilde. Dabei nehmen die Unternehmen, deren innere Struktur und die hierdurch mitbestimmten Geschäftsprozesse sowie ihre Märkte und ihre Konkurrenten eine Sonderstellung ein. Während Erich Gutenberg Unternehmen als produktive und finanzielle Systeme betrachtet, beobachtet Niklas Luhmann Unternehmen als soziale Systeme. Ich kombiniere diese Vorstellungen und nutze hierzu den Begriff der Unternehmenssphären, die aus Funktionsbereichen zusammengesetzt gedacht werden.33 Die folgenden Unternehmenssphären sind zu unterscheiden: Realgütersphäre, Nominalgütersphäre, interne Datensphäre sowie Steuerungs-, Regelungs- und Strukturierungssphäre (SRS-Sphäre). – In der Realgütersphäre geht es um reale Güter und Dienste sowie um die Funktionsbereiche Beschaffung, Produktion, Absatz, Lagerhaltung und Logistik. – In der Nominalgütersphäre finden Bewertungen in Geld statt. Die Funktionsbereiche Investition und Finanzierung sind hier beheimatet. – Die interne Datensphäre ist für die datenmäßige Erfassung sämtlicher Aktivitäten des Unternehmens und für die Erstellung von Prognosen der zukünftigen Marktund Unternehmensentwicklung zuständig. Insbesondere die Funktionsbereiche des internen und externen Rechnungswesens leisten dies. – Die SRS-Sphäre setzt sich zusammen aus der primären SRS, die mit dem Regelkreis der Unternehmensführung beschrieben werden kann und der sekundären SRS, die mit Controlling gleichzusetzen ist, wenn die von mir entwickelte Vorstellung von Controlling34 angewandt wird. Die SRS-Sphäre umhüllt und durchdringt sämtliche Unternehmenssphären. Sie zeichnet sich durch ihren sozialen Charakter und damit durch operative Geschlossenheit aus.35 Die anderen Unternehmenssphären sind demgegenüber offene Systeme mit Umweltkontakt. In und zwischen Realgüter-, Nominalgüter- und interner Datensphäre sowie zwischen diesen Unternehmenssphären und der Unternehmensumwelt finden wirtschaftliche Interaktionen statt, die auf Entscheidungen bzw. Entscheidungsprämis32 Wirtschaftsordnung und Wirtschaftsprozess bedingen sich wechselseitig. Ihr Verhältnis ist durch Zirkularität ausgezeichnet. 33 Vgl. Bardmann (2019) S. 707 ff. 34 Vgl. Bardmann (2019) S. 730 – 733. 35 Operative Geschlossenheit der SRS-Sphäre schließt gesellschaftliche und individuelle Einflüsse auf die Unternehmensführung nicht aus. Sie besagt lediglich, dass sich die SRSSphäre aus einzigartigen Operationen, nämlich Entscheidungen zusammensetzt und nichts als Entscheidungen in ihr Platz haben.

150

Manfred Bardmann

sen über Zahlungen bzw. Nichtzahlungen beruhen. Hiermit ist noch einmal die soziale Dimension von Unternehmen hervorgeben, die das produktive und das finanzielle System eines Unternehmens sowie die datenmäßige Abbildung des wirtschaftlichen Geschehens ermöglicht. 2. Künstliche Intelligenz in den Formen des Wirtschaftens Digitalisierung und KI durchdringen und verändern sämtliche Formen des Wirtschaftens. Dies betrifft die bestehenden Formen von Wirtschaftsgebilden und neu hinzutretende Formen von Wirtschaftsgebilden wie z. B. FinTech-Unternehmen36, große Digitalkonzerne (Google, Amazon, Facebook, Apple), mittelständische Internetunternehmen und digitale Ökosysteme, die digitale Inhalte, Internetdienste, Software und mobile Endgeräte unterschiedlicher Akteure in einem digitalen Netzwerk integrieren. Digitalisierung und KI beeinflussen die Formen der Produktion, der Verteilung und des Konsums. Neuen Formen der Koordination wirtschaftlichen Entscheidens und Handelns, bezeichnet mit den Schlagworten Plattform-Ökonomie, Crowdsourcing, Netzwerkökonomie, Digital Economy37, Wikinomics38 werden ergänzt durch KI veränderte Markt- und zentrale Planungsformen sowie genossenschaftliche und andere Kooperationsformen. Mithilfe der Blockchain-Technologie und des maschinellen Lesens entwickeln sich Vereinbarungs- und Vertragsformen zu Smart Contracts, die eine automatische Vertragsabwicklung ermöglichen. Eigentumsformen bleiben ebenfalls von Digitalisierung und KI nicht unberührt. Die Diskussion, ob Daten wie öffentliche, kollektive oder private Güter zu behandeln sind und die damit verbundene Frage, welche eigentumsrechtliche Form (öffentliches Eigentum, Kollektiveigentum, Privateigentum) für diese und andere immaterielle Güter (z. B. digitale Produkte) angemessen ist, ist noch nicht endgültig beantwortet.39 Soweit Datennutzung sich durch Nicht-Rivalität und Nicht-Ausschließbarkeit auszeichnet, sind Daten öffentliche Güter. Daher kann an Daten, soweit sie wie öffentliche Güter behandelt werden, kein Privateigentum bestehen. Dies bedeutet u. a., dass der Markt nicht in der Lage ist, seine Koordinationsfunktion zu erfüllen und eine optimale Allokation von Daten herbeizuführen, denn dies gelingt ihm nur bei privaten Gütern.

36

Der Begriff FinTech ist ein Kürzel für digitalisierte und durch KI ausgezeichnete standardisierte Finanzdienstleistungen, die nicht von herkömmlichen Unternehmen des Finanzsektors angeboten werden, sondern von branchenfremden Unternehmen. 37 Vgl. Tapscott (1997). 38 Don Tapscott und Anthony D. Williams definieren: „The new art and science of wikinomics is based on four powerful new ideas: openess, peering, sharing, and acting globally.“ Tapscott/Williams (2008) S. 20. 39 Mittlerweile werden Daten zur Handelsware. Sie werden zu Geld gemacht, mit dem bezahlt werden kann. Es ist eine Datenwirtschaft entstanden.

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

151

Nationale und internationale Währungsordnungen werden durch Crowdfunding, Kryptowährungen, neue Formen des Zahlungsverkehrs, der Kredit- und Anlagenvermittlung sowie der Vermögensberatung durch intelligente Beratungsroboter ergänzt. Wirtschaftliche Sitten und Gebräuche, zwei weitere Elemente der Wirtschaftsordnung, verändern sich nicht nur durch die Nutzung von Smartphones und von sozialen Medien. Die beschriebenen Modifikationen der Formen, in denen faktisch gewirtschaftet wird, bewirken eine grundlegende Transformation der Wirtschaftsprozesse in sämtlichen Wirtschaftsbranchen. An einigen Beispielen sei dies verdeutlicht. So greift die Landwirtschaft immer umfassender zu KI-Unterstützung bei Feld- und Stallarbeit, Lebensmittelverarbeitung und Landhandel. Unter dem Stichwort Industrie 4.0 wird Automatisierung, Computer- und Robotereinsatz in der Industriebranche behandelt. Der Beitrag des stationären Einzelhandels zum gesamten Handelsvolumen ist stark rückläufig. Demgegenüber expandiert der Online-Handel in Form des Versandhandels (E-Commerce und Teleshopping). Letzterer ist gekoppelt mit OnlineBezahl- und Kreditsystemen. Die aufgeführten Handelselemente nutzen KI-Entwicklungen und Cloud-Services in Form von IaaS (Infrastructure as a Service), PaaS (Platform as a Service) und SaaS (Software as a Service). Derartige Leistungen ersetzen Dienstleistungen, die vor Einführung der Cloud, vor Ort und manuell beim Kunden stattfinden mussten. KI wird eingesetzt, um Gehirnschäden beim Menschen auszugleichen, sodass an Denken wieder zu denken ist. Im Fall von Schädigungen der Gliedmaße und/oder Organe kann deren Funktion durch KI und Prothetik teilweise oder vollständig wieder hergestellt werden. Im Mobilitätsbereich ermöglicht KI autonome Fahrzeuge,40 im Energiesektor eine bedarfsgerechte Erzeugung und Bereitstellung von Energie. Eine Kombination der Anwendungsmöglichkeiten von KI findet sich im Smart Home und in der Smart Factory. Letztlich werden positive Beiträge vom Einsatz der KI in sämtlichen Wirtschaftsbereichen erwartet. Eine häufig hervorgehobene positive Entwicklung sind stark sinkende Transaktionskosten,41 denn durch Nutzung von Internet und KI verringern sich die Suchkosten rapide, umfassende Preis- und Leistungsvergleiche werden möglich und es kommt zu einer schnelleren Abstimmung von Angebot und Nachfrage. Darüber hinaus sind digitale Produkte weltweit fast kostenlos von einem zum anderen Ort zu transportieren. Weitere Charakteristika der digitalen, künstlich intelligenten Wirtschaft sind die globalen Verflechtungen von Güter-, Finanz- und Datenströmen 40 Es wird erwartet, dass, sobald Smart Cars auf den Straßen fahren, die Anzahl der Verkehrsunfälle reduziert und eine Optimierung der Verkehrsflüsse möglich wird. Ein zusätzlicher positiver Effekt ist, dass ältere Menschen durch autonomes Fahren länger mobil bleiben. 41 Jeremy Rifkin begeistern nicht nur sinkende Transaktionskosten. Er sieht vielmehr die Null-Grenzkosten-Gesellschaft auf uns zukommen, denn die Grenzkosten für die Bereitstellung vieler Güter wird in einer durchdigitalisierten Wirtschaft bei nahezu Null liegen, vgl. Rifkin (2016).

152

Manfred Bardmann

sowie eine weltweite Interdependenz wirtschaftlicher Entscheidungen und Handlungen. 3. Künstliche Intelligenz in den Unternehmenssphären Im Folgenden werden beispielhaft Funktionsbereiche der Unternehmenssphären herausgegriffen, um exemplarisch einige wenige bereits stattgefundene und zukünftig noch zu erwartende durch KI verursachte Umgestaltungen der Unternehmenssphären zu verdeutlichen. a) Künstliche Intelligenz in der Realgütersphäre Die Ausweitung der Wirtschaftsbereiche, in denen Unternehmen Daten als Produktionsfaktor einsetzen, Daten produzieren und vermarkten, hat zu einer zunehmenden Entmaterialisierung ihrer Realgütersphären geführt. Darüber hinaus bewirkt der Einsatz neuer Technologien eine weitere Reduktion des materiellen Geschehens. 3-D-Druck, 3-D-Visualisierungsverfahren (Cinematic Rendering), Cyber-Physical Systems und der Ausbau des Internets der Dinge „ermöglichen u. a., den physikalischen Transport materieller Güter und deren Lagerung vielfach durch Datentransport über das Internet und Datenspeicherung z. B. in einer Cloud zu ersetzen. Dies betrifft insbesondere Bücher, Bilder, Filme, Musik, Software und andere digitalisierbare Waren. Daneben trägt die Selbststeuerung und Regelung der Produktion sowie der vor- und nachgelagerten Funktionsbereiche durch intelligente Produkte, intelligente Behälter, intelligente Maschinen und andere intelligente Dinge ebenfalls zur Entmaterialisierung der Realgütersphäre bei.“42 Immer mehr produktive Tätigkeiten kommen ohne die physikalische Anwesenheit menschlicher Körper aus. Die Präsenz des virtuellen Körpers (des Datenkörpers) des Menschen reicht aus, um Beschaffung, Produktion, Absatz, Lagerhaltung und Logistik vom Home-Office aus an automatisierte oder autonome Maschinen zu übergeben und deren Tätigkeit zu überwachen. Dieser Sachverhalt treibt genau wie die Zusammenarbeit von Personen in einer Crowd und die Einbindung von Produktionsaktivitäten in Haushalte, wie es beispielsweise bei der Stromerzeugung geschieht, die Entmaterialisierung der Realgütersphäre von Unternehmen weiter voran. Gleiches gilt für Cloud-Services, die Wartungen und Reparaturen durchführen, ohne die physikalische Anwesenheit von Personal am Ort der Leistungserstellung.43 Unternehmen animieren ihre Kunden immer häufiger, sich aktiv in Produktionsprozesse einzubringen. Nehmen Konsumenten dieses Angebot an, werden sie zu Prosumenten, die u. a. eine individualisierte Massenproduktion anregen, die aufgrund 42

Bardmann (2019) S. 804. KI ermöglicht es, die traditionelle reaktive Wartung durch ein intelligentes Wartungssystem zu ersetzen, das proaktiv eine vorausschauende Wartung (Predictive Maintenance) initiiert. 43

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

153

flexibel einsetzbarer Maschinen und Roboter kundenindividuelle Produkte bei sinkenden Fertigungskosten herstellen können. Fundamentale Umbrüche in den Funktionsbereichen der Realgütersphäre sind ebenfalls hinsichtlich eines veränderten Kaufverhaltens zu beobachten, das nicht mehr ausschließlich auf den Konsum einzelner Produkte ausgerichtet ist, sondern nach Services verlangt. Mit KI ausgestattete Produkte steuern und regeln ihre eigene Produktion. Intelligente Behälter und Lagerhaltungssysteme entscheiden selbstständig und autonom über Beschaffungs- und Lagerhaltungsvorgänge oder es wird eine Online-Beschaffung über Messenger-Dienste, Chatbots oder über mit KI ausgestattete Assistenten veranlasst, die eine automatische Kontrolle des Wareneingangs übernehmen und über intelligente Zahlungsprogramme den Ausgleich der Rechnung vornehmen. Online-Auktionen kommen als ein weiteres Element des Beschaffungsmanagements zum Einsatz. Das Verpacken von zu transportierenden Produkten optimieren Augmented Reality-Brillen. Customer Relationship Management-Software automatisiert weitgehend das Kundenbeziehungsmanagement und intelligente Marketingautomaten können Marketingmaßnahmen initiieren und ausführen, ohne dass Mitarbeiter der Marketingabteilung aktiv werden. Sie müssen lediglich die Marketingmaschinen einschalten. Innerhalb des Unternehmens setzt die Logistikabteilung für den Warentransport neben intelligenten Behältern, intelligente fahrerlose Transportsysteme ein, außerhalb des Unternehmens übernehmen selbstfahrende LKWs und intelligente Drohnen den Transport. Schließlich kann das Entsorgungsverhalten in einem Unternehmen über intelligente Abfallcontainer mithilfe von Big-Data-Analysen ausgewertet und durch Anweisungen der KI in gewünschte Richtungen gelenkt werden. b) Künstliche Intelligenz in der Nominalgütersphäre In der Nominalgütersphäre wird das Internet der Werte zur Bewertung sämtlicher Unternehmensaktivitäten in Geld und zur Durchführung der mit KI angereicherten Investitions- und Finanzierungsfunktion (Smart Finance) genutzt. Mit dem digitalen Geld der Kryptowährungen kann nicht nur das Unternehmensgeschehen bewertet werden, sondern es ermöglicht darüber hinaus eine Peer-to-Peer-Abwicklung von Geschäften zwischen Unternehmen und ihren Vertragspartnern, ohne dass Banken oder der Staat eingeschaltet werden müssen. Maschinenlesbar formulierte Vereinbarungen und die Blockchain-Technologie sind Voraussetzungen dafür, dass Vereinbarungs- und Vertragsformen in Richtung Smart Contracts (einer automatischen Vertragsabwicklung) entwickelt werden.

154

Manfred Bardmann

Das Internet der Dinge, kombiniert mit dem Internet der Werte, stellt sicher, dass Waren, die zur Leistungserstellung benötigt werden, automatisch nachbestellt, bezahlt und mit intelligenten Fahrzeugen zu ihrem Einsatzort befördert werden. c) Künstliche Intelligenz in der internen Datensphäre Zunächst wurde das Internet in der internen Datensphäre eingesetzt, bevor das Internet der Dinge und darauf folgend das Internet der Werte in Erscheinung traten. Die Elemente, aus denen sich die interne Datensphäre zusammensetzt, sind Daten. Hierzu gehören Aufzeichnungen des internen und externen Rechnungswesens, technische Daten, Daten der Qualitätssicherung sowie Beobachtungsdaten, die Sensoren des Cyber-Physical Systems liefern. In Kombination mit den in der internen Datensphäre hinterlegten Steuerungsdaten können Maschinen über das Intra- oder Internet in Bewegung gesetzt werden. Kundendaten erscheinen ebenfalls in der internen Datensphäre. Letztlich wird der Versuch unternommen, sämtliche Geschehnisse, die in und zwischen den Unternehmenssphären sowie zwischen dem Unternehmen und seiner Umwelt stattfinden, mit Daten abzubilden, um diese dann zu analysieren, zu archivieren, zu Prognosezwecken einzusetzen und zur Entscheidungsfindung zu nutzen. Diese Aktivitäten haben zu einem explosionsartigen Anwachsen des Datenvolumens geführt. Die zur Speicherung und Verarbeitung der rasant wachsenden Datenmengen notwendige Rechen- und Speicherkapazität liefert in fast unbegrenztem Umfang die Cloud. Die händisch und mit papiernen Blättern ausgeführte Durchschreibebuchführung übernimmt seit langem die Computer-Buchhaltung. Soweit Belege nicht bereits digitalisiert im Unternehmen eintreffen, werden sie eingescannt, automatisch verbucht und in einer digitalen Ablage gespeichert. Daten, die benötigt werden, um Inventare, Bilanzen, GuV-Rechnungen, Kosten- und Leistungsrechnungen sowie weitere Rechnungslegungselemente automatisch zu erstellen, erzeugen Cyber-Physical Systems, Smart Contracts und andere intelligente Dinge sowie digitale Beobachtungssysteme und stellen sie der im Rechnungswesen eingesetzten Software zur Verarbeitung und Auswertung zur Verfügung. d) Künstliche Intelligenz in der Steuerungs-, Regelungsund Strukturierungssphäre Die Digitalisierung und der Einsatz von KI in der SRS-Sphäre führt zu Digital Leadership und Digital Headship. Derart erscheint neben dem Internet der Daten, Dinge und Werte das Internet der Sozialbeziehungen. Digital Leadership reichert die personalen und interaktionalen Aspekte der Personalführung durch Elemente der KI an. Digital Headship konzentriert sich auf die organisatorischen Aspekte der Unternehmensführung.

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

155

Die primäre SRS, der Regelkreis der Unternehmensführung, greift zunehmend auf Entscheidungsalgorithmen zurück, in die KI und Big Data-Analysen eingebaut sind. Dies führt zu grundlegenden Transformationen der traditionellen Entscheidungsmethoden bis hin zur automatisierten Planung, Leitung, formalen Organisation und Kontrolle. Auch die sekundäre SRS, die mit Controlling gleichzusetzen ist und die die Aufgabe hat, Führungssubsysteme zu kreieren, aufeinander abzustimmen und diese auf sich selbst anzuwenden, kommt ohne KI, Big Data-Analyse, Vorhersagemethoden des Data Mining und (spieltheoretisch fundierte) Simulationsverfahren nicht aus. Zwar sind traditionelle Formen vertikaler Hierarchien in Unternehmen durch Digitalisierung und KI-Einsatz nicht verschwunden, sie werden allerdings vermehrt durch Meritokratien,44 abgeflachte Hierarchien, Abteilungsgrenzen und Unternehmensgrenzen übergreifende Netzwerkstrukturen (Mass Collaboration) und Heterarchien45 ergänzt und teilweise ersetzt. Die obigen Ausführungen haben einige ausgewählte, bei weitem nicht sämtliche Auswirkungen der Digitalisierung und der KI auf die Unternehmenssphären beschrieben. Es sollte deutlich geworden sein, dass das Unternehmen der Zukunft ein intelligentes Unternehmen, eine Smart Factory sein wird. Trotz der Entwicklung hin zur Smart Factory muss festgestellt werden, dass sämtliche in den Unternehmenssphären eingesetzten KI-Systeme Lösungen für ganz spezielle Fragen bieten und häufig als (teil-)autonome technische Systeme auftreten. Die intelligenten Insellösungen werden zwar in immer größerem Umfang miteinander vernetzt, eine allgemeine KI, eine Artificial General Intelligence ist damit im wirtschaftlichen Bereich allerdings nicht erschaffen worden. Bisher bleibt KI eine Stückwerkintelligenz, die die menschliche Intelligenz unterstützt, verstärkt und erweitert.

VI. Resümee KI kann einen Beitrag zur Bewältigung weltweiter gesellschaftlicher und ökologischer Herausforderungen leisten. Krankheiten können durch KI gestützte Gesundheitsvorsorge, Diagnose, Therapie und Nachsorge zurückgedrängt werden. Mit KI ist es möglich, dem Klimawandel, der Verschwendung natürlicher Ressourcen, der Umweltzerstörung, der Zerstörung der biologischen Vielfalt, den Naturkatastrophen, der Armut, dem Terrorismus, der Kriminalität, den negativen Folgen der demographischen Entwicklung, mithin den großen Gefahren für die Weltgesellschaft und Weltwirtschaft sowie den natürlichen Herausforderungen entgegenzutreten. 44 Meritokratische Organisationen zeichen sich dadurch aus, dass Personen, die eine besondere Leistung erbracht haben, führende Positionen in der Organisation einnehmen. Vgl. Tapscott/Williams (2008) S. 33 f. 45 Organisationen, deren Elemente gleichberechtigt agieren und die sich selbst steuern und regeln, werden mit dem Begriff Heterarchie bezeichnet.

156

Manfred Bardmann

Durch den Einsatz digitaler Technik können die psychischen, sozialen und wirtschaftlichen Folgen der Corona-Krise gemildert werden. Viele Aktivitäten in Schulen, Hochschulen und öffentlicher Verwaltung sowie in Kirchen, in Freizeit- und anderen Lebensbereichen, von denen man bisher glaubte, dass physische Anwesenheit menschlicher Körper am Ort des Geschehens notwendig sei, werden in virtuelle Räume ausgelagert, so dass trotz der notwendigen physischen Distanz zwischen Menschen, vieles weitergelebt werden kann, allerdings digitalisiert. In sämtlichen Funktionsbereichen eines Unternehmens, unabhängig von der Branche in der das Unternehmen tätig ist, kann Digitalisierung und KI-Einsatz negative wirtschaftliche Folgen von COVID-19 dämpfen. Die Corona-Krise bestätigt die Erkenntnis, dass alles auch anders sein könnte, als es ist und war. Sie macht deutlich, dass mit herkömmlichen wirtschaftspolitischen Maßnahmen, die sich an einer Wachstums-, Konsum- und Wegwerfgesellschaft orientieren, weder die wirtschaftlichen Folgen der COVID-19-Pandemie noch zukünftige weltumspannende gesellschaftliche und ökologische Herausforderungen in den Griff zu bekommen sind. Wirtschaftspolitik sollte sich am Leitbild einer nachhaltigen (sozialen, ökonomischen und ökologischen) Netzwerkökonomie orientieren und sie als Richtschnur für die Um- und Neugestaltung der Wirtschaftsordnung einsetzen, indem das Glück und Wohlbefinden der Menschen und nicht Kapital und Profit zum Maßstab des Wirtschaftens gemacht werden. Neben der Chance durch neue Denk- und Handlungsweisen zukünftige Krisen zu überwinden, weisen viele Veröffentlichungen auch auf die Risiken hin, die mit der Digitalisierung und dem Einsatz von KI verbunden sind und Schäden verursachen können, die über eine Schädigung von einzelnen Personen oder Organisationen hinausgehen und die Gesellschaft als Ganzes und ihre Funktionssysteme betreffen. Extrem formuliert: KI ermöglicht sowohl die Förderung und Stärkung der Widerstandsfähigkeit (der Resilienz) gesellschaftlicher und wirtschaftlicher Institutionen als auch den Überwachungskapitalismus46 und Massenvernichtung durch autonom agierende Waffensysteme. Es darf nicht zu einer existenziellen Konkurrenz zwischen Mensch und intelligenten Maschinen kommen. Der Mensch muss Herr des Geschehens bleiben, einer möglichen Superintelligenz Zügel anlegen und dafür sorgen, dass KI ihm kontrolliert bei der Erledigung seiner Aufgaben assistiert. Schließlich ist zu fordern, dass die Wirtschaftswissenschaften u. a. eine betriebswirtschaftliche Theorie der Unternehmung entwickeln, die die digitale Transformation von Unternehmen und den KI-Einsatz in den Unternehmenssphären reflektiert. Dabei können Erkenntnisse der neueren Systemtheorie auf mehrfache Weise nutzbringend angewandt werden, denn sie arbeitet mit einem subjektlosen und entmaterialisierten Systembegriff, der zur Beschreibung der durch Digitalisierung und KI ausgelösten Entmaterialisierungsprozesse, die in Unternehmen sichtbar werden, genutzt werden kann. Darüber hinaus kann die neuere Systemtheorie, die eine Theorie 46 Eine ausführliche Beschreibung der Entwicklung hin zum Überwachungskapitalismus und den Elementen, aus denen er sich zusammensetzt, liefert Zuboff (2018).

Künstliche Intelligenz im Wirtschaftsbereich u. weiteren Lebensbereichen

157

der Komplexitätsreduktion enthält, helfen, eine Theorie des (Daten-)Überflusses zu entwickeln und in eine Unternehmenstheorie zu integrieren. Dabei ist nicht Knappheit kontra Überfluss das zu bearbeitende Thema, sondern das Nebeneinander der beiden Phänomene. Ein theoretisches Verständnis bezüglich des KI-Einsatzes in Unternehmen kann die positiven Auswirkungen von KI verstärken und die in der Unternehmenspraxis auftauchenden Risiken der KI mindern sowie die Entwicklung von Vorkehrungen zur Schadensverhütung vorantreiben. Literatur Bardmann, M.: Grundlagen einer Theorie ökonomischer Leitung und Planung, Münster 1988 Bardmann, M.: Grundlagen der Allgemeinen Betriebswirtschaftslehre, Geschichte – Konzepte – Digitalisierung, 3. Aufl., Wiesbaden 2019 Bostrom, N.: Superintelligenz. Szenarien einer kommenden Revolution, Berlin 2017 (Original: Superintelligence, Paths, Danger, Strategies, Oxford 2014) Brooks, R. A.: Menschmaschinen. Wie uns die Zukunftstechnologien neu erschaffen, Frankfurt 2005 Bundesministerium des Innern, für Bau und Heimat (BMI) (Hrsg.): Wie wir COVID-19 unter Kontrolle bekommen, Berlin 2020 (Internes Strategiepapier nur für den Dienstgebrauch) Bundesministerium für Wirtschaft und Energie (BMWI) (Hrsg.): Künstliche Intelligenz und Recht im Kontext von Industrie 4.0, Berlin 2019 Damasio, A. R.: Descartes’ Irrtum. Fühlen, Denken und das menschliche Gehirn, München 2004 Daum, M.: Chancen und Risiken der systemischen Kontingenz. Künstliche Intelligenz in einer postindustriellen Weltgesellschaft, Dissertation an der Ludwig-Maximilians-Universität München, München 2008 Entschließung des Europäischen Parlaments vom 16. 02. 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)) Floridi, L./Sanders, J. W.: On the Morality of Artificial Agents, in: Minds and Machines, Nr. 14 (3) 2004, S. 349 – 379 Foerster, H. von: Wissen und Gewissen. Versuch einer Brücke, hrsg. von Schmidt, S. J., Frankfurt a. M. 1993 Luhmann, N.: Die Wirtschaft der Gesellschaft, Frankfurt a. M. 1994 (1. Aufl. 1988) Luhmann, N.: Die Gesellschaft der Gesellschaft, 2 Bände, Frankfurt a. M. 1997 Mainzer, K.: Künstliche Intelligenz – Wann übernehmen die Maschinen? 2. Aufl., Berlin/ Heidelberg 2019 McCarthy, J./Minsky, M. L./Rochester, N./Shannon, E.: A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1955, in: AI Magazine, Vol. 27, No. 4, 2006

158

Manfred Bardmann

Misselhorn, C.: Moral in künstlichen autonomen Systemen? Drei Ansätze der Moralimplementation bei künstlichen Systemen, in: Rötzer, F. (Hrsg.): Programmierte Ethik. Brauchen Roboter Regeln oder Moral, Hannover 2016 Misselhorn, C.: Maschinenethik und „Artificial Morality“: Können und sollen Maschinen moralisch handeln? In: Bundeszentrale für politische Bildung (Hrsg.): Aus Politik und Zeitgeschichte, Künstliche Intelligenz, 68. Jg., Bonn 2018, S. 29 – 33 Rifkin, J.: Die Null-Grenzkosten-Gesellschaft. Das Internet der Dinge, kollaboratives Gemeingut und der Rückzug des Kapitalismus, Frankfurt a.M. 2016 (Original: The Zero Marginal Cost Society. The Internet of things, the Collaborative Commons, and the Eclipse of Capitalism, New York 2014) Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (Hrsg.): Die Gesamtwirtschaftliche Lage Angesichts der Corona-Pandemie. Sondergutachten, Wiesbaden 2020 Söbbing, Th.: Fundamentale Rechtsfragen zur künstlichen Intelligenz (AI Law). Algorithmen – Deep Learning – Robotik – Banking – Autonomes Fahren – Haftung, Frankfurt a.M. 2019 Spencer-Brown, G.: Laws of Form. Gesetze der Form, engl.-dt., 2. Aufl., Lübeck 1999 (1. Aufl. 1997; Original: Laws of Form, London 1969) Tapscott, D.: The digital economy: promise and peril in the age of networked intelligence, New York 1997 Tapscott, D./Williams, A. D.: Wikinomics. How mass collaboration changes everything, London 2008 Ultsch, A.: Datenbionik: Selbstorganisierende Systeme zur Entdeckung ungewöhnlicher Strukturen in Unternehmensdaten, in: Herde, G. (Hrsg.): Transparenz durch digitale Datenanalyse, Berlin 2014, S. 37 – 52. WBGU Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (Hrsg.): Hauptgutachten. Unsere gemeinsame digitale Zukunft, Berlin 2019 Zuboff, S.: Das Zeitalter des Überwachungskapitalismus, Frankfurt/New York 2018

Künstliche Intelligenz: Begriffsklärungen und technische Einschätzungen als Grundlage für Regulierungsansätze – Korreferat zu Rüdiger Wilhelmi – Von Christian Grimme

I. Einleitung Während ich diese Einleitungssätze schreibe, umgibt mich eine Menge von „künstlich intelligenten“ Gegenständen und Technologien. Der Hausflur wird von einem autonom arbeitenden Staubsaugroboter gereinigt, der Rasen im Garten von einem ganz ähnlich funktionierenden Mähroboter gepflegt. Die Musik und das Fernsehprogramm haben sich soeben dem Geschmack meiner Kinder angepasst und die Beleuchtung des Zimmers reagiert auf die untergehende Sonne. Die Sätze, die ich schreibe, werden kontinuierlich auf Rechtschreibung und Grammatik geprüft und teilweise ohne meine Mitwirkung korrigiert, während meine Anfragen an OnlineSuchmaschinen, die Abfrage von Literaturdatenbanken und sonstige Webseitenbesuche aufmerksam verfolgt werden und sich direkt auf die angezeigte Werbung im Browserfenster auswirken. Zudem nutzt die Suchmaschine all diese Informationen, um die Antworten auf meine Suchanfragen zu verbessern. Diese Aufzählung demonstriert eindrücklich, in welchem Maße Technologie, die wir als künstliche Intelligenz bezeichnen und manchmal auch wahrnehmen, bereits in unseren gewöhnlichen Alltag eingedrungen ist. Dabei sind noch keine Technologien wie Gesichtserkennung, Spracherkennung oder Mensch-Maschine-Interaktionssysteme wie etwa persönliche Assistenten, Roboter oder autonom fahrende Automobile mitgedacht, denen wir in naher Zukunft sehr wahrscheinlich häufiger begegnen werden. Künstliche Intelligenz scheint zurzeit einer der wichtigsten Treiber technologischer Entwicklung und zugleich von gesellschaftlicher Disruption zu sein. Durch die Vernetzung von allem (auch Industrie 4.0 im Produktionsbereich genannt), die damit entstehende verteilte Sensorik und die so anfallenden riesigen Datenmengen an Messwerten ist es möglich, die Welt neu zu vermessen. Zusammenhänge, die vorher verborgen blieben – zwischenmenschliche oder prozessbezogen –, können nun automatisch entdeckt und für sehr unterschiedliche Zwecke genutzt werden. Com-

160

Christian Grimme

puter sind in der Lage, Muster zu erkennen und zu klassifizieren. Dies kann dann zu Regeln und Entscheidungen führen, die wiederum in automatisiert (und damit zumindest teilautonom) handelnde Systeme implementiert werden können und Dienstleistungen ersetzen oder sogar besser erbringen können als Menschen. Im Gegensatz zu früheren Disruptionen automatisiert künstliche Intelligenz nicht nur, sie ist dem Menschen aufgabenbezogen hinsichtlich seiner Wahrnehmung und Entscheidungsqualität oftmals überlegen. Künstliche Intelligenz bringt also nicht nur positive Aspekte der Unterstützung und Erleichterung mit sich. Sie bedroht auch die menschliche Selbstwahrnehmung geistiger Fähigkeiten und stellt damit scheinbar eine durchaus größere Herausforderung dar, als dies Dampfmaschinen zur Zeit der industriellen Revolution taten. Dieses Gefühl der Bedrohung findet sich auch in der wirtschaftlichen, politischen, rechtlichen und nicht zuletzt der öffentlichen Diskussion von Auswirkungen und Möglichkeiten der Regulierung künstlicher Intelligenz wieder. Dieser Diskussion wird jedoch selten eine differenzierte Betrachtung der technologischen Grundlagen, Möglichkeiten und Perspektiven vorangestellt. Zwar werden Begriffe der schwachen und starken künstlichen Intelligenz eingeführt und Methoden und Verfahren genannt, eine Einordnung dieser Begriffe fehlt jedoch zumeist. Selten finden sich außerhalb algorithmisch fokussierter Arbeiten nüchterne Betrachtungen der Technologie. Häufiger begegnet man Annahmen1, die nicht zuletzt durch eine mögliche Vorliebe für Endzeitfilme (z. B. Terminator) oder dystopische Zukunftsromane2 beeinflusst scheinen. Die Zielsetzung dieses Beitrags ist es, einige zentrale Aspekte künstlicher Intelligenz zu diskutieren. Dazu gehört neben einer algorithmischen Begriffsklärung auch die Beleuchtung des Einflusses von Daten auf die Ausprägung und Entscheidungsfindung von künstlicher Intelligenz. Ausgehend von dieser Diskussion kann auf Probleme künstlicher Intelligenz eingegangen werden, insbesondere die Angreifbarkeit solcher Methoden. Dieser auch wissenschaftlich noch neue Aspekt ist wichtig, wenn über Geschäftsmodelle und Haftungsfragen diskutiert werden soll. An das Ende des Artikels stelle ich vier Aussagen zu künstlicher Intelligenz, die aus meiner Sicht bei jeder regulatorischen Diskussion berücksichtigt werden sollten, um die technische Sicht in eine Argumentation – eutopisch oder dystopisch – einzubeziehen.

II. Künstliche Intelligenz – eine algorithmische Begriffsklärung Der Begriff der künstlichen Intelligenz ist nicht scharf definiert, und auch dieser kurze Artikel wird dies nicht leisten. Dazu gibt es zu viele unterschiedliche Sichtweisen aus der Informatik, der Psychologie, der Mathematik und Logik, der Kognitionswissenschaft und angrenzender Wissenschaften wie z. B. der Linguistik auf dieses 1 2

Meissner (2020). Z. B. Schätzing (2018).

KI: Begriffsklärungen als Grundlage für Regulierungsansätze

161

Thema oder Teilgebiete. Hier sollen insbesondere die algorithmische Perspektive und das technische Verständnis im Mittelpunkt stehen. Künstliche Intelligenz kann allgemein als die Repräsentation, der Erwerb und die Verknüpfung von Wissen zu Modellen der Wirklichkeit sowie eine anschließende Entscheidungsfindung verstanden werden. Esposito formuliert folgendermaßen: „[…] Künstliche Intelligenz und kognitive Systeme wurden mit dem Ziel entwickelt, rechnerische und mathematische Modelle vorzuschlagen, wie z. B. neuronale Netze und Expertensysteme, die in der Lage sind, aus einer Reihe von Kontextbeispielen oder einem Satz von Regeln, die das vorliegende Problem beschreiben, auf das erforderliche Wissen zu schließen und dieses zu gewinnen.“3 Eine der wichtigsten Informationen, die aus dieser Darstellung entnommen werden kann ist, dass künstliche Intelligenz sich über rechnerische und mathematische Modelle definiert. Diese sind kontextualisierte mathematische Abbildungen der Wirklichkeit und die Grundlage für eine anschließende ggf. intelligente aber in der Regel automatische Entscheidungsfindung. Die vorhergehende Sichtweise erlaubt eine abstrakte Trennung von künstlich intelligenten Entscheidungen in den Prozess der Modellbildung und die darauf basierende Entscheidungsfindung. Die Modellbildung ist jener Vorgang, in dem das Modell erstellt und ggf. kontinuierlich verbessert wird. Ein Modell kann als ein einfaches oder auch durchaus komplexes Regelwerk verstanden werden, das aus einem speziellen Kontext oder aus mathematischen oder logischen Regeln4 abgeleitet wird. In diesem Vorgang spielt der Terminus des Lernens5 in der aktuellen Diskussion eine zentrale Rolle. Das Lernen ist dabei in der Regel als ein Abgleich von Modell und Wirklichkeit zu verstehen, wobei das Modell – oftmals durch Optimierungsansätze – an die Wirklichkeitsinformationen6 angepasst wird. An dieser Stelle soll kurz auf eine prominente Methode des Lernens eingegangen werden – neuronale Netze. Diese Methode des maschinellen Lernens wird inzwischen (fälschlicherweise) als Synonym für künstliche Intelligenz verwendet. Künstliche neuronale Netze sind aufgrund der Erfolge des Deep Learnings zum Inbegriff von Hoffnung auf starke künstliche Intelligenz und von dystopischen Vorstellungen zugleich geworden. Beides scheint bei näherer Betrachtung der Methode und der von neuronalen Netzen entwickelten Modelleigenschaften zumindest nicht kurzfristig realistisch zu sein. Ich versuche deshalb an dieser Stelle, einen abstrakten Überblick über die Methode der neuronalen Netze zu geben. Anhand der schematischen Darstellung in Abbildung 1 soll dies geschehen. 3 Esposito (2002), S. 229, aus dem Englischen wörtlich übersetzt mittels DeepL (www.deepl.com), einem künstlich intelligenten Übersetzer. 4 Bibel (1986). 5 Esposito et al. (2020). 6 Dies sind jene Informationen, die durch Erhebung (z. B. Messung) über die Wirklichkeit vorhanden sind. Zielsetzung und eine besondere Herausforderung für das Erlernen von Modellen ist eine geeignete Auswahl und das Erlangen solcher Informationen.

Christian Grimme

Eingaberepräsentation

162

Klasse 1

Hidden Layers

Ausgabe

Eingabe

Klasse 2

Abbildung 1: Schema eines neuronalen Netzes aus Eingabe- und Ausgabeschicht. Dazwischen befinden sich die versteckten Schichten (hidden layers). Die Knoten werden als Neuronen bezeichnet, die mit gewichteten Aktivierungsbahnen (Kanten) verbunden sind.

Grundsätzlich bestehen neuronale Netze aus Schichten7 von sogenannten Neuronen (in der Abbildung Knoten), die einer Aktivierungsfunktion folgen. Diese Aktivierungsfunktion bestimmt ob ein Neuron Signale aussendet oder nicht. Die Kanten zwischen den Neuronen sind gewichtet und bestimmen, in welchem Maße ein Signal von einem Neuron zu einem anderen gelangt. Ein neuronales Netz versucht, die auf wenige Merkmale (Features) heruntergebrochene Eingabe eines Datums durch geeignete Gewichtung der Verknüpfung von Neuronen (also der Aktivierungen) in den verdeckten Schichten (Hidden Layers) mit einer korrekten und zum Datum passenden Ausgabe, etwa einer Klassenzugehörigkeit, zu verknüpfen. Dazu wird das neuronale Netz mit einer großen Menge von Kontextbeispielen konfrontiert und die Gewichtung der Aktivierungskanten zwischen den Schichten aus Neuronen so optimiert, dass die Ausgabe des Netzes dem erwarteten Ergebnis für das gegebene Datum entspricht. Diesen Vorgang bezeichnet man als Training oder Anlernen des neuronalen Netzes. Es ist dabei wichtig zu verstehen, dass dieser Vorgang in der Regel mit Daten geschieht, deren Klassenzugehörigkeit klar ist. Betrachten wir den Lernvorgang also einmal abstrakt, so werden für eine gegebene Menge von Daten mit bekannter Klassifizierung die Gewichte der Kanten innerhalb des neuronalen Netzes derart optimiert, dass die Ausgabe für jede Trainingseingabe korrekt ist. Die Hoffnung dabei ist, dass durch eine für den Kontext ausreichend repräsentative Menge an Daten ein ebenfalls repräsentatives Modell erzeugt wird. Noch wichtiger ist es in diesem Zusammenhang einzusehen, dass dieses Netz nach dem Training eine mathematische Funktion ist. Abhängig von dem Wert, 7 Deep Learning bezeichnet die Nutzung tiefer neuronaler Netze – also solcher Netze, die sehr viele Schichten aufweisen.

KI: Begriffsklärungen als Grundlage für Regulierungsansätze

163

den wir nun in diese Funktion eingeben, erhalten wir ganz deterministisch eine Ausgabe – einen Funktionswert. Bei gleicher Eingabe ist dieser Funktionswert auch immer derselbe. Insofern ist ein neuronales Netz (sollte es nicht irgendwann weitertrainiert werden) eine, wenn auch sehr komplizierte, mathematische Funktion. Im Folgenden kann dieses Modell (oder diese Funktion) verwendet werden, um künstlich intelligente Entscheidungen zu treffen. Dabei wird diese Funktion nur noch als Regelsatz angewendet und auf Grundlage des Funktionswertes eine Entscheidung getroffen. Beispiel: Ist ein neuronales Netz für das Erkennen von Katzen entwickelt worden, so wurden ihm zuvor in geeigneter Repräsentation der Eingabe (in aller Regel eine Kodierung des Bildes über festgelegte Merkmale / Features) eine große Menge von Katzenbildern und Bildern, die keine Katzen enthalten, vorgelegt sowie die Gewichtungen zwischen den Neuronen für eine korrekte Klassifizierung aller Beispiele angepasst. Wenn nun ein Katzenbild eingegeben wird, gibt die angelernte Funktion die Klassenzuordnung des neuen (und unbekannten) Bildes zurück – oftmals eine Zahl zwischen 0 und 1, die als Wahrscheinlichkeit interpretiert wird, mit der auf dem Bild eine Katze bzw. keine Katze zu sehen ist. Diese Werte der Funktion können anschließend die Grundlage für einen automatischen Entscheider sein, der die einfache Regel anwendet: z. B., wenn der Wert für eine Katze > 0.5 ist, dann entscheide, dass eine Katze zu sehen ist; ansonsten entscheide, dass keine Katze zu sehen ist. Die beschriebene Lernmethode und die anschließende Entscheidungsfindung werden aufgrund ihrer Spezialisierung auf einen festen Kontext als schwache künstliche Intelligenz bezeichnet, und stellen die heutzutage einzige Klasse von Methoden dar. Im Gegensatz dazu steht die hypothetische Klasse der Methoden für die Realisierung sogenannter starker künstlicher Intelligenz, einer künstlichen Intelligenz, die den kognitiven Fähigkeiten eines Menschen gleichkommt und mindestens alle Probleme zu lösen vermag, die auch ein Mensch kognitiv lösen kann. Obwohl die Spekulation über das nahe Entstehen einer solchen generellen künstlichen Intelligenz – auch als Singularität bezeichnet – immer wieder Aufmerksamkeit erregen kann und durchaus Prognosen für deren Entstehung schon im Jahre 20458 existieren, ist das Vorhandensein oder die bevorstehende Entwicklung einer solchen Technologie nicht seriös belegbar. Alle bisherigen Erfolge künstlicher Intelligenz basieren noch immer auf den oben angeführten Spezialisierungen, also schwacher künstlicher Intelligenz. Dabei ist hervorzuheben, dass uns dies nicht von der Beschäftigung mit und der Regulierung des Einsatzes von künstlicher Intelligenz entbindet. Vielmehr ist es wichtig, das Augenmerk der Regulierungsbemühungen und ethischen Fragestellungen auf Probleme aktueller, spezialisierter, aber dem Menschen oft weit überlegener Verfahren zu richten, anstatt dystopischen Szenarien übermäßige Aufmerksamkeit zu schenken. 8

Kurzweil (2005).

164

Christian Grimme

Im Folgenden möchte ich in aller Kürze auf zwei wichtige Herausforderungen hinweisen, die zurzeit nicht hinreichend geregelt sind und deren Erforschung und gesellschaftliche Diskussion prioritär behandelt werden sollte.

III. Die Bedeutung von Daten Aus dem vorhergehend beschriebenen Vorgehen zum Training neuronaler Netze ist ersichtlich, dass diese Methoden stark datengetrieben sind. Tatsächlich erlernt ein neuronales Netz alle Regeln wie z. B. die Spielregeln und Züge eines komplizierten Spiels wie Go oder das Steuern eines Automobils aus Daten, die in der Lernphase zur Verfügung gestellt werden. Grundsätzlich sollten zwei Einsichten verstanden werden: 1. Ohne Daten können keine Regeln und aus unvollständigen Daten können nur unvollständige Regeln erlernt werden. 2. Der Algorithmus kann nur Muster und Regeln erlernen, die in den Daten vorhanden sind. Weiterführende Regeln können höchstens durch Testen und Rückkopplung (Trial-and-Error), oder durch Schlussfolgerung aus existierenden Regeln gewonnen werden. Für das Erlernen eines hochwertigen9 Regelsatzes ist es daher notwendig sehr viele Daten zu analysieren und darin nach Mustern zu suchen. Ein zentrales Problem des Lernprozesses ist dabei die Auswahl der Daten. Jede Auswahl von Daten determiniert für den Lernprozess, welche Muster erkannt werden und welche nicht im Datensatz vorhanden sind. Diese Eigenschaft führte in der Vergangenheit bereits zu Aufsehen erregenden Fehlern von künstlicher Intelligenz im Entscheidungsprozess, welcher auf den erlernten Regeln basierte. Beispiel 1: Die amerikanische Justiz setzt für die Prognose von Rückfallraten von Angeklagten verstärkt das auf künstlicher Intelligenz basierende System Compas (Correctional Offender Management Profiling for Alternative Sanctions) ein. Dieses System soll Richter bei der Festlegung der Strafe unter Berücksichtigung der Wahrscheinlichkeit für eine Wiederholungstäterschaft unterstützen. In einer aufwändigen Studie konnte die Organisation ProPublica nachweisen10, dass die Prognose des Systems bei Tätern mit schwarzer Hautfarbe doppelt so oft falsch war, wie bei Tätern mit weißer Hautfarbe. Die Autoren vermuten, dass das nicht öffentliche Regelwerk mit verzerrten Daten und rassistisch oder vorurteilsbehafteten Prognosen und Urteilen trainiert wurde und diesen Rassismus damit auch in seinen Regeln repräsentiert. 9

Die Bezeichnung „hochwertig“ ist an dieser Stelle genauso unscharf, wie die momentane Forschungslage zur Messung der Hochwertigkeit eines Datensatzes im Kontext maschinellen Lernens. In aller Regel versteht man darunter, dass der Datensatz groß und vollständig ist, also alle zu erlernenden Zusammenhänge in vielen Beispielen und im repräsentativen Verhältnis enthält. 10 Angwin et al. (2016).

KI: Begriffsklärungen als Grundlage für Regulierungsansätze

165

Beispiel 2: Im März 2016 stellte Microsoft eine künstliche Intelligenz namens Tay vor, die ihre Persönlichkeit aus direkter Kommunikation mit menschlichen Partnern über Twitter erlernen sollte11. Der künstlich intelligente Account war als Jugendliche konzipiert. Kommunikationsmuster, politische Meinung und Persönlichkeit sollte durch Inhalte (also Daten) trainiert werden, mit denen der Automat während der Kommunikation konfrontiert wurde. In einem gezielten Angriff konfrontierten andere Twitternutzer das Lernverfahren mit Menschenhass und rechtsradikalen Inhalten, so dass der Account innerhalb von wenigen Stunden radikalisiert war und in seiner Kommunikation menschenverachtende Inhalte verbreitete. Die überproportionale Eingabe von entsprechenden Texten hatten das kontinuierlich erlernte Regelwerk verzerrt. Nach nur 24 Stunden beendete Microsoft das Experiment mit Tay. Diese beiden Beispiele zeigen eindrücklich die Gefahren von verzerrten Dateneingaben. Ein zentrales Problem stellt dabei die Komplexität der erlernten Regeln dar. Zwar sind die Berechnungsvorschriften eines neuronalen Netzes in ihrer Arbeitsweise bezogen auf eine Eingabe und ausgehend von dem aktuellen Regelsatz deterministisch – die Berechnungsvorschrift für das Ergebnis (also die Funktion selbst) ist jedoch nicht trivial und für Analysen nur schwer zugänglich. Dies bedeutet nicht, dass die Regeln intelligent oder bedrohlich sind, sich gar selbstständig machen könnten, um wie in Dystopien die Weltherrschaft zu erringen; es handelt sich immer noch um Verfahren spezialisierter also schwacher künstlicher Intelligenz. Das Problem liegt darin, dass die Konstruktion der Regeln, die durch ein Training mit großen Datenmengen und der Optimierung von Parametern für den menschlichen Geist nicht mehr nachzuvollziehen ist. Die Gefahr liegt also nicht in der Intelligenz der Regeln, sondern in dem menschlichen Unvermögen sie zu verstehen und prüfen zu können. Dies wiederum führt zu einer Unsicherheit gegenüber Modellen, die auf Daten trainiert wurden, welche einem nicht-transparenten Auswahlverfahren unterlagen.

IV. Angreifbarkeit von künstlicher Intelligenz Ein relativ neues Feld der Forschung stellt die Angreifbarkeit von künstlicher Intelligenz dar12. Hierbei ist es das Ziel, Methoden der künstlichen Intelligenz (also etwa Lernmethoden) auf ihre Robustheit zu testen. Dabei wird versucht Eingaben zu finden, die eine Fehlentscheidung von Methoden herbeiführen. Eindrucksvoll wird dies oftmals im Kontext von Bilderkennungsproblemen demonstriert. Dabei werden Bilder für das menschliche Auge unbemerkt durch die Addition von optimiertem Rauschen derart verändert, dass die ursprüngliche Klassifikation eines gut trainierten Bildklassifikationsalgorithmus fehlgeleitet wird13. 11

Schwartz (2019), ein Beispiel von Natural Language Processing. Evtimov et al. (2017). 13 Seiler et al. (2019). 12

166

Christian Grimme

Besonders eindrücklich und von großer praktischer Bedeutung für die Bewertung von künstlicher Intelligenz basierend auf Lernmethoden sind Experimente von Evtimov et al.14 und Sitawarin et al.15 im Kontext der Erkennung von Straßenschildern. Beide Forschergruppen zeigen, dass es durch die Hinzunahme von wenigen Veränderungen an einem Straßenschild möglich ist, dessen Bedeutung für einen Erkennungsalgorithmus vollständig zu verändern. So zeigen Evtimov und Kollegen, dass wenige auf einem Stoppschild angebrachte (kleine schwarze und weiße, ausschließlich rechteckige) Aufkleber ein zuvor trainiertes neuronales Netzwerk derart täuschen, dass der erlernte Regelsatz das Schild als 45 mph erkennt. Dies wäre im Kontext des autonomen Fahrens eine fatale Gefahr. Für Menschen sind diese Aufkleber durchaus wahrnehmbar, sie würden die Erkennung und Interpretation des Stoppschildes durch einen Menschen jedoch sicher nicht verzerren. Die geeignete Manipulation der Eingabe für Algorithmen ist natürlich nicht durch beliebiges Verändern der Eingabe möglich. Vielmehr verlässt sich dieser Ansatz des Angriffes auf zwei Eigenschaften maschineller Lernverfahren: (a) die Unvollständigkeit erlernter Muster aus einer begrenzten Menge von Daten und (b) das deterministische Verhalten angelernter Regelsätze. Weil ein Datensatz, so groß er auch sein mag, nicht alle Muster und Situationen der realen Welt abbilden kann und gewöhnliche Situationen häufiger als Ausnahmen enthalten sind, kann das Regelwerk die Realität und alle Eventualitäten nicht gleichermaßen abbilden. Zugleich erlaubt das als statisch zu verstehende Regelwerk eine Optimierung von fehlleitenden Eingaben. Dies kann dadurch geschehen, dass wiederholte Veränderungen der Eingabe durchgeführt werden und die Ausgabe beobachtet wird. Zielsetzung der schrittweisen Veränderung der Eingabe ist es, diese so zu stören, dass die Ausgabe des Modells falsch ist, dies aber für einen Menschen kaum bemerkbar wäre. Es existiert bisher keine zuverlässige Methode, um erlernte Regelwerke gegen derartige Angriffe zu schützen.

V. Diskussion Ich hoffe, dass die vorangegangene Beschreibung ausgewählter Aspekte künstlicher Intelligenz gleichzeitig einige Grenzen aber auch die Gefahren künstlicher Intelligenz dargestellt hat. Alle Dinge und Technologien mit künstlicher Intelligenz, die uns umgeben, arbeiten mit oftmals unflexiblen Regelsätzen. Dabei ist in einem Staubsaugerroboter kein neuronales Netz verbaut. Die Selbstregelung dieser Automaten basiert auf Sensorik und einfachen Wenn-Dann-Regeln. Künstliche Intelligenzen zur Verarbeitung menschlicher Sprache sind mit vielen Sprachbeispielen trainiert und können aus erkannten Wörtern und durch Regelverknüpfungen Fragestellungen beantworten. Autonome Fahrzeuge verwenden eine Vielzahl von ver14 15

Evtimov et al. (2017). Sitawarin et al. (2018).

KI: Begriffsklärungen als Grundlage für Regulierungsansätze

167

schiedenen Sensoren und Auswertungsmethoden um möglichst sichere Entscheidungen zu treffen. Keine dieser Anwendungen – so erstaunlich die spezialisierten Fähigkeiten der Methoden auch erscheinen – ist jedoch als starke künstliche Intelligenz zu bezeichnen, die mit dem Menschen vergleichbare kognitive Problemlösungsfähigkeiten aufweist. Nach dem Stand der Wissenschaft ist eine solche generelle Intelligenz auch in naher Zukunft durch eine massive Erhöhung von Rechenkraft durch Quantencomputer16 nicht zu erwarten. Die Spekulation über eine eventuell gefährliche Singularität verstellt den Blick auf die Notwendigkeit von Regulierung schwacher künstlicher Intelligenz in heutigen Anwendungen. Dazu sollen zum Abschluss dieser Arbeit vier Aspekte genannt werden, die im Hinblick auf zukünftige Regulierung eine Rolle spielen und bei der nüchternen Betrachtung der Technologie hilfreich sein können: 1. (Schwache) Künstliche Intelligenz ist in ihrer Anpassung an Veränderungen stärker eingeschränkt, als dies in dystopischen oder euphorischen Vorstellungen kommuniziert wird. Diese Systeme erlernen komplexe Regelsätze, auf deren Grundlage Entscheidungen getroffen werden. Die Regelsätze arbeiten zumeist deterministisch. Der Eindruck der Unbeherrschbarkeit dieser Methoden entsteht aufgrund der Vielfalt von Parametern und Wechselwirkungen innerhalb der Regelsysteme, die oftmals nicht mehr vollständig ergründet oder erfasst werden können. Der Eindruck von Intelligenz ist oftmals im menschlichen Erstaunen über die Leistungsfähigkeit der spezialisierten Methoden begründet. 2. Die Datengrundlage ist für alle lernenden Verfahren eine wichtige Grundvoraussetzung. Dies impliziert, dass der Datenauswahl eine entscheidende Rolle in der Determinierung des „Verhaltens“ von (schwach) künstlich intelligenten Systemen zukommt. Eine Regulierung sollte insbesondere die Transparenz und Unverzerrtheit der Datenauswahl im Blick haben. 3. Methoden der künstlichen Intelligenz sind angreifbar und können getäuscht werden. Die Entscheidung eines Verfahrens kann durch leichte Veränderungen von Charakteristika verzerrt werden, ohne dass die menschliche Wahrnehmung durch die analoge Veränderung getäuscht würde. Dieser Aspekt ist in allen Fragen der Haftungsregelung und Verantwortlichkeit für Entscheidungen künstlicher Intelligenz zu berücksichtigen. 4. Geschäftsmodelle existierender künstlicher Intelligenzen basieren nicht auf einer vollständigen Autonomie der Systeme. Das bedeutet, dass die vom Anwender verwendeten Technologien nicht individuell auf den Anwender persönlich trainiert werden. Vielmehr sind es Regelsätze, die zentralisiert erlernt, geschärft und dann auf Endgeräte übertragen werden. Auf den Endgeräten und in Diensten

16

Arute et al. (2019) über Googles Quantencomputer.

168

Christian Grimme

werden die Regelsätze nur noch angewendet. Dies ist insbesondere im Kontext der Nutzerhaftung für Fehler künstlicher Intelligenz zu bedenken. Neue Technologien bringen starke Veränderungen und – falsch eingesetzt – durchaus reale Bedrohungen für die Gesellschaft mit sich. Es ist daher wichtig, dass die Gesellschaft den Umgang mit diesen Technologien diskutiert17 und schlussendlich regelt18. Dabei ist jedoch das technisch-methodische Verständnis von zentraler Bedeutung, um sinnvolle Regeln zu entwickeln, die die Erschließung von Potenzialen erlauben und zugleich realistische Gefahren begrenzen. Literatur Angwin, J./Larson, J./Mattu, S./Kirchner, L. (2016): Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Arute, F./Arya, K./Babbush, R. et al. (2019): Quantum supremacy using a programmable superconducting processor. Nature 574, S. 505 – 510. Bibel, W. (1986): Methods of automated reasoning, in: W. Bibel/P. Jorrand (Hrsg.), Fundamentals of Artificial Intelligence: An Advanced Course (S. 171 – 217). Berlin, Heidelberg: Springer. Esposito, A. (2002): The Importance of Data for Training Intelligent Devices, in: B. Apolloni/F. Kurfess (Hrsg.), From Synapses to Rules: Discovering Symbolic Rules from Neural Processed Data, Springer US, S. 229 – 250. Esposito, A./Faundez-Zanuy, M./Morabito, F. C./Pasero, E. (2020): Some Note on Artificial Intelligence, in: A. Esposito/M. Faundez-Zanuy/F. C. Morabito/E. Pasero (Hrsg.), Neural Approaches to Dynamics of Signal Exchanges (S. 3 – 8). Singapore: Springer. Evtimov, I./Eykholt, K./Fernandes, E./Kohno, T./Li, B./Prakash, A./Rahmati, A./Song, D. X. (2017): Robust Physical-World Attacks on Machine Learning Models. ArXiv, abs/ 1707.08945. Kurzweil, R. (2005): The Singularity is Near. New York: Viking Books. Meissner, G. (2020): Artificial intelligence: consciousness and conscience. AI & SOCIETY, 35(1), S. 225 – 235. Russell, S./Dewey, D./Tegmark, M. (2015): Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine, 36(4), S. 105 – 114. Schätzing, F. (2018): Die Tyrannei des Schmetterlings. Kiepenheuer & Witsch, ISBN 978-3462-05084-4. Schwartz, O. (2019): In 2016, Microsoft’s Racist Chatbot Revealed the Dangers of Online Conversation, TechTalk Artificial Intelligence – Machine Learning, IEEE Spectrum, https://spec trum.ieee.org/tech-talk/artificial-intelligence/machine-learning/in-2016-microsofts-racistchatbot-revealed-the-dangers-of-online-conversation17 18

Russell et al. (2015). Zerilli et al. (2019).

KI: Begriffsklärungen als Grundlage für Regulierungsansätze

169

Seiler, M./Trautmann, H./Kerschke, P. (2019): Enhancing Resilience of Deep Learning Networks against Adversarial Attacks. Deep Learning Summer School, ACDL, Sienna, Italy. Sitawarin, C./Bhagoji, A. N./Mosenia, A./Chiang, M./Mittal, P. (2018): DARTS: Deceiving Autonomous Cars with Toxic Signs. ArXiv, abs/1802.06430. Zerilli, J./Knott, A./Maclaurin, J./Gavaghan, C. (2019): Algorithmic Decision-Making and the Control Problem. Minds and Machines, 29(4), S. 555 – 578.

Autorenverzeichnis Aufderheide, Detlef, Prof. Dr., School of International Business, Hochschule Bremen Bardmann, Manfred, Prof. Dr., Fachbereich Betriebswirtschaft, Hochschule Kaiserslautern Brand, Lukas, Lehrstuhl für Religionsphilosophie und Wissenschaftstheorie, Universität Bochum Grimme, Christian, PD Dr., Institut für Wirtschaftsinformatik, Universität Münster Haensse, Luca, Professur für Wirtschaft und Ethik, Universität Vechta Heidbrink, Ludger, Prof. Dr., Philosophisches Seminar, Universität Kiel Jähnichen, Traugott, Prof. Dr., Lehrstuhl für christliche Gesellschaftslehre, Evangelisch-Theologische Fakultät, Universität Bochum Kriebitz, Alexander, Peter Löscher-Stiftungslehrstuhl für Wirtschaftsethik und Global Governance, Technische Universität München Lin-Hi, Nick, Prof. Dr., Professur für Wirtschaft und Ethik, Universität Vechta Max, Raphael, Peter Löscher-Stiftungslehrstuhl für Wirtschaftsethik und Global Governance, Technische Universität München Meyer, Eric C., Dr., Institut für Genossenschaftswesen, Universität Münster Müller, Christian, Prof. Dr., Institut für Ökonomische Bildung, Universität Münster Wiemeyer, Joachim, Prof. Dr., Lehrstuhl für Christliche Gesellschaftslehre, Katholisch-Theologische Fakultät, Universität Bochum Wilhelmi, Rüdiger, Prof. Dr., Lehrstuhl für Bürgerliches Recht, Handels-, Gesellschafts- und Wirtschaftsrecht sowie Rechtsvergleichung, Universität Konstanz