Künstliche Intelligenz und Corporate Governance: Der Einsatz von Künstlicher Intelligenz im Vorstand der börsennotierten Aktiengesellschaft [1 ed.] 9783428587063, 9783428187065

Künstliche Intelligenz (KI) hat inzwischen auch den Vorstand großer börsennotierter Aktiengesellschaften erreicht. Viele

151 67 1MB

German Pages 202 Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Künstliche Intelligenz und Corporate Governance: Der Einsatz von Künstlicher Intelligenz im Vorstand der börsennotierten Aktiengesellschaft [1 ed.]
 9783428587063, 9783428187065

Citation preview

Abhandlungen zum Deutschen und Europäischen Gesellschafts- und Kapitalmarktrecht Band 208

Künstliche Intelligenz und Corporate Governance Der Einsatz von Künstlicher Intelligenz im Vorstand der börsennotierten Aktiengesellschaft

Von

Claudio Calabro

Duncker & Humblot · Berlin

CLAUDIO CALABRO

Künstliche Intelligenz und Corporate Governance

Abhandlungen zum Deutschen und Europäischen Gesellschafts- und Kapitalmarktrecht Herausgegeben von Professor Dr. Holger Fleischer, LL.M., Hamburg Professor Dr. Hanno Merkt, LL.M., Freiburg Professor Dr. Gerald Spindler, Göttingen

Band 208

Künstliche Intelligenz und Corporate Governance Der Einsatz von Künstlicher Intelligenz im Vorstand der börsennotierten Aktiengesellschaft

Von

Claudio Calabro

Duncker & Humblot · Berlin

Die Rechtswissenschaftliche Fakultät der Albert-Ludwigs-Universität Freiburg im Breisgau hat diese Arbeit im Jahr 2022 als Dissertation angenommen.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte vorbehalten

© 2023 Duncker & Humblot GmbH, Berlin Satz: L101 Mediengestaltung, Fürstenwalde Druck: CPI books GmbH, Birkach Printed in Germany ISSN 1614-7626 ISBN 978-3-428-18706-5(Print) ISBN 978-3-428-58706-3 (E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706

Internet: http://www.duncker-humblot.de

„Nanos gigantum humeris insidentes“ Bernhard von Chartres

Meiner Familie

Vorwort Die vorliegende Arbeit wurde im Sommersemester 2022 von der Rechtswissenschaftlichen Fakultät der Albert-Ludwigs-Universität Freiburg als Dis­ sertation angenommen. Literatur und Rechtsprechung befinden sich auf dem Stand von Juli 2022; nachfolgende Veröffentlichungen konnten nur noch vereinzelt berücksichtigt werden. Zuallererst möchte ich meinem Doktorvater Herrn Prof. Dr. Jan Lieder, LL.M. (Harvard) für die Inspiration zu dem Thema, die hervorragende Betreuung der vorliegenden Dissertation und eine wunderschöne Promotionszeit danken. Ebenso danke ich Herrn Prof. Dr. Hanno Merkt, LL.M. (Univ. of Chicago) für die Übernahme und zügige Erstellung des Zweitgutachtens. Für die Aufnahme in diese Schriftenreihe danke ich den Herausgebern der Abhandlungen zum Deutschen und Europäischen Gesellschafts- und Kapitalmarktrecht: Herrn Prof. Dr. Dr. h. c. Dr. h. c. Holger Fleischer, LL.M. (Univ. of Michigan), Herrn Prof. Dr. Hanno Merkt, LL.M. (Univ. of Chicago) sowie Herrn Prof. Dr. Gerald Spindler. Gebührenden Dank schulde ich meinen Großeltern, Frau Elsa Buchmüller und Herrn Werner Buchmüller, die stets eine Inspiration waren und sind. Großer Dank gilt auch meiner Mutter, Frau Birgit Buchmüller-Calabro, meinem Vater, Herrn Gianfranco Calabro sowie meinem Bruder, Herrn Gianluca Calabro, die durch ihren herzlichen Rückhalt zum Gelingen der Arbeit und der gesamten Ausbildung beigetragen haben. Schließlich gilt mein ganz besonderer Dank meiner langjährigen Freundin, Frau Pia Weber für ihre liebevolle Art und bedingungslose Unterstützung, ohne die ich nicht der wäre, der ich heute bin. Ihnen allen ist dieses Buch gewidmet. Freiburg im Breisgau, im Juli 2022

Claudio Calabro

Inhaltsverzeichnis

Einleitung 

19

A. Konkretisierung des Forschungsgegenstandes und Ziele der Untersuchung . . 19 B. Gang der Untersuchung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Erster Teil

Grundlagen der Künstlichen Intelligenz 

23

A. Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I. Definition des Begriffs Künstliche Intelligenz  . . . . . . . . . . . . . . . . . . . . . II. Zur anthropomorphen und metaphorischen Sprache in der Arbeit . . . . . . III. Entwicklung der Künstlichen Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . IV. Über „schwache KI“ und „starke KI“ . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23 23 25 25 28

B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KIin Form der (Software-)Agenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I. Grundfunktion des Agenten und Agentenumgebung . . . . . . . . . . . . . . . . . 1. Agentenumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Agentenprogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Einfacher Reflexagent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Modellbasierter Reflexagent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Zielbasierter Agent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Utilitaristischer Agent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. Lernfähigkeit der Agenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Grundzüge des Machine Learnings . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Lernstruktur eines lernenden Agenten . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Grundzüge der Lernsysteme und Lernverfahren . . . . . . . . . . . . . . . . . . a) Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Lernverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Supervised Learning: Klassifikation . . . . . . . . . . . . . . . . . . . . . bb) Unsupervised Learning: Clustering  . . . . . . . . . . . . . . . . . . . . . cc) Künstliche Neuronale Netze . . . . . . . . . . . . . . . . . . . . . . . . . . .

29 30 30 31 32 32 33 33 34 34 35 37 37 37 38 38 39 39

C. Zusammenfassungder für die rechtliche Bewertung wesentlichen KI-spezifischen Besonderheiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

12 Inhaltsverzeichnis Zweiter Teil

KI und der Einsatz als Substitut des Vorstands der Aktiengesellschaft 

42

A. KI als Vorstandsmitglied einer Aktiengesellschaft? . . . . . . . . . . . . . . . . . . . . . 42 I. Anforderungen an den Vorstand und Anwendung auf KI . . . . . . . . . . . . . 43 1. Voraussetzungen aus § 76 Abs. 3 AktG . . . . . . . . . . . . . . . . . . . . . . . . . 43 a) Keine juristische Person als Vorstandsmitglied . . . . . . . . . . . . . . . . 44 aa) Kompensationsaspekt und haftungsrechtliche Steuerungs­ wirkung in Verbindung mit § 93 AktG . . . . . . . . . . . . . . . . . . . 44 (1) Kompensationsaspekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 (2) Verhaltenssteuerungsfunktion des § 93 AktG . . . . . . . . . . 46 (3) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 bb) Beeinträchtigung der Geschäftsführung und Unternehmenspolitik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 cc) Beeinträchtigung der Handlungsfähigkeit der Geschäfts­ leitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 dd) Verschiebung der Personalkompetenz . . . . . . . . . . . . . . . . . . . 53 ee) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2. Voraussetzungen aus § 76 Abs. 1 AktG . . . . . . . . . . . . . . . . . . . . . . . . . 56 a) Beeinträchtigung der Weisungs- und Willensfreiheit . . . . . . . . . . . 56 b) Beeinträchtigung des Gebots der Gleichberechtigung im Vorstand . 58 c) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3. Voraussetzungen aus der Person des Vorstands und der Vorstands­ praxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 a) Persönliche Voraussetzungen an den Vorstand der AG . . . . . . . . . . 60 b) Geschäftsleitung durch den Gesamtvorstand . . . . . . . . . . . . . . . . . . 62 aa) Unternehmerische Funktion und Geschäftsleitung . . . . . . . . . . 62 bb) Kommunikation und Arbeit im Kollegialorgan  . . . . . . . . . . . 63 c) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4. Voraussetzungen aus weiteren Normen des Aktiengesetzes . . . . . . . . . 65 a) Vertrauen in den Vorstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 aa) Vertrauensbeziehungen in Bezug auf den menschlichen Vorstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 bb) Vergleichbares Vertrauen in KI . . . . . . . . . . . . . . . . . . . . . . . . . 67 (1) Technikspezifisches Vertrauen . . . . . . . . . . . . . . . . . . . . . . 68 (2) Vertrauen unter Berücksichtigung der technikspezifischen Bausteine im Vertrauensgeflecht des Vorstands . . . 69 (a) Vertrauen der Hauptversammlung in den KI-Vorstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 (b) Vertrauen des Aufsichtsrats in den KI-Vorstand . . . . . 70 (c) Vertrauen anderer Vorstandsmitglieder in den KI-Vorstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 (d) Vertrauen Dritter in den KI-Vorstand . . . . . . . . . . . . . 73

Inhaltsverzeichnis13 cc) Zwischenergebnis zum Vertrauen in einen KI-Vorstand . . . . . 73 b) Transparenz und Publizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 aa) Transparenz und Publizität menschlicher Vorstandsmitglieder . 74 bb) Transparenz und Publizität von KI-Vorstandsmitgliedern . . . . 75 cc) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 5. Allgemeine technikspezifische Hinderungsgründe . . . . . . . . . . . . . . . . 77 a) Missbrauchspotenzial von KI-Vorstandsmitgliedern: Änderung der zulässigen Unternehmensgegenstände und -ziele? . . . . . . . . . . 77 b) Erhöhte Haftungsrisiken bei Fehlleistung von KI-Vorständen . . . . 78 c) Zusammenfassung allgemeiner technikspezifischer Hinderungsgründe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 6. Zusammenfassung: Keine KI als Vorstandsmitglied  . . . . . . . . . . . . . . 80 II. Heute grundsätzlich keine KI als Vorstandsmitglied? . . . . . . . . . . . . . . . . 80 III. Zusammenfassung zur KI als Vorstandsmitglied . . . . . . . . . . . . . . . . . . . . 81 Dritter Teil

Die Delegation durch den Vorstand der Aktiengesellschaft an KI 

A. Delegation an natürliche Personen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I. Grundsätzliche Zulässigkeit der Aufgabendelegation durch den Vorstand  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. Differenzierung in Leitungs- und Geschäftsführungsaufgaben . . . . . . . . . III. Differenzierung der Reichweite der Delegation . . . . . . . . . . . . . . . . . . . . .

82 82 83 83 85

B. Delegation an Künstliche Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 I. Kein grundsätzliches Verbot der Delegation an KI . . . . . . . . . . . . . . . . . . 86 II. Delegation von Leitungs- und Geschäftsführungsaufgaben  . . . . . . . . . . . 87 1. Geschäftsführungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 2. Leitungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 a) Delegation der Stufe 1: Vorbereitende und nachbereitende ­Tätigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 b) Delegation der Stufe 2: Ausführung der Aufgabe durch KI, ­Letztentscheidungsbefugnis des Vorstands  . . . . . . . . . . . . . . . . . . . 91 aa) Meinungsstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 bb) Kritische Stellungnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 (1) Zur Ansicht vom technischen Grundverständnis . . . . . . . . 93 (a) Zur Sicherstellung der Steuerungsmacht . . . . . . . . . . . 94 (b) Zur Sicherstellung des Vorstandswillens – Überprüfbarkeit der Willenskongruenz . . . . . . . . . . . . . . . . . . . 98 (2) Zur Auffassung der Plausibilitätsprüfung . . . . . . . . . . . . . 101 (3) Zur Ansicht des Mindesteinflusses  . . . . . . . . . . . . . . . . . . 102 (4) Zur Auffassung der Grenzüberschreitung . . . . . . . . . . . . . 102 (5) Zusammenfassung zum Meinungsstand . . . . . . . . . . . . . . . 103

14 Inhaltsverzeichnis cc) Eigene Ansicht: Anforderungen an die Zulässigkeit der Delegation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 (1) Beständiger Informationsfluss . . . . . . . . . . . . . . . . . . . . . . 104 (2) Mit arbeitsrechtlichem Weisungsrecht vergleichbare Einflussmöglichkeit und Reversibilität . . . . . . . . . . . . . . . 106 (3) Reversibilität der Aufgabenübertragung und jederzeitige „Kündigungsmöglichkeit“ . . . . . . . . . . . . . . . . . . . . . . . . . 108 dd) Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 c) Delegation der Stufe 3: Vollständige Aufgabenübertragung . . . . . . 109 aa) Meinungsstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 bb) Kritische Stellungnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 (1) Eigene Bewertung: Unzulässigkeit vollständiger Delegation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 (a) Informationsfluss des Vorstands . . . . . . . . . . . . . . . . . 111 (b) Mit arbeitsrechtlicher Weisung vergleichbare Steuerungsmöglichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 (c) Reversibilität und jederzeitige Kündigungsmöglichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 (d) Zwischenergebnis der Diskussion . . . . . . . . . . . . . . . . 114 (e) Andere Bewertung für spezialisierte Hochtechno­ logieunternehmen? (Diskussion der dritten Ansicht) . 114 (f) Zusammenfassung zu Hochtechnologieunternehmen . 116 (2) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 III. Zusammenfassung zur Delegation an Künstliche Intelligenz . . . . . . . . . . 117 C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktGbei der Aufgaben­ delegation an KI  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I. Pflicht zur Auswahl, Einweisung und Überwachung bei zulässiger Aufgabendelegation an KI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Auswahlpflicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Zweistufige Geeignetheitsprüfung: 1. Qualifikationsprüfung des Herstellers durch den Vorstand  . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Zweistufige Geeignetheitsprüfung: 2. Funktionalitätsprüfung der KI durch den Vorstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Überprüfung der Daten und Datenqualität . . . . . . . . . . . . . . . . (1) Datenmenge und Datendiversifikation . . . . . . . . . . . . . . . . (2) Qualität der „Label“ der Daten . . . . . . . . . . . . . . . . . . . . . (3) „Legalität“ der Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Überprüfung der Rahmenbedingungen und Algorithmen . . . . cc) Überprüfung der Kontinuität brauchbarer Ergebnisse . . . . . . . dd) Art und Weise der Sicherstellung der Funktionalitätsprüfung durch den Vorstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Zusammenfassung zur Auswahlpflicht . . . . . . . . . . . . . . . . . . . . . . 2. Einweisungspflicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

118 118 120 123 125 125 125 126 126 126 127 128 129 129

Inhaltsverzeichnis15 a) Einweisungsmaßstab bei KI-Delegataren . . . . . . . . . . . . . . . . . . . . . 130 aa) Verlagerung des Bezugszeitpunkts der Einweisung . . . . . . . . . 131 bb) Verlagerung des Bezugssubjekts der Einweisung . . . . . . . . . . 131 cc) Konkrete Einweisungspflichten beim Einsatz von KI . . . . . . . 132 (1) Programmierung von Berichtspflichten der KI . . . . . . . . . 133 (2) Regelmäßige „Schulung und Fortbildung“ der KI . . . . . . 134 b) Zusammenfassung zur Einweisungspflicht . . . . . . . . . . . . . . . . . . . 135 3. Überwachungspflicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 a) Allgemeine Überwachungsparameter beim Einsatz von KI . . . . . . 136 b) Herleitung spezifischer Überwachungspflichten beim Einsatz von KI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 aa) Kasuistik der Rechtsprechung und Literatur zu § 130 OWiG . 139 (1) Einschreiten bei Verdachtsmomenten . . . . . . . . . . . . . . . . 139 (2) Laufende Kontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 (3) Organisationspflichten und mehrstufige Überwachung . . . 142 (4) Zusammenfassung  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 bb) Analogie zu § 80 Abs. 2 WpHG (zuvor: § 33 Abs. 1a WpHG) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 (1) Keine vergleichbare Interessenlage . . . . . . . . . . . . . . . . . . 144 (a) § 80 Abs. 2 WpHG als Ausnahmeregelung . . . . . . . . . 144 (b) Nicht vergleichbare Pflichtenlage . . . . . . . . . . . . . . . . 145 (c) Unterschiedliche Zielsetzung und Schutzwürdigkeit . 145 (d) Unterschiedliche Beziehungen der betroffenen Akteure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 (2) Extraktion organisatorischer Grundanforderungen beim Einsatz von KI aus § 80 Abs. 2 WpHG zur Konkretisierung der Überwachungspflichten des Vorstands . . . . . . . . 146 (a) Zur Tauglichkeit der Vorschrift für den vorgesehenen Zweck der Konkretisierung . . . . . . . . . . . . . . . . . 147 (b) Extraktion organisatorischer Grundanforderungen aus § 80 Abs. 2 WpHG . . . . . . . . . . . . . . . . . . . . . . . . 148 c) Zusammenfassung und Formulierung eines Kanons der Über­ wachungspflichten beim Einsatz von KI . . . . . . . . . . . . . . . . . . . . . 150 II. Übertragbarkeit der ISION-Grundsätze bei „beratender KI“ . . . . . . . . . . 151 1. Umfassende Darstellung der Verhältnisse der Gesellschaft und Offenlegung der erforderlichen Unterlagen . . . . . . . . . . . . . . . . . . . . . . 152 2. KI-Berater als fachlich qualifizierter Berufsträger . . . . . . . . . . . . . . . . 153 a) „Berufsträger“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 aa) Interne Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 bb) Externe Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 b) „Fachliche Qualifikation“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 aa) Zweistufige Formalqualifikationsprüfung auch bei Beratung . 155 (1) Interne Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

16 Inhaltsverzeichnis (2) Externe Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 bb) Intensivierung der zweistufigen Qualifikationsprüfung bei KI-Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 (1) Interne Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 (2) Externe Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 c) Zwischenergebnis zum Erfordernis des „fachlich qualifizierten Berufsträger“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 3. Unabhängigkeit des KI-Beraters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 a) Grundsätzliche Unabhängigkeit von KI . . . . . . . . . . . . . . . . . . . . . . 160 b) KI-spezifische Besonderheit: Mögliche „technische Unabhängigkeit“  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 4. Sorgfältige Plausibilitätskontrolle des KI-Rats . . . . . . . . . . . . . . . . . . . 162 a) Allgemeine Leitlinien für die Plausibilitätsprüfung . . . . . . . . . . . . 162 b) Plausibilitätsprüfung bei KI-Beratern  . . . . . . . . . . . . . . . . . . . . . . . 164 aa) Interne Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 bb) Externe KI-gestützte Beratung . . . . . . . . . . . . . . . . . . . . . . . . . 164 5. Zusammenfassung: Leitplanken beim Einholen von KI-Rat . . . . . . . . 166 6. (Mittelfristige). . . Zukunft der KI-Beratung – Überlegungen zu einem Rechtsfortbildungsvorschlag unter Berücksichtigung ökonomischer und gesellschaftspolitischer Anforderungen . . . . . . . . . . . . . . . . . . . . . 167 a) Notwendigkeit der Erwägung einer Anpassung der Plausibilitätsprüfung bei KI-Beratung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 b) Kompensationsmöglichkeit der Intransparenz der KI bei der Plausbilitätsprüfung nach hergebrachten Grundsätzen für menschliche Berater . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 aa) Ausschluss „völlig untauglicher Gutachten“ . . . . . . . . . . . . . . 168 bb) Ausschluss von „Gefälligkeitsgutachten“ . . . . . . . . . . . . . . . . . 168 c) Ergebnis zu den Überlegungen einer künftigen Anpassung der Plausibilitätsprüfung beim Einsatz von KI-Beratern . . . . . . . . . 170 D. Pflicht zum Einsatz von KI im Rahmen der Business Judgment Rule? . . . . . I. Maßstab für eine angemessene Informationsgrundlage . . . . . . . . . . . . . . . 1. „Angemessenheit“ der Informationsgrundlage . . . . . . . . . . . . . . . . . . . 2. Gerichtliche Kontrolle des Beurteilungsspielraums . . . . . . . . . . . . . . . II. Pflicht zur Konsultation von KI für eine angemessene Informationsgrundlage? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

171 171 172 173 176 178

E. Zusammenfassung zur Delegation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

Zusammenfassung der Forschungsergebnisse in Thesen 

180

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199

Abkürzungsverzeichnis a. A.

andere(r) Ansicht

Abb. Abbildung Abs. Absatz AcP

Archiv für die civilistische Praxis

aE

am Ende

aF

alte(r) Fassung

AG

Die Aktiengesellschaft

AI

Artificial Intelligence

ANN

Artificial Neural Network(s)

AöR

Archiv des öffentlichen Rechts

BaFin

Bundesanstalt für Finanzdienstleistungsaufsicht

BB

Betriebs Berater

BC

Zeitschrift für Bilanzierung, Rechnungswesen und Controlling

Beschl. Beschluss Bspw. Beispielsweise BT-Drs. Bundestag-Drucksache CR

Computer und Recht

DB

Der Betrieb

Ders. Derselbe/Dieselbe DL

Deep Learning

Et al.

Et alii/Et aliae

EY

Ernst & Young

f.

folgende (Seite)

ff.

folgende (Seiten)

HBR

Harvard Business Review

h. M.

herrschende Meinung

Hrsg. Herausgeber InTeR

Zeitschrift zum Innovations- und Technikrecht

KI

Künstliche Intelligenz

KNN

Künstliches Neuronales Netz/Künstliche Neuronale Netze

K&R

Kommunikation & Recht

ML

Machine Learning

18 Abkürzungsverzeichnis NJOZ NJW NZG OECD

Neue Juristische Online Zeitschrift Neue Juristische Wochenschrift Neue Zeitschrift für Gesellschaftsrecht Organisation für wirtschaftliche Zusammenarbeit und Entwicklung PharmR Pharma Recht Rn Randnummer(n) RW Rechts Wissenschaft – Zeitschrift für rechtswissenschaftliche Forschung S. Seite(n) u. a. und andere/ unter anderem Urt. Urteil v. vom vgl. vergleiche WI Wirtschaftsinformatik XAI Explainable Artificial Intelligence z. B. Zum Beispiel ZCG Zeitschrift für Corporate Governance ZfPW Zeitschrift für die gesamte Privatrechtswissenschaft ZGR Zeitschrift für Unternehmens- und Gesellschaftsrecht ZHR Zeitschrift für das gesamte Handels- und Wirtschaftsrecht ZIP Zeitschrift für Wirtschaftsrecht Zit. Zitiert als

Einleitung Künstliche Intelligenz (KI) hat mittlerweile nahezu jeden Lebensbereich erfasst. Sie ist zu einem globalen wirtschaftlich und strategisch besonders relevanten Faktor geworden.1 Im Rahmen spezialisierter Aufgabenbereiche ist Künstliche Intelligenz heute regelmäßig der menschlichen Aufgabenausführung weit überlegen. Insbesondere in großen börsennotierten Aktiengesellschaften mit hohem Verwaltungs- und Geschäftsführungsaufwand und entsprechender Kapitalausstattung wird diese Technologie damit immer wichtiger, um wettbewerbsfähig zu bleiben. Der Umsatz von Unternehmensanwendungen im Bereich Künstlicher Intelligenz wird Prognosen zur Folge in den nächsten Jahren auf rund 31,2 Mrd. US-Dollar (2025) ansteigen.2 2016 lag der Umsatz noch bei 0,35 Mrd. US-Dollar.3 In der strategischen Unternehmensplanung und als Managementassistent wird Künstliche Intelligenz schon heute erfolgreich in der Unternehmensleitung eingesetzt.4 Künstliche Intelligenz wird bald in der Lage sein, auch viele Aufgaben des Vorstands einer Aktiengesellschaft schneller, kostengünstiger und besser zu erfüllen.5 Daher ist es angezeigt, dass auch die Rechtswissenschaft sich mit den spezifischen Besonderheiten und Auswirkungen der Künstlichen Intelligenz befasst, die beim Einsatz durch den Vorstand der Aktiengesellschaft relevant werden.

A. Konkretisierung des Forschungsgegenstandes und Ziele der Untersuchung Die rasant fortschreitenden technischen Möglichkeiten und die einem Menschen in spezialisierten Aufgaben weit überlegene Leistungsfähigkeit der Künstlichen Intelligenz macht deren Einsatz durch den Vorstand der Aktiengesellschaft künftig schon aus Wettbewerbsgründen obligatorisch. Dennoch existieren bislang nur wenige erste konkrete Stellungnahmen zum Einsatz von Künstlicher Intelligenz in der Unternehmensleitung. Dies wird zum ei1  Fraunhofer-Gesellschaft

e. V., Maschinelles Lernen (2018), S. 5. Abb. 1.1. bei Kreutzer/Sirrenberg, KI verstehen, S. 2. 3  Vgl. Abb. 1.1. bei Kreutzer/Sirrenberg, KI verstehen, S. 2. 4  Canals/Heukamp, The Future of Management in an AI World (2020), S. 11 ff. 5  Thomas/Amico/Kolbjørnsrud, Harvard Business Review online Ressource „How Artificial Intelligence Will Redefine Management“, vom 02.11.2016. 2  Vgl.

20 Einleitung

nen daran liegen, dass das Forschungsfeld der Künstlichen Intelligenz noch sehr jung ist. Eine fortschreitende Anzahl juristischer Stellungnahmen hat erst im Jahre 2018 begonnen aufzutauchen. Überwiegend erschöpfen sich diese jedoch in sehr allgemeinen Darstellungen der juristischen Herausforderungen von Künstlicher Intelligenz bei der Leitung der Aktiengesellschaft. Eine konkrete Aufarbeitung des technisch absehbar wichtigsten Anwendungsbereichs – der spezifischen Aufgabendelegation an KI –, auch unter Würdigung sämtlicher derzeit ersichtlichen Meinungen, fehlt bislang. Insbesondere wurden die Fragen zu den Pflichten des Vorstands bei der Delegation an Künstliche Intelligenz bisher nur vereinzelt und wenig dogmatisch tiefgreifend behandelt. Nicht nur aus rechtswissenschaftlicher Sicht, sondern auch aus vorstandspraktischer Sicht bestehen daher erhebliche Unsicherheiten beim Einsatz von KI. Die daraus folgenden haftungsrechtlichen Dunkelfelder führen dazu, dass Vorstände von Aktiengesellschaften die erheblichen Potenziale von Künstlicher Intelligenz nicht ausschöpfen können und im internationalen Wettbewerb Vorteile ungenutzt lassen (müssen). Der juristischen Aufarbeitung dieses bislang kaum erforschten Feldes kommt daher nicht nur rechtswissenschaftliche, sondern in ihren Auswirkungen auch besondere praktische und ökonomische Bedeutung zu. Für den Vorstand der Aktiengesellschaft wird der Einsatz von Künstlicher Intelligenz in der Ausprägung von (Software-)Agenten6, als wegen ihrer Beratungs- und Entscheidungsfunktion relevanteste Form,7 den Forschungsgegenstand der Arbeit bilden. Als deren Lernstruktur8 wird hier der heute vielversprechendste und leistungsstärkste Typ des überwachten Lernens mittels sogenannter Künstlicher Neuronaler Netze9 zugrunde gelegt. Die folgenden rechtlichen Ausführungen verwenden den Begriff „Künstliche Intelligenz“ für diese konkretisierte Form der besseren Verständlichkeit halber synonym.10 In diesem Rahmen wird sich die Arbeit auf die rechtliche Würdigung der KI-spezifischen Auswirkungen beim Einsatz im Vorstand der Aktiengesellschaft konzentrieren. Die etwa wegen der Geschwindigkeit der Datenver­ arbeitung und der Entscheidungsprozesse zu erwartenden erheblichen Effi­ zienzsteigerungen, die eine ausschließlich durch KI geleitete Aktiengesellschaft erfahren würde, macht eine erste Aufarbeitung der derzeit bestehenden 6  Erläuternd

eingehend auf diese Form der KI siehe unten unter 1. Teil B. I. Canals/Heukamp, The Future of Management in an AI World (2020), S.  14 ff. und 140 ff. 8  Zu den Lernverfahren siehe unten unter 1. Teil B. II. 9  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 45; erläuternd zu Künstlichen Neuronalen Netzen siehe unten unter 1. Teil B. II. 3. c) cc). 10  Ab Abschnitt F., im Anschluss an die Grundlagen der Künstlichen Intelligenz. 7  Vgl.



A. Konkretisierung des Forschungsgegenstandes und Ziele der Untersuchung 21

rechtlichen Hinderungsgründe hinsichtlich eines KI-Vorstands notwendig. Zwar ist mittelfristig nicht zu erwarten, dass Künstliche Intelligenz eine Leistungsfähigkeit erreicht, die den in der Aktiengesellschaft allgemein empfehlenswerten Einsatz von KI als Vorstandsmitglied technisch sinnvoll erscheinen lässt, jedoch soll die Arbeit in einem ersten Abschnitt, wegen der nicht absehbaren Geschwindigkeit der Entwicklung der Künstlichen Intelligenz zukunftsgerichtet die Möglichkeiten einer Substitution des menschlichen Vorstands diskutieren. Die Arbeit wird dazu herausarbeiten, welche Anforderungen das Aktiengesetz an die Tauglichkeit zum Vorstandsmitglied stellt. Darauf aufbauend wird eine Analyse der für die Zulässigkeit der Substitution eines Vorstandsmitglieds durch KI zu überwindenden Hürden erstellt. Ihren Schwerpunkt soll die Arbeit im Rahmen des gegenwartsgerichteten und technisch schon heute möglichen Hauptanwendungsgebiet von Künst­ licher Intelligenz in der Unternehmensleitung der Aktiengesellschaft haben: Der Delegation spezifischer Aufgaben an KI, in denen diese dem Menschen weit überlegen ist, wie etwa der Mustererkennung und Auswertung von großen Datenmengen bei unternehmensstrategischen Entscheidungen. Die Arbeit wird zunächst Leitlinien für die Zulässigkeit der Aufgabendelegation von Geschäftsführungs- und Leitungsaufgaben an Künstliche Intelligenz geben. Die Untersuchung soll dazu beizutragen, die Hemmungen für den Einsatz von KI in der Unternehmenspraxis abzubauen und somit die ökonomisch wertvollen Potenziale der KI zu nutzen. Dazu wird die Bearbeitung einen Pflichtenkanon für die Vermeidung von Haftungsrisiken des Vorstands aufgrund der spezifischen Besonderheiten der Künstlichen Intelligenz herausarbeiten. Zu diesem Zwecke werden KI-spezifische Auswahl-, Einweisungs-, und Überwachungspflichten des Vorstands erarbeitet. Darüber hinaus wird wegen der fortschreitenden Entwicklung der „Beratenden KI“ und der damit einhergehenden ökonomischen und zeitlichen Vorteile der Vorstandsberatung auch die Enthaftungsmöglichkeit des Vorstands bei der Berufung auf einen KI-Rat unter Würdigung der ISION-Entscheidung des BGH diskutiert. In diesem Zusammenhang wird zum einen auf die Zulässigkeit des Berufens auf KI-Rat eingegangen. Zum anderen werden entsprechende Vorstandspflichten herausgearbeitet. Schließlich taucht mit der technischen Möglichkeit, KI für bestimmte Aufgaben einzusetzen, in denen diese dem Menschen deutlich überlegen ist, auch die Frage nach der Pflicht des Einsatzes auf, diese für unternehmerische Entscheidungen auf Basis angemessener Informationsgrundlage zu nutzen. Im Rahmen der Business Judgment Rule soll die Arbeit schließlich eine entsprechende rechtliche Würdigung vornehmen und Handlungsempfehlung für den Vorstand geben.

22 Einleitung

B. Gang der Untersuchung Die vorliegende Arbeit wird für die rechtliche Bewertung des Einsatzes von Künstlicher Intelligenz im Vorstand der Aktiengesellschaft zunächst im ersten Teil die zur juristischen Diskussion notwendigen technischen Grundlagen erörtern sowie diese im Anschluss auf die für die Arbeit wichtigsten KI-spezifischen Besonderheiten zusammenfassen. Darauf aufbauend erfolgt in einem zweiten Teil die rechtswissenschaftliche Auseinandersetzung mit dem Einsatz von Künstlicher Intelligenz als Substitut des Vorstands. Im dritten Teil diskutiert die Arbeit die Delegation von Vorstandsaufgaben an Künstliche Intelligenz unterteilt in deren Zulässigkeit, die Haftung im Rahmen der Delegation und die Frage nach einer möglichen Pflicht zur Delegation. Die Arbeit endet mit einer Zusammenfassung der Forschungsergebnisse in Thesen.

Erster Teil

Grundlagen der Künstlichen Intelligenz A. Allgemeines I. Definition des Begriffs Künstliche Intelligenz Zur Auseinandersetzung mit der Künstlichen Intelligenz (KI)1 gehört zunächst die Revision des Begriffs. Im gesellschaftlichen Diskurs fällt auf, dass die damit verbundenen Vorstellungen oft wenig mit auch nur mittelfristig technischen Möglichkeiten zu tun haben. In absehbarer Zeit ist ein derart weit entwickeltes KI-System, welches mit den kognitiven Fähigkeiten des Menschen vergleichbar wäre, nicht zu erwarten.2 (Mit-)Ursächlich für diese schillernden Zukunftsvisionen im deutschen Diskurs ist jedenfalls auch die Übersetzung aus dem Englischen „Artificial Intelligence“ in „Künstliche Intelligenz“, die schon wegen des stark anthropomorphen Einschlags der deutschen Terminologie unscharf ist.3 Es bedeuten weder „Artificial“ noch „Intelligence“ im Englischen das Gleiche wie „künstlich“ und „Intelligenz“ im Deutschen.4 „Artificial“ wird man, um den etymologischen Bezug zum Lateinischen „ars“ zu wahren, prägnant mit „kunstgerecht“ oder „artifiziell“ übersetzen können.5 Anders verhält es sich mit „Intelligence“. Bereits 1955 wurde der Begriff „Intelligence“ im Zusammenhang mit Artificial Intelligence undefiniert vorausgesetzt.6 Auch eine etymologische Betrachtung liefert hier wenig Erkenntnis. Lateinisch „Intellegere“, auf Deutsch „einsehen“ oder „verstehen“ ist zu abstrakt, um daraus einen klaren Bezugspunkt für die Übersetzung fruchtbar zu machen. 2007 stellten Shane Legg und Marcus 1  Im Folgenden wird auch gelegentlich der englische Begriff „Artificial Intelligence“ (AI) verwendet. 2  Vgl. Brynjolfsson/McAfee, HBR 2017, 3 (6); Buxmann/H. Schmidt, Künstliche Intelligenz (2019), S. 6; Fraunhofer-Gesellschaft e. V., Maschinelles Lernen (2018), S. 8; Gil/Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S. 8; Martini, Blackbox Algorithmus, S. 25. 3  Herberger, NJW 2018, 2825 (2825). 4  Görz/Nebel, Künstliche Intelligenz, S. 9. 5  So Herberger, NJW 2018, 2825 (2827). 6  Zur Terminologie und Kritik an der Übersetzung ins Deutsche ausführlich: Herberger, NJW 2018, 2825.

24

1. Teil: Grundlagen der Künstlichen Intelligenz

Hutter fest, dass zum Begriff Intelligence mehr als 70 Definitionen existieren.7 Eine einheitliche und allgemeingültige Definition existiert bis heute weder im Deutschen noch im Englischen. Einigkeit besteht aber insofern, dass unter Intelligence die „Fähigkeit einer handelnden Instanz in einem weiten Umfeld von Rahmenbedingungen Ziele zu erreichen“ verstanden wird.8 Diese umfassende wissenschaftliche Diskordanz kann und soll im Rahmen dieser Arbeit nicht aufzulösen versucht werden. Dies ist auch schon nicht zielführend, da eine exakte Definition, ob einem Computersystem (menschliche) Intelligenz zugeschrieben werden kann, keinen Mehrwert bietet, denn Intelligenz manifestiert sich in der Interaktion.9 Kann ein System die von Menschen vorgegebenen Ziele erreichen, so ist es jedenfalls intelligent hinsichtlich der Aspekte, die es dafür benötigt.10 Insbesondere der Begriff Intelligenz ist daher im Zusammenhang mit Künstlicher Intelligenz als ein anderer zu verstehen als im Zusammenhang mit menschlicher Intelligenz. Künstliche Intelligenz beschreibt schließlich einen funktional notwendigen Grad von Autonomie, der darin besteht, dass das Computersystem in der Lage ist, zur Erreichung eines Ziels selbstständig Unterziele zu bestimmen und zu verfolgen.11 Diese Merkmale von Künstlicher Intelligenz erfüllen jedenfalls solche Systeme, die „wie Menschen denken, wie Menschen handeln, rational denken und rational handeln“12. Basierend auf dieser Klarstellung der ungeschickten Übersetzung und damit einhergehenden Verzerrung der Leistungsfähigkeit von KI, sowie der Beschreibung eines intelligenten Systems soll in der Bearbeitung der Begriff „Künstliche Intelligenz“ wegen seiner Popularität dennoch weiterverwendet werden. Insbesondere, da dessen entwickelte Eigendynamik ohnehin schwer wieder einzufangen sein dürfte.

in: Goertzel/Wang (Hrsg.), Artificial general intelligence (2007). in: Saeys/van de Peer/Tsiporkova/Baets (Hrsg.), BENELEARN (2006), S. 2: „Intelligence measures an agent’s ability to achieve goals in a wide range of environments“; Deutsche Übersetzung von Herberger, NJW 2018, 2825 (2826). 9  Görz/Nebel, Künstliche Intelligenz, S. 9 ff. 10  Görz/Nebel, Künstliche Intelligenz, S. 12. 11  Görz/Nebel, Künstliche Intelligenz, S. 12. 12  Bitkom e. V./DFKI, Gipfelpapier Künstliche Intelligenz (2017), S. 29; Görz/­ Nebel, Künstliche Intelligenz, S. 6; mit Verweis auf die Übersicht bei Russell/­ Norvig et al., Artificial Intelligence, S. 2; siehe auch etwas näher erläuternd Gil/ Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S. 4. 7  Legg/Hutter, 8  Legg/Hutter,



A. Allgemeines25

II. Zur anthropomorphen und metaphorischen Sprache in der Arbeit Der allgemeine Diskurs ist sprachlich sowohl anthropomorph als auch metaphorisch geprägt.13 Überwiegend wird im Rahmen der Arbeit der metaphorische Sprachgebrauch wegen der daraus resultierenden Ungenauigkeiten vermieden. Soweit jedoch gesicherte und geläufige Fachbegriffe im Forschungsfeld der Künstlichen Intelligenz noch nicht vorhanden sind, soll der metaphorische Sprachgebrauch zur besseren Verständlichkeit und Nachvollziehbarkeit des zugrundeliegenden technischen Prozesses beibehalten werden. Wird also von dem „denkenden“ Computersystem gesprochen, ist damit nicht das menschliche Denken gemeint, sondern eine metaphorische Simplifizierung des technischen Ablaufs.14 Die daraus resultierenden (technischen) Ungenauigkeiten werden in der rechtlichen Bewertung, soweit sich auswirkend, an der entsprechenden Stelle erörtert und beachtet.

III. Entwicklung der Künstlichen Intelligenz Künstliche Intelligenz ist keine neue Erfindung dieses Jahrzehnts. Die Idee von der denkenden Maschine und die Geburtsstunde der KI als akademisches Forschungsfeld reichen bis in das Jahr 1956 zurück. Wesentlicher Treiber in diesem Forschungsfeld ist das sogenannte „Machine Learning“15.16 Anstatt lediglich Beispiele auswendig zu lernen werden dabei aus Daten im Hinblick auf ein bestimmtes Problem, etwa das Erkennen von bestimmten Tieren auf Bilden, Muster herausgearbeitet und in ein Modell übertragen.17 Das Modell repräsentiert sodann die eingegebenen Merkmale der Daten in Bezug auf die zu lösende Aufgabe und wird für die Verarbeitung weiterer Daten als Lösungsschema angewandt.18 Die besondere Leistungsstärke des maschinellen Lernens liegt in der Verbesserung und Abstraktion des Modells durch das sogenannte „Training“. Während des Trainings werden durch die VerarbeiKünstliche Intelligenz, S. 9. Künstliche Intelligenz, S. 9. 15  Ausführlich zum maschinellen Lernen siehe unten unter 1. Teil B. II. 16  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 45; Stiemerling, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 16 ff. 17  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 45; Stiemerling, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 16 f. 18  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 45; vgl. Stiemerling, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 17. 13  Görz/Nebel, 14  Görz/Nebel,

26

1. Teil: Grundlagen der Künstlichen Intelligenz

tung einer Vielzahl unbekannter Daten neue Muster, Beziehungen sowie Gesetzmäßigkeiten als Merkmale des Problems erkannt, wodurch die nachfolgenden Problemlösungen mit höherer Präzision und Qualität erfolgen.19 Schon früh wurden wichtige Bausteine für den heutigen Erfolg von Künstlicher Intelligenz und Machine Learning gelegt.20 In einem Sommerforschungsprogramm des Dartmouth College in Hanover, New Hampshire, wurde bereits an ersten Formen des Machine Learnings in der Ausprägung von sogenannten „Künstlichen Neuronalen Netzen“21 und anderen „intelligenten Computern“ geforscht.22 Erstere sind in der Lage durch unterschiedliche „Verarbeitungsschichten“, die aus einzelnen Algorithmen bestehen, ein hohes Maß an Merkmalen und komplexen Strukturen hinsichtlich der verarbeiteten Daten zu lernen.23 Jede Schicht wird dabei mit sogenannten „Gewichten“ versehen, die über die Auswertung der Daten anhand der Algorithmen entscheiden und letztere zur Verbesserung der Lösungsqualität selbständig anpassen.24 Die Leistungsfähigkeit Künstlicher Neuronaler Netze steigt dabei erst mit der Menge der Daten und Schichten an, die die eingegebenen Daten durchlaufen.25 In der Folge ist ihr Erfolg von hohen Datenmengen und hoher Rechenleistung abhängig. Eine Besonderheit ist dabei die sogenannte „Blackbox-Problematik“26. Das Künstliche Neuronale Netz ist nur hinsichtlich der eingegebenen und ausgegeben Daten sowie der ursprünglich verwendeten Algorithmen und Gewichte einsehbar. Welche Ereignisse im Netz für das Ergebnis kausal ausschlaggebend waren, ist grundsätzlich nicht rekon­ struierbar. Jedoch erlaubt dieses Verfahren nicht nur durch den Menschen vorgegebene (explizite) Strukturierungsmerkmale bei der Datenverarbeitung und Problemlösung anzuwenden, sondern auch selbst neue Merkmale inner-

19  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 45; vgl. auch Stiemerling, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 17. 20  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 43. 21  Erläuternd eingehend auf Künstliche Neuronale Netze unten unter 1. Teil B. II. 3. c) cc). 22  Siehe das Dartmouth Proposal, McCarthy/Minsky et al., Proposal for Dartmouth (1955) in dem unter anderem „Automatic Computers“, „Neuron Nets“ und „Self-Improvement“ im Förderantrag erwähnt werden. 23  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 54. 24  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 53, dazu auch unten unter 1. Teil B. II. 3. c) cc). 25  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 52. 26  Dazu unten unter 1. Teil B. II. 3. c) cc).



A. Allgemeines27

halb der Daten zu erkennen, lernen und anzuwenden.27 Künstliche Neuronale Netze sind daher hinsichtlich ihrer Leistungsstärke einer einfachen expliziten Programmierung überlegen. Trotz dieser vielversprechenden Ansätze verschwanden Künstliche Neuronale Netze und andere Machine Learning Verfahren zunächst wieder, da deren praktischer Nutzen wegen fehlender Datenverfügbarkeit und unzureichender Rechenleistung gering war. In der Folge wurde zunächst hauptsächlich auf weniger rechenaufwendige maschinelle Lernverfahren gesetzt. Viele Jahre war diese sogenannte „Symbolic-AI“ die Forschung und Markt dominierende Form der Künstlichen Intelligenz.28 Diese zeichnet sich durch eine explizite Programmierung von Wissen aus. Anders als Künstliche Neuronale Netze ist hier für den Menschen ersichtlich, welche Prozesse von Eingabe bis Ausgabe in der Maschine ablaufen, sodass die Symbolic-AI keine „Blackbox“ darstellt. Insbesondere als sogenanntes „Experten-System“ fand die Symbolic-AI ihr Einsatzgebiet. Es funktioniert grundsätzlich nach einem regelbasierten „Wenn-Dann-Prinzip“. Die Programmierung erfolgt durch Übersetzung menschlichen Wissens in für Computer lesbare Form. Auf diese Weise sind Experten-Systeme unter Rückgriff auf die eingespeicherten Informationen in der Lage in einem sehr spezifischen Bereich Fragen zu beantworten und Probleme zu lösen.29 Der Wandel dieser wissensbasierten Symbolic-AI-Systeme zu datengetriebenen Machine Learning Systemen vollzog sich erst in neuerer Zeit mit der besseren Verfügbarkeit großer Mengen digitaler Daten in Verbindung mit der rasanten Entwicklung der Rechenleistung von Computern.30 Dies forcierte schließlich den Nutzen von Künstlichen Neuronalen Netzen. Angetrieben von der technischen Fortentwicklung gelang es deren innere Strukturen erheblich zu erweitern und dadurch deren Leistungsfähigkeit und praktische Einsatzmöglichkeit deutlich zu verbessern. Damit ging ein wesentlicher Fortschritt in der Strukturierung und Analyse großer Datenmengen einher. Leistungsstarke datengetriebene Machine-Learning Verfahren dominieren heute den Bereich der KI.31 27  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 54. 28  Gil/Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S. 7. 29  Gil/Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S. 6. 30  Gil/Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S.  6 f. 31  Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 45.

28

1. Teil: Grundlagen der Künstlichen Intelligenz

IV. Über „schwache KI“ und „starke KI“ Künstliche Intelligenz als Homunculus ist heute nur eine Zukunftsvision.32 Diese als „starke KI“ oder „umfassende KI“ bezeichnete Form33 wird daher im Folgenden nicht dargestellt und auch nicht Thema der Arbeit sein. Gegenwärtig existierenden Systeme werden allgemein unter dem Begriff „schwache KI“ oder „begrenzte KI“ zusammengefasst.34 Sie sind in der Lage, Menschen intelligent beim Erreichen von Zielen zu unterstützen.35 Die Bezeichnung als „schwache KI“ bildet deren Leistungsfähigkeit jedoch nur unzureichend ab. Die Systeme mögen „schwach“ sein im Vergleich zu den umfassenden und bereichsübergreifenden kognitiven Fähigkeiten des Menschen. Jedoch stark in derjenigen Disziplin, für die das System geschaffen wurde. Während eine KI in kürzester Zeit millionenfache Datensätze auf Gemeinsamkeiten untersuchen kann, benötigte man für die gleiche Arbeit eine Vielzahl von Menschen und erheblich mehr Zeit. Die KI ist in ihrem abgesteckten Bereich damit sogar deutlich „stärker“ als die Fähigkeit des Menschen in derselben Aufgabe. Im Rahmen der Arbeit wird daher auf die Bewertung als „stark“ oder „schwach“ weitgehend verzichtet. Dies vermeidet zum einen eine Wertung hinsichtlich der Leistungsfähigkeit, die im sich schnell fortentwickelnden Forschungsfeld der KI ohnehin nicht von langer Beständigkeit sein würde. Zum anderen wird auch die Gefahr einer sich durch eine Bewertung als „stark“ oder „schwach“ stets aufdrängende Vorstellung eines unkontrollierbaren Homunculus36 weitmöglich begrifflich eingedämmt.

32  Vgl. Brynjolfsson/McAfee, HBR 2017, 3 (6); Bitkom e. V./DFKI, Gipfelpapier Künstliche Intelligenz (2017), S. 29; Buxmann/H. Schmidt, Künstliche Intelligenz, 2019), S. 6; Fraunhofer-Gesellschaft e. V., Maschinelles Lernen (2018), S. 8; Gil/Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S. 8; Martini, Blackbox Algorithmus, S. 25. 33  Bitkom e. V./DFKI, Gipfelpapier Künstliche Intelligenz (2017), S. 29 und 31; Gil/Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S. 8; Noack, ZHR 183 (2019), 105 (107); Spindler, DB 2018, 41 (48); a. A.: Strohn, ZHR 182 (2018), 371 (372), der den Begriff „starke KI“ auch schon für die heute existierenden selbstlernenden Systeme verwendet. 34  Bitkom e. V./DFKI, Gipfelpapier Künstliche Intelligenz (2017), S. 29 und 31; Gil/ Hobson et al., in: Canals/Heukamp (Hrsg.), The Future of Management (2020), S. 8. 35  Bitkom e. V./DFKI, Gipfelpapier Künstliche Intelligenz (2017), S. 29 und 31. 36  Vgl. Bitkom e. V./DFKI, Gipfelpapier Künstliche Intelligenz (2017), S. 31.



B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KI 29

B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KIin Form der (Software-)Agenten Im Rahmen des Einsatzfeldes künstlich intelligenter Systeme existieren eine Vielzahl unterschiedlicher Ausprägungen.37 Im Vorstand der Aktiengesellschaft wird es überwiegend auf die Unterstützung bei der Unternehmensleitung ankommen; insbesondere der assistierende Einsatz zur Beratung des Vorstands bei der Leitung der Aktiengesellschaft sowie zur Ausführung und Entscheidung von Aufgaben.38 Der Vorstand der Aktiengesellschaft wird Künstliche Intelligenz daher regelmäßig in der Form eines sogenannten „Intelligenten (Software-)Agenten“39 einsetzen.40 Über die genaue Definition eines Softwareagenten herrscht Uneinigkeit41, die insbesondere durch die unterschiedlichen Blickwinkel entsteht, aus denen der jeweilige Definitionsgeber den Agenten betrachtet.42 Daher soll die Definition von Rüdiger Zarnekow zugrunde gelegt werden, die auf Basis einer Gesamtbetrachtung unterschiedlicher wissenschaftlicher Disziplinen und der Anforderungen der Praxis erstellt worden ist. Als Intelligenten Softwareagenten bezeichnet man demnach ein Softwareprogramm, das für einen Benutzer bestimmte Aufgaben erledigen kann und dabei einen Grad an Intelligenz besitzt, der es befähigt, seine Aufgaben in Teilen autonom durchzuführen und mit seiner Umwelt auf sinnvolle Art und Weise zu interagieren.43 Auf die Grundzüge der Funktionsweise dieser KI-Form soll im Folgenden genauer eingegangen werden.

37  Dazu Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 43 ff. 38  Vgl. Canals/Heukamp, The Future of Management in an AI World, 2020), S.  11 ff.; Thomas/Amico/Kolbjørnsrud, Harvard Business Review online Ressource „How Artificial Intelligence Will Redefine Management“, vom 02.11.2016. 39  Siehe zur unterschiedlichen Terminologie Teubner, AcP 218 (2018), 155 (156) dort in Fn 1. 40  Zu anderen, hier mangels Relevanz für den Vorstand nicht behandelten, Bereichen der KI siehe Niederée/Nejdl, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 43 f. 41  Ausführlich zu verschiedenen Definitionen siehe zum Beispiel: Franklin/Graesser, in: Müller/Wooldridge/Jennings (Hrsg.), Intelligent Agents III (1996); der Begriff „Agent“ geht wohl auf Rosenschein zurück, der in seiner Dissertation diesen das erste mal verwendete, siehe dazu in: Rosenschein, Rational Interaction. 42  Brenner/Zarnekow/Wittig, Intelligente Softwareagenten, S. 21. 43  Brenner/Zarnekow/Wittig, Intelligente Softwareagenten, S. 23.

30

1. Teil: Grundlagen der Künstlichen Intelligenz

I. Grundfunktion des Agenten und Agentenumgebung44 Agenten verarbeiten Einflüsse aus ihrer Umwelt und geben ihr Ergebnis an dieselbe wieder aus. Die Wahrnehmung der Umwelteinflüsse durch einen Agenten erfolgt durch sogenannte Sensoren, die beispielweise Tastatureingaben, Datenpakete oder Informationen aus dem Netzwerk sein können.45 Daran schließt sich die „intelligente“ Verarbeitung an. Dieser Prozess ist die eigentliche Berechnung des Outputs des Agenten. Sie wird durch die mathematische Agentenfunktion beschrieben und durch das Agentenprogramm im physischen Computersystem implementiert.46 Im letzten Schritt erfolgt die Ausgabe durch die Aktuatoren des Agenten an die Umwelt. Exemplarisch in Form von lesbarer Ergebnisausgabe auf dem Computerbildschirm, geschriebener neuer Datensätze oder gesendeten Netzwerkinformationen.47 Das Grundkonzept des Agenten besteht damit vereinfacht gesprochen in einer Input-Output Interaktion mit seiner Umwelt. 1. Agentenumgebung Damit der Agent zur Wahrnehmung seiner Aufgaben tätig werden kann, ist es notwendig dessen Umwelt möglichst vollständig zu beschreiben.48 Denn der Agent kann nur solche Informationen in seine Verarbeitung mit einbeziehen, die ihm auch bekannt sind und die er dadurch als in „seiner Welt“ existent betrachtet.49 Die Beschreibung der Umwelt des Agenten, in der er sich aufhält, ist Teil der Beschreibung seiner Aufgabenumgebung und damit auch Teil des durch den Agenten zu lösenden Problems.50 Diese Problem- bzw. Aufgabenumgebung lässt sich in vier Grundbausteine unterteilen. Den Leistungsmaßstab, sowie die – eben erwähnten – Bausteine Umwelt, Aktuatoren und Sensoren.51

44  Vgl. zum Aufbau und Struktur der Agenten im folgenden Abschnitt 1. grundlegend und umfassend Kapitel 2 in Russell/Norvig et al., Artificial Intelligence, S. 34 ff. 45  Russell/Norvig et al., Artificial Intelligence, S. 34; Kirn, WI 44 (2002), 53 (59); Kirn/Müller-Hengstenberg, Rechtliche Risiken autonomer und vernetzter Systeme, S. 75. 46  Russell/Norvig et al., Artificial Intelligence, S. 35. 47  Russell/Norvig et al., Artificial Intelligence, S. 34; Kirn/Müller-Hengstenberg, Rechtliche Risiken autonomer und vernetzter Systeme, S. 75. 48  Russell/Norvig et al., Artificial Intelligence, S. 40. 49  Vgl. Kirn/Müller-Hengstenberg, MMR 2014, 225 (228). 50  Russell/Norvig et al., Artificial Intelligence, S. 40. 51  Russell/Norvig et al., Artificial Intelligence, S. 40 ff.



B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KI 31

Unter dem Leistungsmaßstab versteht man das wünschenswerte Ergebnis.52 Wollte man einen Investmentagenten herstellen, wären der Leistungsmaßstab des Agenten zum Beispiel eine langfristig rentable Anlage, niedrige Transaktionskosten, niedrige steuerliche Belastung, ein geringes Verlustrisiko, oder Ähnliches. Die Umgebung ist die Menge aller tatsächlichen Gegebenheiten, mit der der Agent bei seiner Arbeit konfrontiert ist. Dies wären beim Investmentagent zum Beispiel der Börsenkurs, andere Investoren, verschiedene Währungen und rechtliche Vorgaben sowie weitere Umwelteinflüsse. Ein weiterer Aspekt der Aufgabenumgebung sind die Aktuatoren. Die Aktuatoren können physischer oder digitaler Art sein. Sie sind die Handlungselemente des Agenten, mit denen dieser auf die Umwelteinflüsse nach außen sichtbar reagiert. Ausgehend von diesem Grundgerüst der Agentenumgebung ist die KI mit einem der Umgebung angemessenen Agentenprogramm auszustatten, um ihre Aufgabe möglichst optimal zu erfüllen. Dabei hängt die Komplexität des Agentenprogramms von der Komplexität der Aufgabenumgebung ab.53 Je einfacher die Umgebungskonstellation, desto eher genügt ein simples Agentenprogramm. Das Maß der Komplexität resultiert dabei aus dem Zusammenspiel verschiedener Faktoren, von denen unter anderen die Einsehbarkeit aller Umweltinformationen für die KI oder die Variabilität der Umgebung (statisch oder dynamisch), hier beispielhaft genannt seien.54 2. Agentenprogramme Während die Aufgabenumgebung den Rahmen vorgibt, auf dessen Charakteristika hin die KI zu programmieren ist, ist das Agentenprogramm das Element, was beschreibt, wie die aufgenommenen Informationen verarbeitet werden. Es ist neben der Architektur der informatische Hauptbestandteil des Agenten, damit dieser intelligentes Verhalten zeigt und Informationen verarbeitet. Die Architektur des Agenten ist das Objekt, in das das Agentenprogramm eingebettet wird und das mit Sensoren und Aktuatoren ausgestattet ist. Es bildet gemeinsam mit dem Agentenprogramm den Agenten.55

52  Russell/Norvig et al., Artificial Intelligence, S. 37; vgl. Eymann, Digitale Geschäftsagenten, S. 33. 53  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 44. 54  Ausführlich zu den Faktoren der Aufgabenumgebung: Russell/Norvig  et al., ­Artificial Intelligence, S. 42 ff. 55  Russell/Norvig et al., Artificial Intelligence, S. 46.

32

1. Teil: Grundlagen der Künstlichen Intelligenz

Agentenprogramme kommen in diversen Varianten vor. Stuart Russel und Peter Norvig haben vier Grundtypen, auf deren Prinzipien nahezu alle intelligenten Systeme basieren, herausgearbeitet. Diese sind der „einfache Reflex­ agent“, der „modellbasierte Reflexagent“, der „zielbasierte Agent“ und der „utilitaristische Agent“.56 a) Einfacher Reflexagent Einfache Reflexagenten gehören zu den weniger intelligenten Agentensystemen.57 Sie zeichnen sich in der Verarbeitung dadurch aus, dass sie durch einfache „wenn-dann-Regeln“ vorgehen und nur mit den Umweltinformationen arbeiten die zum Zeitpunkt des Inputs vorliegen, ohne vergangene Umweltinformationen mit einzubeziehen.58 Man könnte sagen, dem Agenten fehlt das Gedächtnis. Spätere Änderungen der Umwelt werden nicht berücksichtigt, sodass die Einsatzmöglichkeiten schon konstruktionsbedingt beschränkt sind. Einfache Reflexagenten arbeiten daher grundsätzlich nur dort zuverlässig, wo sämtliche für das korrekte Ergebnis benötigte Informationen vom Zeitpunkt des Inputs bis zum Zeitpunkt des Outputs vorliegen und statisch sind.59 Es besteht zwar die Möglichkeit, den Agenten auch in dynamischer Umwelt einzusetzen. Dies führt jedoch zur deutlichen Erhöhung der Arbeitsschritte des Agenten, um die relevanten Informationen zu erhalten und setzt voraus, dass dieser sich mit Hilfe von Markierungen, die ihm als Indexe dienen, den gegenwärtigen Umweltzustand schrittweise erarbeitet.60 b) Modellbasierter Reflexagent Eine fortentwickelte Form der einfachen Reflexagenten ist der modell­ basierte Reflexagent. Dieser hat gegenüber der einfachen Form den Vorteil, dass er in der Lage ist, die Umweltinformationen zu speichern.61 Dadurch 56  Russell/Norvig et al., Artificial Intelligence, S. 47; Klügl, in: Görz/Schneeberger/Schmid (Hrsg.), Handbuch KI (52014), S. 530. 57  Russell/Norvig et al., Artificial Intelligence, S. 49; vgl. auch Ferber, Multiagentensysteme, S. 215 ff. der diese als tropistische Agenten bezeichnet. 58  Russell/Norvig et al., Artificial Intelligence, S. 48; vgl. Ferber, Multiagentensysteme, S. 215. 59  Russell/Norvig et al., Artificial Intelligence, S. 49. 60  Vgl. Ferber, Multiagentensysteme, S. 222 f. 61  Begrifflich gibt es im Bereich der Agententypen offenbar wenig Einigkeit. Ferber spricht bei Agenten mit Gedächtnis auch von „hysteretischen Agenten“ Ferber, Multiagentensysteme, S. 227 ff.; regelmäßig werden Agenten, die über ein Gedächtnis verfügen aber auch unter dem Sammelbegriff „deliberative Agenten“, solche ohne Gedächtnis unter „reaktive Agenten“ zusammengefasst, siehe nur: Brenner/Zarnekow/



B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KI 33

wird der Agent auch in dynamischen Umgebungen einsetzbar, deren Umweltzustände sich während der Aufgabenbewältigung verändern. Aufgrund seines Gedächtnisses erhält der Agent ein Modell seiner Umwelt, ausgestattet mit Erfahrungselementen, welche Auskunft darüber geben, wie die Umwelt sich sowohl unabhängig als auch infolge der Interaktion des Agenten mit derselben verändert.62 Der Agent ist daher kontinuierlich über den von ihm einsehbaren Umweltzustand zum Zeitpunkt der Entscheidung für eine Aktion im Bilde, sodass dessen Aktion in dynamischer Umgebung nicht – wie beim einfachen Reflexagenten – erst Teil des Sammelprozesses für Umweltinformationen sein muss, sondern unmittelbar auf adäquater Informationsbasis beruht. c) Zielbasierter Agent Als Komplizierung des modellbasierten Agenten existiert der zielbasierte Agent. Diese Form beachtet nicht nur die gegenwärtige Umwelt sowie Erfahrungen aus vergangenen Umweltzuständen, sondern bezieht auch die Zukunft mit in den Aufgabenlösungsprozess ein. Im Gegensatz zu den bisher vorgestellten Reflexagenten, richtet der zielbasierte Agent sein Handeln unmittelbar auf das Erreichen des vorgegebenen Ziels aus, sodass für eine adäquate Reaktion auf unbekannte Umweltsituationen nur ein neues Ziel und nicht sämtliche Verhaltensregeln neu programmiert werden müssen.63 d) Utilitaristischer Agent Schließlich kann auch der zielbasierte Agent um noch eine Komponente erweitert werden. Durch ein utilitaristisches Segment erreicht der Agent auch bei schwierigen Entscheidungssituationen, in denen mehrere Möglichkeiten als zielführend in Frage kommen eine möglichst hohe Performance. Der utilitaristische Agent überprüft die antizipierten Umweltauswirkungen seiner Handlung anhand des Leistungsmaßstabes der Umwelt und seines Nützlichkeitsmaßstabes, der im Grunde genommen die Internalisierung des Umweltleistungsmaßstabes darstellt und löst auf dieser Basis eine Aktion aus, die den Leistungsmaßstab möglichst umfassend erfüllt.64 Insgesamt lassen sich mit dieser Agentenstruktur in vielen unterschiedlichen Umweltumgebungen Wittig, Intelligente Softwareagenten, S. 52 f.; so auch Eymann, Digitale Geschäftsagenten, S.  31 ff. 62  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 50. 63  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 52 f. 64  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 53.

34

1. Teil: Grundlagen der Künstlichen Intelligenz

gute Ergebnisse erzielen. Jedoch erfordert ein solcher Agent einen hohen Aufwand hinsichtlich Erstellung der zum Einsatz kommenden Algorithmen.65

II. Lernfähigkeit der Agenten 1. Grundzüge des Machine Learnings Um durch Lernen eine möglichst hohe Leistungssteigerung zu erreichen, haben sich verschiedene Lernsysteme etabliert. Dieser Lernprozess wird als Machine Learning verstanden. Machine Learning wird heute als Schlüsseltechnologie der KI-Systeme betrachtet.66 Dies liegt nicht zuletzt daran, dass es durch das Machine Learning möglich geworden ist, für Computersysteme sehr komplex zu programmierende Aufgaben ohne explizite Programmierung ausführen zu lassen. Es kommen, statt im Vorhinein festgelegter Regeln und Berechnungsvorschriften, Lernalgorithmen zum Einsatz, die aus Beispieldaten ein Modell entwickeln.67 Auf Basis dieses Wissens in Form des Modells können neue bis dahin unbekannte Aufgaben derselben Art gelöst werden.68 Soll ein System beispielsweise den Börsenkurs der nächsten Tage vorhersagen, so müsste jede nur denkbare Eventualität im Programmcode niedergeschrieben werden. Andernfalls würde das System mangels programmierter Lösungsmöglichkeit, auf die es zugreifen kann, versagen.69 Durch Machine Learning entfällt sowohl die Programmierung jeder Marktsituation als auch das Problem, dass das System bei neuen Situationen grundsätzlich keine taugliche Lösung anbieten kann. Aber auch eine weitere bestehende Hürde wird durch das Machine Learning genommen. Explizit programmierte Systeme müssen den Lösungsweg in ihre Programmsprache durch den Menschen übersetzt bekommen. Dies gestaltet sich insbesondere dann schwierig, wenn die Leistung des Menschen bei der Lösung des Problems nur schwer vollständig beschreibbar ist.70 Sei es wegen unterbewusster Einflüsse des Gehirns oder weil ein für Menschen einfacher Vorgang unzählige Schritte zur Beschreibung in der Sprache des Systems nötig machen würde. Dass ein KI-System gewissermaßen selbstständig lernt ist keineswegs eine Selbstverständlichkeit. Für den Lernvorgang eines KI-Systems kommen im 65  Vgl.

Russell/Norvig et al., Artificial Intelligence, S. 54. e. V., Maschinelles Lernen (2018), S. 8. 67  Fraunhofer-Gesellschaft e. V., Maschinelles Lernen (2018), S. 8. 68  Fraunhofer-Gesellschaft e. V., Maschinelles Lernen (2018), S. 8. 69  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 693. 70  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 693. 66  Fraunhofer-Gesellschaft



B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KI 35

Wesentlichen zwei verschiedene Methoden zum Einsatz; überwachtes Lernen (Supervised Learning) und nicht überwachtes Lernen (Unsupervised Learn­ ing).71 Dabei lässt sich feststellen, dass ein Lernprozess durch das System erfolgt ist, wenn die Leistungsfähigkeit der KI hinsichtlich einer bestimmten Aufgabe, die auf Basis von Erfahrungsdaten gelöst wird, mit steigender Erfahrung ebenso ansteigt.72 2. Lernstruktur eines lernenden Agenten Ein komplexes Agentenprogramm allein ist noch kein Garant für einen hohen Leistungserfolg des Agenten. Vielmehr wird der Agent von sich aus nicht in der Lage sein, Misserfolge zu reduzieren und seine situationsspezifische Leistung zu maximieren. Um hier zu einer kontinuierlichen Verbesserung zu gelangen, ist es notwendig, dass der Agent selbst lernt. Dies erspart nicht nur einigen Programmieraufwand, sondern auch die diffizile Frage danach, wie die gewünschte Aufgabe dem Agenten möglichst umfassend ­ maschinenverständlich aufgetragen werden kann, ohne auch nur äußerst ­unwahrscheinlich auftretende Umweltereignisse außer Acht zu lassen.73 Ob es notwendig ist, dass ein Agent so lückenlos eine gute Performance zeigt, hängt maßgeblich von dessen Einsatzgebiet ab. So wird man bei einem Agenten, der ein Auto steuert, ein weitaus geringeres Maß an Toleranz hinnehmen können, als bei einem Agenten, der Emails für ein Unternehmen filtert. Das Lernsegment erweitert die Struktur des Agenten und ist selbst Teil einer größeren Lernstruktur. Während die zuvor vorgestellten Agentenprogramme bisher den gesamten Agenten repräsentierten, sind sie beim lernenden Agenten Teil eines komplexeren Gebildes und finden ihren Niederschlag in Form des Leistungssegments.74 Das Lernsegment überprüft die Wissensbasis des Agenten und ändert das Verhalten des Leistungssegments so ab, dass eine Performancesteigerung erreicht wird. Damit jedoch das Lernsegment zur Steigerung der Performance in der Lage ist, muss dieses selbst innerhalb der Lernstruktur interagieren, in die es eingebettet ist.

71  Siehe zu allen weiteren maschinellen Lernverfahren Niederée/Nejdl, in: Ebers/ Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S.  49 ff. 72  Goodfellow/Bengio/Courville, Deep Learning, S. 97. 73  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 55. 74  Vgl. Russell/Norvig et al., Artificial Intelligence, S. 55.

36

1. Teil: Grundlagen der Künstlichen Intelligenz Leistungsstandard

Kritiker

Sensoren

Rückmeldung

Änderungen Wissen

Leistungs -segment

Umwelt

Lernsegment

Lernziele

Problemgenerator

Aktuatoren

-AgentAbbildung 1: Aufbau eines lernenden Agenten75

Das Lernsegment erhält vom Kritiker Rückmeldung darüber, wie sich der Agent in der Umwelt verhält. Dazu gleicht er die Aktionen des Agenten mit einem definierten Leistungsstandard ab und gibt das Resultat an das Lernsegment weiter. Dort werden die Informationen verarbeitet und zur Verbesserung der Agentenperformance genutzt. Die Leistungssteigerung des Agenten findet ihre Grenze jedoch an dem Punkt, an dem mangels neuer Situationen kein Zurückbleiben hinter dem Leistungsstandard mehr festgestellt wird und daher eine weitere Verbesserung der Agentenleistung mangels erkennbarer Notwendigkeit ebenso unterbleibt.76 Indes besteht die Möglichkeit, dass neben der Vorgehensweise des Agenten noch eine weitere optimalere Vorgehensweise existiert. Der Problemgenerator sorgt dafür, dass der Agent andere Wege der Problemlösung beschreitet, um durch die Erfahrungen über Erfolg

75  Nach

Russell/Norvig et al., Artificial Intelligence, S. 55, Figur 2.15. Artificial Intelligence, S. 56.

76  Russell/Norvig et al.,



B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KI 37

und Misserfolg in diesen neuen Situationen, langfristig seine Gesamtperformance weiter zu steigern.77 3. Grundzüge der Lernsysteme und Lernverfahren a) Supervised Learning Die heute am häufigsten eingesetzte Art78 des Lernens ist das Supervised Learning. Dabei wird der KI ein sogenannter „gelabelter“ Datensatz zur Verfügung gestellt, anhand dessen sie lernt ein bestimmtes Problem oder eine bestimmte Art von Problemen zu lösen. Diese Daten sind bereits mit der vom Anwender gewünschten Musterlösung maschinenlesbar verknüpft („Label“). Auf Basis einer großen Zahl von Beispieldaten lernt die KI selbstständig Merkmale zu erkennen, die Anzeichen für eine bestimmte Lösung sind. Auf diese Weise trainiert, ist das System dann in der Lage auch auf unbekannte, nicht „gelabelte“ Daten adäquat zu reagieren und die gewünschte Lösung zu produzieren. Soll eine KI einen Rat erteilen, ob ein Investment in eine Aktie zu einem bestimmten Zeitpunkt getätigt oder unterlassen werden soll, so würde diese mit möglichst allen Daten trainiert, die eine bestimmte Auswirkung auf den Aktienkurs des Unternehmens hatten. Die KI erkennt aus den Daten, verbunden mit der Kursreaktion an der Börse, Muster und kann so eine empirisch fundierte Aussage über das beabsichtigte Investment treffen. Der Vorteil des Supervised Learnings liegt also insbesondere in der durch Anwendervorstellung kontrollierten Arbeitsweise der KI. Durch die „gelabelten“ Daten verfährt der Algorithmus nach den Vorstellungen des Anwenders oder genauer gesagt der Person, die die Labels der Datensätze erstellt hat. Denn in diesen befindet sich die Entscheidung des Bearbeiters der Daten vom korrekten Ergebnis, das auf bestimmte Anfragen folgen soll. Durch das Training mit den „gelabelten“ Daten wird der Algorithmus von der KI angepasst. In der Folge wird dann auch bei unbekannten Daten gleichen Typs mit guter Erfolgsquote nach dem gelernten Muster das gewünschte Ergebnis ausgeworfen. b) Unsupervised Learning Als weitere Lernmethode existiert das sogenannte Unsupervised Learning. Bei dieser wird der KI ein nicht „gelabelter“ Datensatz zur Bearbeitung ge77  Vgl.

Russell/Norvig et al., Artificial Intelligence, S. 56. in: Görz/Schneeberger/Schmid (Hrsg.), Handbuch KI (52014), S. 405. 78  Wrobel/Joachims/Morik,

38

1. Teil: Grundlagen der Künstlichen Intelligenz

stellt. Dadurch ist die Lösung für das System nicht vorgegeben und es ist gehalten mittels des zugrunde liegenden Algorithmus eine eigene Lösung anhand der durch das System selbst erkannten Merkmale auszugeben. Das Unsupervised Learning ist daher anfällig für einen cum hoc ergo propter hoc – Schluss. Kausalitäten in Daten, die das System erkennt, können auch solche sein, die sich nur scheinbar auswirken, da sie korrelativ aufgetreten sind. Ergebnisse des KI-Systems bedürfen daher regelmäßig einer erneuten Überprüfung auf diese Fehler. Existiert exemplarisch eine große Menge an Daten zu Aktienkursverläufen eines Unternehmens, können mit der Methode des Unsupervised Learnings solche Effekte herausgefiltert werden, die Auswirkungen auf den Kurs hatten, zuvor aber einem Menschen verborgen geblieben sind. c) Lernverfahren Nachdem die zwei wesentlichen Formen der Lerntypen dargestellt wurden, sei noch in Grundzügen auf die häufigsten Lernverfahren eingegangen, die im Rahmen der Lerntypen zum Einsatz kommen. Sie sind nicht abschließend und nur ein kleiner, aber populärer Ausschnitt der in der Praxis zum Einsatz kommenden Verfahren.79 aa) Supervised Learning: Klassifikation Im Bereich des Supervised Learning kommt überwiegend das Lernen aus klassifizierten Beispielen zum Einsatz.80 Das zur Klassifizierung populärste und am häufigsten angewandte Verfahren ist der Entscheidungsbaum.81 Beginnend mit einer Grundfrage als „Wurzel des Baumes“, die als „wahr“ oder „falsch“ zu beantworten ist, durchlaufen die Input-Daten die anschließenden weiteren Klassifikationsfragen, die jeweils Abzweigungsknoten auf den „Ästen“ darstellen. An jedem Knoten wird je nach Beantwortung als „wahr“ oder „falsch“ der Ast weiterverfolgt oder gewechselt. Dadurch werden determinierte und zur Klassifizierung logisch konsequente Folgefragen abgearbeitet, die zur systematischen Einordnung der Input-Daten führen.82 79  Eingehend auf andere Lernverfahren siehe Niederée/Nejdl, in: Ebers/Heinze/ Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 50 ff. 80  Wrobel/Joachims/Morik, in: Görz/Schneeberger/Schmid (Hrsg.), Handbuch KI (52014), S. 408, 410. 81  Wrobel/Joachims/Morik, in: Görz/Schneeberger/Schmid (Hrsg.), Handbuch KI (52014), S. 413; vgl. Beierle/Kern-Isberner, Methoden wissensbasierter Systeme, S. 105; vgl. Russell/Norvig et al., Artificial Intelligence, S. 697. 82  Ausführlich zu Entscheidungsbäumen siehe Wrobel/Joachims/Morik, in: Görz/ Schneeberger/Schmid (Hrsg.), Handbuch KI (52014), S.  413 ff.



B. Grundzüge der Funktionsweise der in der Arbeit betrachteten KI 39

bb) Unsupervised Learning: Clustering Für das Unsupervised Learning wird regelmäßig das sogenannte Clustering-Verfahren eingesetzt, um aus einem Datensatz Ähnlichkeiten der Daten untereinander zu erkennen. Dabei werden durch den Algorithmus Daten nach Ähnlichkeiten gruppiert. Durch die entstandenen Cluster können beispielsweise neue Zusammenhänge und Muster entdeckt werden, die dem Menschen verborgen geblieben wären. cc) Künstliche Neuronale Netze Eine besondere Form des Supervised Learnings, die insbesondere infolge der rapiden Entwicklung im Bereich der Rechenleistung wieder in den Fokus der KI-Forschung rückte,83 soll wegen ihres Zukunftspotenzials im Bereich der Künstlichen Intelligenz, näher beschrieben werden: Künstliche Neuronale Netze. Künstliche Neuronale Netze sind aus mehreren Schichten aufgebaut und in Grundzügen dem menschlichen Gehirn nachempfunden. Anfangs liegt die Input-Ebene aus Neuronen, die die Eingangsdaten aufnimmt. Jedes einzelne Neuron verarbeitet die Daten nach einem bestimmten Algorithmus, wenn der neuronenspezifische Reizwert überschritten ist und somit die Aktivierung des Neurons stattgefunden hat. Das Ergebnis der Datenverarbeitung wird an die nächste Ebene des Künstlichen Neuronalen Netzes weitergegeben und stellt am dort befindlichen Neuron dessen Input dar. Einfluss auf die Entscheidung, ob das nächste Neuron aktiviert wird, haben insbesondere die sogenannten Gewichte. Mittels vorher festgelegter Gewichte wird die Auswirkung des einen Neurons auf das andere festgelegt. Die zweite anschließende Ebene ist Teil der sogenannten Hidden-Layers. Es können beliebig viele Hidden-Layers im Künstlichen Neuronalen Netz verwendet werden, um ein möglichst hohes Abstraktionsniveau und eine daraus resultierende möglichst hohe Performance zu erreichen. Die Neuronen der Hidden-Layers arbeiten abgesehen von den vorher festgelegten Gewichten im Verborgenen. Warum ein bestimmtes Ergebnis generiert worden ist, kann im Nachhinein nicht mehr ohne größeren Aufwand nachvollzogen werden. Dieses Phänomen wird als „Blackbox“ bezeichnet. Möglichkeiten, diese „Blackbox“ durchschaubar zu machen werden intensiv erforscht (Explainable AI), stecken aber in den Kinderschuhen und konnten bislang lediglich Einzelaspekte der Prozesse erklär-

83  Schon in den 50er Jahren wurde – mangels ausreichender Rechenleistung – mit mäßigem (praktischem) Erfolg an Künstlichen Neuronalen Netzen geforscht, vgl. Canals/Heukamp, The Future of Management in an AI World, 2020), S. 5.

40

1. Teil: Grundlagen der Künstlichen Intelligenz Input-Layer

Hidden-Layers

Data-Input

Output-Layer

Data-Output

Abbildung 2: Aufbau eines Künstlichen Neuronalen Netzes mit zwei Hidden-Layers

bar machen.84 Nachdem die letzte Hidden-Layer passiert ist, wird das Ergebnis an die Output-Layer weitergegeben, die das Ergebnis lesbar ausgibt. Damit das Künstliche Neuronale Netz gute Resultate erzielt, muss es zunächst mit einem Trainingsdatensatz trainiert werden. Die Daten sind von vorne­ herein mit einem bestimmten wünschenswerten Ergebnis „gelabelt“. Entspricht das Ergebnis einzelner Datenoutputs nicht dem Gewünschten, so kann beispielsweise mittels der Backpropagation-Methode die Fehlerquelle festgestellt und minimiert werden. Die Korrektur erfolgt dabei mittels Tryand-Error-Verfahren aufgrund der nicht einsehbaren Hidden-Layers. Im Wesentlichen wird mit der Backpropagation-Methode versucht, die Gewichtung einzelne Neuronen, die den Fehler verursacht haben, zu ändern.

84  Martini,

Blackbox Algorithmus, S. 194.



C. Zusammenfassung41

C. Zusammenfassungder für die rechtliche Bewertung wesentlichen KI-spezifischen Besonderheiten Aus den technischen Grundlagen zusammenfassend können für die rechtliche Bewertung vier wesentliche KI-spezifische Besonderheiten im Rahmen des Einsatzes von Künstlicher Intelligenz durch den Vorstand der Aktiengesellschaft festgestellt werden: Die Autonomie der KI, die Adaptivität, das Training der KI und die „Blackbox-Eigenschaft“. Im Rahmen der Autonomie der KI wird insbesondere deren selbstständige Arbeitsweise thematisiert. Hinsichtlich der Adaptivität werden sich die Betrachtungen auf die Lern­ fähigkeit der KI und deren selbstständige Anpassung der Algorithmen während des Einsatzes konzentrieren. Die Diskussion der KI-Spezifik des Trainings wird die an dieses zu stellenden Anforderungen beleuchten. Schließlich werden die „Blackbox-Eigenschaft“ hinsichtlich derer Undurchsichtigkeit und fehlenden Nachvollziehbarkeit berücksichtigt.

Zweiter Teil

KI und der Einsatz als Substitut des Vorstands der Aktiengesellschaft A. KI als Vorstandsmitglied einer Aktiengesellschaft? De lege lata ist die rechtliche Ausgangsposition eindeutig. Nach § 76 Abs. 3 Satz 1 AktG kann nur eine natürliche, unbeschränkt geschäftsfähige Person Mitglied des Vorstands sein. Damit scheidet der Einsatz von KI als Vorstandsmitglied schon dem klaren Wortlaut nach aus. Die fortschreitenden technischen Möglichkeiten führen jedoch dazu, dass Künstliche Intelligenz dem Menschen in bestimmten Aufgaben überlegen ist. Je mehr Daten verfügbar sind und je mathematisch beschreibbarer das Problem ist, desto leistungsfähiger wird die KI im entsprechenden Aufgabenbereich sein. Insbesondere für solche unternehmerische Entscheidungen, denen eine Vielzahl von Informationen zugrunde liegen, scheint KI dementsprechend besonders geeignet.1 Beispielsweise macht das frühzeitige Erkennen von Marktentwicklungen durch KI deren Einsatz insoweit zu einem Wettbewerbsvorteil.2 Es wird sich nachfolgend zeigen, dass die Beschränkung des Vorstandsmandats auf natürliche Personen mit dem heutigen Stand der Technik wegen maßgebender Gründe, die gegen den Einsatz von KI als Vorstandsmitglied sprechen, weiter aufrechtzuerhalten ist3. Da die Geschwindigkeit der Fortentwicklung der technischen Möglichkeit für den Einsatz von KI als Vorstandsmitglied jedoch nicht abschätzbar ist, soll die Stellungnahme systematisch unter Würdigung unterschiedlicher Aspekte des Vorstandsmandats die grundsätzliche Befähigung von KI zum Vorstandsmitglied beleuchten, um eine Gesamtschau über die rechtlichen und vorstandspraktischen Hürden zu schaffen. Im Ergebnis wird eine Zusammenfassung gegeben, welche Hinderungsgründe bestehen und welche bereits heute überwindbar sind.

1  Ähnlich

auch Becker/Pordzik, ZfPW 2020, 334 (354). e. V./DFKI, Gipfelpapier Künstliche Intelligenz (2017), S. 43. 3  Zustimmend etwa BeckOGK AktG-Fleischer, § 76, Rn. 131. 2  Bitkom



A. KI als Vorstandsmitglied einer Aktiengesellschaft?43

I. Anforderungen an den Vorstand und Anwendung auf KI Betrachtet werden zum einen Anforderungen an die Eignung und Zulässigkeit zum Vorstandsmitglied aus solchen Aspekten, die sich aus dem Aktiengesetz selbst ergeben oder diesem unter Wertungsgesichtspunkten zugrunde liegen. Dabei werden auch solche beleuchtet, die für den bis heute währenden Ausschluss der juristischen Person vom Vorstand der Aktiengesellschaft besonders relevant sind. Zum anderen wird auf vorstandspraktische Anforderungen und schließlich technikspezifische Hinderungsgründe eingegangen. 1. Voraussetzungen aus § 76 Abs. 3 AktG Welche Voraussetzungen den Vorstand zur ordnungsgemäßen Wahrnehmung der ihm obliegenden Aufgaben nach den Vorstellungen des Gesetz­ gebers befähigen, bleibt dem Gesetzeswortlaut nach weitgehend unklar. § 76 Abs. 3 Satz 1 AktG formuliert dazu positiv nur: „Mitglied des Vorstands kann nur eine natürliche, unbeschränkt geschäftsfähige Person sein.“. Dies schließt nicht nur beschränkt geschäftsfähige Personen, sowie solche, die unter einem Einwilligungsvorbehalt stehen aus, sondern auch juristische ­Personen und Gesamthandsgemeinschaften.4 Über den Grund des Ausschlusses von anderen als natürlichen Personen gaben schon die Kommentare zum HGB nach der Reform 1902 nur unzureichend Aufschluss. Es hieß schon damals schlicht, dass die Strafbestimmungen für Vorstandsmitglieder auf andere als natürliche Personen unanwendbar seien und daher nur natürliche Personen das Vorstandsamt bekleiden könnten.5 Die Begründungsversuche seitens des Gesetzgebers waren auch in der Folge zurückhaltend.6 Man begnügte sich schließlich mit der bis heute währenden Aussage, dass die Ausübung des Vorstandes „persönliches Tätigwerden voraussetze“.7 Bezüg4  Spindler/Stilz AktG-Fleischer, §  76, Rn.  120; MüKo AktG-Spindler, § 76, Rn. 124; Schmidt/Lutter AktG-Seibt, § 76, Rn. 60; Hüffer/Koch AktG-Koch, § 76, Rn. 58; Dauner-Lieb, in: Henssler/Strohn (Hrsg.), Gesellschaftsrecht (52021), § 76 AktG, Rn. 16. 5  Lehmann/Ring, Kommentar zum HGB 1902, § 231, Rn. 3, mit Verweis auf den Bericht der Reformkommission zum HGB von 1884, S. 20. 6  Ausführlich zur rechtshistorischen Entwicklung siehe Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 74 ff.; Fleischer, RIW 2004, 16 (17). 7  Begründung zur Aktienrechtsreform 1965, Deutscher Bundestag, Drucksache IV/ 171, S. 121; MüKo AktG-Spindler, § 84, Rn. 27; BeckOGK AktG-Fleischer, § 76, Rn. 129; unter Kritik als „unbefriedigende Begründung“ Spindler/Stilz AktG-Fleischer, § 76, Rn. 120; kritisch zum Regelungsgrund auch Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 102; ebenso Rapp, Juristische Personen als Leitungs- und Überwachungsorgane (Diss), S. 43 ff.

44

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

lich der Voraussetzung der unbeschränkten Geschäftsfähigkeit verhält es sich unter Bezugnahme auf den gleichen Grund entsprechend.8 Konkrete Anforderungen, die der Befähigung zum Vorstand zugrunde liegen, lassen sich im Ergebnis aus den Gesetzesmaterialien nicht ohne weiteres ableiten. a) Keine juristische Person als Vorstandsmitglied KI ist jedoch nicht die erste Entität, deren Vorstandseignung hinterfragt wird. Bereits in der Debatte um den Einsatz der juristischen Person zum Vorstand, sind die der Regelung des § 76 Abs. 3 AktG zugrundeliegenden Wertungen diskutiert worden.9 Einige dabei besonders kritische Punkte, die in den Gesetzesmaterialien zumindest angeklungen sind10 und maßgeblich zum Ausschluss der juristischen Person beigetragen haben dürften, sollen auf ihre Fortgeltung im Hinblick auf KI untersucht werden. aa) Kompensationsaspekt und haftungsrechtliche Steuerungswirkung in Verbindung mit § 93 AktG Ein erster wesentlicher Aspekt, der zum Ausschluss der juristischen Person beigetragen hat, ist die Kritik an der fehlenden Wirksamkeit haftungsrecht­ licher Steuerung und der Möglichkeit von Haftungslücken.11 (1) Kompensationsaspekt Bedenken gab es in diesem Zusammenhang insbesondere wegen der Haftungsbeschränkung auf das vorhandene Vermögen der Kapitalgesellschaft gegenüber der unbeschränkten Haftung der natürlichen Person.12 Die Kritik an der Beschränkung der Kompensation ließe sich auch für den KI-Vorstand vortragen. Schon mangels irgendeines eigenen Haftungssubstrats käme es 8  Siehe nur die Begründung zur Aktienrechtsreform 1965, Deutscher Bundestag, Drucksache IV/171, S. 121. 9  Siehe Fleischer, AcP 204 (2004), 503 (530), m.  w. N.; monographisch dazu siehe Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft. 10  Dazu bereits oben unter 2. Teil A. I. 1. 11  Siehe schon Lehmann/Ring, Kommentar zum HGB 1902, § 231 Rn. 3, mit Verweis auf den Bericht der Reformkommission zum HGB von 1884, S. 20; Fleischer, AcP 204 (2004), 503 (532); BeckOGK AktG-Fleischer, § 76, Rn. 131; Fleischer, RIW 2004, 16 (20); monographisch dazu siehe Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 201 ff. 12  Dazu Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 201.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?45

hier grundsätzlich zu möglichen Haftungslücken. Jedoch ist bereits die tatsächliche Kompensationsfunktion des Haftungssubstrats von natürlichen Per­ sonen als Geschäftsführungsorgan der Aktiengesellschaft fraglich.13 Schäden im Innenverhältnis werden, abzüglich des Selbstbehalts, § 93 Abs. 2 Satz 3 AktG, regelmäßig und überwiegend von einer D&O-Versicherung erfasst und damit durch die Aktiengesellschaft, die in der Praxis überwiegend eine solche Versicherung für den Vorstand abschließt, selbst ausgeglichen.14 Zudem würde eine ausschließliche Kompensation durch die natürliche Person regelmäßig ebenso zu Haftungslücken in der Höhe führen, die das Privatvermögen des Vorstands übersteigt.15 Wollte man eine Kompensation im Innenverhältnis zugunsten der Anteilseigner auch beim Einsatz eines KI-Vorstands zwingend aufrechterhalten, käme statt einer D&O-Versicherung etwa eine gesetzliche Pflichtversicherung oder ein Haftungsfond für KI in Betracht, um dem Kompensationsgedanken zu genügen.16 Darüber hinaus ist die Haftung des § 93 AktG eine reine Innenhaftung gegenüber der Aktiengesellschaft für Pflichtverletzungen bei der Geschäftsführung. Insoweit geht es um die Kompensation von Schäden der Aktiengesellschaft, die diese durch eine pflichtwidrige Geschäftsführung des Vorstands im Außenverhältnis verursacht hat und ausgleichen musste. Demnach wäre es denkbar, eine Kompensation im Verhältnis zu den Anteilseignern beim Einsatz von KI-Vorständen schon nicht für zwingend erforderlich zu halten.17 Ist den Anteilseignern bekannt, dass ein KI-Vorstand tätig wird, ist es verhältnismäßig, angesichts der hohen zu erwartenden Effizienzgewinne durch den KI-Vorstand in spezifischen Aufgaben, den Anteilseignern selbst die Entscheidung zu überlassen, ob diese das Risiko möglicher Kompensa­ tionslosigkeit im Innenverhältnis zugunsten des Potenzials der KI-Vorstände eingehen wollen.18 Die Möglichkeit, KI-Vorstände einzusetzen wäre dann statutarisch, etwa per Opt-in-Lösung festzulegen.19 13  Zetzsche, AG 2019, 1 (10); Bayer/P. Scholz, NZG 2014, 926 (928); vgl. auch Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 206 und 238. 14  Bayer/P. Scholz, NZG 2014, 926 (928); G. Wagner, ZHR 178 (2014), 227 (254); Spindler, AG 2013, 889 (896 f.). 15  Ähnlich Zetzsche, AG 2019, 1 (10); Bayer/P. Scholz, NZG 2014, 926 (928). 16  Zetzsche, AG 2019, 1 (10); siehe zu Regulierungsvorschlägen Amour/Eidenmüller, ZHR 183 (2019), 169 (184 ff.). 17  Vgl. Becker/Pordzik, ZfPW 2020, 334 (355); Bayer/P. Scholz, NZG 2014, 926 (928); G. Wagner, ZHR 178 (2014), 227 (253 ff.); Spindler, AG 2013, 889 (889), in der Fn. 4. 18  In diese Richtung auch Becker/Pordzik, ZfPW 2020, 334 (355); vgl. auch Amour/Eidenmüller, ZHR 183 (2019), 169 (185). 19  Becker/Pordzik, ZfPW 2020, 334 (355).

46

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

Für den besonderen Fall des KI-Vorstands würden beide Lösungen letztlich zu einer Kumulation der Kompensationskosten bei der Aktiengesellschaft führen. Gleichwohl wäre dies gerechtfertigt und auch ökonomisch vertretbar, da die Partei, die den Nutzen aus der KI zieht, auch deren Kosten für die Kapitalausstattung oder Versicherung oder ein etwaiges Risiko der Kompensationslosigkeit im Innenverhältnis tragen sollte.20 Hinsichtlich des Kompensationsgedankens des § 93 AktG ist beim Einsatz eines KI-Vorstands daher kein grundsätzlicher Hinderungsgrund für dessen Vorstandseignung zu sehen.21 (2) Verhaltenssteuerungsfunktion des § 93 AktG Der Verhaltenssteuerungsfunktion der aktienrechtlichen Organhaftung des Vorstands wird in der Literatur unterschiedliches Gewicht zugemessen. Im Ergebnis wird indes herrschend eine präventive Funktion, mithin eine verhaltenssteuernde Wirkung angenommen.22 Grund für das Erfordernis einer verhaltenssteuernden Wirkung des § 93 AktG ist insbesondere die Neigung natürlicher Personen zur Verfolgung eigener Interessen, die gegebenenfalls von Interessen anderer Stakeholder abweichen.23 Sie können davon angetrieben sein, Ziele zu verwirklichen, die im Widerspruch zu von Gesellschaftern und Aufsichtsrat geformten Leitlinien der Unternehmensführung und Unternehmensziele stehen.24 Die Haftungsnorm des § 93 AktG setzt daher auch an diesem subjektiv begründeten Verhalten präventiv an. Ein solcher verhaltenssteuernder Aspekt ist im Rahmen der Diskussion juristischer Personen als Geschäftsführungsorgan einer Kapitalgesellschaft als unzureichend wirksam kritisiert worden.25 Da die juristische Person, als berufenes Organ, dem mittelbaren Organ, also der natürlichen Person, vorgeschaltet wäre, würde die juristische Person die Haftungsmasse für Pflichtverletzungen zur Verfügung stellen. Hingegen wäre das faktisch ausführende Organ und damit 20  Vgl. Amour/Eidenmüller, ZHR 183 (2019), 169 (185 f.); ähnlich auch Becker/ Pordzik, ZfPW 2020, 334 (355). 21  So auch Zetzsche, AG 2019, 1 (10). 22  Goette, ZHR 176 (2012), 588 (590); Goette, in: Geiß (Hrsg.), Festschrift 50 Jahre BGH (2000), S. 124; BeckOGK AktG-Fleischer, § 93, Rn. 2 f.; Fleischer, ZIP 2014, 1305 (1310 f.); Hopt, ZIP 2013, 1793 (1795); G. Wagner, ZHR 178 (2014), 227 (251); MüKo AktG-Spindler, § 93, Rn. 1; „erhoffte präventive Wirkung“ Spindler, AG 2013, 889 (889); für die verhaltenssteuernde Wirkung als Hauptaspekt der Haftungsnorm Bayer/P. Scholz, NZG 2014, 926 (928 f.). 23  Vgl. Amour/Eidenmüller, ZHR 183 (2019), 169 (182). 24  Zu den menschlichen Verhaltensweisen siehe Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, 236 f. 25  Dazu Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S.  201 f.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?47

das eigentlich beabsichtigte Ziel der Verhaltenssteuerung die natürliche Person. Die verhaltenssteuernde Wirkung sei daher wegen des Auseinanderfallens von Haftungsmasse und ausführender Person eingeschränkt.26 Diese Bedenken lassen sich auf den KI-Vorstand nicht übertragen. Künstliche Intelligenz verfügt über keine mit natürlichen Personen vergleichbaren Entscheidungsvorgänge, die von Beweggründen geleitet sein könnten, die sich außerhalb der definierten Unternehmensziele bewegen. Sie zeichnet sich insbesondere durch eine rigide Zielverfolgung der programmierten Rahmenbedingungen aus, bei der die Einbeziehung eigener, unternehmensferner Interessen bereits baubedingt ausgeschlossen ist.27 Beim Einsatz Künstlicher Intelligenz als Vorstandsmitglied wäre eine solche verhaltenssteuernde Wirkung daher schon wegen der Charakteristik der Künstlichen Intelligenz a priori obsolet.28 Die KI wird ausschließlich im Unternehmensinteresse tätig und ihr wohnt bereits kraft Programmierung maximales Pflichtbewusstsein inne.29 Problematisch ist jedoch, dass die Rahmenbedingungen, nach denen die KI tätig werden soll und die Ziele, die diese optimieren soll, durch einen Dritten (Menschen) gewählt und programmiert werden. Ebenso liegt das Training der KI im Einflussbereich eines Dritten (Menschen), der dadurch erheblichen Einfluss auf die Prioritäten der KI und deren Ziele nehmen kann. Etwa ist eine Einflussnahme auf die KI dergestalt denkbar, dass diese besonders risikogeneigt oder unter Einbeziehung pflichtwidriger Parameter zur Entscheidungsfindung agiert. Demnach bedarf es einer Verhaltenssteuerung auf vorgelagerter Ebene derer Menschen, die solchen Einfluss auf die KI ausüben können und gleichzeitig für Interessenskonflikte empfänglich sind. Es verhält sich insoweit vergleichbar mit den zur juristischen Person vorgetragenen Kritikpunkten. Die menschliche Entität, die maßgeblichen Einfluss auf die Unternehmensleitung ausüben kann, ist nicht Adressat des § 93 AktG und bliebe in der Folge trotzt pflichtwidrigen Handelns haftungs- und damit „steuerungsfrei“. Als Adressaten der Steuerungswirkung müssten bei KI-Vorständen regelmäßig zwei Ziele berücksichtigt werden. Eines ist ein etwaiger unternehmensferner Dritter, der gegebenenfalls die Programmierung der KI und die Vorgaben des unternehmensintern Zuständigen umsetzt. Dieser ist jedoch über die vertragliche Haftung im Verhältnis zur Aktiengesellschaft bereits 26  Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S.  201 f. 27  Vgl. Amour/Eidenmüller, ZHR 183 (2019), 169 (182 f.); Zetzsche, AG 2019, 1 (10); Becker/Pordzik, ZfPW 2020, 334 (354); Herberger, NJW 2018, 2825 (2827). 28  Becker/Pordzik, ZfPW 2020, 334 (354); Zetzsche, AG 2019, 1 (10). 29  Zetzsche, AG 2019, 1 (10); vgl. auch Herberger, NJW 2018, 2825 (2827).

48

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

hinreichend berücksichtigt, dass von diesem ein Bemühen um eine möglichst fehlerfreie Programmierung der KI erwartet werden kann.30 Zweitens und insbesondere wird jene für die Ausgestaltung der KI zuständige Person in der Aktiengesellschaft Adressat der Steuerungswirkung sein müssen.31 Den aktien­rechtlichen Grundsätzen folgend, dass der Aufsichtsrat die Personal­ kompetenz hinsichtlich des Vorstands, mithin die Entscheidung über dessen Eignung zur Verfolgung der Unternehmensziele innehat und auch beratenden Einfluss auf die Unternehmensziele nimmt,32 wäre zunächst denkbar, den Aufsichtsrat als Zielperson für die Verhaltenssteuerung auszumachen.33 Dennoch ist insoweit eine Einschränkung geboten. Dem Aufsichtsrat können kompetenzsystematisch nur die gleichen Rechte obliegen, wie sie hinsichtlich menschlicher Vorstände bestehen. Er hätte also die groben Rahmenbedingungen vorzugeben und den geeigneten KI-Vorstand einzusetzen. Von ihm sind, möge er auch im Laufe der jüngeren Zeit intensiver unternehmerisch beratend tätig werden,34 keine weitergehenden Rechte hinsichtlich des KI-Vorstands zuzuschreiben. Die Sicherung der Datenqualität,35 das Training der KI sowie die Festlegung der konkreten Ziele, Prioritäten und ähnliches können von ihm nicht erwartet werden. Nicht nur würde dies dessen Ausgestaltung als Nebenamt36 widersprechen. Sondern auch widerspräche dies der Gewaltenteilung in der Aktiengesellschaft. Der Vorstand ist Leitungsorgan, während der Aufsichtsrat Überwachungsorgan ist. Dieses Machtgefüge wird auch durch eine mittlerweile etablierte beratende (unternehmerische) Überwachungsfunktion nicht verändert.37 Es wäre eine erhebliche Einflussnahme auf die Geschäftsführung zu erwarten, würde der Aufsichtsrat intensiver auf den KI-Vorstand Einfluss nehmen können, als die groben un30  So

auch Becker/Pordzik, ZfPW 2020, 334 (354). Becker/Pordzik, ZfPW 2020, 334 (354 f.). 32  Eingehend etwa Fonk, NZG 2011, 321 (322  ff.); ausführlich monographisch Lieder, Der Aufsichtsrat im Wandel der Zeit, S. 832 ff. 33  In diese Richtung Becker/Pordzik, ZfPW 2020, 334 (354 f.). 34  Dazu ausführlich monographisch Lieder, Der Aufsichtsrat im Wandel der Zeit, S. 651 ff. sowie umfassend zur gesamten Entwicklung S. 65 ff. 35  A. A. Becker/Pordzik, ZfPW 2020, 334 (354 f.), die die Sicherung (wohl Überwachung) der Datenqualität dem Aufsichtsrat auferlegen wollen. 36  Statt aller Marsch-Barner/F. A. Schäfer, Handbuch börsennotierte AG, 5. Aufl. (2022), Rn. 29.26. 37  Wentrup, in: Hoffmann-Becking (Hrsg.), Münchener Hdb. des Gesellschaftsrechts Band 4 (52020), § 19, Rn. 15; ausführlich monographisch eingehend Lieder, Der Aufsichtsrat im Wandel der Zeit, S. 651 ff.; Fleischer, Handbuch des Vorstandsrechts, (2006), § 1 Rn. 1; MüKo AktG-Spindler, § 76, Rn. 1; Hoffmann-Becking, ZGR 1998, 497 (510 ff.); BeckOGK AktG-Fleischer, § 76, Rn. 4; abweichend Lutter/ Krieger/Verse, in: Lutter/Krieger/Verse (Hrsg.) (72020), § 2 Rn. 57 ff., die beim Aufsichtsrat von einem „mitunternehmerischen, beratenden und mitentscheidenden Unternehmensorgan“ ausgehen. 31  Vgl.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?49

ternehmerischen Rahmenziele vorzugeben. Im Ergebnis ist demnach zwar auch der Aufsichtsrat wegen der allgemeinen Zielvorgabe der Unternehmensleitlinien, wie er sie auch hinsichtlich menschlicher Vorstände übernimmt, in die Verhaltenssteuerung einzubeziehen. Jedoch geschieht dies bereits ausreichend durch die geltenden aktienrechtlichen Normen der Aufsichtsratshaftung. Maßgeblich und zuständig für die konkrete Ausgestaltung, das Training und die Festlegung der einzelnen Parameter kann schließlich nur der Vorstand als Kollegialorgan sein.38 Dazu ist es notwendig, dass der Vorstand mindestens aus einer weiteren menschlichen Person besteht. Diese Lösung berücksichtigt das aktienrechtliche Kompetenzgefüge und lässt zugleich die Steuerungswirkung des § 93 AktG nicht leerlaufen. Denn für die Einhaltung der Pflichten wären die menschlichen Vorstandsmitglieder verantwortlich. Diese sind von der Steuerungswirkung des § 93 AktG bereits ausreichend erfasst.39 Im Ergebnis kann damit auch keine unzureichende Steuerungswirkung der aktienrechtlichen Haftungsnorm beim Einsatz von KI als Vorstandsmitglied angenommen werden. (3) Zwischenergebnis Der Kompensation von Schäden durch KI-Vorstände im Innenverhältnis wäre, hält man sie für notwendig, durch eine Pflichtversicherung ausreichend beizukommen. Daneben kommt eine Opt-in-Lösung ohne Kompensation im Innenverhältnis in Betracht. Diese berücksichtigt auch die ökonomischen Vorteile der KI im Verhältnis zu deren Risiken für die Anteilseigner ausreichend. Darüber hinaus wäre eine Verhaltenssteuerung von KI-Vorständen bereits a priori nicht notwendig. Wegen der technikbedingten Erforderlichkeit einer menschlichen Entität, die die Ausgestaltung der KI-Vorstands, dessen Training und damit dessen Tätigkeit zunächst umfassend festlegt, verlagert sich die Notwendigkeit einer Steuerungswirkung auf eine andere Ebene. Programmierer oder Hersteller werden insoweit durch vertragliche Ansprüche hinreichend einbezogen. Der Aufsichtsrat gibt nach wie vor nur die groben Leitlinien des Unternehmens vor und ist schon wegen des aktienrechtlichen Kompetenzgefüges nicht zur näheren Ausgestaltung befugt. Das pflichtgemäße Handeln des Aufsichtsrats ist durch dessen eigene aktienrechtliche 38  Zu den sich infolge der notwendigen Ausgestaltung durch den (menschlichen) Gesamtvorstand ergebenden Hinderungsgründen aus § 76 Abs. 1 AktG siehe unten unter 2. Teil A. I. 2.; zur Ausgestaltung im Rahmen der Aufgabendelegation durch den (menschlichen) Vorstand an KI siehe ausführlich unten unter 3. Teil C. I. 39  Der Gesichtspunkt fehlender Steuerungswirkung würde so zwar überwunden, es ergeben sich jedoch Bedenken hinsichtlich der eigenverantwortlichen (weisungsfreien) Geschäftsführung, siehe unten unter 2. Teil A. I. 1. a) cc).

50

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

Haftungsnormen insoweit ausreichend gesichert. Zur Ausgestaltung des KIVorstands, wird man, dem aktienrechtlichen Kompetenzgefüge am nächsten folgend, den Gesamtvorstand als zur Geschäftsleitung kompetentes Organ bestimmen müssen. Dabei wird man mindestens ein weiteres menschliches Vorstandsmitglied fordern müssen, das gleichzeitig selbst empfänglich für die Steuerungswirkung des § 93 AktG ist. Weder Gründe fehlender Kompensation noch Gründe fehlender Empfänglichkeit für eine haftungsrechtliche Steuerungswirkung stünden einem KI-Vorstand im Ergebnis daher entgegen.40 bb) Beeinträchtigung der Geschäftsführung und Unternehmenspolitik Die Geschäftsleitung der Aktiengesellschaft durch eine juristische Person hätte zur Folge, dass die tatsächliche Geschäftsleitung von einem mittelbaren Organ ausgeführt wird, das zugleich unmittelbares Geschäftsführungsorgan der juristischen Person ist. Dies ist Resultat der Notwendigkeit eigener Organe für die Handlungsfähigkeit der juristischen Person. In diesem Verhältnis käme es zu einer Doppelbindung des mittelbaren Geschäftsführers.41 Zum einen unmittelbar an den Unternehmenszweck und die Unternehmensinteressen der juristischen Person und zum anderen mittelbar über die Bindung der juristischen Person an die Aktiengesellschaft, was das Risiko von Interessenkonflikten birgt.42 Zudem werden Bedenken hinsichtlich der Kontinuität der Unternehmensführung geäußert, wodurch die Funktionsfähigkeit des Vorstands beeinträchtigt werden würde.43 Durch einen Wechsel des Geschäftsführungsorgans in der juristischen Person könnte die Unternehmenspolitik der Aktiengesellschaft infolge des faktischen Mitwechsels des (mittelbaren) Organs in der Aktiengesellschaft in Unruhe geraten.44 Ersteres Problem stellt sich bei der Geschäftsführung durch Künstliche Intelligenz schon mangels einer „Geschäftsführungskette“ nicht. Die Künst­ liche Intelligenz würde unmittelbar und ausschließlich im Unternehmensinteresse und Unternehmenszweck der Aktiengesellschaft tätig. Dies sicherzu40  Zustimmend

(10).

Becker/Pordzik, ZfPW 2020, 334 (354 f.); Zetzsche, AG 2019, 1

41  Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S.  119 f. 42  Dazu Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S.  119 f. 43  Bericht des Arbeitsausschusses S. 12, zitiert nach Veelken, Betriebsführungsvertrag im Aktienrecht, S. 123; Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 119. 44  Dazu ausführlich Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 119 f.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?51

stellen ist Aufgabe des (menschlichen) Gesamtvorstands.45 Zudem würde ein Wechsel der geschäftsführenden KI unmittelbar im Verhältnis zur AG wirken, sodass die Kontinuität der Geschäftsführung insoweit nicht beeinträchtigt würde. Jedoch wird man aus KI-spezifischen Gründen mögliche Auswirkungen auf die Unternehmenskontinuität annehmen müssen. Der KI-Vorstand ist in seiner Geschäftsführung technisch notwendig auf eine Ersteinrichtung, Training und regelmäßige Prüfung durch den (menschlichen) Gesamtvorstand angewiesen und abhängig von der Ausrichtung, die er durch diesen erfahren hat. Er entscheidet zwar innerhalb seiner Sphäre gewissermaßen „autonom“, jedoch ist diese „Autonomie“ nur als eine beschränkte „Handlungsautonomie“ zu klassifizieren. Inhaltlich und hinsichtlich des Entscheidungshorizonts ist der KI-Vorstand an die Maßgaben, Ziele und Rahmenbedingungen gebunden, die der (menschliche) Gesamtvorstand festgelegt hat. Wechseln nun ein oder mehrere Mitglieder des menschlichen Vorstands, steht auch eine Einflussnahme auf die Geschäftsführung des KI-Vorstands zu erwarten. Eine mögliche Unruhe hinsichtlich der Unternehmenspolitik ist daher beim Einsatz eines KI-Vorstandsmitglieds grundsätzlich eher anzunehmen als bei der ausschließlichen Besetzung mit menschlichen Mitgliedern. Man wird indes in die Gesamtwertung einbeziehen müssen, dass anders als bei der Kritik hinsichtlich des Ausschlusses juristischer Personen, zwar eine gewisse Unruhe denkbar ist. Jedoch wird man, wegen der Interessentreue des KI-Vorstands infolgedessen Rigidität und werksseitigen Bindung an die Vorgaben des (menschlichen) Gesamtvorstands insoweit, anders als bei der Diskussion um den Einsatz juristischer Personen, keine negativen Auswirkungen aufgrund einer Doppelbindung auf die allgemeine Funktionsfähigkeit des Geschäftsleitungsorgans oder das Unternehmenswohl erwarten müssen. Im Ergebnis stehen dem Einsatz von KI als Vorstandsmitglied weder Interessenskonflikte infolge einer Doppelbindung noch gewichtige Bedenken hinsichtlich der Kontinuität der Unternehmensleitung entgegen. cc) Beeinträchtigung der Handlungsfähigkeit der Geschäftsleitung Darüber hinaus orientieren sich die gesetzlichen Voraussetzungen an der Sicherstellung einer unbeschränkten Handlungsfähigkeit der Aktiengesellschaft.46 Dies kann nur durch einen Vorstand erreicht werden, der zum Tätigwerden im Rechts- und Handelsverkehr keiner weiteren Zwischenschritte mehr bedarf. Bezüglich juristischer Personen als Organmitglied ergeben sich 45  Dazu

oben unter 2. Teil A. I. 1. a) bb). NZG 2016, 566 (567).

46  Gehrlein,

52

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

hier Bedenken, da interne Abstimmungen und Unstimmigkeiten im mittelbaren Geschäftsführungsorgan sowie interne Beschränkungen der Vertretungsmacht der Organe der juristischen Person die Handlungsfähigkeit der Aktiengesellschaft lähmen könnten.47 Diese Einwände lassen sich dem Einsatz von KI hingegen nicht hinsichtlich ihrer Aufgabenausführung entgegenhalten.48 KI wird selbstständig in der Form tätig, dass die Entscheidung unmittelbar durch diese selbst ausgeführt wird. Es finden keine weiteren Abstimmungsvorgänge oder Zwischenschritte statt, die die Handlungsfähigkeit während der Aufgabenausführung beeinträchtigen könnten. Indes bestehen mögliche Einschränkungen der Handlungsfähigkeit wegen der Notwendigkeit der Ausgestaltung des KI-Vorstands durch menschliche Vorstandsmitglieder.49 Soweit das KI-Vorstandsmitglied eingerichtet ist und die vorgesehenen Aufgaben wahrnimmt, wird die unbeschränkte Handlungsfähigkeit angenommen werden können. Jedoch ist die Vorstandstätigkeit keine statische. Sie erfordert regelmäßige und teilweise kurzfristige Anpassungen der Parameter der Geschäftsführung. Jede Änderung der Geschäftsführungsziele oder das Hinzufügen weiterer Aufgaben zum Aufgabenbereich des KI-Vorstands führt indes, anders als bei menschlichen Vorstandsmitgliedern, zu einer längeren Beeinträchtigung der Handlungsfähigkeit des Vorstands. Bis zur Implementierung und zum Abschluss des Trainings sowie der Funktionsprüfung ist der KI-Vorstand handlungsunfähig. Diese Handlungsunfähigkeit kann bei auftretenden Problemen in der Programmierung sowie dem zu erfolgenden Training vor tatsächlichem Wiedereinsatz in der Aktiengesellschaft einen nicht unerheblichen Zeitraum betreffen. Insbesondere, wenn regelmäßig, mangels ausreichender technischer Fähigkeiten oder Arbeitskapazitäten des übrigen Vorstands, jene Arbeiten durch Dritte vorgenommen und abgestimmt werden müssen. Nach dem Aktiengesetz ist jedoch eine auch nur temporäre Handlungsunfähigkeit des Vorstands unzulässig. Dies ergibt sich nicht zuletzt aus dem Postulat der unbeschränkten Geschäftsfähigkeit aus § 76 Abs. 3 AktG.50 Demnach stünde die Eigenschaft des KIVorstands, dass dieser einer technischen Ausgestaltung bedarf, bevor er eine abgeänderte Tätigkeit (wieder-)aufnehmen kann, der unbeschränkten Handlungsfähigkeit des Vorstands systemimmanent entgegen. Die Problematik einer gefährdeten Handlungsfähigkeit ergibt sich im Hinblick auf KI darüber hinaus auf einer zweiten Ebene. Neben der notwendigen bewussten Abschaltung von KI zur Modifikation birgt diese grundsätzlich 47  Vgl. BGH, Beschluss vom 19.09.2013 – IX AR (VZ) 1/12 = NJW 2013, 3374 (3375 f.); Gehrlein, NZG 2016, 566 (567). 48  So auch Becker/Pordzik, ZfPW 2020, 334 (353 f.). 49  Dazu oben unter 2. Teil A. I. 1. a) aa) (2). 50  Gehrlein, NZG 2016, 566 (567).



A. KI als Vorstandsmitglied einer Aktiengesellschaft?53

das Risiko eines technischen Defekts. Zwar besteht ein prinzipielles Ausfallrisiko auch bei menschlichen Vorstandsmitgliedern etwa im Wege einer gesundheitlichen Beeinträchtigung. Jedoch betrifft dies zum einen in der Regel nur einen kurzfristigen Zeitraum. Zum anderen wird ein Stellvertreter51 die Arbeit des menschlichen Vorstands im Wesentlichen nahtlos übernehmen können. Die Fehlersuche und Fehlerbeseitigung von KI-Vorständen können demgegenüber unter Umständen einen längeren Zeitraum beanspruchen. Zudem wäre wegen der „Blackbox-Problematik“ und den Hürden in der ­ Mensch-Maschine-Kommunikation eine kurzfristige Übernahme durch ein anderes menschliches Vorstandsmitglied auch rein praktisch weitaus schwieriger zu bewerkstelligen.52 Das übernehmende Vorstandsmitglied wird die Arbeit des KI-Vorstandsmitglieds nicht durch Lektüre der letzten Arbeitsvorgänge nachvollziehen und somit an die Arbeit der KI kurzfristig anschließen können. Es wäre darauf verwiesen sich selbst unter erheblichem Mehraufwand vollständig in die Aufgabe einzuarbeiten, um diese pflichtgemäß fortzuführen. Im Ergebnis bestehen zwar nicht hinsichtlich der unmittelbaren Handlungsfähigkeit, indes hinsichtlich der dauerhaft gesicherten Handlungsfähigkeit des Vorstands beim Einsatz eines KI-Vorstandsmitglieds rechtliche Bedenken. Zudem stellt das technische Ausfallrisiko der KI für die Handlungsfähigkeit auch aus praktischen Gründen einen Hinderungsgrund für den Einsatz eines KI-Vorstandsmitglieds dar. dd) Verschiebung der Personalkompetenz In der Debatte über den Einsatz einer juristischen Person als Geschäftsführungsorgan der AG ist ferner eine Verschiebung der Personalkompetenz vom Aufsichtsrat auf die juristische Person und der schwindende Einfluss der Gesellschafter auf die Auswahl des Vorstands der AG kritisiert worden.53 Die Bestellung und Anstellung in Vertretung für die Aktiengesellschaft ob­liegen dem Aufsichtsrat als personalkompetentem Organ, § 84 Abs. 1 AktG. Die Bestellung einer juristischen Person zum Vorstand hat zur Folge, dass die Person, die die tatsächliche Ausübung der Geschäftsführung der Aktienge51  „Stellvertreter“ wird in diesem Fall untechnisch verwendet und dient nur dem besseren Verständnis durch Verwendung des in der Praxis üblichen Sprachgebrauchs. Zur Rechtsstellung von „stellvertretenden Vorstandsmitgliedern“ als vollwertige Vorstandsmitglieder siehe etwa BeckOGK AktG-Fleischer, § 94, Rn. 1. 52  Vgl. Teubner, AcP 218 (2018), 155 (166 ff.). 53  BeckOGK AktG-Fleischer, § 76, Rn. 131; Fleischer, AcP 204 (2004), 503 (532); Fleischer, RIW 2004, 16 (21); Gehrlein, NZG 2016, 566 (567); dazu ausführlich Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S.  159 ff.

54

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

sellschaft vornimmt, nicht vom Aufsichtsrat bestimmt wird. Mangels eigenständiger Handlungsmöglichkeit der juristischen Person benötigt diese eine natürliche Person als Organ, die ihr die Handlungsfähigkeit verleiht. Somit würde im Ergebnis faktisch der Vorstand der Aktiengesellschaft von der juristischen Person eingesetzt.54 Diese könnte schließlich unabhängig vom Aufsichtsrat über die Abberufung des alten und Bestellung eines neuen Vorstands durch Austausch ihres eigenen Geschäftsführungsorgans entscheiden.55 Denn für die Aktiengesellschaft würde sich die Person des Vorstands rein formal nicht ändern. Der Einsatz Künstlicher Intelligenz als Vorstandsmitglied wäre diesen Einwänden jedoch nicht in dieser Form ausgesetzt, da es an einer „Geschäftsleiterkette“ fehlt. Die KI-spezifische Besonderheit der Notwendigkeit der technischen Einrichtung durch einen Menschen zur Funktionstüchtigkeit macht es hingegen erforderlich, dass die Ausübung der Personalkompetenz des Aufsichtsrats beim Einsatz von KI-Vorständen eine Modifikation erfährt. Menschliche Vorstandsmitglieder wird der Aufsichtsrat regelmäßig aufgrund ihres Individuums als geeignet auswählen können. Die Personalentscheidung zur Bestellung fällt dann unter Berücksichtigung der Rahmenvorstellungen, die der Aufsichtsrat von der Unternehmensleitung hat. Demgegenüber wird der KI-Vorstand regelmäßig nicht von Beginn an als „Individuum“ existieren. Einen Wettbewerbsvorteil kann die KI nur darstellen, wenn sie maßgeschneidert für das Unternehmen entwickelt oder zumindest spezifiziert wird und damit hinsichtlich ihrer Daten und ihres Trainings einen „Wissensvorsprung“ gegenüber den Wettbewerbern ausüben kann.56 Insofern ist hier eine Zusammenarbeit im Rahmen der beratenden57 Überwachungsfunktion des Aufsichtsrats und dem Vorstand notwendig, die die jeweiligen Organkompetenzen und damit die Trennung zwischen Leitung und Überwachung ausreichend wahrt.58 Der Aufsichtsrat wird vor formaler Bestellung 54  Gehrlein, NZG 2016, 566 (567); kritisch auch Fleischer, AcP 204 (2004), 503 (532); Fleischer, RIW 2004, 16 (21); Staudinger BGB-Kannowski, § 1, Rn. 131; BeckOGK AktG-Fleischer, § 76, Rn. 131. 55  Gehrlein, NZG 2016, 566 (567); Fleischer, AcP 204 (2004), 503 (532); Fleischer, RIW 2004, 16 (21); BeckOGK AktG-Fleischer, § 76, Rn. 131. 56  Vgl. Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 490. 57  Ausführlich monografisch zur Beratung als Überwachungsfunktion und der Trennung von Leitung und Überwachung siehe Lieder, Der Aufsichtsrat im Wandel der Zeit, S. 651 ff., mit Bezug auf die Personalentscheidungen des Aufsichtsrats S.  832 ff. 58  Diese Beratung stellt auch hinsichtlich menschlicher Mitglieder regelmäßig den, in den Grenzen des dualistischen Systems der Aktiengesellschaft, notwendigen Normalfall dar. Eingehend siehe Lieder, Der Aufsichtsrat im Wandel der Zeit, S.  834 ff.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?55

mit dem (menschlichen) Gesamtvorstand zunächst seine Rahmenvorstellungen hinsichtlich des KI-Vorstands erörtern müssen. Die konkrete Ausgestaltung und damit die originäre Erschaffung des KI-Vorstands wird sodann kompetenzsystematisch vom (menschlichen) Gesamtvorstand durchgeführt werden müssen.59 Nach erfolgter Einrichtung und erfolgtem Training, mithin der Einsatzreife des KI-Vorstands, wird es wiederum dem Aufsichtsrat im Rahmen seiner Personalkompetenz obliegen müssen, sich innerhalb dessen Rahmenvorstellungen von der „personellen“ Geeignetheit des KI-Vorstands zu überzeugen. Welche Künstliche Intelligenz als „Individuum“ schließlich zum Einsatz kommt, läge damit weiter in der Entscheidungshoheit des Aufsichtsrats. Zudem würde auch die Geschäftsleitungskompetenz des Vorstands durch die der Erschaffung der KI nachgeschaltete endgültige Bestellung des KI-Vorstands durch den Aufsichtsrat ausreichend gewahrt. Der im Einsatz befindliche KI-Vorstand würde darüber hinaus, anders als die Kritik an der juristischen Person als Geschäftsleitungsorgan, keinen Wechsel des Vorstandsmitglieds verursachen können. Die implementierten Ziele und Rahmenbedingungen sowie die Funktionstüchtigkeit des KI-Vorstands, hinsichtlich derer der Aufsichtsrat sich von der Tauglichkeit überzeugen konnte und auf dessen Basis die Bestellung erfolgte, sind von der KI selbst nicht so weit veränderlich, dass die KI sich so zu einer „anderen Person“ fortentwickeln könnte, die nicht mehr als dieselbe ursprünglich durch den Aufsichtsrat bestellte zu qualifizieren wäre. Die vom Aufsichtsrat festgesteckten Rahmenbedingungen bilden insoweit die (technische) Grenze. Im Ergebnis verbliebe auch beim Einsatz von KI-Vorständen die Personalkompetenz mittelbar und unmittelbar beim Aufsichtsrat, sodass diesbezüglich keine Hinderungsgründe für einen Einsatz von KI als Vorstandsmitglied bestehen. ee) Zwischenergebnis Die Gründe für einen Ausschluss der juristischen Person vom Vorstandsmandat gelten für KI-Vorstände nur teilweise fort. Es ergeben sich insoweit KI-spezifische Ausschlussgründe. Zum einen besteht die Problematik einer regelmäßig wiederkehrenden temporären Beeinträchtigung der Handlungs­ fähigkeit des Vorstands durch technisch notwendige Veränderungen bei der Modifikation der Geschäftsführungsaufgaben und -ziele. Zum anderen steht der vorstandspraktische Einwand technischer Ausfälle beim Einsatz von ­KI-Vorstandsmitgliedern deren Tauglichkeit als Geschäftsleitungsorgan entgegen.

59  Siehe

dazu oben unter 2. Teil A. I. 1. a) aa) (2).

56

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

2. Voraussetzungen aus § 76 Abs. 1 AktG Neben den Voraussetzungen an den Vorstand, die sich aus der Diskussion um den Ausschluss der juristischen Person in § 76 Abs. 3 AktG e contrario ergeben, lassen sich auch unmittelbar aus § 76 Abs. 1 AktG weitere Anforderungen ableiten. Dieser legt als zwingende Voraussetzung für den Vorstand fest: „Der Vorstand hat unter eigener Verantwortung die Gesellschaft zu leiten“. Die Eigenverantwortlichkeit äußert sich besonders in der Weisungsunabhängigkeit und der Willensfreiheit.60 Weder der Aufsichtsrat, noch die Hauptversammlung und erst recht keine Dritten können dem Vorstand konkrete Zielvorgaben machen, an die er sich zu halten hat.61 Der Vorstand ist frei in der Ausübung seiner Tätigkeit. a) Beeinträchtigung der Weisungs- und Willensfreiheit Bereits an dieser wesentlichen Voraussetzung für das Vorstandsmandat kommt die Künstliche Intelligenz an ihre Grenzen. Die Künstliche Intelligenz ist notwendig auf die Festlegung von Zielvorgaben angewiesen. Es genügt schon systembedingt zu ihrem Tätigwerden nicht, nur grobe Leitlinien durch den Aufsichtsrat vorgeben zu lassen, an denen sich die Künstliche Intelligenz, ähnlich wie der menschliche Vorstand bei der Geschäftsführung, orientiert. Damit die Künstliche Intelligenz tätig werden kann, ist sie auf konkrete Anweisungen durch den Menschen angewiesen. Solche Anweisungen sind exemplarisch in der Festlegung sämtlicher Ziele und Bedingungen, unter denen die Künstliche Intelligenz als Vorstand tätig wird, zu sehen. Aber auch nach der Ausgestaltung und bei der Arbeit der KI, ist die Rückmeldung des Menschen unerlässlich. Die KI muss zunächst, um überhaupt brauchbare Ergebnisse zu liefern, anhand einer großen Menge von Einzelfällen trainiert werden, um Muster auszubilden, durch deren Anwendung auf unbekannte neue Fälle schließlich die tatsächliche Vorstandsarbeit ausgeübt werden kann.62 Dabei ist sowohl die Vorgabe des Ergebnisses für einen bestimmten Fall beim Lernen mit Trainingsdatensätzen als auch die Korrektur etwaiger unerwünschter Ergebnisse notwendig.63 In dieser intensiven Vorarbeit des Menschen mit der Künstlichen Intelligenz, dass diese überhaupt in die Lage 60  Wentrup, in: Hoffmann-Becking (Hrsg.), Münchener Hdb. des Gesellschaftsrechts Band 4 (52020), § 19, Rn. 31; Hüffer/Koch AktG-Koch, § 76, Rn. 25. 61  OLG Frankfurt/M., Urteil vom 17.08.2011 – 13 U 100/10 = ZIP 2011, 2008 (2009); BeckOGK AktG-Fleischer, § 76, Rn. 66; MüKo AktG-Spindler, § 76, Rn. 22; Hüffer/Koch AktG-Koch, § 76, Rn. 25 ff. 62  Vgl. Kreutzer/Sirrenberg, KI verstehen, S. 6. 63  Vgl. Kreutzer/Sirrenberg, KI verstehen, S. 6 f.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?57

versetzt wird, wünschenswerte und „richtige“ Ergebnisse im Sinne der gewünschten Vorstandstätigkeit zu produzieren, läge eine erhebliche Einflussnahme auf den KI-Vorstand durch die Person oder Personen64, die die Ausgestaltung und das Training sowie Korrekturen vornehmen. Damit würde der KI-Vorstand aber nicht mehr weisungsfrei i. S. d. § 76 Abs. 1 AktG tätig. Die Künstliche Intelligenz wird zwar gewissermaßen autonom innerhalb der ­Rahmenbedingungen und Zielvorgaben agieren, indes nur innerhalb dieser,65 sodass die KI-Geschäftsführung in wesentlichen Aspekten determiniert wür­de. Die dargestellte Notwendigkeit der präzisen Determinierung von Zielen und Rahmenbedingungen hat zur Folge, dass es durch den Einsatz von KI als Substitut des Vorstands zu einer Verschiebung des Gleichgewichts in der Aktiengesellschaft kommen würde. Dass konkrete Zielvorgaben an den Vorstand sowohl durch den Aufsichtsrat unmittelbar selbst als auch durch Vereinbarungen im Anstellungsvertrag des Vorstands unzulässig sind, hat der BGH erst kürzlich klargestellt.66 Die Zielvorgaben an einen Vorstand dürfen weder dessen Leitungsautonomie in unzulässiger Weise berühren noch sich in Form einer Direktion auswirken, denn der Vorstand führt die Gesellschaft unabhängig und eigenverantwortlich.67 Erst recht unzulässig müssen dann nach der Rechtsprechung eine umfassende Ausgestaltung der Zielvorgaben und Rahmenbedingungen eines KIVorstands sein. Würde man dem Aufsichtsrat als personalkompetentem Organ die Ausgestaltung und das Training der KI überlassen, würden dessen Kompetenzen überschritten.68 Aber auch die Ausgestaltung des KI-Vorstands durch das nach dem aktienrechtlichen Kompetenzgefüge naheliegendste ­Organ, dem (menschlichen) Gesamtvorstand, würde zwar kompetenzrechtlich die wenigsten Bedenken hervorrufen,69 stünde indes gleichfalls im Widerspruch zur besonders zentralen Eigenverantwortlichkeit, insbesondere der Weisungsfreiheit des Vorstands. Auch eine Willensfreiheit ist systembedingt ausgeschlossen. KI bildet keinen Willen, wie es menschliche Akteure tun.70 Die naturgegebene absolute 64  Dies wird dem aktienrechtlichen Kompetenzgefüge folgend am ehesten durch ein weiteres menschliches Vorstandsmitglied ausgeführt werden können und dürfen. Siehe dazu bereits oben unter 2. Teil A. I. 1. a) aa) (2). 65  Vgl. Herberger, NJW 2018, 2825 (2827). 66  BGH, Urteil vom 24.09.2019 – II ZR 192/18 = NJW 2020, 679 (681). 67  BGH, Urteil vom 24.09.2019 – II ZR 192/18 = NJW 2020, 679 (681). 68  Dazu bereits oben unter 2. Teil A. I. 1. a) aa) (2). 69  Dazu bereits oben unter 2. Teil A. I. 1. a) aa) (2). 70  Barthelmeß/Furbach, Künstliche Intelligenz aus ungewohnten Perspektiven, S. 97.

58

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

Willensfreiheit des Menschen ist auf eine KI nicht reproduzierbar.71 Die Autonomie der KI darf nicht dahingehend überbewertet werden, dass diese gleich einem Menschen denkt und entscheidet.72 Die Entscheidungen der KI sind stets Ergebnis mathematischer Berechnungen, die zwar in ihrer Entstehung aufgrund des „Blackbox-Problems“ möglicherweise nicht oder nur schwer nachvollziehbar sind, sich aber immer innerhalb der Vorgaben und Umwelt der KI bewegen.73 Dass die Künstliche Intelligenz den Rahmen verlassen könnte und plötzlich aufgrund eigenen Willens selbstgegebene Ziele außerhalb der Vorgaben oder gar eine gänzlich andere Tätigkeit anstrebt, ist mit dem heutigen und mittelfristigen Stand der Technik nicht denkbar.74 Der Einsatz eines KI-Vorstands widerspräche damit den Grundprinzipien des Vorstandes hinsichtlich eigenverantwortlicher Unternehmensleitung, sodass dieser aus diesen Gesichtspunkten unzulässig ist. b) Beeinträchtigung des Gebots der Gleichberechtigung im Vorstand Spezieller ergibt sich, wegen der technisch notwendigen Ausgestaltung des KI-Vorstands durch den (menschlichen) Gesamtvorstand,75 zudem ein Verstoß gegen das Gebot fehlender interner Gleichberechtigung als konkrete Ausprägung des Charakters des Kollegialorgans in Verbindung mit der Gesamtleitung.76 Infolge der soeben dargestellten technischen und inhaltlichen Konkretisierung der KI-Aufgabenausführung77 besteht ein Subordinationsverhältnis zwischen menschlichen Vorstandsmitgliedern und dem KI-Vorstand. Eine solche subordinative Abhängigkeit ist charakteristisch für die heute verfügbare begrenzte KI, die gerade nicht vollständig autonom in einem „menschenähnlichen“ Handlungsfreiraum agieren kann. Zwar führt die Adaptivität der KI zu einer selbstständigen Anpassung der Algorithmen und Ziele. Indes emanzipiert dies die KI nicht so weit, dass die Aufgabenerfüllung, Zielbestimmung und Ausgestaltung des Handlungsrahmens sich von den implementierten Mustervorstellungen des Gesamtvorstands im Sinne ei71  Ausführlich dazu Barthelmeß/Furbach, Künstliche Intelligenz aus ungewohnten Perspektiven, S. 97 ff. 72  Barthelmeß/Furbach, Künstliche Intelligenz aus ungewohnten Perspektiven, S. 97; vgl. Herberger, NJW 2018, 2825 (2827). 73  Barthelmeß/Furbach, Künstliche Intelligenz aus ungewohnten Perspektiven, S. 97; vgl. auch Herberger, NJW 2018, 2825 (2827). 74  Vgl. Barthelmeß/Furbach, Künstliche Intelligenz aus ungewohnten Perspektiven, S. 97; vgl. auch Herberger, NJW 2018, 2825 (2827). 75  Dazu oben unter 2. Teil A. I. 1. a) aa) (2). 76  Hoffmann-Becking, ZGR 1998, 497 (514). 77  Dazu oben unter 2. Teil A. I. 2. a).



A. KI als Vorstandsmitglied einer Aktiengesellschaft?59

ner autonomen Zielsetzung in der Form entfernen könnte, dass die KI ihren Aufgabenbereich tatsächlich selbstständig modifiziert. Freilich ist dem Ak­ tienrecht eine begrenzte Stufung innerhalb der Vorstandsorganisation nicht grundsätzlich fremd. Dem Vorstandsvorsitzenden kann etwa das Recht zum Stichentscheid per Satzung oder Geschäftsordnung eingeräumt werden.78 Jedoch verfügt er über die gleichen Rechte und Pflichten wie die übrigen Vorstandsmitglieder. Er hat keine privilegierte Vertretungsmacht inne.79 Nicht nur eine externe Weisungsbefugnis,80 sondern auch eine solche innerhalb des Vorstands selbst ist unzulässig.81 Das Subordinationsverhältnis zwischen ­KI-Vorstand und den menschlichen Vorstandsmitgliedern ist indes als von solcher Intensität zu kategorisieren, dass nicht von einer gänzlich unabhängigen Aufgabengestaltung und -erfüllung ausgegangen werden kann. Eine Differenzierung zwischen den Vorstandsmitgliedern, dass einzelne zu solchen „zweiter Klasse“ degradiert würden, widerspricht jedoch dem aktienrecht­ lichen Gebot der Gleichbehandlung im Vorstand und dem Charakter desselben als Kollegialorgan.82 Der Einsatz eines KI-Vorstands wäre folglich auch unter diesem speziellen Aspekt der Gleichberechtigung im Hinblick auf die aktienrechtliche Konzeption des Geschäftsleitungsorgans unzulässig. c) Zwischenergebnis Zum einen steht das Gebot der eigenverantwortlichen und weisungsunabhängigen Gesamtleitung sowie der Willensfreiheit dem Einsatz von KI-Vorstandsmitgliedern entgegen. Zum anderen würde durch den Einsatz von KI-Vorstandsmitgliedern auch die Gleichberechtigung innerhalb des Vor­ stands verletzt, da KI techniknotwendigerweise auf eine intensive Einflussnahme durch den (menschlichen) Gesamtvorstand angewiesen ist. 3. Voraussetzungen aus der Person des Vorstands und der Vorstandspraxis Darüber hinaus haben sich, neben den bereits angeführten Maßgaben zur Eignung als Vorstandsmitglied, in der Vorstandspraxis weitere persönliche 78  BeckOGK

AktG-Fleischer, § 77, Rn. 13. Meinung, siehe BeckOGK AktG-Fleischer, § 84, Rn. 98, m. w. N. 80  Siehe oben unter Teil 2. A. I. 2. a). 81  BeckOGK AktG-Fleischer, § 84, Rn. 99; Hüffer/Koch AktG-Koch, § 84, Rn. 29; Wicke, NJW 2007, 3755 (3757). 82  Schwark, ZHR 142 (1978), 203 (218); Hoffmann-Becking, ZGR 1998, 497 (515); Wicke, NJW 2007, 3755 (3757); BeckOGK AktG-Fleischer, § 77, Rn. 41. 79  Herrschende

60

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

Anforderungen etabliert. Zudem ergeben sich auch Anforderungen aus dem Charakter des Vorstandsgremiums als Kollegialorgan. a) Persönliche Voraussetzungen an den Vorstand der AG Der Vorstand hat das Leitungsmonopol der Gesellschaft inne.83 Aus der Machtposition erwächst jedoch auch ein hohes und diverses Anforderungsprofil. Als wichtigste persönliche Voraussetzung eines Vorstandskandidaten soll dessen Charakter gelten.84 Die allgemeinen Idealvorstellungen vom Charakter des Vorstands sind geprägt von solchen Eigenschaften, die ihm eine Befähigung zur konsequenten Verfolgung der Unternehmensziele attestieren.85 Er soll sich dabei insbesondere als gegenüber anderen Vorstandsmitgliedern kollegialer Teil hervortun und im Interesse der Gesamtleistung des Vorstandes zurücktreten, wenn dies erforderlich ist.86 In fachlicher Hinsicht ist das Anforderungsprofil zu vielschichtig, um einen allgemeingültigen Maßstab zu definieren, sodass es auf die im konkreten Einzelfall zu besetzende Position ankommt.87 Künstliche Intelligenz kann keine eigene Persönlichkeit ausbilden, wie dies bei natürlichen Personen der Fall ist. Damit kann KI die charakterlichen Anforderungen wie Teamfähigkeit, Führungsfähigkeit oder tugendhafte Unternehmensführung88 bereits nicht erfüllen. Der Zweck dieser Anforderungen besteht insbesondere in der Vermeidung missbräuchlicher Ausübung der Machtposition, die mit dem Vorstandsmandat einhergeht.89 Dieser Zweck muss auch ohne die Fähigkeit einen der natürlichen Person gleichkommenden Charakter zu bilden nicht zwangsläufig leerlaufen. Die Künstliche Intelligenz übt ihre Aufgaben auf Grundlage eines vorgegebenen Rahmens aus. Dieser Rahmen beinhaltet sämtliche Bedingungen und Gewichtungen, unter denen die Künstliche Intelligenz tätig werden soll. Damit ist die Vermeidung Handbuch des Vorstandsrechts, (2006), § 1 Rn. 4. in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 32; vgl. Priester, ZHR 160 (1996), 250 (255). 85  Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 116; dazu auch Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 32 f. 86  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 32. 87  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 35. 88  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 32 f. 89  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 32. 83  Fleischer, 84  Kubis,



A. KI als Vorstandsmitglied einer Aktiengesellschaft?61

der oben genannten Risiken ebenso möglich. Wegen der rigiden Zielverfolgung der Künstlichen Intelligenz wird man wohl sogar davon ausgehen können, dass die Vermeidung mit höherer Sicherheit gelingen wird, wie es die Auswahl einer natürlichen Person anhand ihres vermeintlichen Charakters zulassen würde. Der Charakter einer natürlichen Person, stellt eine vollständige „Blackbox“ dar,90 dessen konkrete Ausprägung nur auf Basis empirischer Grundlage von Dritten vermutet werden kann und damit lediglich eine nicht überprüfbare Kausalität für die Entscheidungsmotivation anbietet. Rekonstruierbar ist demgegenüber der Entscheidungsprozess selbst. Das Informationsdefizit befindet sich bei menschlichen Entscheidungen demnach überwiegend bei den inneren Beweggründen als Entscheidungsgrundlage. Hingegen ist der „Charakter“ einer Künstlichen Intelligenz, also deren Rahmenbedingung zumindest hinsichtlich der Algorithmen, Rahmenbedingungen und Ziele, also eben jenes Rahmens der „Entscheidungsmotivation“, einsehbar.91 Es handelt sich in dieser Hinsicht gegenüber der menschlichen Entscheidung bei KI folglich eher um eine partielle „Blackbox“.92 Zumindest kann vorab durch Gewichtung der Algorithmen und Training sowie der Rahmenbedingungen und Ziele bestimmt werden, welche Handlungen die Künstliche Intelligenz jedenfalls unterlassen und welche die Künstliche Intelligenz unter mehreren zielführenden Handlungen bei der Auswahl präferieren soll. Auf der anderen Seite kommt es bei der Aufgabenausführung durch KI wegen des undurchsichtigen Datenverarbeitungsvorgangs zu einer kaum mehr nachvollziehbaren Kausalität innerhalb des festgelegten Rahmens und der festgelegten Ziele für die Entscheidungsfindung.93 Das Informationsdefizit liegt bei KI folglich im eigentlichen Entscheidungsprozess. Insoweit besteht kein Nachteil gegenüber dem beabsichtigten Ziel der Auswahl anhand des Charakters. Insbesondere die Wahrung „tugendhafter Unternehmensführung“94 wird auch von KI erfüllt werden können. Während diese bei der Auswahl des Menschen nur mit scheinbarer Gewissheit zu erreichen ist und sich insoweit auf eine Rekonstruktion der Entscheidungsmotivation anhand des einsehbaren Entscheidungsprozesses stützen muss, wird dieses Ziel beim Einsatz von KI mit einiger höherer Sicherheit erreichbar sein. Aufgrund der Einsehbarkeit der Ziele und Rahmenbedingungen wird bereits ex ante festgelegt werden können, dass sich die Entscheidung der KI 90  Vgl.

Wischmeyer, AöR 143 (2018), 1 (8). Wischmeyer, AöR 143 (2018), 1 (44). 92  So auch Linardatos, ZIP 2019, 504 (508). 93  Wischmeyer, AöR 143 (2018), 1 (47). 94  Zu den genauen charakterlichen Voraussetzungen und wünschenswerten Eigenschaften siehe Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 32 ff. 91  Vgl.

62

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

im vorgegebenen Rahmen bewegt und damit eine „tugendhafte Unternehmensführung“ auch ohne kausale Nachvollziehbarkeit des späteren Entscheidungsprozesses erfüllt. Das Qualifikationskriterium der fachlichen Eignung zum Vorstandsmitglied steht dem Einsatz von KI als Vorstandsmitglied schließlich nicht ent­gegen. Die Prüfung der fachlichen Qualifikation bedarf jedoch mangels menschlicher Qualifikationsmerkmale, etwa einer fachlichen Ausbildung oder entsprechender Referenzen, eines KI-spezifischen Prüfungskanons. Durch eine entsprechende Eignungs- und Funktionsprüfung wird sichergestellt werden müssen, dass KI zuverlässig brauchbare und fachlich qualifizierte Ergebnisse produziert.95 Im Ergebnis kommt es daher beim Einsatz von Künstlicher Intelligenz unabhängig vom Vorliegen eines „Charakters“, der mit der natürlichen Person vergleichbar wäre, zu einer Einhaltung der in der Vorstandspraxis angestrebten Ziele, sodass insoweit ein Hinderungsgrund für den KI-Vorstand ausscheidet. b) Geschäftsleitung durch den Gesamtvorstand Der Einsatz von KI-Vorständen bereitet jedoch Probleme im Hinblick auf die Ausübung der wesentlichen Vorstandstätigkeit im Kollegialorgan selbst. Es ist mit den heutigen technischen Möglichkeiten lediglich umsetzbar, KI mit der Ausführung einzelner konkreter (Geschäftsführungs-)Aufgaben zu beauftragen. KI könnte damit die Zuständigkeit für solche Aufgaben übertragen werden, in welchen durch die algorithmengesteuerte Ausführung besondere Effizienzgewinne zu erwarten sind. Dies ist etwa bei der Identifizierung und Klassifizierung von Anteilseignern, der Produktentwicklung, der Preispolitik oder ähnlichem denkbar.96 Die Ausübung der Geschäftsführung i. S. d. § 77 AktG dürfte einen KI-Vorstand daher vor weniger große Hürden stellen. Problematisch ist dagegen die Ausübung der Geschäftsleitung i. S. d. § 76 Abs. 1 AktG und derer besonderer unternehmerischer Charakter. aa) Unternehmerische Funktion und Geschäftsleitung Während eine konkrete (Geschäftsführungs-)Aufgabe, wie etwa die Gruppierung von Unternehmensdaten nach bestimmten Kriterien, regelmäßig mathematisch beschreibbar sein dürfte, und damit von einem KI-Vorstand 95  Zu den Anforderungen ausführlich unten im Rahmen der Delegation an KI, 3. Teil C. I. 96  Vgl. Amour/Eidenmüller, ZHR 183 (2019), 169 (174).



A. KI als Vorstandsmitglied einer Aktiengesellschaft?63

mit wohl im Gegensatz zur Ausführung durch natürliche Personen höherer Effizienz und Präzision bewältigt werden würde, stellt der Gegenstand der Geschäftsleitung häufig auf für KI kaum oder nicht mathematisch beschreibbare Eigenschaften ab. Aus Sicht der Vorstandspraxis bedarf die Geschäftsleitung mehr als nur die Beachtung von Gesetzen und vorformulierten Führungsgrundsätzen.97 Sie ist keine schematische Tätigkeit, deren Werkzeuge zur Reaktion auf die unzähligen zu bewältigenden Einzelfälle sich anhand eines abgrenzbaren Rahmens darstellen ließen. Die Geschäftsleitung soll insbesondere der schöpferischen Ideen und des Gestaltungswillens durchsetzungsfähiger Menschen bedürfen.98 Weil der Vorstand diese unternehmerischen Anforderungen als Kollegialorgan in seiner Gesamtheit zu bewältigen hat,99 ist es notwendige Bedingung, dass ein KI-Vorstand sämtliche Aspekte selbst einbringen kann, um zu einer unternehmerischen Gesamtentscheidung des Vorstands beizutragen.100 Indes existieren bisher ausschließlich KI-Anwendungen für einzelne unternehmerische Funktionen, die jedoch keine unternehmerische Gesamtsteuerung ermöglichen.101 Auch eine unternehmerisch schöpferische oder gestalterische Fähigkeit, die mit einer solchen von natürlichen Personen vergleichbar wäre, ist mittelfristig also für KI nicht reproduzierbar.102 Damit wird ein KI-Vorstand jedoch die besonders hervorgehobene unternehmerische Geschäftsleitung nicht im erforderlichen Maße ausüben können und widerspräche dem Grundgedanken des Vorstands als unternehmerisches Geschäftsführungsorgan103. bb) Kommunikation und Arbeit im Kollegialorgan Der Vorstand ist nicht nur unternehmerisches Geschäftsführungsorgan, sondern insbesondere, in einer Besetzung von mehreren Personen, Kollegialorgan. Die Geschäftsleitung im Kollegialorgan ist zwingend von allen Vor-

97  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015a), § 1, Rn. 180; zur unternehmerischen Charakterisierung des Vorstands m. w. N. siehe auch Fleischer, ZIP 2003, 1 (2 f.). 98  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015a), § 1, Rn. 180. 99  BeckOGK AktG-Fleischer, § 76, Rn. 8. 100  Vgl. Hüffer/Koch AktG-Koch, § 76, Rn. 18. 101  Amour/Eidenmüller, ZHR 183 (2019), 169 (181); Thomas/Amico/Kolbjørnsrud, Harvard Business Review online Ressource „How Artificial Intelligence Will Redefine Management“, vom 02.11.2016. 102  Thomas/Amico/Kolbjørnsrud, Harvard Business Review online Ressource „How Artificial Intelligence Will Redefine Management“, vom 02.11.2016. 103  Vgl. Fleischer, ZIP 2003, 1 (2 f.).

64

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

standsmitgliedern gemeinsam auszuüben.104 Entscheidungen im Vorstand werden nach der Beratung im Plenum durch Beschluss getroffen.105 Der Vorstand soll einen gemeinschaftlichen Willensbildungsprozess durchlaufen und so zu einer Entscheidung gelangen.106 Insoweit problematisch sind vor allem die Hürden der Mensch-Maschine-Kommunikation107 sowie die Spezialisierung der KI. Zum einen sind die Diskussionsgegenstände der Geschäftsleitung, die eine Gesamtentscheidung des Vorstands auf Grundlage einer Gesamtwillensbildung erfordern, regelmäßig solche, die sich für KI nicht verständlich eingrenzen und beschreiben ließen.108 Zum anderen würde der KI-Vorstand nicht zu sämtlichen unterschiedlichen Themen Beiträge liefern können, da die KI mangels genereller Intelligenz nur fachlich hoch spezialisiert tätig werden kann. An den Vorstand werden gleichwohl nicht nur spezifische fachliche Anforderungen gestellt, deren Erfüllung ausreicht, um die Geschäftsleitung wie gefordert wahrzunehmen.109 Vielmehr genügen spezifisch fachliche Kompetenzen zwar zur fachgerechten Geschäftsführung eines dem jeweiligen Vorstandsmitglied zugeteilten Ressort. Sie genügen aber etwa schon nicht der generellen Geschäftsleitungskompetenz, die sich typologisch mit der Unternehmensplanung, -koordinierung, -kontrolle und Führungspostenbesetzung beschreiben lässt.110 Insbesondere könnte ein KI-Vorstand keinen konkreten Mehrwert in Form einer aktiven und kooperativen Diskussion beisteuern.111 Denn die sprachlichen Hürden sind in diesem Bereich technisch nicht so überwindbar, dass eine effiziente und natürliche Kommunikation zwischen Menschen und Maschinen möglich wäre.112 Die Kommunikation erfordert beiderseits erheblichen Aufwand bei der Übersetzung in maschinenlesbare Sprache auf der einen Seite und für Menschen verständliche Sprache auf der anderen Seite.113 In Verbindung mit der Einschränkung der hoch spezialisier104  Statt 105  Vgl.

aller Hüffer/Koch AktG-Koch, § 76, Rn. 18. Hoffmann-Becking, ZGR 1998, 497 (507); Hüffer/Koch AktG-Koch, § 161,

Rn. 12. 106  Vgl. Hoffmann-Becking, ZGR 1998, 497 (507); Hüffer/Koch AktG-Koch, § 161, Rn. 12. 107  Zu Schwierigkeiten bei der Mensch-Maschine Kommunikation siehe Teubner, AcP 218 (2018), 155 (166 ff.). 108  Vgl. Thomas/Amico/Kolbjørnsrud, Harvard Business Review online Ressource „How Artificial Intelligence Will Redefine Management“, vom 02.11.2016. 109  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015b), § 2 Rn. 32 ff. 110  BeckOGK AktG-Fleischer, § 76, Rn. 18. 111  Vgl. Zetzsche, AG 2019, 1 (10). 112  So auch Zetzsche, AG 2019, 1 (10). 113  Vgl. Teubner, AcP 218 (2018), 155 (167 f.).



A. KI als Vorstandsmitglied einer Aktiengesellschaft?65

ten fachlichen Kompetenz eines KI-Vorstands, die den Anforderungen einer notwendigen allgemeinen Kompetenz im oben genannten Sinne entgegen steht, ergeben sich nicht überwindbare Kommunikations- und Willensbildungsschwierigkeiten die mit dem Grundsatz der Gesamtleitung des Vorstands nicht vereinbar sind.114 Es würde dem Vorstand eine Lähmung bis hin zur Handlungsunfähigkeit hinsichtlich sämtlicher Kollegialentscheidungen drohen, die darüber hinaus im Widerspruch mit dem durch den Einsatz von KI erwarteten Effizienzgewinn stünde.115 c) Zwischenergebnis Die persönlichen (charakterlichen und fachlichen) Voraussetzungen stellen für den KI-Vorstand keinen Hinderungsgrund dar. Indes ist der KI-Vorstand nicht in der Lage die unternehmerischen und geschäftsleitenden Anforderungen an den Vorstand sowie die Arbeit im Kollegialorgan hinreichend umzusetzen. 4. Voraussetzungen aus weiteren Normen des Aktiengesetzes Neben den direkt aus der Vorschrift zur Leitung der Aktiengesellschaft in § 76 Abs. 3 und Abs. 1 AktG zu entnehmenden Voraussetzungen sowie den persönlichen Voraussetzungen aus der Vorstandspraxis und dem Charakter des Vorstandsorgans selbst, können aus den anderen Normen des Aktiengesetzes weitere Anforderungen an den Vorstand abgeleitet werden, deren Erfüllbarkeit durch KI fraglich ist. a) Vertrauen in den Vorstand Mit der Entscheidung des Aufsichtsrats, die ausgewählte Person als Vorstandsmitglied einzusetzen, überträgt er jener die Position als Treuhänder.116 Ein weiterer Grundsatz, auf dem die Bestellung und die Amtsführung des Vorstands gründet, ist daher das Vertrauen in diesen.117 Das Vertrauen unterschiedlicher Akteure besteht dabei in verschiedener Richtung.

114  So

auch Zetzsche, AG 2019, 1 (10). Becker/Pordzik, ZfPW 2020, 334 (356 f.). 116  Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 111; eingehend auf die regelmäßige Bezeichnung als „Treuhänder“ Dubovitskaya, NZG 2015, 983 (983), m. w. N. 117  So schon K. Wieland, Handelsrecht, S. 121; Petersen, in: Glossner (Hrsg.), Festschrift Luther (1976), S. 136 f. 115  Ebenso

66

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

aa) Vertrauensbeziehungen in Bezug auf den menschlichen Vorstand Zum einen liegt ein Vertrauensverhältnis zwischen der Hauptversammlung und dem Vorstand vor.118 Dieses Vertrauensverhältnis ist im Anschluss an eine BGH-Entscheidung auch in der Aktienrechtsreform 1965 berücksichtigt worden119 und hat heute seinen Niederschlag in § 84 Abs. 4 Satz 2 AktG gefunden. Dort heißt es, dass ein wichtiger Grund für die Abberufung eines Vorstands der Entzug des Vertrauens durch die Hauptversammlung sein kann. Im Umkehrschluss sowie aus der Entscheidung des BGH ergibt sich, dass dem Vorstand von der Hauptversammlung Vertrauen entgegengebracht wird und dies das Fundament der Bestellung des Vorstands bildet.120 Zweitens bedarf der Vorstand zu seiner Amtsführung des Vertrauens des Aufsichtsrats.121 Dies ist zwar nicht dem Wortlaut des Gesetzes zu entnehmen, ergibt sich aber bereits aus der Tatsache selbst, dass der Aufsichtsrat den Vorstand in das Amt beruft.122 Denn das setzt voraus, dass der Vorstandskandidat das Vertrauen des Aufsichtsrates insoweit gewonnen hat, dass er zu der Überzeugung gelangt, der Kandidat werde die Geschäftsführung zum Wohle und Erfolge des Unternehmens ausüben.123 Drittens müssen die Vorstandsmitglieder sich auch untereinander ver­ trauen.124 Dies wird schon vom Charakter des Vorstands als Kollegialorgan vo­rausgesetzt.125 Vertrauen bildet beispielsweise vorstandsintern die Voraussetzung für die Verteilung verschiedener Ressorts126 und damit Steigerung der Effizienz des Gesamtvorstandes. Das Vertrauen wird auch nicht dadurch obsolet, dass die Vorstandsmitglieder stets nur für eigenes Verschulden nach 118  Vgl.

Petersen, in: Glossner (Hrsg.), Festschrift Luther (1976), S. 136. Urteil vom 28.04.1954 – II ZR 211/53 = NJW 1954, 998; Deutscher Bundestag, Drucksache IV/171, S. 125. 120  Vgl. Deutscher Bundestag, Drucksache IV/171, S. 125. 121  Deutscher Bundestag, Drucksache IV/171, S. 125; vgl. Neuner, BGB AT, S. 136; vgl. Petersen, in: Glossner (Hrsg.), Festschrift Luther (1976), S. 136. 122  Vgl. Neuner, BGB AT, S. 136; Petersen, in: Glossner (Hrsg.), Festschrift Luther (1976), S. 136. 123  Vgl. Lutter/Krieger/Verse, Rechte und Pflichten des Aufsichtsrats, 7.  Aufl. (2020), § 7, Rn. 342. 124  Vgl. BGH, Urteil vom 06.11.2018 – II ZR 11/17 (KG) = ZIP 2019, 261; ­Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015a), § 1, Rn. 205; MüKo AktG-Spindler, § 93, Rn. 174; Froesch, DB 2009, 722 (725); ausführlich zum Vertrauen der Vorstandsmitglieder untereinander Fleischer, NZG 2003, 449 (453 ff.); allgemein zum Vertrauen im Aktienrecht Harbarth, ZGR 2017, 211. 125  Fleischer, NZG 2003, 449 (455). 126  Vgl. Fleischer, NZG 2003, 449 (455). 119  BGH,



A. KI als Vorstandsmitglied einer Aktiengesellschaft?67

§ 93 Abs. 2 AktG haften.127 Vielmehr wird dadurch, dass die Vorstandsmitglieder untereinander nur einer ressortübergreifenden Überwachungspflicht unterliegen,128 das interkollegiale Vertrauensverhältnis besonders deutlich.129 Die Mitglieder sollen auf die Arbeit der Kollegen vertrauen und diese im Rahmen ihrer Überwachungspflicht sorgfältig und kritisch begleiten, wobei die Anforderungen an die Überwachung nicht überspannt werden sollten.130 Schließlich vertrauen auch Dritte in den Vorstand, wenn sie mit der Aktien­ gesellschaft rechtliche Beziehungen eingehen.131 bb) Vergleichbares Vertrauen in KI Fraglich ist, ob auch einer KI als Vorstandsmitglied Vertrauen entgegengebracht werden kann. „Vertrauen“ wird im Wesentlichen als „eine mit posi­ tiver Zukunftserwartung verbundene Vorleistung des Vertrauensgebers, die persönliche Verletzbarkeit und das Eingehen individueller oder kollektiver Risiken impliziert, da negative Konsequenzen resultieren können“132 definiert. Vertrauen hat damit einen zukunftsbezogenen Aspekt, beruht jedoch auch auf Empirie.133 Vertrauen in natürliche Personen als Geschäftsleiter kann folglich beispielshaft auf Basis derer charakterlicher und auch fach­ licher Eigenschaften sowie deren beruflichen Werdegangs gebildet werden. Mangels mit natürlichen Personen vergleichbaren Eigenschaften, wie Charakter und beruflicher Werdegang, erscheint es jedoch problematisch von einem vergleichbaren Vertrauen auf empirischer Grundlage in Bezug auf einen KI-Vorstand auszugehen. In einem ersten Schritt ist daher darzustellen, ob und wie überhaupt Vertrauen in KI denkbar ist. In einem zweiten Schritt wird 127  Allgemeine Meinung Fleischer, in: Fleischer (Hrsg.), Hdb. des Vorstandsrechts (2006a), § 11, Rn. 57, m. w. N. 128  Vetter, in: Krieger/Schneider (Hrsg.), Handbuch Managerhaftung (32017), § 22, Rn. 22.8 7; Hoffmann-Becking, in: Hoffmann-Becking (Hrsg.), Münchener Hdb. des Gesellschaftsrechts Band 4 (52020), § 26, Rn. 10; Fleischer, in: Fleischer (Hrsg.), Hdb. des Vorstandsrechts (2006b), § 8, Rn. 16; Fleischer, NZG 2003, 449 (455). 129  Vgl. Fleischer, NZG 2003, 449 (455). 130  So Fleischer, NZG 2003, 449 (453 ff.), siehe ebenso dort zur Reichweite des Vertrauens und Misstrauens; ähnlich hinsichtlich der Überwachungsreichtweite auch Hüffer/Koch AktG-Koch, § 77, Rn. 15; MüKo AktG-Spindler, § 93, Rn. 174 ff.; Froesch, DB 2009, 722 (725); strenger Rieger, in: Lutter/Sigle/Scholz (Hrsg.), Festschrift Peltzer (2001), 343, 347. 131  Komp, Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 111. 132  Clases, in: Wirtz (Hrsg.), Dorsch – Lexikon der Psychologie (202021), online Ressource – Stichwort: „Vertrauen“. 133  Clases/Wehner, in: Wenninger (Hrsg.), Spektrum – Lexikon der Psychologie (online Ressource) (2021), Stichwort: „Vertrauen“.

68

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

zu untersuchen sein, ob dieses Vertrauen auch in den entsprechenden Vertrauensbeziehungen des Vorstands realisierbar ist. (1) Technikspezifisches Vertrauen Zunächst ist das Vertrauen abhängig von der Art des KI-Einsatzes.134 Je sensibler die Arbeitsumgebung, wie etwa die medizinische Diagnostik, ist, desto höher werden die Anforderungen sein müssen, die für ein Vertrauen des Menschen in die KI, zu erfüllen sind.135 Die Schaffung von Vertrauen ist insoweit zunächst grundsätzlich Aufgabe des Gesetzgebers,136 der bereits auf europäischer Ebene erste entsprechende Bemühungen angestellt hat.137 Darin kommen sieben Kernbausteine des Vertrauens zum Tragen, die unter Berücksichtigung des jeweiligen KI-Systems und dessen Arbeitsumgebung zu gewichten sind.138 Da hier nicht die allgemeine Regulierung an sich in Frage steht, sondern die Möglichkeit, anderer Bezugspersonen Vertrauen in eine spezifische KI auf Basis dieser gesetzgeberischen Vertrauenselemente aufzubauen, seien diese reduziert auf die Grundzüge skizziert.139 Erstens soll KI möglichst in Assistenz des Menschen tätig werden. Der Mensch soll jeweils die Herrschaft über die Aufgabe behalten. Wo die KI weitgehend selbstständig agiert, soll der Mensch die Überwachung übernehmen. Zweitens sollen KI-Systeme sicher, verlässlich und robust genug sein, um Fehlern jederzeit begegnen zu können. Drittens sind der Schutz der Privatsphäre und die Qualität der Daten sicherzustellen. Viertens soll eine gewisse Transparenz des KI-Systems nach technischen Möglichkeiten sichergestellt werden. Fünftens soll schon durch die Datensätze und Programmierung auf Diskriminierungsfreiheit der KI hinzuarbeiten sein. Sechstens soll die KI das gesamtgesellschaftliche und ökologische Wohlergehen erhalten und fördern. Siebtens und letztens sollen für die KI Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht gewährleisten. 134  Europäische Kommission, Mitteilung der EU Kommission vom 08.04.2019 (COM(2019) 168 final), S. 4. 135  Europäische Kommission, Mitteilung der EU Kommission vom 08.04.2019 (COM(2019) 168 final), S. 4. 136  Martini, Blackbox Algorithmus, S. 362. 137  Europäische Kommission, Mitteilung der EU Kommission vom 08.04.2019 (COM(2019) 168 final), S. 4 ff.; Europäische Kommission, Weißbuch zur Künstlichen Intelligenz vom 19.02.2020 (COM(2020) 65 final); Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD). 138  Europäische Kommission, Mitteilung der EU Kommission vom 08.04.2019 (COM(2019) 168 final), S. 4. 139  Zu den folgenden Vertrauensbausteinen der Kommission siehe Europäische Kommission, Mitteilung der EU Kommission vom 08.04.2019 (COM(2019) 168 final), S.  5 ff.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?69

Auch, wenn diese sehr allgemeinen und auf Basis von Ethik-Leitlinien entstandenen Vertrauensbausteine überwiegend KI betreffen, die gesamtgesellschaftlich weitreichende Auswirkungen haben und weniger solche hochspezialisierte KI in Unternehmen, so bieten sie einen ersten Anhaltspunkt für die Regulierungstendenz des Gesetzgebers. An diese von der EU vorgeschlagenen Grundbausteine des Vertrauens in KI soll sich daher die Prüfung von möglichem Vertrauen der genannten Akteure in den KI-Vorstands anlehnen. (2) V  ertrauen unter Berücksichtigung der technikspezifischen Bausteine im Vertrauensgeflecht des Vorstands Vertrauen kann in den KI-Vorstand nur bestehen, wenn der Vertrauensgeber überhaupt solche entsprechenden Informationen hinsichtlich der genannten Grundbausteine über den Vertrauensnehmer hat.140 Grundsätzlich ist das Vertrauen entsprechend höher, je umfassender die Informationsmenge ist.141 Insofern wird es für das Vertrauen darauf ankommen, ob der Informationsumfang sowie die Einflussnahme hinsichtlich der genannten Vertrauensgrundbausteine, der den Akteuren in Bezug auf den KI-Vorstand zur Verfügung steht, eine mit menschlichen Vorständen vergleichbare Antizipierbarkeit des Vorstands-Handels erlaubt.142 Dies soll aus den jeweiligen einzelnen Perspektiven der Vertrauensbeziehungen betrachtet werden. (a) Vertrauen der Hauptversammlung in den KI-Vorstand Die Hauptversammlung kann über die Wahl des Aufsichtsrats und die Festlegung der Satzung zumindest mittelbar Einfluss auf die Ausgestaltung der KI-Rahmenbedingungen nehmen. Einzelne Aktionäre können außerdem durch Frage- und Auskunftsrechte Informationen über die Ausgestaltung der KI einfordern. Die Hauptversammlung kann sich hinsichtlich der Vertrauensgrundbausteine demnach nicht nur informieren, sondern auch einen gewissen Einfluss nehmen. Sie wird über den KI-Vorstand etwa durch das Einsatzgebiet der KI, deren grundsätzliche Ausrichtung und damit Ausgestaltung sowie Daten und Training hinreichend informiert sein. Auf dieser Grundlage kann die Hauptversammlung ein mit dem Vertrauen in natürliche Person vergleichbares Sicherheitsniveau über die „Person“ des KI-Vorstands und dessen Ge140  Vgl. Wenninger, Spektrum – Lexikon der Psychologie (online Ressource), 2021), Stichwort „Vertrauen“. 141  Vgl. Wenninger, Spektrum – Lexikon der Psychologie (online Ressource), 2021), Stichwort „Vertrauen“. 142  Vgl. Wenninger, Spektrum – Lexikon der Psychologie (online Ressource), 2021), Stichwort „Vertrauen“.

70

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

schäftsführungsleitlinien erlangen, sodass das Vertrauensverhältnis qualitativ nicht hinter einem solchen zu natürlichen Personen zurückbleibt. (b) Vertrauen des Aufsichtsrats in den KI-Vorstand Das Vertrauen des Aufsichtsrats in die KI wird grundsätzlich ebenso wenig Hürden ausgesetzt sein. Denn der Aufsichtsrat selbst ist es, der die allgemeinen Leitlinien der Geschäftsleitung festlegt, auf deren Basis der Vorstand tätig wird.143 Er verfügt demnach bereits selbst über eine weitreichende Einwirkungsmöglichkeit auf die KI-Rahmenbedingungen und damit auch auf die wesentlichen Vertrauensgrundbausteine. Im Unterschied zur Konstellation des Vertrauens des Aufsichtsrats in einen menschlichen Vorstand, kommt es hier jedoch zu einem leicht abweichenden Vertrauensgeflecht. Der KI-Vorstand wird zwar auch vom Aufsichtsrat als personalkompetenten Organ eingesetzt werden, jedoch wird man die letztliche Ausgestaltung durch den Gesamtvorstand fordern müssen, um das Kompetenzgefüge der Organe der Aktiengesellschaft nicht in Ungleichgewicht zu bringen.144 In der Folge besteht dann jedoch nicht mehr ausschließlich ein unmittelbares Vertrauensverhältnis vom Aufsichtsrat in das bestellte (KI-)Vorstandsmitglied. Man wird auch ein Vertrauenkönnen des Aufsichtsrats in den Gesamtvorstand und gegebenenfalls eine technische Hilfskraft annehmen können, der bzw. die die Ausgestaltung de facto vornimmt und etwa die Ziele der Unternehmensleitung in die KI implementiert. Damit auf eine Aufgabenerfüllung vertraut werden kann, ist es notwendig, dass die Aufgabenerfüllung auf einer hinreichenden Informationsgrundlage erfolgt.145 Für den Einsatz von KI als Vorstandsmitglied wird man daher fordern müssen, dass der Aufsichtsrat vom Gesamtvorstand über die pflichtgemäße Ausgestaltung der KI und das ordnungsgemäße Training derselben sowie eine ausreichend erprobte Aufgabenerfüllungsqualität informiert wird.146 Sodann stehen dem Vertrauendürfen des Aufsichtsrats in den KI-Vorstand keine weiteren Hindernisse entgegen. Das Vertrauensverhältnis besteht im Ergebnis beim Einsatz eines KI-Vorstandsmitglieds mangels dessen absoluter Autonomie neben dem unmittelbaren 143  Dazu etwa Fonk, NZG 2011, 321 (322 f.); ausführlich monographisch siehe Lieder, Der Aufsichtsrat im Wandel der Zeit, S. 832 ff. 144  Dazu oben unter 2. Teil A. I. 1. a) aa) (2). 145  Siehe dazu schon oben unter 2. Teil A. I. 4. a) bb) (1) die „Vertrauensgrundbausteine“, hinsichtlich derer ein vorliegen von Informationen zur Vertrauensbildung bei KI führt; siehe zur Notwendigkeit einer ausreichenden Informationsgrundlage für das Vertrauenkönnen allgemein zwischen Vorstand und Aufsichtsrat auch Harbarth, ZGR 2017, 211 (229). 146  Darauf umfassend eingehend unten unter 3. Teil in Bezug auf die Delegation von Aufgaben.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?71

Vertrauen in den KI-Vorstand selbst auch in einem von der pflichtgemäßen Einrichtung des KI-Vorstands durch den Gesamtvorstand abgeleiteten Vertrauen in die ordnungsgemäße Aufgabenerfüllung der KI. Schließlich stehen dem Aufsichtsrat hinsichtlich des KI-Vorstands, etwa mit der Abberufung (Außerbetriebsetzung), weitere, vergleichbar intensive Einflussmöglichkeiten zu, wie hinsichtlich eines menschlichen Vorstands. Im Ergebnis ist damit auch im Verhältnis des Aufsichtsrats zum KI-Vorstandsmitglied ein mit der Beziehung zu einer natürlichen Person vergleichbares Vertrauensverhältnis denkbar. (c) Vertrauen anderer Vorstandsmitglieder in den KI-Vorstand Auch das Vertrauensverhältnis der Vorstandsmitglieder untereinander wird im Mehrpersonenvorstand beim Einsatz eines KI-Vorstandsmitglieds ungehindert bestehen können. Da dem (menschlichen) Gesamtvorstand kompetenzsystematisch die technische Ausgestaltung und Zielsetzung des KI-Vorstandsmitglieds obliegen muss,147 wird er den größten Einfluss auf das KIVorstandsmitglied ausüben können. In der Folge kommt es beim (menschlichen) Gesamtvorstand zur Kumulation der meisten Informationen hinsichtlich des KI-Vorstands. Dem Grundsatz folgend, dass das Maß an Vertrauen(können) eng mit der verfügbaren Informationsgrundlage über die Aufgabenerfüllung zusammenhängt,148 wird man dem (menschlichen) Gesamtvorstand ein weitreichendes Vertrauensverhältnis zum KI-Vorstand zusprechen können.149 Das Vertrauenkönnen wird hinsichtlich eines KI-Vorstands sogar über das in ein menschliches Vorstandsmitglied hinausgehen. Zwischen menschlichen Vorstandsmitgliedern richtet sich das Vertrauen(können und -dürfen) überwiegend nach der Bedeutung der übertragenen Aufgabe und der Erfahrung hinsichtlich der Aufgabenerfüllung durch das Vertrauenssubjekt.150 Je länger das Vorstandsmitglied mit einer Aufgabe betraut ist, desto eher darf der Gesamtvorstand auf dessen pflichtgemäße Aufgabenerfüllung vertrauen.151 Dies wird man insbesondere damit begründen können, dass jeder menschliche Vorstand für den anderen eine vollständige „Blackbox“ darstellt, da der „Datenverarbeitungsprozess“ des Gehirns nicht einsehbar ist. Auch eine Rekon­ struktion, des Zustandekommens einer Entscheidung wird sich überwiegend auf die Beweggründe stützen müssen, die der menschliche Vorstand auf 147  Dazu

oben unter 2. Teil A. I. 1. a) aa) (2). Harbarth, ZGR 2017, 211 (229). 149  Vgl. Wenninger, Spektrum – Lexikon der Psychologie (online Ressource), 2021, Stichwort „Vertrauen“. 150  Vgl. Fleischer, NZG 2003, 449 (454). 151  Fleischer, NZG 2003, 449 (454). 148  Dazu

72

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

Nachfrage vorträgt.152 Das Vertrauendürfen muss daher abhängig von Erfahrungswerten und dem Risiko für die Gesellschaft bei Pflichtverletzung sein. Vergleichbar vertrauenseinschränkend ist zwar auch die „Blackbox-Problematik“ eines KI-Vorstands zu beachten, die dem (menschlichen) Gesamtvorstand die genaue Rekonstruktion des Ergebnisses des KI-Vorstands verwehrt und insoweit zu einem Informationsdefizit führt. Jedoch ist im Unterschied zur Rekonstruktion der Entscheidungsbeweggründe eines menschlichen Vorstands, die sich notwendigerweise auf die subjektiven Darstellungen des Vorstandsmitglieds stützen muss, die Entscheidung des KI-Vorstands zumindest hinsichtlich ihrer anfänglich gegebenen Rahmenparameter und Ziele rekonstruierbar.153 Dem Wohle der Gesellschaft gänzlich zuwiderlaufende Beweggründe werden wegen des begrenzten Arbeitshorizonts der KI und der rigiden Zielverfolgung rein technisch bereits ausgeschlossen sein. Die Vorstandsmitglieder können sich damit auf die Richtung einer Entscheidung des KI-Vorstands mit einer Wahrscheinlichkeit verlassen, wie es von einer natürlichen Person mit entsprechender Rigidität erwartbar wäre.154 Die KI-spezifischen Besonderheiten stehen dem Vertrauenkönnen insoweit nicht entgegen. Vertrauensmodifizierend, aber nicht vertrauenshindernd, wird man auch im Verhältnis der menschlichen Vorstandsmitglieder zum KI-Vorstand berücksichtigen müssen, dass in der Regel, mangels technischer Expertise, sowie ausreichender Arbeitskapazität der übrigen Vorstandsmitglieder, die tatsäch­ liche technische Umsetzung der Rahmenbedingungen und Ziele, die der (menschliche) Gesamtvorstand hinsichtlich des KI-Vorstands beschlossen hat, durch einen Dritten technischen Experten erfolgen wird.155 Das Vertrauen in die pflichtgemäße Leistung des KI-Vorstandsmitglieds wird daher auch vom Vertrauen in die pflichtgemäße Implementierung durch den technischen Experten abgeleitet sein. Jedoch ist diese erweiternde Modifikation in ein gewissermaßen auch mittelbares Vertrauen schon wegen der vertraglichen Haftung des technischen Experten für Pflichtverletzungen unproblematisch,156 da diese selbst ein Vertrauendürfen in die pflichtgemäße Implementierung rechtfertigt. Darüber hinaus wird der (menschliche) Gesamtvorstand, sich von der pflichtgemäßen Funktionstüchtigkeit der KI in Trainings derselben überzeugen lassen und entsprechende Überwachungspflichten wegen der KI152  So auch Linardatos, ZIP 2019, 504 (507 f.); Noack, in: Bachmann/Grundmann/ Mengel/Krolop (Hrsg.) (2020a), S. 950. 153  Ähnlich Noack, in: Bachmann/Grundmann/Mengel/Krolop (Hrsg.) (2020a), S. 951. 154  Vgl. Becker/Pordzik, ZfPW 2020, 334 (356). 155  Ausführlich zur Problematik eines technisch versierten „Zwischenperson“ und zum Einsatz eines „Chief Digital Officers“ siehe unten unter 3. Teil C. I. 1. a) und 3. Teil C. I. 3. b) aa) (3). 156  Vgl. zu dieser Wertung Becker/Pordzik, ZfPW 2020, 334 (354).



A. KI als Vorstandsmitglied einer Aktiengesellschaft?73

spezifischen Besonderheiten beachten müssen.157 Im Ergebnis steht auch im Vertrauensverhältnis zwischen den Vorstandsmitgliedern im Kollegialorgan der Einsatz einer Künstlichen Intelligenz als Vorstandsmitglied der grundsätzlichen Möglichkeit der Bildung von Vertrauen nicht entgegen. (d) Vertrauen Dritter in den KI-Vorstand Schließlich ist das Vertrauensverhältnis der Künstlichen Intelligenz zu Dritten zu beleuchten. Für Dritte ist vorwiegend das Vertrauen in die Integrität des Vorstandes bezüglich der ordnungsgemäßen Durchführung der Rechtsgeschäfte maßgeblich.158 Entscheidend für den Aufbau von Vertrauen im Hinblick auf den KI-Vorstand durch Informationen hinsichtlich der Vertrauensbausteine wird insbesondere sein, dass Dritte Kenntnis über die Geschäftsleitung durch eine nicht natürliche Person haben, die unter Aufsicht menschlicher Einflussnehmer, wie etwa menschlicher Vorstandsmitglieder, tätig wird. Allzu hohe Anforderungen an den Informationsumfang hinsichtlich der Vertrauensbausteine, wie etwa der Ausgestaltung der KI, wird man hier nicht stellen müssen. Denn für Dritte wird grundsätzlich die durch den Vorstand vertretene Person (die Aktiengesellschaft) von höherer Relevanz sein, da sich das rechtliche Verhältnis auf die Aktiengesellschaft als Vertretene bezieht. Diesem Vertrauensaufbau hinsichtlich der Aktiengesellschaft steht aber die Geschäftsleitung durch eine Künstliche Intelligenz nicht mehr oder minder entgegen als die Geschäftsleitung durch eine natürliche Person. Das Bezugssubjekt der Rechtsbeziehung Dritter zur Aktiengesellschaft ändert sich bis auf wenige denkbare Einzelfälle der Außenhaftung des Vorstands159 beim Einsatz von KI als Vorstandsmitglied nicht. Daher wird auch ein ausreichendes Vertrauensverhältnis Dritter gegenüber einem KI-Vorstand vorliegen. cc) Zwischenergebnis zum Vertrauen in einen KI-Vorstand Im Ergebnis wird man im Hinblick auf die Vertrauensbeziehungen menschlicher Akteure gegenüber des KI-Vorstands keinen Hinderungsgrund für den Einsatz von KI als Vorstandsmitglied sehen können. Den Akteuren obliegen 157  Ausführlich

dazu unten unter 3. Teil C. Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, S. 111. 159  Siehe zu Einzelfällen der Außenhaftung Wellhöfer, in: Wellhöfer/Peltzer/Müller (Hrsg.), Die Haftung von Vorstand Aufsichtsrat Wirtschaftsprüfer (2008), Rn. 78 ff.; Spindler, in: Fleischer (Hrsg.), Hdb. des Vorstandsrechts (2006), § 13; Grigoleit AktG-Grigoleit/Tomasic, § 93, 159 ff.; BeckOGK AktG-Fleischer, § 93, Rn. 375 ff.; Hüffer/Koch AktG-Koch, § 93, Rn. 65 ff.; MüKo AktG-Spindler, § 93, Rn. 355 ff. 158  Komp,

74

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

ausreichende Informations- und Einflussmöglichkeiten auf wesentliche Vertrauensgrundbausteine, wie etwa der Ausgestaltung der KI-Rahmenbedingungen, bezüglich der Tätigkeit des KI-Vorstands. Die modifizierten Vertrauensbeziehungen zwischen Aufsichtsrat und KI-Vorstand sowie dem mensch­ lichen Gesamtvorstand und dem KI-Vorstandsmitglied wirken sich im Ergebnis ebenso wenig vertrauenshindernd aus. b) Transparenz und Publizität Ein weiterer Aspekt für die Befähigung zum Vorstand ist die Transparenz der Person des Geschäftsführers der Aktiengesellschaft und die Erfüllung der Publizitätspflichten. Das Geschäftsführungsorgan der Aktiengesellschaft sowie dessen Vertretungsbefugnis sind in das Handelsregister einzutragen, § 39 Abs. 1 AktG. Es sind Eintragungen über den Vor- und Zunamen, das Geburtsdatum sowie den Wohnort (nur die politische Gemeinde) zu tätigen.160 Die Eintragungspflicht besteht auch bei diesbezüglichen Änderungen, § 81 Abs. 1 AktG. aa) Transparenz und Publizität menschlicher Vorstandsmitglieder Der Rechtsverkehr kann sich erst dann ein Urteil über die Aktiengesellschaft bilden, wenn ihm bekannt ist, welche (natürlichen) Personen die Gesellschaft leiten.161 Gleiches soll mit der Angabe der Namen der Vorstandsmitglieder auf Geschäftsbriefen nach § 80 Abs. 1 AktG erreicht werden.162 Das Interesse des Rechtsverkehrs an der Kenntnis der Person des Vorstands wird durch die Nennung der Mitglieder auf Geschäftsbriefen befriedigt. In Anbetracht der recht detaillierten gesetzlichen Anforderungen über die Person des Vorstands, lässt sich eine Erforderlichkeit erkennen, dass die Information über die Person des Vorstands zumindest die Möglichkeit schaffen soll, dass sich der Rechtsverkehr ein Bild über das Risiko aber auch die Chancen machen kann, die mit der Eingehung rechtlicher Beziehungen zur Aktiengesellschaft einhergehen.163 Dazu wird etwa auch die theoretische Chance gehören, überprüfen zu können, welche Tätigkeiten der Vorstand vor seiner Bestellung in der Aktiengesellschaft unternommen hat.

160  BeckOGK

AktG-Stelmaszczyk, § 39, Rn. 11. AktG-Spindler, § 80, Rn. 1. 162  BeckOGK AktG-Fleischer, § 80, Rn. 1. 163  Vgl. MüKo AktG-Pentz, § 39, Rn. 4. 161  MüKo



A. KI als Vorstandsmitglied einer Aktiengesellschaft?75

bb) Transparenz und Publizität von KI-Vorstandsmitgliedern Eine vergleichbare Transparenz und Publizität, die über Geschäftsbriefe und das Handelsregister bei Angaben über natürliche Personen geschaffen wird, wird hinsichtlich Künstlicher Intelligenz auf exakt gleichem Wege nicht zu erreichen sein. Der Informationswert, der für den Rechtsverkehr bei der unmodifizierten Anwendung der bestehenden Regelungen auf KI geschaffen werden würde, wäre gering. Solche Individualisierungsmerkmale wie Vor- und Zuname, Wohnsitz, etc. existieren bei der KI nicht. Denkbar wäre zwar eine entsprechende Übertragung. Die Gesellschaft könnte etwa dazu verpflichtet werden, eine individuelle KI-Kennung bekannt zu geben. Ein Mehrwert lässt sich allerdings mangels Verwertbarkeit dieser Information bezweifeln. Durch die Transparenz und Publizität soll der Rechtsverkehr in die Lage versetzt werden, sich ein Bild über den Geschäftspartner machen zu können und etwaige Nutzen und Risiken abzuschätzen.164 Da der KIVorstand für eine konkrete Aufgabenausführung in einem bestimmten Unternehmen eingerichtet wird, wird dieser auch, mangels genereller Intelligenz, ausschließlich innerhalb jenes Unternehmens zur Erfüllung jener Aufgabe tätig werden können. Individualisierungsmerkmale menschlicher Personen werden wegen der generellen Intelligenz und damit der Einsetzbarkeit in einer Vielzahl von Positionen und Unternehmen insoweit eine Einschätzung für den Rechtsverkehr hinsichtlich etwaigen Nutzens und Risiken auf empirischer Basis ermöglichen. Demgegenüber würden Individualisierungsmerkmale des KI-Vorstands dem Rechtsverkehr diesbezüglich wohl keine Mehr­ informationen zur Verfügung stellen. Es würden in der Regel schon systemund wettbewerbsbedingt keine empirischen Erfahrungswerte über eine bestimmte Künstliche Intelligenz existieren, da für einen Wettbewerbsvorteil gerade die den anderen Wettbewerbern unbekannten Daten und die unternehmenseigene Anpassung der Algorithmen maßgeblich sind.165 In der Folge sind entsprechende empirische Schlussfolgerungen anhand bestimmter Individualisierungsmerkmale, mangels genereller Einsetzbarkeit, auch mangels diesbezüglicher Absicht, nicht möglich.166 Folglich wird man modifizierte, den KI-spezifischen Eigenschaften entsprechende, Pflichten fordern müssen, die dem Rechtsverkehr eine vergleichbare Einschätzbarkeit des Geschäftspartners ermöglichen, um nicht hinter dem beabsichtigten Schutzzweck der Regelung zurückzubleiben. Aufgrund erheblich verminderter Interessenkonflikte167 birgt das KI-System weniger 164  Vgl.

BeckOGK AktG-Fleischer, § 80, Rn. 1. Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 490. 166  Vgl. Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 490. 167  Dazu oben unter 2. Teil A. I. 1. a) aa) (2). 165  Vgl.

76

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

Risiken hinsichtlich der grundsätzlichen Pflichtgemäßheit der Aufgabenerfüllung. Vielmehr wird sich der Rechtsverkehr sogar mit einiger Sicherheit darauf verlassen können, dass der KI-Vorstand die Unternehmensziele ausschließlich im Unternehmensinteresse verfolgt.168 Darüber hinaus ist für die Aktiengesellschaft, dadurch, dass der KI-Vorstand dem Menschen in seinen konkreten Aufgaben weit überlegen sein dürfte, ein erheblicher Effizienzgewinn durch den Einsatz von KI zu erwarten.169 Auf der anderen Seite liegt im Einsatz eines KI-Vorstands stets das Risiko technischer Fehlfunktionen, die wegen der Rigidität und Geschwindigkeit der Zielverfolgung der KI regelmäßig zu einer Potenzierung der daraus resultierenden Schäden führt.170 In der Folge bedarf es nicht der Kenntnis über die „Person“ des Vorstandsmitglieds, um Nutzen und Risken des Geschäftspartner einschätzen zu können, sondern der Kenntnis, dass in der Aktiengesellschaft, abweichend vom „Normalfall“ einer vollständig menschlichen Besetzung, ein KI-Vorstand mit entsprechenden KI-spezifischen Risiken eingesetzt wird. Diese Abweichung vom „Normalfall“ wird man durch entsprechende Eintragung im Handelsregister bzw. die Nennung auf Geschäftsbriefen für den Rechtsverkehr ersichtlich machen müssen. Dies kann etwa in der Gestalt erfolgen, dass einerseits die Tatsache, dass KI als Vorstandsmitglied tätig wird und andererseits die Information darüber, mit welchem Aufgabengebiet die KI betraut ist, publiziert werden. Etwaige KI-spezifische Risiken, etwa das der Potenzierung der Schäden infolge einer Fehlfunktion,171 wird der Rechtsverkehr sodann durch die Kenntnis vom KI-Vorstandsmitglied und der betrauten Funktion einkalkulieren können. cc) Zwischenergebnis Eine insoweit modifizierte Transparenz- und Publizitätspflicht, dass eine KI als Vorstandsmitglied in einer konkreten Funktion tätig wird, dürfte den beabsichtigten Schutzzweck der Regelung, dass der Rechtsverkehr, sich ein Bild über den Geschäftspartner machen kann, in vergleichbarer Weise würdigen, ohne den Rechtsverkehr bei KI-Vorstandsmitgliedern zu übervorteilen. Die Transparenz- und Publizitätspflichten stehen daher der Tauglichkeit von KI zum Vorstand nicht entgegen.

168  Dazu

oben unter 2. Teil A. I. 1. a) aa) (2). Bitkom e. V./DFKI, Künstliche Intelligenz Gipfelpapier, S. 43. 170  Dazu sogleich unter 2. Teil A. I. 5. 171  Dazu sogleich unter 2. Teil A. I. 5. 169  Vgl.



A. KI als Vorstandsmitglied einer Aktiengesellschaft?77

5. Allgemeine technikspezifische Hinderungsgründe Abschließend soll ein Ausblick auf die Frage nach sich abzeichnenden technikspezifischen Hinderungsgründen gegeben werden. KI-gesteuerte Gesellschaften würden wegen der Rigidität der Zielverfolgung und der Intransparenz ein höheres Risiko des Missbrauchs bei der Unternehmenszielgestaltung und -verfolgung bergen.172 Zudem würde sich eine etwaige schädliche Tätigkeit eines KI-Vorstands, wenn auch nur ausgelöst durch einen technischen Defekt, wegen der Rigidität und Ausführungsgeschwindigkeit der KI potenzieren.173 Insoweit soll betrachtet werden, ob sich aus diesen Gründen grundlegende technikspezifische Hinderungsgründe für den Einsatz von KIVorständen ergeben würden. a) Missbrauchspotenzial von KI-Vorstandsmitgliedern: Änderung der zulässigen Unternehmensgegenstände und -ziele? Soweit ersichtlich haben sich Armour und Eidenmüller als Erste näher mit der Frage nach allgemeinen technikspezifischen Hindernissen von KI-Vorständen beschäftigt. Armour und Eidenmüller statuieren, dass es geboten sei, die Gründungsvoraussetzungen der KI-gesteuerten Aktiengesellschaft an­ zupassen, um dem erhöhten Missbrauchspotenzial vorzubeugen. Dies solle in KI-gesteuerten Aktiengesellschaften durch eine Beschränkung zulässiger Unternehmensgegenstände und -zielfunktionen erreicht werden. Bei Gründung sei diesbezügliche Konformität von den Gesellschaftern zu versichern und während der Tätigkeit der Gesellschaft aufrechtzuerhalten. Eine Abweichung solle zur zwangsweisen Abwicklung und Löschung der Gesellschaft durch die Registerbehörde führen.174 Eine KI-spezifische Notwendigkeit einer solchen Beschränkung ist hingegen nicht ersichtlich.175 Es ist vielmehr davon auszugehen, dass sowohl die Regulierung des Unternehmensgegenstandes als auch die Festlegung zulässiger Unternehmensziele präventiv zu einer kaum merkbaren Reduzierung des Missbrauchspotenzials von KI-Vorständen führen wird.176 Denn zum einen ist nicht zu erwarten, dass es praktisch jemals zur Nichtigkeit des Gesellschaftszwecks kommt,177 sodass die Abwicklung durch die Registerbehörde 172  Amour/Eidenmüller, 173  Amour/Eidenmüller,

ZHR 183 (2019), 169 (184). ZHR 183 (2019), 169 (184); Becker/Pordzik, ZfPW 2020,

334 (355). 174  Amour/Eidenmüller, ZHR 183 (2019), 169 (184). 175  Vgl. Becker/Pordzik, ZfPW 2020, 334 (355 f.). 176  So auch Becker/Pordzik, ZfPW 2020, 334 (356). 177  MüKo BGB-Schäfer, § 705, Rn. 345.

78

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

unwahrscheinlich und als sicherndes Instrument insoweit bereits untauglich ist.178 Zum anderen ist auch die schon länger diskutierte Frage nach der gesetzlichen Regulierung zulässiger Unternehmensziele im Aktienrecht eine allgemeine Regulierungsfrage und keine, die auf besondere technikspezifische Risiken der KI reagiert.179 Das KI-spezifische Risiko liegt nicht in der Begründung eines diskussionswürdigen Unternehmensziels, sondern in der technikbedingten Potenzierung des möglicherweise dadurch verursachten Schadens. Das grundsätzliche Missbrauchspotenzial hinsichtlich unzulässiger Unternehmensgegenstände und -zielbestimmungen beim Einsatz von KIVorständen ist im Vergleich zu natürlichen Personen schon deswegen nicht höher zu bewerten, da diese nicht in den unbeeinflussbaren Datenverarbeitungsprozess der KI fallen. Die Vorgabe erfolgt vielmehr durch die menschlichen Personen selbst, die den Handlungsrahmen des KI-Vorstands vorgeben. Damit steht jedenfalls ein mögliches Missbrauchspotenzial hinsichtlich des Unternehmensgegenstandes und der Unternehmenszielfunktionen der allgemeinen Befähigung von KI zum Vorstand nicht entgegen. b) Erhöhte Haftungsrisiken bei Fehlleistung von KI-Vorständen Problematisch ist beim Einsatz von KI-Vorständen dagegen eine Reaktionsmöglichkeit auf die gesteigerte Schadensdynamik infolge etwaiger Fehlleistung und deren Folgen. Die Potenzierung einer möglichen Fehlleistung bei KI-Vorständen führt dazu, dass der Rechtsverkehr einer erhöhten Schadensdynamik ausgesetzt ist. Der Einsatz von KI in Vorständen wäre unzumutbar für den Rechtsverkehr, wenn nicht zumindest eine die Interessen der Beteiligten weitgehend ausgleichende und praxistaugliche Bewältigung der durch den Einsatz von KI erhöhten spezifischen Risiken in Betracht käme. Im Wesentlichen wird es hier um einen vertretbaren Interessenausgleich gehen.180 Auf der einen Seite dürfen aus ökonomischen Gesichtspunkten Investitionsanreize nicht blockiert werden, die die Attraktivität des Einsatzes von KI zu sehr beeinträchtigen. Auf der anderen Seite muss die Lösung auch unter Berücksichtigung des Kosten-Nutzen-Verhältnisses Risiken angemessen verteilen und so den Rechtsverkehr vor technikspezifischen Risiken schützen. Armour und Eidenmüller181 etwa ordnen die Verantwortung grundsätzlich der Gesellschaft zu, die die KI als Vorstand einsetzt.182 Die GesellZfPW 2020, 334 (356). ZfPW 2020, 334 (356). 180  Eingehend zur Regulierungsdiskussion Amour/Eidenmüller, ZHR 183 (2019), 169 (184 ff.). 181  Zur Regulierungsdiskussion siehe Amour/Eidenmüller, ZHR 183 (2019), 169 (184 ff.). 182  Amour/Eidenmüller, ZHR 183 (2019), 169 (184 f.). 178  Becker/Pordzik, 179  Becker/Pordzik,



A. KI als Vorstandsmitglied einer Aktiengesellschaft?79

schaft sei es, die den Nutzen aus der KI zieht, daher solle sie auch für den durch KI verursachten Schaden aufkommen.183 Die realistischste und sinnvollste Lösung sei eine (Haft-)Pflichtversicherung mit gesetzlicher Mindestdeckungssumme, die die Risiken bestimmter Geschäftszweige berücksichtige.184 Diese würde zu einer indirekten Subvention sicherer Unternehmen führen und stelle gleichzeitig keine signifikante Markzutrittsschranke dar.185 Der von Armour und Eidenmüller unterbreitete Regulierungsvorschlag zeigt, dass eine Berücksichtigung der technikspezifischen Risiken vertretbar unter Wahrung der Parteiinteressen zu bewältigen wäre. Der Vorschlag der (Haft-)Pflichtversicherung kann die ökonomischen und rechtlichen Herausforderungen angemessen in Ausgleich bringen und führt daher zur wohl praktikabelsten Lösung. Durch diese Lösung kann das erhöhte Risiko des Rechtsverkehrs auf ein vertretbares Maß reduziert werden.186 Denn dieser ist dann weder der schwierigen Suche nach einem Verantwortlichen ausgesetzt noch der Verschuldensproblematik oder dem Risiko einer Unterkapitalisierung für die Kompensation.187 Darüber hinaus bildet der Vorschlag ökonomisch die vorzugswürdigste Lösung, da das einzelfallspezifische Fehlleistungsrisiko durch die Versicherungen individuell bepreist würde und insoweit sichere Unternehmen bevorzugt.188 Im Ergebnis kann damit auch im potenzierten Fehlleistungsrisiko der KI kein für die Zukunft relevantes grundlegendes technikspezifisches Hindernis für die Befähigung zum Vorstand gesehen werden.189 c) Zusammenfassung allgemeiner technikspezifischer Hinderungsgründe Sollte die Künstliche Intelligenz einen Autonomiegrad erreichen, der es ermöglicht, sie im Vorstand einzusetzen, würden aus allgemeinen technikspezifischen Gegebenheiten keine grundsätzlichen Hinderungsgründe erwachsen.

183  Vgl.

Amour/Eidenmüller, ZHR 183 (2019), 169 (185). ZHR 183 (2019), 169 (186). 185  Amour/Eidenmüller, ZHR 183 (2019), 169 (185 f.). 186  So auch Zetzsche, AG 2019, 1 (10). 187  Vgl. Amour/Eidenmüller, ZHR 183 (2019), 169 (186). 188  Amour/Eidenmüller, ZHR 183 (2019), 169 (186). 189  Amour/Eidenmüller, ZHR 183 (2019), 169 (184  ff.); Becker/Pordzik, ZfPW 2020, 334 (355 f.). 184  Amour/Eidenmüller,

80

2. Teil: KI und der Einsatz als Substitut des Vorstands der AG

6. Zusammenfassung: Keine KI als Vorstandsmitglied Der Einsatz von KI als Vorstandsmitglied im Kollegialvorstand scheidet wegen Unvereinbarkeit mit wesentlichen aktienrechtlichen und vorstandspraktischen Grundsätzen aus.190 Nicht nur wäre ein KI-Vorstand unfähig dem Gebot der eigenverantwortlichen Geschäftsleitung zu entsprechen, sondern auch ist eine Eingliederung des KI-Vorstands im Kollegialorgan nicht darstellbar. Schon der Prozess der Willensbildung und die Diversität der denkbaren Aufgaben, die im Kollegialorgan zu bearbeiten sind, mithin die Gesamtgeschäftsleitung, kann von einem KI-Vorstand nicht in der erforderlichen Art und Weise ausgeübt werden.

II. Heute grundsätzlich keine KI als Vorstandsmitglied? Das Argument, dem KI-Vorstand stehe der Charakter des Kollegialorgans schon hinsichtlich Willensbildung und Kommunikation, mithin der Gesamtgeschäftsleitung entgegen, verfängt nicht im Ein-Personen-Vorstand. Auch das Argument unzureichender unternehmerischer Fähigkeiten und weiterer notwendiger Charakteristika lässt sich ausräumen, wenn die Aktiengesellschaft eine solche ist, deren unternehmerische und geschäftsführungsspezifische Anforderungen so begrenzt sind, dass deren Rahmen und Ziele vollständig mathematisch beschreibbar sind. Praktisch sinnvoll und damit vorstellbar wäre ein solcher Fall für die Aktiengesellschaft als Kapitalverwaltungsgesellschaft.191 Jedoch stünde dem Ein-Personen-KI-Vorstand hier de lege lata wiederum die Regelung des § 23 Nr. 2 KAGB entgegen, wonach mindestens zwei Geschäftsleiter erforderlich sind, sodass auch hier KI nicht allein tätig werden könnte. Der Sinn und Zweck des „Vier-Augen-Prinzips“192 in Form der Regelung über zwei Geschäftsleiter wird auch beim Einsatz eines KIVorstands nicht obsolet. Denn KI unterliegt systembedingt einem potenzierten Fehlleistungsrisiko gegenüber natürlichen Personen.193 Die Auswirkungen von KI-Vorstandsentscheidungen in der Kapitalverwaltungsgesellschaft

190  So oder ähnlich zustimmend BeckOGK AktG-Fleischer, § 76, Rn. 134; R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1136); Noack, NZG 2021, 305 (305 f.); Noack, in: Bachmann/Grundmann/Mengel/Krolop (Hrsg.) (2020b), S. 957 f.; Zetzsche, AG 2019, 1 (10); Becker/Pordzik, ZfPW 2020, 334 (353 ff.); Möslein, in: Ebers/Heinze/ Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 470 f.; Möslein, ZIP 2018, 204 (207 f.); Lücke, BB 2019, 1986 (1988). 191  Vgl. Amour/Eidenmüller, ZHR 183 (2019), 169 (182). 192  A. Wieland, in: Assmann/Wallach/Zetzsche (Hrsg.), KAGB Kommentar (2019), § 23, Rn. 8. 193  Amour/Eidenmüller, ZHR 183 (2019), 169 (184).



A. KI als Vorstandsmitglied einer Aktiengesellschaft?81

könnten dadurch weitreichende Schäden verursachen.194 Zur Prävention und Reduktion dieses erhöhten Fehlleistungsrisikos, würde vielmehr der Einsatz von KI als Vorstandsmitglied in Kapitalverwaltungsgesellschaften erst recht eine natürliche Person als qualifizierten zweiten Geschäftsleiter erforderlich machen, der die Entscheidungen der KI prüft. Aber nicht nur aus diesen Gesichtspunkten lässt sich damit eine zulässige Einsatzmöglichkeit für einen Ein-Personen-KI-Vorstand kaum konstruieren. Auch wenn man zu einer zulässigen Einsatzmöglichkeit käme, so stünde jedenfalls der Grundsatz der eigenverantwortlichen Geschäftsführung entgegen.195 Eine Abkehr von diesem Grundsatz lässt sich mit einer punktuellen Einsatzmöglichkeit eines KIVorstandes mit entsprechend bereichsspezifisch isoliertem Effizienzgewinn aktienrechtlich nicht begründen.

III. Zusammenfassung zur KI als Vorstandsmitglied Ausgehend vom heutigen Stand der Technik sowie mit mittelfristigem Blick in die Zukunft wird KI nicht im Vorstand einsetzbar sein. Zum einen hindern sie grundsätzliche aktienrechtliche und vorstandspraktische Gegebenheiten an der Befähigung. Weder kann KI dem Grundsatz der Gesamtverantwortung noch der eigenverantwortlichen Leitung entsprechen. Auch ist der Einsatz im Kollegialorgan mangels mit Menschen vergleichbarer genereller Intelligenz und mangels aufgabenübergreifender Mensch-MaschineKommunikation nicht darstellbar. Aufgrund der beschränkten hoch spezialisierten Einsatzmöglichkeiten von KI ist der Einsatz als Vorstandsmitglied in der Regel aber auch nicht wünschenswert. Sollte sich in ferner Zukunft eine KI etablieren, die die Anforderungen insoweit erfüllen kann, stünden ihr indes darüber hinaus keine weiteren allgemeinen (technikspezifischen) Hinderungsgründe entgegen.

194  Siehe dazu ausführlich am Beispiel von Schäden, die durch Algorithmen beim elektronischen Wertpapierhandel entstanden sind Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S.  19 ff. 195  Dazu oben unter 2. Teil A. I. 1. a) bb) bis dd) und 2. Teil A. I. 3. b).

Dritter Teil

Die Delegation durch den Vorstand der Aktiengesellschaft an KI Eine Künstliche Intelligenz als Vorstandsmitglied, also als Substitut des Menschen, wird erst mit starker Zunahme der Leistungsfähigkeit der KI in den Fokus rücken. Bis dahin wird sich der Einsatz von KI im Vorstand der Aktiengesellschaft auf die Aufgabendelegation spezifischer Einzelaufgaben beschränken. Es stellt sich in diesem Rahmen die Frage, ob die Delegation an KI de lege lata zulässig ist und wie diese unter rechtlichen Gesichtspunkten etabliert werden kann. Dargestellt werden sollen dazu zunächst allgemeine Grundzüge der Delegation an natürliche Personen (A.). Darauf aufbauend soll die Delegationsfähigkeit an Künstliche Intelligenz untersucht werden (B.). Anschließend stellt sich die Frage nach den Pflichten des Vorstands bei der Aufgabendelegation an KI (C.). Schließlich wird zu den Auswirkungen der Delegation an KI auf die Haftungserleichterung der Business Judgment Rule Stellung bezogen (D.).

A. Delegation an natürliche Personen Weder die Zulässigkeit noch die Unzulässigkeit der Aufgabendelegation sind gesetzlich ausdrücklich geregelt. Während die Frage nach der Rechtsgrundlage im rechtswissenschaftlichen Diskurs eine untergeordnete Rolle spielt,1 werden die Abgrenzung der einer Delegation grundsätzlich zugänglichen Aufgaben zu den einer Delegation grundsätzlich nicht zugänglichen Aufgaben sowie in der Folge die Reichweite der Delegation eingehend diskutiert.2

1  Siehe ausführlich zur allgemeinen Vereinbarkeit der Delegation mit dem Ak­ tiengesetz und der Analyse der Rechtsgrundlagen Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 107 ff. (§§ 6 und 7). 2  Ausführlich zum Meinungsstand siehe Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 37 ff.



A. Delegation an natürliche Personen83

I. Grundsätzliche Zulässigkeit der Aufgabendelegation durch den Vorstand Aus Gesichtspunkten der Vorstandspraxis gebieten nicht nur die Größe einer Gesellschaft3 oder die Vielzahl der Aufgaben4, sondern auch die Effizienz und Effektivität der Unternehmensführung5 regelmäßig, dass der Vorstand nicht sämtliche ihm übertragenen Aufgaben selbst ausführt. Dass die Delegation gleichwohl nicht unbeschränkt erfolgen kann, wird schon durch das Prinzip der Gesamtverantwortung des Vorstands aus § 76 Abs. 1 AktG deutlich.6 Aufgrund fehlender gesetzgeberischer Vorgaben sind durch den wissenschaftlichen Diskurs um die Abgrenzung zulässiger von unzulässiger Delegation für den Vorstand Leitlinien herausgearbeitet worden. Sie haben ihre Ausprägung unter anderem in der regelmäßigen Kategorisierung der Vorstandsaufgaben in Leitungsaufgaben und Geschäftsführungsaufgaben gefunden.7 Einen abschließenden Katalog kann es für die Zulässigkeit der Delegation hingegen schon wegen der Vielzahl denkbarer Konstellationen nicht geben.

II. Differenzierung in Leitungs- und Geschäftsführungsaufgaben Die Delegation einer Vorstandsaufgabe ist zulässig, wenn sie jenem aktien­ rechtlichen Grundprinzip der Leitungsverantwortung nicht widerspricht.8 Ob eine Aufgabe diesem Prinzip widerspricht und damit nicht delegierbar ist, wird anhand unterschiedlicher gedanklicher „Prüfungsprogramme“ erarbei3  Hegnon, CCZ 2009, 57 (57); Arnold, in: Marsch-Barner/Schäfer (Hrsg.), Hdb. börsennotierte AG (52022), § 19, Rn. 19.92. 4  Vgl. Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 526; vgl. auch Fleischer, ZIP 2003, 1 (7). 5  Freund, NZG 2015, 1419 (1422); vgl. auch Meyer, DB 2014, 1063 (1065); vgl. ebenso Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1472. 6  BeckOGK AktG-Fleischer, § 76, Rn. 71. 7  Die heute herrschende Meinung unterscheidet Leitungs- und Geschäftsführungsaufgaben hinsichtlich der Delegationsfähigkeit BeckOGK AktG-Fleischer, § 76, Rn. 14; Hüffer/Koch AktG-Koch, § 76, Rn. 8; Grigoleit AktG-Grigoleit, § 76, Rn. 4 f.; Spindler/Stilz AktG-Fleischer, § 76, Rn. 14; MüKo AktG-Spindler, § 76, Rn. 17; Henze, BB 2000, 209 (209 ff.); Hüffer, in: Hoffmann-Becking/Ludwig (Hrsg.), Festschrift Happ (2006), S. 98 ff.; für die Gleichsetzung von Leitung und Geschäftsführung Semler, Leitung und Überwachung der Aktiengesellschaft, Rn. 6; ausführlich zum Meinungsstand Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S.  37 ff. 8  Vgl. Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 524.

84

3. Teil: Die Delegation durch den Vorstand der AG an KI

tet.9 Maßgeblich für die Bewertung einer Aufgabe als delegationsfähig oder nicht delegationsfähig, ist dabei im Wesentlichen die Zuordnung zum unveräußerlichen Kernbereich der Vorstandstätigkeit, den Leitungsaufgaben, oder zum delegierbaren Bereich der Geschäftsführungsaufgaben.10 Die Differenzierung ist indes alles andere als so trennscharf, wie es die begriffliche Unterscheidung erscheinen lässt.11 Jedenfalls zur Leitungsaufgabe gehören die dem Vorstand ausdrücklich von Gesetzes wegen zugeordneten Aufgaben.12 Dies sind exemplarisch solche, die er zur ordnungsgemäßen Erfüllung der Aufgaben der beiden anderen Gesellschaftsorgane zu erbringen hat, gesetzlich zugewiesene öffentlich-rechtliche Aufgaben sowie jene die die Corporate-Governance Struktur des Unternehmens betreffen.13 Häufig wird zur Charakterisierung einer Aufgabe als Leitungsaufgabe auf betriebswirtschaftliche Erkenntnisse zurückgegriffen,14 um darauf aufbauend den Leitungsbegriff über eine typologische Zuordnung zur Unternehmensplanung, -koordinierung, -kontrolle sowie der Führungspostenbesetzung zu konkretisieren.15 Andere bemühen hingegen eine funktionale Zuordnung zur Planungs- und Steuerungsverantwortung sowie zur Organisationsverantwortung, Finanzverantwortung und Informationsverantwortung.16 Die Unterteilung in Leitungs- und Geschäftsführungsaufgaben kann zwar Leitlinien

9  In diese Richtung beispielsweise Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1481. 10  Vgl. jeweils Fleischer, ZIP 2003, 1 (7); Hüffer, in: Hoffmann-Becking/Ludwig (Hrsg.), Festschrift Happ (2006), S. 98 f.; Frhr. von Falkenhausen, ZIP 2015, 956 (959); MüKo AktG-Spindler, § 76, Rn. 18; BeckOGK AktG-Fleischer, § 76, Rn. 9; Grigoleit AktG-Grigoleit, § 76, Rn. 4 f.; Hüffer/Koch AktG-Koch, § 76, Rn. 8; Hegnon, CCZ 2009, 57 (57). 11  So auch Koch, in: Fleischer/Koch/Kropff (Hrsg.), 50 Jahre Aktiengesetz (2016), S. 94; vgl. auch Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1486; BeckOGK AktG-Fleischer, § 76, Rn. 18. 12  Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1470; Wentrup, in: Hoffmann-Becking (Hrsg.), Münchener Hdb. des Gesellschaftsrechts Band 4 (52020), § 19, Rn. 19, 33; BeckOGK AktG-Fleischer, § 76, Rn. 19. 13  Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S.  1470 f. 14  BeckOGK AktG-Fleischer, § 76, Rn. 16, 18. 15  Henze, BB 2000, 209 (210); Hüffer/Koch AktG-Koch, § 76, Rn. 9; Hölters AktG-Weber, § 76, Rn. 10; MüKo AktG-Spindler, § 76, Rn. 15; Schmidt/Lutter AktGSeibt, § 76, Rn. 12; Ihrig/C. Schäfer, in: Ihrig/Schäfer (Hrsg.), Rechte und Pflichten des Vorstandes (22020), §1, Rn.  6; OLG Schleswig-Holstein, Beschluss vom 27.08.2008 – 2 W 160/05 = ZIP 2009, 124 (126). 16  So BeckOGK AktG-Fleischer, § 76, Rn. 18; dem zustimmend auch Bürgers/ Körber AktG-Bürgers, § 76, Rn. 10.



A. Delegation an natürliche Personen85

für die häufigsten Konstellationen geben.17 Im Ergebnis wird indes von allen, wenn auch inzident, eine Bewertung des Einzelfalles anhand unterschied­ licher Parameter vorgenommen, unabhängig davon, mit welcher Begrifflichkeit versucht wird, die Abgrenzung von delegierbaren zu nicht delegierbaren Aufgaben vorzunehmen oder ob diese Kriterien bereits bei der Begriffszuordnung oder erst im konkreten Fall herangezogen werden.18 Hier soll im Folgenden weiter mit den Begriffen der Leitungs- und Geschäftsführungsaufgaben gearbeitet werden, die eine klareren Bezug der Argumentation zu grundsätzlich delegierbaren oder nicht delegierbaren Aufgaben ermöglichen als das Abstellen auf den jeweiligen Einzelfall.

III. Differenzierung der Reichweite der Delegation Eng verbunden mit der Differenzierung in Leitungs- und Geschäftsführungsaufgaben und insoweit konkretisierend ist die weitere Differenzierung hinsichtlich der Reichweite der Delegation. Es soll folglich zwischen drei Stufen der Delegation unterschieden werden.19 Erstens einfache vorbereitende oder nachbereitende Tätigkeiten wie Informationsbeschaffung. Zweitens die Ausführung der Aufgabe, während dem Vorstand die Letztentscheidungsbefugnis zur Freigabe der tatsächlichen Umsetzung verbleibt. Drittens die vollständige Übertragung der Aufgabe inklusive der Entscheidung zur tatsächlichen Umsetzung, sodass dem Vorstand nur repressive Maßnahmen bleiben. Während Geschäftsführungsaufgaben der Delegation in jeder Reichweite zugänglich sind, ist bei Leitungsaufgaben zu differenzieren. Eine Delegation der Stufe drei ist bei Leitungsaufgaben unzulässig. Sie widerspräche dem Grundsatz der Leitungs- und Gesamtverantwortung des Vorstandes.20 Anders verhält es sich mit der Delegation mit Reichweite der Stufe eins oder zwei. Nach § 76 Abs. 1 AktG ist nur die Leitungsverantwortung unveräußerlich. Das Delegationsverbot erstreckt sich indes nicht auf die Vorbereitung und Ausführung von Leitungsaufgaben, welche ihrerseits auch als Geschäfts17  Vgl.

Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 519 f. in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 519; MüKo AktG-Spindler, § 76, Rn. 18. 19  Noch kleinschrittiger hinsichtlich der Reichweite der Delegation siehe Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1474 ff., der die Unterscheidung in 6 Stufen vornimmt; a. A. Kuntz, AG 2020, 801 (807 ff.), der sich von der Trennung von „decision taking“ (Entscheidung) und „decision shaping“ (Verfahren), die von der h. M. für die hier verwendete Unterteilung zugrundegelegt wird, mit Verweis auf deren Untrennbarkeit, löst. 20  BeckOGK AktG-Fleischer, § 76, Rn. 20; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 518 f.; Fleischer, ZIP 2003, 1 (6); Hoffmann-Becking, ZGR 1998, 497 (507 f.). 18  Dreher,

86

3. Teil: Die Delegation durch den Vorstand der AG an KI

führungsaufgaben klassifizierbar sind.21 Diese Wertung hinsichtlich der grundsätzlichen Möglichkeit der Delegation auch im Nahbereich von Leitungsaufgaben trägt auf der einen Seite dem Grundsatz der Leitungsverantwortung ausreichend Rechnung. Auf der anderen Seite beachtet sie auch das praktische Bedürfnis des Vorstandes, Aufgaben weitgehend zu delegieren, um den Anforderungen im Geschäftsverkehr, insbesondere hinsichtlich Effizienz und Qualität der Aufgabenumsetzung, gerecht zu werden.

B. Delegation an Künstliche Intelligenz Die Zulässigkeit der Aufgabendelegation an KI-Systeme soll sich ebenfalls an diesen zur Delegation an natürliche Personen dargestellten Grundsätzen orientieren. Daher soll zunächst auf die grundsätzliche Delegationsfähigkeit von Leitungs- und Geschäftsführungsaufgaben an KI eingegangen werden. Sodann wird die Frage virulent, ob der Grundsatz der Gesamtverantwortung des Vorstands bei der Delegation an KI überhaupt verletzt werden kann und damit, ob Leitungsentscheidungen in einem weiteren oder engeren Umfang an KI delegiert werden dürfen als an natürliche Personen.

I. Kein grundsätzliches Verbot der Delegation an KI Die Aufgabenübertragung an KI-Systeme wäre unzulässig, wenn sie die alleinige Leitungsverantwortung des Vorstands beeinträchtigen würde. Es wurde bereits herausgearbeitet, dass der Einsatz von KI als Substitut des Vorstands zu einer Friktion der aktiengesetzlichen Strukturen führen würde.22 Die Unzulässigkeit des Einsatzes von KI als Substitut des Vorstands ergibt sich insbesondere aus dem Verstoß gegen den Grundsatz der eigenverantwortlichen Geschäftsleitung des Vorstands.23 Dieser ist bei der (zulässigen) Delegation jedoch nicht bereits von vorneherein verletzt. Auch ergeben sich bei der Delegation keine grundsätzlichen Bedenken hinsichtlich der Zusammenarbeit im Vorstand selbst, da nicht die Vorstandstätigkeit als Ganzes, sondern nur einzelne Teilbereiche oder lediglich Einzelaufgaben übertragen werden sollen. Der Vorstand ist zur Delegation von Geschäftsführungsaufgaben an KI kraft seiner Leitungsautonomie befugt, die ihm § 76 Abs. 1 21  BeckOGK AktG-Fleischer, § 76, Rn. 20; Wentrup, in: Hoffmann-Becking (Hrsg.), Münchener Hdb. des Gesellschaftsrechts Band 4 (52020), § 19 Rn. 16; MüKo AktG-Spindler, § 76, Rn. 18; Fleischer, ZIP 2003, 1 (6); Hoffmann-Becking, ZGR 1998, 497 (508); Semler, Leitung und Überwachung der Aktiengesellschaft, Rn. 24; kritisch Hüffer/Koch AktG-Koch, § 76, Rn. 8. 22  Oben unter 2. Teil A. I. 23  Siehe oben unter 2. Teil A. I. 1. a) bb) bis dd) und 2. Teil A. I. 3. b).



B. Delegation an Künstliche Intelligenz87

AktG verleiht. Dass auch der Gesetzgeber grundsätzlich von der Zulässigkeit einer Aufgabenübertragung an KI-Systeme ausgeht, zeigt die Regulierung der Aufgabendelegation an KI im Wertpapierhandelsrecht. A fortiori ergibt sich aus den Pflichten des § 80 Abs. 2–5 WpHG, dass die Zulässigkeit der Aufgabendelegation vom Gesetzgeber vorausgesetzt wird.24 Im Ergebnis stehen der Delegation an KI keine grundsätzlichen Bedenken aus aktienrechtlichen Grundprinzipien von vorneherein entgegen.

II. Delegation von Leitungs- und Geschäftsführungsaufgaben Hinsichtlich der Unübertragbarkeit von Leitungsaufgaben an natürliche Personen herrscht im wesentlichen Einigkeit:25 Das Prinzip der eigenverantwortlichen Leitung aus § 76 Abs. 1 AktG zwingt den Vorstand zur Wahrnehmung der Leitungsaufgaben in persona. Jedenfalls das Letztentscheidungsrecht muss diesem hinsichtlich der Leitungsaufgaben als unveräußerliches Residuum zurückbleiben. Wo die Grenze zur Unzulässigkeit verläuft, ist eine Frage des Einzelfalls. Grundsätzlich unproblematisch ist die Übertragung von Geschäftsführungsaufgaben an natürliche Personen. Fraglich ist, ob bei der Delegation an KI-Systeme wegen derer systemspezifischen Besonderheiten andere Maßstäbe gelten müssen als bei der Delegation an natürliche Personen. 1. Geschäftsführungsaufgaben Zunächst ist die Delegationsfähigkeit von Geschäftsführungsaufgaben an KI nicht anders zu beurteilen als eine solche an natürliche Personen.26 Es 24  So

auch Becker/Pordzik, ZfPW 2020, 334 (344). etwa BeckOGK AktG-Fleischer, § 76, Rn. 9; Fleischer, ZIP 2003, 1 (2); Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 519; Henze, BB 2000, 209 (210); Harbarth, ZGR 2017, 211 (213 ff.); Semler, Leitung und Überwachung der Aktiengesellschaft, S. 5 ff. und 18 f. 26  A. A. J. Wagner, BB 2018, 1097 (1098), der wohl zwar vorbereitende Tätigkeiten zulässt, jedoch eine zwingende Letztentscheidung des Vorstands für erforderlich hält. Abzuleiten sei dies aus dem Postulat der Geschäftsführung durch eine natürlichen Person. Dem ist nicht zuzustimmen. Vielmehr zeigt gerade die zuvor behandelte Zulässigkeit und regelmäßige Gebotenheit der (vollständigen) Aufgabendelegation, dass der Vorstand nicht zwingend die Letztentscheidung auch bei Geschäftsführungsaufgaben treffen muss. Dies würde den Vorstand vor eine unzumutbare Aufgabenlast hinsichtlich der Letztentscheidungsverantwortung bei Aufgaben stellen, die nicht den Unternehmenskern betreffen, sodass die Kapazitäten für die eigentliche Leitung schnell erschöpft wären. Es bleibt ohne Begründung, warum zwischen natürlichen Personen und KI-Systemen hinsichtlich der Delegation von Geschäftsführungsaugaben zu differenzieren sein soll. Dass dem nicht so ist, wird hier im Folgenden gezeigt; 25  Siehe

88

3. Teil: Die Delegation durch den Vorstand der AG an KI

bedarf daher auch hinsichtlich dieser keiner weiteren Differenzierung hinsichtlich der Reichweite der Delegation. Wenn die vollständige Aufgabenübertragung (Delegation Stufe 3) zulässig ist, dann gilt dies a fortiori ebenso für eine weniger weitreichende. Die hinsichtlich der Zulässigkeit relevanten systemimmanenten Besonderheiten wie die „Blackbox-Eigenschaft“ von KI, deren Autonomie oder deren Adaptivität beschränken die Zulässigkeit jedenfalls nicht. Auch die Übertragung an natürliche Personen lässt keinen Einblick in die Vorgänge zu, die Aufschluss darüber geben, welche Aspekte die Person zur konkreten Entscheidung (tatsächlich)27 bewogen haben,28 sodass die „Blackbox“ einer Delegation nicht entgegensteht. Daneben ist auch die Autonomie keineswegs ein Hinderungsgrund, sondern gerade Antrieb für den Vorstand, die Aufgabe an die Entität zu übertragen. Die Ausführung soll diesen weitestmöglich entlasten. Würde man die Autonomie als Hinderungsgrund sehen, würde der Sinn und Zweck der Aufgabendelegation von Geschäftsführungsaufgaben konterkariert werden. Im Übrigen wird die KI nach heutigem und mittelfristigem technischem Stand ausschließlich in einem vorgegebenen Rahmen tätig. Die Möglichkeiten der ungewollten autonomen Entscheidungen sind daher schon baubedingt stark begrenzt,29 während die menschliche Entscheidungsfindung offen für sämtliche Einflüsse ist und rein theoretisch auch zu Ergebnissen führen kann, die den Vorstellungen des Vorstands gänzlich zuwiderlaufen.30 Beispielsweise würde eine KI, die ausschließlich mit dem An- und Verkauf von Aktien betraut ist und nur diesen Rahmen kennt, nicht den Kauf von Anleihen vornehmen, auch wenn diese Entscheidung objektiv das Unternehmenswohl gegebenenfalls mehr fördert. Einer natürlichen Person stünde dieser Weg mit Blick auf deren Autonomie immerhin theoretisch offen. Schließlich steht auch die Eigenschaft der Adaptivität des KI-Systems der Delegation von Geschäftsführungsaufgaben nicht entgegen. Die Adaption, mithin die selbstständige Anpassung der Parameter, die die Entscheidung beeinflussen, erfolgt zur Optimierung des Ziels. Auch diese Anpassung bewegt sich jedoch nur im vorgegebenen Umfeld von Rahmenbedingungen.31 Um bei dem ebengenannten Beispiel zu bleiben, ist es die Ansicht von J. Wagner so auch ablehnend Becker/Pordzik, ZfPW 2020, 334, in der Fn. 59. 27  Vgl. zum „Prinzipal-Agent-Konflikt“ bei der Aufgabendelegation Kuntz, AG 2020, 801 (810 f.). 28  Vgl. Linardatos, ZIP 2019, 504 (507). 29  Vgl. zur seltenen Fehlfunktion der Überschreitung von Rahmenbedingungen wegen falscher Programmierung derselben den Fragenkatalog und das Transkript bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 30  Vgl. Kuntz, AG 2020, 801 (810 f.). 31  Vgl. Herberger, NJW 2018, 2825 (2827); das (seltene) Überschreiten von Rahmenbedingungen als Fehlfunktion von KI wird im Rahmen der Haftung für KI behandelt, siehe dazu unter 3. Teil C. I. 3. b) aa) (2).



B. Delegation an Künstliche Intelligenz89

der KI schon technisch hinsichtlich deren Umwelthorizont unmöglich, die Zielfunktion auf Anleihen anzupassen, wenn der KI diese Möglichkeit in den Rahmenbedingungen nicht zumindest angelegt ist und sich diese als Fehlfunktion realisiert.32 Im Ergebnis führen die systembedingten Besonderheiten der KI daher nicht zu einer anderen Bewertung der Delegationsfähigkeit von Geschäftsführungsaufgaben, als sie hinsichtlich natürlicher Personen vorgenommen würde.33 2. Leitungsaufgaben Die Delegationsfähigkeit von Leitungsaufgaben unterscheidet sich bei der Delegation an natürliche Personen anhand der Reichweite der Delegation. Ebenso soll nun für die Untersuchung von KI differenziert werden. a) Delegation der Stufe 1: Vorbereitende und nachbereitende Tätigkeiten Vorbereitende und nachbereitende Tätigkeiten, wie die Informationsbeschaffung durch KI sind auch hinsichtlich der Leitungsentscheidungen zulässig. Das Gebot der Letztentscheidungsverantwortung als Ausprägung des Gesamtverantwortungsprinzips des Vorstands wird durch solche Tätigkeiten nicht tangiert. Der Vorstand wird zwar seine Entscheidung auf die Ergebnisse 32  Vgl. dazu den Fragenkatalog und das Transkript bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 33  So auch Becker/Pordzik, ZfPW 2020, 334 (344); Noack, ZHR 183 (2019), 105 (117); Zetzsche, AG 2019, 1 (7); R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1132) zu „beratender“ KI und (1134) zu „entscheidender“ KI; Möslein, ZIP 2018, 204 (208) geht offenbar auch von einer Übertragbarkeit der Grundsätze für natürliche Personen aus; die Zulässigkeit setzt auch Spindler, CR 2017, 715 (723) voraus, wenn er von einer künftigen „Unabdingbarkeit“ des Einsatzes von „selbstlernenden Algorithmen“ in der Unternehmensleitung spricht; im Ergebnis auch für die Zulässigkeit, jedoch unter Einbeziehung der Rechtsfolgen der Delegation bei der Zulässigkeitsprüfung Lücke, BB 2019, 1986 (1992); a. A. J. Wagner, BB 2018, 1097 (1098); a. A. wohl auch Hoch, AcP 219 (2019), 646 (672), wobei unklar ist, ob die (menschliche) Letzt­ entscheidungsbefugnis (richtigerweise) nur für Leitungsentscheidungen gemeint ist, oder für sämtliche Aufgabendelegationen. Denn aus § 76 Abs. 3 Satz 1 AktG ergibt sich nicht, dass die Letztentscheidung hinsichtlich sämtlicher Aufgaben des Vorstands zwingend einer natürlichen Person obligen muss. § 76 AktG betrifft einen herausgehobenen Teilbereich der Geschäftsführung. Andernfalls müsste man konsequenterweise mit gleicher von Hoch vorgebrachter Argumentation (die die Gleichsetzung von Geschäftsleitung und Geschäftsführung impliziert), § 76 beziehe sich auf die Delegationsfähigkeit von Geschäftsführungsaufgaben, auch die Delegation von Geschäftsführungsgsaufgaben an natürliche Personen ablehnen, da § 76 Abs. 1 AktG die Eigenverantwortlichkeit, mithin Unübertragbarkeit „der Geschäftsleitung“ statuiert.

90

3. Teil: Die Delegation durch den Vorstand der AG an KI

des KI-Systems stützen und gegebenenfalls durch eine exakte Übernahme inkorporieren, sofern er diese für plausibel hält. Dies ändert jedoch nichts an der Tatsache, dass der Vorstand eine vollständig eigene Entscheidung trifft. Die Leitungsverantwortung des Vorstands geht nicht dadurch verloren, dass er sich solcher Informationen bedient, die außerhalb seines eigenen Wissens liegen. Vielmehr ist er schon von der Business Judgment Rule des § 93 Abs. 1 Satz 2 AktG dazu angehalten, sich umfassend zu informieren.34 Es wäre auch verfehlt, dem Vorstand als Zulässigkeitsvoraussetzung ein Verständnis der technischen Vorgänge der KI für vor- und nachbereitende Tätigkeiten wie der reinen Beschaffung von Wissen aufzubürden.35 Vom Vorstand, der sich aus seiner Sicht fachfremden Rat eines Spezialisten einholt, um die bestmöglichste Entscheidung im Sinne des Unternehmens zu treffen, kann auch nicht erwartet werden, dass er das Zustandekommen des Rats umfassend versteht und fachlich vollständig reproduzieren kann.36 Beim Einsatz von KI auf Stufe 1 der Delegation ergeben sich keine Anhaltspunkte für eine abweichende Bewertung. Zumal auch die Frage nach der unreflektierten Übernahme eines eingeholten Rats oder eingeholten Wissens eine Frage der Reichweite des Vertrauendürfens des Vorstands im Rahmen seiner Überwachungspflicht ist37 und nicht der Delegationsfähigkeit der Stufe 1 einer Aufgabe an KI. Für die Delegationsfähigkeit kann nur maßgeblich sein, ob in der Delegation selbst bereits eine Verletzung des Leitungsprinzips des Vorstands zu sehen ist. Dies ist bei vor- und nachbereitenden Tätigkeiten, wie gezeigt, mangels Verstoßes gegen die Letztentscheidungsverantwortung des Vorstands abzulehnen. Dem Vorstand verbleibt bereits aufgrund des eigenen Verarbeitungsvorgangs der von der KI zur Verfügung gestellten Information ausreichend Leitungshoheit.38 34  Siehe bezüglich der Pflicht zum Einsatz von KI im Unternehmen unten unter 3. Teil D. 35  In diese Richtung auch Lücke, BB 2019, 1986 (1993); Becker/Pordzik, ZfPW 2020, 334 (345); Noack, ZHR 183 (2019), 105 (118); wohl auch Zetzsche, AG 2019, 1 (7); ähnlich aber auch nicht eindeutig Linardatos, ZIP 2019, 504 (508); a. A. Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 474; Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512 f.; R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1132); J. Wagner, BB 2018, 1097 (1099), die ein „technisches Grundverständnis“ fordern; noch weitergehend Sattler, BB 2018, 2243 (2248) „(Der Vorstand) muss in der Lage sein, über die Auswahl und Weiterentwicklung der eingesetzten Algorithmen zu entscheiden und deren Funktionsweise laufend zu überwachen“. 36  Vgl. BGH, Urteil vom 28.04.2015 – II ZR 63/14 = ZIP 2015, 1220 (1223); Weyland, NZG 2019, 1041 (1045). 37  Dazu unten unter 3. Teil C. II. 4. 38  Vgl. Becker/Pordzik, ZfPW 2020, 334 (345); vgl. so für die Delegation an menschliche Delegatare BeckOGK AktG-Fleischer, § 76, Rn. 20.



B. Delegation an Künstliche Intelligenz91

b) Delegation der Stufe 2: Ausführung der Aufgabe durch KI, Letztentscheidungsbefugnis des Vorstands Auf der nächsten Stufe der Delegation steht die Ausführung der Aufgabe durch den Delegationsempfänger, während jedoch die Letztentscheidungs­ befugnis zur Freigabe der Ausführung beim Vorstand verbleibt. Die unreflektierte Übernahme eines KI-Rats oder von KI zur Verfügung gestelltem Wissen wurde auf Stufe 1 als Problem der Überwachung verortet, nicht der grundsätzlichen Delegationsfähigkeit, denn dieser muss bei der Delegation der Stufe 1 das erlangte Wissen oder den erlangten Rat jedenfalls selbstständig weiterverarbeiten und die damit zusammenhängende Aufgabe selbst ausführen. Anders verhält es sich bei der Delegation der Stufe 2. Dem Vorstand obliegt hier in Bezug auf die Aufgabenwahrnehmung ein erheblich geringerer Einflussrahmen als bei der Delegation der Stufe 1. Denn ihm werden nicht nur Informationen, sondern bereits ein Beschluss- oder Handlungsvorschlag unterbreitet. Fraglich ist, welchen Umfang die Delegation hier haben darf, um nicht in die Leitungsverantwortung des Vorstands in unzulässiger Weise einzugreifen. Dies wird allgemein spätestens dann angenommen, wenn dem Vorstand nur noch die Gestattung oder Verweigerung der Leitungsaufgabe obliegt, ohne dass dieser noch einen eigenen weiteren Prüfungsprozess oder Einfluss anstrengt.39 Um eine Lösung für eine mög­ liche Delegation der Stufe 2 an KI anzubieten ist es angezeigt, die Gründe heranzuziehen, warum die Delegation der Stufe 2 an natürliche Personen unzulässig sein soll, wenn dem Vorstand nur noch die Frage nach dem Abnicken, mithin eine ja/nein Entscheidung bleibt. Dies ergibt sich überwiegend aus dem Gedanken, dass dessen Leitungsverantwortung damit zur reinen Formalität verkäme und er sich dadurch seiner Leitungsverantwortung entziehen würde.40 Die Grenzen zwischen dem Verlust der Leitungshoheit und dem Bestehen eines ausreichenden Rests derselben sind indes fließend. Der Zeitpunkt, an dem die Zulässigkeit überschritten ist, ist damit kaum exakt vorab bestimmbar. Es kommt vielmehr im Einzelfall darauf an, ob der Vorstand noch die „Prozesskontrolle“41 über die delegierte Leitungsaufgabe in-

39  Argumentum e contrario: vgl. zur Pflicht des Vorstandes zur „Wohlerwogenen und eigenen (Letzt-)Entscheidung“ Froesch, DB 2009, 722 (724); vgl. auch MüKo AktG-Spindler, § 76, Rn. 18; Fleischer, ZIP 2003, 1 (6); Fleischer, in: Fleischer (Hrsg.), Hdb. des Vorstandsrechts (2006b), §1 Rn. 17; Turiaux/Knigge, DB 2004, 2199 (2204); Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 527; Kuntz, AG 2020, 801 (808); so speziell zur Delegation an KI Becker/Pordzik, ZfPW 2020, 334 (344). 40  Kuntz, AG 2020, 801 (808). 41  So Kuntz, AG 2020, 801 (811).

92

3. Teil: Die Delegation durch den Vorstand der AG an KI

nehat42 und diese ihm damit als seine Leitungsentscheidung zurechenbar ist43. Wegen der vielen Einzelfälle ist es wenig ertragreich, zu versuchen, die ja/nein Entscheidung selbst inhaltlich zu präzisieren und danach scharf abgrenzen zu wollen, wann es sich um eine zulässige Delegation handelt oder nicht.44 Dieses Abgrenzungsproblem bezüglich des zulässigen Umfangs der Delegation stellt sich ganz grundsätzlich insbesondere bei der umfangreichen Delegation in Form von Betriebsführungsverträgen, bei denen in der Folge ebenfalls die Prozesskontrolle als maßgeblich anerkannt wird.45 Dabei wird von der Literatur und Rechtsprechung bei der Aufgabendelegation von Leitungsaufgaben an natürliche Personen das Zurückbleiben ausreichender Steuerungsmacht überwiegend dann angenommen, wenn der Vorstand über einen beständigen Informationsfluss zum Delegatar verfügt, ein arbeitsrechtliches oder vergleichbares Weisungsrecht innehat, die Aufgabe reversibel ist sowie der Vorstand eine jederzeitige Kündigungsmöglichkeit hat.46 Diese Aspekte sollen daher im Folgenden als wesentlich für die Beantwortung der Delegationszulässigkeit an KI zur Sicherstellung der Prozesskontrolle und des Vorstandswillens unter Berücksichtigung derer KI-Spezifika im Rahmen der eigenen Stellungnahme zu Grunde gelegt werden. aa) Meinungsstand Ein Kontrollverlust und damit ein Verlust der Leitungsverantwortung wird teilweise bereits dann angenommen, wenn der Vorstand nicht über ein ausreichendes Grundverständnis hinsichtlich der Funktionsweise der KI verfügt und er das Zustandekommen des KI-Vorschlags daher nicht nachvollziehen kann. Der Vorstand müsse vor allem nachprüfen können, ob die KI aus seiner 42  Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1471; vgl. Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 527; MüKo AktG-Spindler, § 76, Rn. 18; Spindler/Stilz AktG-Fleischer, § 76, Rn. 68; so zu Betriebsführungsverträgen auch Fleischer, ZIP 2003, 1 (9); Henze, BB 2000, 209 (210); aus der Rechtsprechung vgl. BGH, Urteil vom 05.10.1981 – II ZR 203/80 = ZIP 1982, 578 (581). 43  Kuntz, AG 2020, 801 (809); so mit Bezug zu KI auch Becker/Pordzik, ZfPW 2020, 334 (345). 44  Kuntz, AG 2020, 801 (808). 45  Dazu und zur Zulässigkeit von Betriebsführungsverträgen BGH, Urteil vom 05.10.1981 – II ZR 203/80 = ZIP 1982, 578 (581). 46  Fleischer, ZIP 2003, 1 (9); Kuntz, AG 2020, 801 (811); vgl. MüKo AktG-Spindler, § 76, Rn. 18; vgl. Linnertz, Die Delegation durch den Vorstand einer Ak­ tiengesellschaft, S. 238 ff.; vgl. auch BGH, Urteil vom 05.10.1981 – II ZR 203/80 = ZIP 1982, 578 (581); zur Zulässigkeit der vollständigen Übertragung der elektronischen Datenverarbeitung auf eine andere Gesellschaft siehe LG Darmstadt, Urteil vom 06.05.1986 – 14 0 328/85 = ZIP 1986, 1389 (1391 f.).



B. Delegation an Künstliche Intelligenz93

Sicht von einer ausreichenden Informationsgrundlage ausgegangen sei und ob die Wirkungsweise der Algorithmen den Willen des Vorstands verkörpere (im Folgenden: „Ansicht vom technischen Grundverständnis“).47 Andere sehen die Letztentscheidungsverantwortung erst dann verletzt, wenn der Vorstand die Vorlage der KI ungeprüft billigt und sie als eigene Entscheidung inkorporiert. Der Vorstand degradiere sich dadurch zum Ausführungsgehilfen der KI, was mit der Leitungspflicht des Vorstands nicht zu vereinbaren sei (im Folgenden: „Auffassung der Plausibilitätsprüfung“).48 Wieder andere sehen hingegen nicht schon die ungeprüfte Hinnahme des KI-Vorschlags als problematisch an, sondern sehen Schwierigkeiten erst, wenn der Vorstand das Geschehen vollständig aus der Hand gibt, mithin für die KI weder den Anstoß, noch das Ziel formuliert hat und keine Möglichkeit besteht, die Ausführung durch die KI zu stoppen (im Folgenden: „Ansicht des Mindesteinflusses“).49 Eine letzte Ansicht geht so lange von der Letztentscheidungskompetenz des Vorstandes aus, wie sich die KI nicht über vom Vorstand definierte Grenzen hinwegsetzt, mithin infolge maschinellen Lernens und Anpassung außerhalb der konkreten Vorgaben des Vorstands arbeitet (im Folgenden: „Auffassung der Grenzüberschreitung“).50 bb) Kritische Stellungnahme Zunächst sollen die einzelnen Ansichten kritisch gewürdigt werden ((2)). Darauf aufbauend werden Maßstäbe für eine zulässige Delegation der Stufe 2 vorgeschlagen ((3)). (1) Zur Ansicht vom technischen Grundverständnis Erstgenannte Ansicht differenziert bereits nicht zwischen der Zulässigkeit der Ausführung einer Leitungsentscheidung, während der Vorstand die Letztentscheidungsverantwortung zum „jetzt geht’s los“ hat (Stufe 2), und der Zulässigkeit deren vollständiger Delegation (Stufe 3). Erstere muss anders 47  Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512 f.; etwas knapper aber so bereits früh dazu Möslein, ZIP 2018, 204 (208 ff.); ähnlich auch J. Wagner, BB 2018, 1097 (1098 f.); in diese Richtung auch Schalkowski/ Ortiz, ZCG 2019, 101 (105); R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1132); noch weitergehend Sattler, BB 2018, 2243 (2248). 48  So Becker/Pordzik, ZfPW 2020, 334 (344). 49  Noack, ZHR 183 (2019), 105 (121). 50  R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1134).

94

3. Teil: Die Delegation durch den Vorstand der AG an KI

bewertet werden als letztere, da erstere die Auseinandersetzung des Vorstands mit der delegierten Aufgabe vor Ausführung ermöglicht und ihm eine Interventionsmöglichkeit bietet.51 Darüber hinaus stellt die Ansicht im Rahmen der Zulässigkeit der Delegation ungeeignete Anforderungen an die Kenntnis der inneren Prozesse des Delegatars. Es kommt im Rahmen der allgemeinen Zulässigkeit der Delegation nicht darauf an, ob der Vorstand die Grundzüge der Prozesse versteht, sondern, ob sie ihm als Auswuchs seiner Leitungshoheit zurechenbar sind und er die Prozesskontrolle behält.52 Wie weit das Verständnis oder eine etwaige Plausbilitätsprüfung, mithin die Überwachung gehen muss, ist grundsätzlich eine Frage der ex post Kontrolle, also der Haftung im Rahmen bereits als zulässig beurteilter Delegation.53 (a) Zur Sicherstellung der Steuerungsmacht Es wird für das Erfordernis des technischen Verständnisses vorgebracht, dass KI, anders als menschliche Delegatare, nicht nach Maßstäben entscheiden würde, welche sich von Rechtsregeln beeinflussen ließen. Richtlinien oder Abberufungsklauseln seien beispielsweise bei einer Delegation an KI nicht denkbar.54 Daraus das Erfordernis eines „gewissen Maßes an Technikbeherrschung, um die Eigenlogik der Algorithmenentscheidung zu begrei­ fen“55 abzuleiten, überzeugt jedoch aus mehreren Gründen nicht. Steuerungsmacht „ab Werk“ Zunächst besteht die ausreichende Steuerungsmacht, die gegenüber menschlichen Entitäten erst durch Rechtsregeln gesichert werden muss, beim 51  Zu dieser Unterscheidung siehe etwa Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1474 ff.; Fleischer, ZIP 2003, 1 (6). 52  Vgl. Kuntz, AG 2020, 801 (809); ähnlich mit Bezug zu KI auch Becker/Pordzik, ZfPW 2020, 334 (345); Noack, ZHR 183 (2019), 105 (118 f.). 53  Solange die Plausibilitätsprüfung nicht zu einerm reinen „Abnicken“ verkommt. Um die (nicht abschließend lösbare) Problematik der Abgrenzung des „Abnickens“ als zulässig oder nicht zulässig zu vermeiden, ist auf das vorliegen von Prozesskontrolle abzustellen dazu unten unter 3. Teil B., siehe so ausführend Kuntz, AG 2020, 801 (803, 811 ff.); die Reichweite der Plausibilitätskontrolle als Frage der Haftung prüfend auch Becker/Pordzik, ZfPW 2020, 334 (345); ein Verständnis im Rahmen der Zulässigkeit der Delegation nicht voraussetzend auch Noack, ZHR 183 (2019), 105 (118). 54  Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512. 55  Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512.



B. Delegation an Künstliche Intelligenz95

Einsatz von KI schon ab Werk. Der Vorstand selbst gibt die Regeln, den Rahmen, die Art und Weise der Aufgabenausführung sowie sämtliche zu beachtende Parameter (gegebenenfalls der zuständigen Stelle zur Einrichtung der KI im Betrieb) vor.56 Die KI wird zwar selbstständig tätig, sie optimiert auch durch maschinelles Lernen die Zielerreichung. Jedoch weicht diese bei ordnungsgemäßer Arbeit nicht von den Vorgaben ab.57 Etwaigen Fehlern, die sich beim Einsatz ergeben können, ist über entsprechende Auswahl-, Einweisungs- und Überwachungspflichten zu begegnen.58 Sie beeinflussen nicht die Delegationsfähigkeit einer Aufgabe auf der Stufe 2 oder das vom Vorstand zu fordernde Verständnis von der Arbeitsweise der KI. Die mit einer Rechtsregel vergleichbare Steuerungsmöglichkeit des Vorstandes ist vielmehr durch die konstruktionsbedingte Rigidität der KI bereits hinreichend gewahrt.59 Grundsätzliche Ungeeignetheit des „gewissen technischen Verständnisses“ Soweit die Ansicht diese werksseitige Steuerungsmacht für nicht ausreichend hält und für das Vorliegen von ausreichender Steuerungsmacht auf das technische Verständnis und damit auf ein „gewisses Verständnis“ von der Steuerungsmöglichkeit60 durch ausreichende „Technikbeherrschung“ ab­ stellt,61 stünde der Vorstand mit diesem Erfordernis vor der praktischen Umsetzungsfrage, wie weit das von dieser Ansicht geforderte „gewisse Maß an Technikbeherrschung“ reichen soll.62 Diese Unsicherheit und damit das Risiko gegebenenfalls fehlender Entlastungsmöglichkeit des Vorstands führt entweder dazu, nur IT-Spezialisten oder vergleichbare Fachpersonen in den 56  Zu

den Pflichten des Vorstands in diesem Rahmen siehe unten unter 3. Teil C. I. Herberger, NJW 2018, 2825 (2827). 58  Siehe dazu unten unter 3. Teil C. I. 59  Zu möglichen Steuerungsverlusten und deren Behandlung beim Einsatz von KI siehe oben unter 2. Teil A. I. 1. a) aa) (2). 60  Auch Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512 geht offenbar nicht davon aus, dass das Verständnis so weit reichen muss, dass der Vorstand die Steuerungsmöglichkeit unmittelbar selbst in der Form besitzt, dass er sämtliche Einstellungen an der KI selbst vornehmen kann. Gefordert wird nicht, die Fähigkeit der eigenständigen Umsetzung, sondern nicht weiter definiert, ein „gewisses technisches Grundverständnis“ von der „Eigenlogik“ der KI. 61  So wohl Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512. 62  Kritisch hinsichtlich einer solchen Möglichkeit des Verständnisses und auch dem Mehrwert Wischmeyer, AöR 143 (2018), 1 (53), der von einer „Illusion“ spricht, wer annimmt, man könne durch eine umfassende Erklärung ein Verständnis erwirken, welches die Beherrschung des KI-Systems durch technische Laien ermöglichen würde. 57  Vgl.

96

3. Teil: Die Delegation durch den Vorstand der AG an KI

Vorstand zu berufen, was dessen Diversitätsempfehlung63 schadet und widerspricht sowie, je nach Unternehmensgegenstand, häufig auch eine insgesamt ungeeignete Besetzung sein dürfte.64 Oder der Vorstand verzichtet auf den Einsatz. Er sieht sich folglich unter Wahrung der Vorstandsdiversität und der geeigneten Besetzung des Gremiums dem Dilemma des Risikos einer Pflichtverletzung wegen mangelndem Verständnis von der im Einsatz befindlichen KI oder gegebenenfalls ebenso pflichtwidrigem Nichteinsatz65 der KI gegenüber. Konkretisierend wird vorgetragen, der Vorstand müsse „korrigierend eingreifen können“66. Aber selbst aus diesem Konkretisierungsversuch lassen sich keine Leitlinien für den Vorstand formen. Vom Vorstand kann sicher erwartet werden, dass er die Technik, derer er sich bedient, so weit beherrscht, dass er sie anwenden kann. Id est, dass er den gewünschten Betriebsvorgang in Gang setzen und unter den Umständen des ordentlichen Systemablaufs auch stoppen kann.67 Vom Vorstand wird nicht erwartet, dass er bei Problemen mit Software auf seinem Computer und sei es nur, dass die Software nicht ordnungsgemäß ihren Dienst verrichtet, in der Lage ist, das Problem selbst zu beheben.68 Vielmehr kann der Vorstand sich der Arbeitserleichterung durch die Software auch bedienen, wenn er im Problemfalle Hilfe eines Fachmannes benötigt.69 Mag KI auch wegen derer Spezifika ein potenziertes Fehlleistungsrisiko bergen,70 so würde eine höhere Anforderung als die ordnungsgemäße Bedienung der KI durch den Vorstand den Vorteil der KI konterkarieren. Der Vorstand „muss die grundsätzliche Funktionsweise dieses ‚Wunder der Technik‘ nicht verstehen“71.

63  Siehe Abschnitt B., Grundsatz 9, Empfehlung B1 des Deutschen Corporate Governance Kodex in der (aktuellen) Fassung vom 16.02.2019. 64  Vgl. Hoch, AcP 219 (2019), 646 (682). 65  Zu möglichen Pflichten zum Einsatz von KI unten unter 3. Teil D.; dies kritisierend auch Hoch, AcP 219 (2019), 646 (681 f.). 66  Das genügt wohl nach Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 513. 67  In diese Richtung auch Noack, ZHR 183 (2019), 105 (118 f.). 68  Vgl. Noack, ZHR 183 (2019), 105 (118); Lücke, BB 2019, 1986 (1993). 69  So etwa auch Spindler, ZGR 2018, 17 (41) zur Delegation der IT-Sicherheit; vgl. Lücke, BB 2019, 1986 (1993). 70  Dazu Amour/Eidenmüller, ZHR 183 (2019), 169 (184 ff.); siehe auch bereits schon oben unter 2. Teil A. I. 5. b). 71  Noack, ZHR 183 (2019), 105 (118 ff.).



B. Delegation an Künstliche Intelligenz97

Keine Ungleichbehandlung zu menschlichen Delegataren hinsichtlich des Zustandekommens des Ergebnisses der Aufgabenerfüllung im Rahmen der Zulässigkeit der Delegation Es ist auch nicht ersichtlich, warum der Einsatz von KI auf der Ebene der Zulässigkeit der Aufgabenübertragung im Hinblick auf das Zustandekommen des Ergebnisses der Delegation strenger bewertet werden sollte als die Delegation an menschliche Entitäten. Bei der Delegation an Letztere wird vom Vorstand weder erwartet, dass er die „Eigenlogik“72 der menschlichen individuellen Denk- und Arbeitsweise verstehen kann, noch, dass er selbst ein gewisses Grundverständnis bezüglich der Ausübung der Aufgabe benötigt, obwohl der menschliche Datenverarbeitungsprozess im Gehirn für den Vorstand mit der „Blackbox“ der KI hinsichtlich ihrer Undurchsichtigkeit vergleichbar ist.73 Allein die Erklärbarkeit unterscheidet sich insoweit, dass das Zustandekommen des Ergebnisses der KI nicht erklärbar ist und das Zustandekommen des Ergebnisses der menschlichen Datenverarbeitung, sofern dieser sich (nach seiner subjektiven Ansicht und subjektivem Empfinden) über diese erklärt, (wenn auch nicht objektiv) nachvollziehbar ist. Bezugspunkt für die Forderung der Ansicht ist indes nicht die vollständige Nachvollziehbarkeit der Entscheidung74, sondern ein „gewisses Grundverständnis“ vom Ablauf des Datenverarbeitungsprozesses und der KI selbst,75 sodass eine auf Letztere gestützte andere Bewertung nicht in Betracht kommt. Der Vorstand, der eine Rechtsanwaltskanzlei mit der Rechtsprüfung und späteren Durchführung einer Leitungsentscheidung betraut, darf sich auf deren Sachverstand verlassen und muss die rechtlich gegebenenfalls sehr komplexen Konstrukte nicht juristisch in ihrem Zustandekommen begreifen.76 Es genügt, wenn er sich die wesentlichen Aspekte, Risiken und Vorgehensweisen erklären lässt77 und er in der Lage ist, diese einer Plausibilitätsprüfung zu unterziehen.78 Gleiches 72  Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512. 73  Vgl. Kreutzer/Sirrenberg, KI verstehen, S. 5 f.; Martini, Blackbox Algorithmus, S. 43, inwiefern die gesamte menschliche Denkweise mit der Arbeitsweise der KI vergleichbar ist, wird hingegen lebhaft diskutiert, siehe ders. S. 14, dort in der Fußnote Fn. 57. 74  Zur Bewältigung der Problematik der Nachvollziehbarkeit bei den Anforderungen an die Zulässigkeit der Delegation siehe unten unter 3. Teil B. II. 2. b) cc) (1). 75  Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512. 76  BGH, Urteil vom 28.04.2015 – II ZR 63/14 = ZIP 2015, 1220 (1223); vgl. Weyland, NZG 2019, 1041 (1045); so mit anderem Beispiel auch Noack, ZHR 183 (2019), 105 (121). 77  In diese Richtung auch Linardatos, ZIP 2019, 504 (508). 78  Dazu unten unter 3. Teil C. I. 3.; Linardatos, ZIP 2019, 504 (508).

98

3. Teil: Die Delegation durch den Vorstand der AG an KI

muss für das Verständnis von KI unter Berücksichtigung der obig vorgetragenen Argumentation der nicht gerechtfertigten Ungleichbehandlung gelten.79 Zudem hängt die Steuerungsmacht des Vorstands auch aus Gründen der Komplexität der KI nicht von einem gewissen Grundverständnis bezüglich der Aufgabenausführung ab, welches ihn zu einem gewissen Verständnis von der Art und Weise der Steuerungsmöglichkeit befähigen könnte. Die Ansicht trivialisiert die Wirkweise und die Einwirkungsmöglichkeiten auf die KI in einem Maße, dass der technischen Realität nicht entspricht.80 Regelmäßig wird die Komplexität des Systems sich nicht so weit reduzieren lassen, dass eine wirkliche Steuerungsmöglichkeit oder auch nur ein diesbezüglich wirkliches mehrwertbringendes Verständnis des Vorstands von der Arbeitsweise ermöglicht würde.81 Der Vorstand wäre zur tatsächlichen Steuerung durch Anpassung der Algorithmen und Rahmenbedingungen regelmäßig mangels fachlicher Expertise auch bei einem „gewissen Grundverständnis“ auf fachlich spezialisierte Dritte verwiesen.82 Damit würde das von der gegenständ­ lichen Ansicht geforderte „gewisse Verständnis“ von der „Eigenlogik“ der KI hinsichtlich der für die Leitungsverantwortung maßgeblichen Steuerungsmacht überwiegend zu keinen gesteigerten Einflussmöglichkeiten führen83 und ist damit als untauglich für die Einschränkung der Zulässigkeit der Delegation zu bewerten. (b) Z  ur Sicherstellung des Vorstandswillens – Überprüfbarkeit der Willenskongruenz Von jener ersten bisher diskutierten Ansicht wird als zweiter Anknüpfungspunkt für ein zu forderndes gewisses Grundverständnis von der KI die Prüfung der Willenskongruenz genannt. Nur durch entsprechendes technisches Verständnis könne der Vorstand prüfen, ob die Informationsgrundlage der KI ausreichend sei und damit die Wirkweise der Algorithmen den Willen des Vorstands verkörpere.84 Zunächst ist die ganz grundsätzliche Frage, ob der Delegatar, hier die KI, von einer ausreichenden Informationsgrundlage ausgegangen ist, nicht eine der Zulässigkeit der Delegation,85 sondern der 79  Deutlich gegen eine Ungleichbehandlung von KI und Mensch bezüglich des Verständnisses der inneren Prozesse auch Linardatos, ZIP 2019, 504 (507 f.). 80  Vgl. Wischmeyer, AöR 143 (2018), 1 (53). 81  Vgl. Wischmeyer, AöR 143 (2018), 1 (53). 82  Vgl. auch kritisch zum Mehrwert des Grundverständnisses von KI Wischmeyer, AöR 143 (2018), 1 (53). 83  Vgl. Wischmeyer, AöR 143 (2018), 1 (53). 84  J. Wagner, BB 2018, 1097 (1098 f.). 85  Vgl. Hoch, AcP 219 (2019), 646 (682).



B. Delegation an Künstliche Intelligenz99

Pflichten des Vorstands nach bzw. bei Übertragung der Aufgabe.86 Es ist darüber hinaus im Rahmen der Zulässigkeit der Delegation auch nicht ersichtlich, warum beim Einsatz von KI höhere Anforderungen an den Vorstand bezüglich des Verständnisses der Datenverarbeitung gestellt werden sollten.87 Zum einen würden sich wieder die bereits angesprochenen Probleme der Vorstandsbesetzung und Unklarheiten hinsichtlich der zu fordernden Reichweite des technischen Verständnisses ergeben. Zum anderen kann aber auch hier eine Ungleichbehandlung hinsichtlich der Anforderung an die Überprüfbarkeit der Willenskongruenz nicht auf die technischen Spezifika des Systems gestützt werden.88 Die Verarbeitung der Information in der gewünschten Art und Weise richtet sich für KI nach dem Algorithmus oder für mensch­ liche Delegatare nach der Aufgabenbeschreibung und der Verarbeitung im menschlichen Gehirn. Beide Arten der Datenverarbeitung sind für den Vorstand jedoch vergleichbar schwer einsehbar.89 Um bei dem vorherigen Beispiel der Rechtsberatung zu bleiben, muss der Vorstand bei der Delegation an menschliche Delegatare keine erhöhte juristische Kenntnis aufweisen, um zu prüfen, ob die Rechtsberater von einer ausreichenden Informationsgrundlage ausgegangen sind.90 Vom Vorstand wird nicht verlangt, diese Verarbeitungsaspekte eines menschlichen Delegatars in Grundzügen zu verstehen und da­ raufhin zu überprüfen, ob sie bei der Ausführung der delegierten Aufgabe seinem Willen entsprechen.91 Es wäre dem Vorstand auch rein tatsächlich nicht möglich. Er hat keinen Einblick in das Rechenzentrum (das Gehirn) des Menschen.92 Der Vorstand muss in dieser Hinsicht dem Delegatar Vertrauen entgegenbringen,93 dass dieser im Sinne des Vorstands tätig wird und 86  Siehe

dazu unten im Rahmen der Business Judgment Rule unter 3. Teil D. I. auch Hoch, AcP 219 (2019), 646 (682). 88  So auch Hoch, AcP 219 (2019), 646 (682). 89  Linardatos, ZIP 2019, 504 (507); Hoch, AcP 219 (2019), 646 (681 f.). 90  Vgl. Weyland, NZG 2019, 1041 (1044); zur ausreichenden Informationsgrundlage im Rahmen der Business Judgment Rule siehe unten unter 3. Teil D. I. 91  Sehr kritisch auch Wischmeyer, AöR 143 (2018), 1 (52 ff.), der statuiert, dass die Forderung nach Transparenz der Entscheidungen von KI häufig auf stark simplifizierten Vorstellungen von KI gründet. Sie brächte den sämtlichen technisch nicht hoch­ spezialisierten Nutzern keinen Mehrwert. Eine solche Forderung würde hingegen bei Menschen, die auch vergleichbar schwer nachvollziehbare „Blackboxes“ darstellen nicht erhoben; in diese Richtung auch Noack, NZG 2021, 305 (306), der feststellt, dass der Blick in das menschliche Gehirn ebenso versperrt ist, und ausführt: „auf die Resultate kommt es an, nicht auf die Herleitung, so wünschenswert es sein mag“. 92  Ausführlich zum Vergleich von KI und Mensch Graevenitz, ZRP 2018, 238 (239 ff.). 93  Zum Vertrauen und Misstrauen bei Delegation siehe ausführlich Fleischer, NZG 2003, 449 (453 ff.); zum Vertrauen im hinblick auf KI siehe bereits oben unter 2. Teil A. I. 4. a) bb). 87  So

100

3. Teil: Die Delegation durch den Vorstand der AG an KI

die übertragene Aufgabe, wie vom Willen des Vorstands getragen, wahrnimmt. Aber auch aus der allgemeinen Betrachtung des Risikos der Willensinkongruenz lassen sich höhere Anforderungen an das Verständnis vom Datenverarbeitungsprozess der KI zur Prüfung der Willenskongruenz nicht rechtfertigen. Vielmehr können beim Einsatz menschlicher Delegatare in dieser Hinsicht sogar höhere Risiken ausgemacht werden. Das Risiko der Willensinkongruenz ist beim Einsatz von KI schon konstruktionsbedingt nur von untergeordneter Bedeutung. Wenn der Algorithmus durch Training grundsätzlich den Willen des Vorstands rigide ausführt, kann der Vorstand auf die Willenskongruenz vertrauen.94 Das Problem von Interessenkonflikten und des eigennützigen Handelns besteht beim Einsatz von KI schon werkseitig nicht.95 Vielmehr wird durch den Einsatz von KI gerade erreicht, dass bei pflichtgemäßem Training96 besonders intensiv der Wille des Vorstands berücksichtigt wird. Die Willenskongruenz würde demgegenüber in dieser Form bei der Delegation an menschliche Delegatare schon wegen der Principal-Agent-Problematik nicht mit solcher Sicherheit sichergestellt werden können. Allenfalls kann es in Form eines technischen Fehlers vorkommen, dass die KI auf Grundlage der eingepflegten Daten (gegebenenfalls unerwünschte) Strukturen erkennt und diese als „vom Vorstand erwünscht“ auf neue Datensätze anwendet.97 Da die weitgehende Sicherstellung der Willenskongruenz zur Sicherstellung der Prozesskontrolle und damit der Letztentscheidungsverantwortung des Vorstands jedoch unabdinglich ist, ist auch diesem Fall bestmöglich vorzubeugen. Diese vorbeugenden Maßnahmen verschieben sich jedoch beim Einsatz von KI auf das Training derselben vor Einsatz im Unternehmen,98 sodass einer möglichen Willensinkongruenz ausreichend durch die Residualpflichten des Vorstands begegnet wird.99 Das Abstellen solcher „Fehler“ ist im Rahmen des Trainings der KI,100 vergleichbar mit der Pflicht des Vorstands zur Einweisung eines menschlichen Dele­

94  Vgl.

Noack, ZHR 183 (2019), 105 (121). JZ 2017, 1026 (1027); ausführlich zur Verlagerung der „Prinzipal-AgentProbleme“ beim Einsatz von KI Amour/Eidenmüller, ZHR 183 (2019), 169 (182 ff.). 96  Dazu unten unter 3. Teil C. I. 1. b). 97  Vgl. zu Handlungen wegen Erkennens unerwünschter Strukturen durch Handels­ agenten Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 157 f.; siehe zu „machine biases“ und Diskriminierung aufgrund Lernens unerwünschter Strukturen Martini, Blackbox Algorithmus, S. 47 ff. 98  Dazu unten unter 3. Teil C. I. 1. b). 99  Dazu unten unter 3. Teil C. I. 100  Ähnlich Hoch, AcP 219 (2019), 646 (682). 95  Ernst,



B. Delegation an Künstliche Intelligenz101

gataren,101 zu bewerkstelligen (bzw. bewerkstelligen zu lassen)102 und führt nicht dazu, dass der Vorstand für die Zulässigkeit der Delegation besondere technische Kenntnisse vorweisen müsste, um seine Steuerungsmacht und die Kongruenz mit seinem Willen sicherzustellen.103 Demgegenüber ist die Inkongruenz mit dem Willen des Vorstandes bei der Delegation an Menschen ein „konstruktionsbedingt“ regelmäßigeres Phänomen. Diese, bei menschlichen Delegataren „konstruktionsbedingte“ „Prinzipal-Agent-Problematik“,104 wird indes nicht durch höhere Anforderungen an das Grundverständnis der Datenverarbeitung versucht einzudämmen. Eher würde sogar ein vertieftes fachliches Verständnis zu einer besseren Überprüfbarkeit der Willenskongruenz bei menschlichen Delegataren führen, wie ein vertieftes technisches Grundverständnis bei KI Delegataren.105 Die Datenverarbeitung durch Letztere ist so komplex, dass hier Expertenwissen gefordert wäre, um auch nur eine Annäherung an die Überprüfbarkeit der Willenskongruenz zu erzielen, wie es bei menschlichen Delegataren erreicht würde.106 Letztere Feststellung, ist aber über die Tatsache hinaus, dass ein technisches Grundverständnis hier nicht zu einem Mehrwert führen würde,107 gleichzeitig kein Hinderungsgrund der Zulässigkeit. Den Problemen der ­Intransparenz ist durch einen KI-Pflichtenkanon im Rahmen der zulässigen Delegation zu begegnen, der deren technische Besonderheiten ausreichend würdigt.108 Damit ist die erste Ansicht hinsichtlich ihrer Voraussetzungen für die Zulässigkeit der Delegation abzulehnen. (2) Zur Auffassung der Plausibilitätsprüfung Im Ergebnis zutreffend ist hingegen die zweite Ansicht. Der Zulässigkeit der Delegation an KI stehe erst die Grenze der Letztentscheidungsverantwortung entgegen. Der Vorstand würde sich seiner Leitungsverantwortung bege101  Diese Vergleichbarkeit insoweit auch annehmend R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1132); siehe dazu auch unten unter 3. Teil C. I. 1. 102  Zur Übertragbarkeit der Aufgabe an Fachpersonen siehe unten unter 3. Teil C. I. 3. b) aa) (3). 103  Ähnlich auch Hoch, AcP 219 (2019), 646 (681 f.). 104  Kuntz, AG 2020, 801 (810); zum Vergleich der Entscheidungsfindung von Mensch und KI siehe auch Ernst, JZ 2017, 1026 (1028 ff.). 105  Vgl. Wischmeyer, AöR 143 (2018), 1 (53). 106  Vgl. Wischmeyer, AöR 143 (2018), 1 (53). 107  Ähnlich Hoch, AcP 219 (2019), 646 (682). 108  Dazu unten unter 3. Teil C. I. 3.

102

3. Teil: Die Delegation durch den Vorstand der AG an KI

ben, wenn er die Vorschläge der KI ungeprüft billige und sich zu eigen machte.109 Allerdings bedarf es insoweit einer weiteren Konkretisierung, wo die Grenze zum Verlust der Leitungsverantwortung verläuft. Der Versuch, zu definieren, für welchen Fall der Vorstand welche Intensität der Auseinandersetzung mit einem Vorschlag vornehmen muss, würde wenig Klarheit bringen, da eine trennscharfe Abgrenzung der unzähligen Fallkonstellationen unmöglich sein dürfte.110 Daher wird es auch hier wieder konkretisierend auf die Prozesskontrolle des Vorstands ankommen müssen.111 (3) Zur Ansicht des Mindesteinflusses Auch die dritte Ansicht ist im Kern soweit zutreffend, dass der Vorstand das Geschehen nicht aus der Hand geben darf. Es wird jedoch nicht genügen, dass der Vorstand die Ziele für die KI formuliert und sich dann ungeprüft auf das KI-Ergebnis verlassen kann.112 Richtig ist wiederrum der Ansatz der dritten Ansicht, bei KI auf eine Prozesskontrolle abzustellen. Die ausreichende Steuerungsmacht durch den Vorstand soll nicht mehr gegeben sein, wenn er weder den Anstoß zur Aufgabenwahrnehmung noch das Ziel formuliert hat und keine Möglichkeit besteht, die Ausführung durch die KI zu stoppen.113 Dieser zentrale Aspekt der Prozesskontrolle wird nachfolgend unter Beachtung der KI-Spezifika weiter auszuführen sein.114 (4) Zur Auffassung der Grenzüberschreitung Schließlich ist die vierte zu Anfangs erwähnte Ansicht, die die Grenze zum Verlust der Leitungsverantwortung des Vorstands dort ziehen will, wo sich die KI über vom Vorstand definierte Grenzen hinwegsetzt, mithin infolge maschinellen Lernens und Anpassung außerhalb der konkreten Vorgaben des Vorstands arbeitet,115 abzulehnen. Eine solche „Weiterentwicklung“ ist mit ZfPW 2020, 334 (344). dazu Kuntz, AG 2020, 801 (808). 111  Kuntz, AG 2020, 801 (816); dazu unten unter 3. Teil B. II. 2. b) cc). 112  So auch Becker/Pordzik, ZfPW 2020, 334 (344); a. A. aber wohl Noack, ZHR 183 (2019), 105 (120 f.) „Wenn der Vorstand das Programm testen lässt, es kontrolliert, ggf. rekalibriert und die Ergebnisse billigt, ist die Hoheit gewahrt. […] Die KI operiert kraft delegierter Entscheidungsmacht in eben dem ‚Autonomiebereich‘, der ihr eingeräumt ist.“. 113  So Noack, ZHR 183 (2019), 105 (121), der diese Steuerungshoheit allerdings nicht weiter ausführt und den Verlust der Steuerungsmacht beim heutigen Stand der Technik als nicht denkbar ansieht. 114  Dazu unten unter 3. Teil B. II. 2. b) cc). 115  R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1134). 109  Becker/Pordzik, 110  Ausführlich



B. Delegation an Künstliche Intelligenz103

derzeitigem und mittelfristig erwartbarem Stand der Technik nicht denkbar.116 Die KI bleibt innerhalb der vorgegebenen Rahmenbedingungen und optimiert die Zielerreichung.117 Eine Loslösung vom ursprünglichen Ziel oder den Vorgaben des Vorstandes findet grundsätzlich nicht statt.118 Allenfalls können Fehler in Folge der Optimierung der Algorithmen auftreten,119 die zu ungewünschten oder unverständlichen Ergebnissen führen, die allerdings sämtlich innerhalb der übertragenen Aufgabe und deren Grenzen liegen.120 (5) Zusammenfassung zum Meinungsstand Zusammenfassend können entgegen der ersten Ansicht die ausreichende Prozesskontrolle und Sicherstellung des Willens des Vorstands über die KI nicht durch ein „gewisses technisches Verständnis“, sondern nur durch entsprechende Ausgestaltung der Rahmenbedingungen und Training der KI erreicht werden. Zudem würde die Forderung nach einem solchen Verständnis zu einem Risikodilemma des nicht IT-versierten Vorstands führen.121 Darüber hinaus wird auch ein entsprechendes Verständnis bei der Delegation an Menschen nicht gefordert, obwohl das Auftreten der Inkongruenz mit dem Vorstandswillen durch die „Prinzipal-Agent-Problematik“ erheblich virulenter ist als der seltene Einzelfall der Fehlfunktion der KI. Die übrigen Ansichten fordern zwar kein technisches Grundverständnis und stellen richtigerweise auf die Steuerungsmacht des Vorstands durch Training der KI und Auseinandersetzung mit dem KI-Ergebnis ab, bedürfen aber weiterer Konkretisierung im Hinblick auf den Maßstab für die ausreichende Prozesskontrolle des Vorstands.

116  So auch Noack, ZHR 183 (2019), 105 (121); vgl. auch Herberger, NJW 2018, 2825 (2827). 117  Vgl. Herberger, NJW 2018, 2825 (2827). 118  Vgl. Herberger, NJW 2018, 2825 (2827). 119  Ausführlich zu rechtlichen Überlegungen hinsichtlich der Fehler Amour/Eidenmüller, ZHR 183 (2019), 169 (182 ff.). 120  Vgl. Herberger, NJW 2018, 2825 (2827); außer für den seltenen Fall der Möglichkeit der (teilweisen) Überschreitung der Rahmenbedingungen, siehe dazu unten unter 3. Teil B. II. 1. Auch diese führt jedoch nicht zu gänzlich artfremder Aufgabenerfüllung sondern geht nur so weit, wie der KI das Arbeitsumfeld durch Programmierung noch bekannt ist. Der Umstand führt nicht dazu, die grundsätzliche Zulässigkeit der Delegation in Frage zu stellen, da sich eine solche seltene Fehlfunktion erst im Laufe der Aufgabenerfüllung ereignen kann. 121  Dazu unten unter 3. Teil B. II. 2. b) bb) (1) (a).

104

3. Teil: Die Delegation durch den Vorstand der AG an KI

cc) Eigene Ansicht: Anforderungen an die Zulässigkeit der Delegation Die Leitungsverantwortung des Vorstands ist gewahrt, wenn er Prozesskontrolle hat und die Ausführung der Leitungsaufgabe seinem Willen als Auswuchs seiner Leitungsverantwortung zuzurechnen ist.122 Im Hinblick auf die Zulässigkeit der Delegation an KI zu untersuchen bleiben daher die oben in Bezug auf natürliche Personen angesprochenen Aspekte der Zurechenbarkeit und der Steuerungshoheit des Vorstands zur Wahrung der Prozesskon­ trolle:123 Der beständige Informationsfluss zwischen KI und Vorstand ((1)), eine mit einem arbeitsrechtlichen Weisungsrecht vergleichbare Einflussmöglichkeit auf die Aufgabenwahrnehmung durch die KI ((2)), die Reversibilität der Aufgabe sowie eine mit einer jederzeitigen Kündigung vergleichbare Interventionsmöglichkeit des Vorstands bei der Aufgabenwahrnehmung durch die KI ((3)).124 Denn die Übertragung von Aufgaben bei Leitungsentscheidungen mit lediglich zurückbleibender Letztentscheidungsverantwortung des Vorstands und der Folge der Residualpflicht der Überwachung, mit welcher eine Haftungserleichterung des Vorstandes einhergeht, lassen sich nur vor dem Hintergrund einer ex ante erfolgten wirksamen Einrichtung der Prozesskontrolle rechtfertigen, die den verlängerten Arm der eigenständigen Leitung aus § 76 Abs. 1 AktG darstellt.125 Diese Wertung muss auch beim Einsatz von KI fortgelten. (1) Beständiger Informationsfluss Der beständige Informationsfluss vom Delegatar zum Vorstand ist Voraussetzung für die Möglichkeit einer effektiven Wahrnehmung der Überwachungspflicht als Rechtsfolge einer zulässigen Delegation.126 Dieser Informationsfluss soll als erstes betrachtet werden. Er besteht bei der Delegation an Menschen in der Vereinbarung von Informationsrechten und Berichtspflichten.127 Der Vorstand kann nur feststellen, ob die Aufgabenwahrneh122  Siehe

oben unter 3. Teil B. II. 2. Übertragung auf KI auch vornehmend Möslein, RDi 2020, 34 (37). 124  So auch Kuntz, AG 2020, 801 (811), der diese Merkmale als allgemeinen Prüfungsmaßstab für die Prozesskontrolle und damit die Zulässigkeit der Delegation heranzieht. 125  Vgl. zur Unterteilung des Leitungsrechts und der Leitungspflicht in ex ante und ex post Kontrollpflichten für die Beantwortung der Zulässigkeit der Delegation Kuntz, AG 2020, 801 (803 ff.). 126  Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 248; Kuntz, AG 2020, 801 (814). 127  Kuntz, AG 2020, 801 (814). 123  Diese



B. Delegation an Künstliche Intelligenz105

mung noch seinem Willen entspricht, wenn dieser regelmäßig über den Stand der Ausführung informiert wird, um bei Unstimmigkeiten zu intervenieren. Die Delegation an KI erfordert mit gleicher Begründung eine entsprechende Ausgestaltung. Die Anforderungen müssen hier jedoch anders liegen als bei der Delegation an Menschen. Denn, während der Informationsfluss in der Mensch-Mensch Beziehung auch dazu dient „Prinzipal-Agent-Konflikte“ zu mildern,128 bedarf es einer solchen Maßnahme bei KI schon konstruktionsbedingt nicht.129 Zweitens ist das Abfragen des Standes der Aufgabenbearbeitung sowie das gezielte Eingreifen während der Bearbeitung zwar nur in der Mensch-Mensch-Beziehung möglich aber auch nur dort wesentlich, um die vom Vorstandswillen getragene Aufgabenerfüllung zu gewährleisten. Die KI unterliegt hingegen dem „Blackbox-Problem“. Dies führt dazu, dass für den Vorstand lesbare Informations- und Berichtspflichten während der Aufgabenerfüllung technisch ausgeschlossen sind.130 Indes führt dies nicht zur Unzulässigkeit des Einsatzes von KI mangels Zurechenbarkeit und Steuerbarkeit der Aufgabenerfüllung. Vielmehr wandelt sich die Notwendigkeit eines beständigen Informationsflusses in die Notwendigkeit der ex ante Sicherstellung der korrekten Rahmenbedingungen und eines Trainings der KI.131 Dabei wird die Übereinstimmung der Aufgabenerfüllung mit dem Willen des Vorstands zu prüfen sein. Der Vorstand wird die KI nur einsetzen können und dürfen, wenn diese regelmäßig und mit gewisser Sicherheit die zugewiesene Aufgabe nach dem Willen des Vorstandes erfüllt. Diese Anforderungen wird man doppelt berücksichtigen müssen. Erstens bei der hier in Frage stehenden Zulässigkeit der Delegation, die die Steuerungshoheit betrifft und zweitens im Rahmen der Residualpflichten des Vorstands als Voraussetzung für die Rechtfertigung des Haftungsprivilegs bei Delegation.132 Ist das Training zufriedenstellend erfolgt und sind die Rahmenbedingungen entsprechend eingerichtet, besteht im Hinblick auf die Kongruenz mit dem Vorstandswillen keine Notwendigkeit mehr eines umfassenden Informationsflusses bezüglich des Bearbeitungsstandes während der Aufgabenerfüllung. Darüber hinaus ist von der KI bei ordnungsgemäßem Betriebsablauf auch kein Abweichen von den vorgegebenen Anforderungen zu erwarten, welches bei der MenschMensch-Delegation einen beständigen Informationsfluss notwendig macht.133 AG 2020, 801 (815). dazu Amour/Eidenmüller, ZHR 183 (2019), 169 (182 ff.); Ernst, JZ 2017, 1026 (1027). 130  Ausführlich dazu Martini, Blackbox Algorithmus, S. 42 ff. 131  In diese Richtung auch Noack, ZHR 183 (2019), 105 (121), „testen, kontrollieren, ggf. rekalibrieren“; zu den Anforderungen und Rechtsfolgen siehe unten unter 3. Teil C. I. 132  Dazu unten unter 3. Teil C. I. 3. 133  Vgl. Kuntz, AG 2020, 801 (810 f.). 128  Kuntz, 129  Siehe

106

3. Teil: Die Delegation durch den Vorstand der AG an KI

Kleinschrittige Zwischenberichte der KI, die jeder für sich vom Vorstand freigegeben werden müssen, würden den Geschwindigkeitsvorteil der KI bei der Aufgabenerfüllung konterkarieren.134 Zudem ist die Diversität der Aufgaben von KI nicht vergleichbar, mit derer bei der Delegation an Menschen. Beispielsweise müssen Anforderungen an den Informationsfluss vom menschlichen Delegatar, dem die gesamte Prüfung eines großen Investitionsprojekts obliegt, andere sein, wie solche an KI, die schon wegen technischer Schranken nur einen hoch spezialisierten ­Ausschnitt des Projekts selbstständig bearbeitet. Die Spezialisierung der Aufgabe verringert die Abweichungsmöglichkeiten vom Willen des Vorstandes bereits erheblich. Unter diesen Gegebenheiten wird es daher genügen, dem Vorstand das Training, mithin die Sicherstellung der Aufgabenerfüllung nach dem Willen des Vorstands ex ante, vor Einsatz der KI im Unternehmen, als Voraus­setzung für die Zulässigkeit der Delegation aufzuerlegen.135 Durch das Training und die Rahmenbedingungen kann der Willen des Vorstandes ausreichend manifestiert werden.136 Der Informationsfluss kann sich für die Delegation der Stufe 2 dann auf das Ergebnis der KI-Aufgabenerfüllung beschränken. Denn zur vollständigen Ausführung der Aufgabe bedarf es hier jedenfalls noch der Weiterverarbeitung des Ergebnisses durch den Vorstand, der dieses durch Plausibilitätsprüfung und Billigung auf Kongruenz mit seinem Willen überprüft und endgültig inkorporiert oder durch Ablehnung verwirft. Mit der Billigung erfolgt die Aufgabenausführung im Rahmen der Delegation der Stufe 2 als vom Willen des Vorstandes getragen. (2) M  it arbeitsrechtlichem Weisungsrecht vergleichbare Einflussmöglichkeit und Reversibilität Als zweiten Aspekt wird man, vor dem Hintergrund der Wahrung der Prozesskontrolle, als Leitlinie für das Vorliegen ausreichender Leitungsverantwortung bei Delegation, den Aspekt einer mit einer arbeitsrechtlichen Weisungsmöglichkeit vergleichbaren Steuerungsmacht des Vorstandes bewältigen 134  Siehe die Expertenbefragung bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 485. 135  So wohl auch Noack, ZHR 183 (2019), 105 (121); R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1131). 136  In diese Richtung auch R. Weber/Kiefner/Jobst, NZG 2018, 1131, die ebenfalls davon ausgehen, dass in der Ausgestaltung der KI durch den Vorstand dessen Willen bei der Aufgabenausführung durch die KI verkörpert ist. Allerdings sehen diese damit auch gleichzeitig die Leitungsverantwortung gewahrt. Dies wird hier abgelehnt und differenzierteren, höheren Anforderungen unterworfen.; vgl. auch Noack, ZHR 183 (2019), 105 (120 f.).



B. Delegation an Künstliche Intelligenz107

müssen. Während bei der Delegation an menschliche Entitäten aufgrund derer Besonderheiten, die sich insbesondere im „Prinzipal-Agent-Konflikt“ niederschlagen, eine Weisungsbefugnis durch rechtliche Gestaltung in Form von Arbeitsverträgen oder vergleichbarer Gestaltungen notwendig ist, um die Interessen des Vorstands bei der Aufgabenausführung zu wahren,137 bedarf es dieser konkreten Form der rechtlich ausgestalteten Weisung bei der Delegation an KI nicht. Nicht nur, weil die KI mangels Rechtsfähigkeit nicht Adressat der Rechtsgestaltung sein kann, sondern insbesondere, weil, wie oben bereits ausgeführt wurde,138 die KI nicht dazu neigt eigene Interessen zu verfolgen. Dennoch wird man, bedingt durch das maschinelle Lernen der KI, mithin der Optimierung der Algorithmen, und der bestehenden Möglichkeit unerwünschter Ergebnisse in Verbindung mit deren potenziertem Fehlleistungsrisiko139 eine die Besonderheiten der KI berücksichtigende Steuerungsmöglichkeit des Vorstandes für notwendig erachten müssen. Solange die theoretische Möglichkeit des Abweichens von Interessen des Vorstands besteht, kann auf eine Art Weisungsmöglichkeit als Steuerungsmittel nicht verzichtet werden, ohne dass sich der Vorstand seiner Leitungsverantwortung begäbe. Stellt der Vorstand im Rahmen der Plausibilitätskontrolle fest, dass die Ausarbeitung der KI dem Vorstandswillen nicht entspricht, muss er den KI-Vorschlag nicht nur verwerfen, sondern auch die Algorithmen der KI anpassen können, um die Willenskongruenz wiederherzustellen und damit den zulässigen Rahmen der Delegation mangels Zurechenbarkeit zum Willen des Vorstands nicht zu verlassen.140 Für die Zulässigkeit der Delegation wird es daher entscheidend sein, dass der Vorstand Vorkehrungen trifft, die Ergebnisse der KI regelmäßig auf Kongruenz mit seinem Willen zu überprüfen und bei Abweichen unverzüglich wieder in Kongruenz mit dem eigenen Willen bringen zu können.141 Wegen der technischen Komplexität und schwer nachvollziehbaren inneren Prozesse der KI wird eine (Wieder-)Anpassung an den Willen regelmäßig dazu führen, dass der Vorstand die KI abschalten muss und die Algorithmen durch Experten neu anpassen lässt. Mit diesen Einwirkungsmöglichkeiten genügt er der Sicherstellung seines Einflusses auf KI durch

AG 2020, 801 (813). unter 2. Teil A. I. 3. a) und b). 139  Dazu Amour/Eidenmüller, ZHR 183 (2019), 169 (184). 140  Soweit im Folgenden davon gesprochen wird, der Vorstand müsse technische Veränderungen an der KI o. ä. vornehmen, dient dies nur der besseren Lesbarkeit. Wie zuvor dargestellt wurde, darf und wird der Vorstand für solche Aspekte auf die Hilfe von Fachpersonal zurückgreifen können. 141  So auch Noack, ZHR 183 (2019), 105 (121); zu solchen Vorkehrungen siehe unten unter 3. Teil C. I. 3. 137  Kuntz, 138  Siehe

108

3. Teil: Die Delegation durch den Vorstand der AG an KI

eine Art Weisungsbefugnis und wahrt die Steuerungshoheit über die Aufgabenerfüllung. (3) R  eversibilität der Aufgabenübertragung und jederzeitige „Kündigungsmöglichkeit“ Die Abschaltung als höchste Form der Prozesssteuerung führt dazu, dass die Aufgabenerfüllung bis zum Wiedereinsatz der KI an den Vorstand zurückfällt und ist gleichzeitig Ausdruck der Wahrung des dritten und vierten Punktes der Prozesskontrolle durch den Vorstand: Der Sicherstellung der Reversibilität der Aufgabenübertragung sowie einer jederzeitigen Kündigungsmöglichkeit. Der Vorstand kann seine Leitungsverantwortung nur wahren, wenn er die Aufgabenerfüllung durch KI, im Falle ungewünschter ­Ergebnisse, jederzeit wieder an sich ziehen kann.142 Dies wird bei heutigem Stand der KI-Technik insofern unproblematisch sein, dass jedenfalls die Unterbrechung der Stromzufuhr zu einem Notabschalten führt, sodass der Vorstand die ursprünglich übertragene Aufgabe wieder selbst wahrnehmen muss. Der sofortigen Abschaltung der KI, vergleichbar mit der sofortigen Kündigung eines menschlichen Delegatars, stehen aus rechtlichen Gesichtspunkten insoweit keine Bedenken entgegen. Aus vorstandspraktischen Gesichtspunkten führt das Erfordernis der Wiederanpassung bei Inkongruenz nicht zu einer Entwertung der Vorteile des Einsatzes von KI. Denn die Anforderungen an das Training der KI vor Zulässigkeit deren Einsatzes143 reduzieren die Wahrscheinlichkeit eines solchen Ausfalls der KI bereits so erheblich, 144 dass die Abschaltung und Überarbeitung der KI sich in der Praxis nur als seltenes Notfallinstrument auswirken dürfte. Im Ergebnis ist also eine Steuerungsmöglichkeit des Vorstandes trotz der rigiden Zielverfolgung des einprogrammierten Vorstandswillens, nicht obsolet. Vielmehr ist für die Zulässigkeit der Delegation eine auf die Besonderheiten der KI zugeschnittene Steuerungsmöglichkeit vom Vorstand bei der Einrichtung (bzw. dem Einrichten lassen) der KI sicherzustellen.145

AG 2020, 801 (811). unten unter 3. Teil C. I. 1. b). 144  Vgl. zur „seltenen“ Anpassung der Algorithmen durch KI hin zu unerwünschten Handlungen bei fehlerhafter programmierung der Adaptivitätsgrenzen Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 157, vgl. dort auch den Fragenkatalog und das Transkript auf S. 488. 145  Dazu unten unter 3. Teil C. I. 3. b) aa). 142  Kuntz, 143  Dazu



B. Delegation an Künstliche Intelligenz109

dd) Zusammenfassung Die Delegation von Leitungsaufgaben an KI, während der Vorstand die Freigabehoheit behält (Delegation der Stufe 2), ist als grundsätzlich zulässig zu beurteilen. Dies gilt so lange, wie der Vorstand die Letztentscheidungsverantwortung innehat. Da jedoch der Umfang der Prüfung und der Entscheidungsfindung einzelfallabhängig ist und nicht anhand greifbarer Leitlinien für den Vorstand eingefangen werden kann, ist für die Bewertung der Zulässigkeit der Delegation ein Abstellen auf das Vorliegen von Prozesskontrolle und Zurechenbarkeit zum Willen des Vorstands empfehlenswert.146 Für die Delegation an KI wird man das Vorliegen von ausreichender Prozesskon­ trolle des Vorstands annehmen können, wenn der Vorstand die Rahmenbedingungen festlegt und die KI vor dem Einsatz als Delegatar so trainiert, dass sie regelmäßig die vom Vorstand gewünschten Ergebnisse produziert. Eventuellen Fehlfunktionen ist im Rahmen der Überwachungspflichten als Aspekt der Haftung zu begegnen.147 Ein technisches Grundverständnis, das über die Fähigkeit zur Bedienung der KI hinausgeht, ist für das Vorliegen von Prozesskontrolle hingegen nicht erforderlich. Des Weiteren muss der Vorstand die Ergebnisse der KI regelmäßig auf Übereinstimmung mit seinem Willen prüfen und sie bei Inkongruenz abschalten, den KI-Vorschlag verwerfen sowie die Algorithmen erneut anpassen.148 Auch diesbezüglich hat sich die Forderung nach einem gewissen technischen Grundverständnis als nicht zielführend zur Sicherstellung des Vorstandswillens und der Prozesskontrolle erwiesen. Im Ergebnis kann im Rahmen der Delegation der Stufe 2 sowohl die Prozesskontrolle als auch die Zurechenbarkeit zum Willen des Vorstands und damit die Leitungsverantwortung des Vorstands durch die genannten KIspezifischen Anforderungen so gewahrt werden, dass die Delegation der Stufe 2 als rechtlich zulässig beurteilt werden kann. c) Delegation der Stufe 3: Vollständige Aufgabenübertragung Während die vollständige Aufgabendelegation von Leitungsaufgaben an natürliche Personen unzulässig ist, könnte diese bei KI anders zu beurteilen sein. Der Grundsatz der Leitungsverantwortung ist verletzt, wenn sich die Wahrnehmung der Leitungsaufgabe nicht mehr auf eine Entscheidung des Vorstandes zurückführen lässt und der Vorstand keine Prozesskontrolle mehr 146  Ausführlich

dazu Kuntz, AG 2020, 801 (811 ff.). unten unter 3. Teil C. I. 3. b) aa) (2). 148  So im Ergebnis auch Noack, ZHR 183 (2019), 105 (121). 147  Dazu

110

3. Teil: Die Delegation durch den Vorstand der AG an KI

ausübt, sodass dieser dem wesentlichen Einfluss auf die Leitung verlustig wird.149 aa) Meinungsstand Es wird dazu vorgebracht, die vollständige Delegation an KI sei wegen der Vorgabe der Rahmenbedingungen zulässig. Die Letztentscheidungsverantwortung verbleibe beim Vorstand, da dieser durch die Ausgestaltung des Entscheidungsrahmens, der der KI zur Verfügung steht, seine Entscheidungshoheit in so ausreichendem Maße ausgeübt habe, dass die Entscheidung der KI dem Vorstand zurechenbar sei. Nur, wenn die KI sich durch maschinelles Lernen derart „weiterentwickle“, dass sie sich über die vorgegebenen Grenzen hinwegsetze, sei nur noch schwer vertretbar, dass die Letztentscheidungsverantwortung noch beim Vorstand liege.150 Eine andere Ansicht hält hingegen die vollständige Delegation für unzulässig. Es sei diesbezüglich kein wertungsmäßiger Unterschied zwischen der Delegation an Menschen und der Delegation an KI zu erkennen. Schon die Unzulässigkeit der Delegation an Menschen, trotz eines arbeitsrechtlichen Direktionsrechts oder äquivalenter schuldrechtlicher Bindungen sei Beleg dafür, dass die Vorgabe von Rahmenbedingungen die Unzulässigkeit nicht entfallen lasse. Die Handlung der KI sei dem Vorstand auch schon wegen derer Autonomie nicht mehr zurechenbar und eine bloße Unterstellung. Ebenso seien keine gegenüber menschlichen Entitäten gesteigerten Einflussmöglichkeiten auf KI zu erkennen, die eine andere Bewertung der Zurechnung zum Vorstand rechtfertigen würden. Schließlich würde die Zulässigkeit einem Generalkonsens mit sämtlichen durch die KI getroffenen Entscheidungen gleichkommen, deren Folge ein faktischer Platz im Vorstandsgremium wäre. Dies sei mit der Beschränkung des Vorstandsmandats auf natürliche Personen in § 76 Abs. 3 Satz 1 AktG nicht vereinbar.151 bb) Kritische Stellungnahme Die erste Ansicht verkennt, dass die Leitungsverantwortung des Vorstands nicht nur nach der kausalen Ingangsetzung der KI-Entscheidung beurteilt werden kann. Die Entscheidung zum Einsatz von KI sowie die Ausgestaltung der Rahmenbedingungen kann nicht allein maßgeblich sein. Vielmehr kommt es auch und insbesondere darauf an, ob der Vorstand noch tatsächlich die 149  So

auch Kuntz, AG 2020, 801 (809). Weber/Kiefner/Jobst, NZG 2018, 1131 (1134). 151  Becker/Pordzik, ZfPW 2020, 334 (345 f.). 150  R.



B. Delegation an Künstliche Intelligenz111

Prozesskontrolle innehat.152 Es ist daher diesbezüglich, wie schon im Rahmen der Delegation der Stufe 2 auf die Steuerungsmöglichkeiten des Vorstandes abzustellen. Der zweiten Ansicht ist in ihren Ausführungen im Ergebnis zuzustimmen. Sie soll jedoch hier in der Begründung bezüglich der Unzulässigkeit der Delegation der Stufe 3 auf die Aspekte der Prozesskon­ trolle näher untersucht werden, um die genannten Abgrenzungsschwierigkeiten hinsichtlich der Zulässigkeit der Delegation zu vermeiden.153 Dies zugrunde gelegt, soll im Folgenden eine eigene Bewertung der Zulässigkeit der Delegation der Stufe 3 vorgenommen werden. (1) Eigene Bewertung: Unzulässigkeit vollständiger Delegation Im Rahmen der Delegation der Stufe 2 konnte zur Einrichtung ausreichender Prozesskontrolle des Vorstandes im Hinblick auf KI-spezifische Besonderheiten, wie etwa der „Blackbox“ und der Adaptivität, neben der Ausgestaltung besonderer Zulässigkeitsvoraussetzungen, auch auf die Plausibilitätsprüfung und eigene Letztentscheidung des Vorstandes als Instrumente der Prozesskontrolle zurückgegriffen werden. Während die Letztentscheidungsverantwortung des Vorstands dadurch unter Beachtung der genannten Voraus­ setzungen gewahrt werden kann, wird der Vorstand bei der Aufgabendelegation der Stufe 3 erst mit dem Ergebnis der Aufgabenausführung konfrontiert. Dies bereitet hinsichtlich der Prozesskontrolle bei Leitungsaufgaben Schwierigkeiten. (a) Informationsfluss des Vorstands Der Informationsfluss zwischen KI und Vorstand ist wegen der grundsätzlichen Abweichungsfestigkeit der KI von den Vorgaben des Vorstands und deren Rigidität nicht in der umfassenden und fortlaufenden Form notwendig, wie es bei menschlichen Delegataren der Fall ist.154 Er wäre aber wegen der „Blackbox-Eigenschaft“ der KI während des Prozesses der Aufgabenerfüllung auch schon technisch nicht umsetzbar. Der Vorstand ist für den Informationsfluss schon technisch auf den Abschluss der KI-Datenverarbeitung verwiesen. Im Rahmen der Delegation der Stufe 2 kann jedoch, wie gezeigt, auch dann noch ausreichend Prozesskontrolle des Vorstandes sichergestellt werden. Der Vorstand ist in der Lage den Sinn und Zweck des Informationsflusses, die Sicherstellung der Aufgabenerfüllung getragen vom Willen des Vorstands, in dieser Phase noch durch vorgelagerte Pflichten, die Prüfung 152  Dazu

ausführlich bereits oben unter 3. Teil B. II. 2. b) cc). bereits oben unter 3. Teil B. II. 2. 154  Dazu oben unter 3. Teil B. II. 2. c) aa). 153  Dazu

112

3. Teil: Die Delegation durch den Vorstand der AG an KI

des Ergebnisses und eine eigenständige (Letzt-)Entscheidung, zu erreichen. Bei der Delegation der Stufe 3 verhält es sich hingegen anders. Vor Konfrontation des Vorstands mit dem Endergebnis der Aufgabenausführung hat er weder einen Einblick in den Prozess der Aufgabenausführung noch ist es ihm möglich, diese auf Kongruenz mit seinen Vorstellungen und seinem Willen zu prüfen, da hier keine Entscheidungsvorlage durch die KI erstellt wird, sondern bereits die Entscheidung selbst gefasst wird. Durch die Adaptivität der KI und der Möglichkeit von Programmfehlern ist der Vorstand dem Risiko ausgesetzt, dass im Laufe der Aufgabenerfüllung irgendwann die Aufgabe von der KI nicht mehr in der ursprünglich gewünschten Art und Weise und somit auch nicht mehr vom Willen des Vorstands getragen ausgeführt wird.155 Eine Kontrollierbarkeit und Interventionsmöglichkeit zum letztmöglichen Zeitpunkt vor endgültiger Aufgabenausführung, wie es auf Stufe 2 der Fall ist, ist hier nicht möglich. Auch das Festlegen von Rahmenbedingungen sowie das Training der KI kann die Möglichkeit der Abweichung vom ursprünglichen Willen des Vorstands durch Systemfehler nicht mit Sicherheit auf null reduzieren.156 Der fehlende Informationsfluss steht mangels anderweitiger Kompensationsmöglichkeit im Fall der Delegation der Stufe 3 der Zulässigkeit entgegen. (b) Mit arbeitsrechtlicher Weisung vergleichbare Steuerungsmöglichkeit Aber auch unter den weiteren Aspekten der Prozesskontrolle bereitet eine Delegation der Stufe 3 Schwierigkeiten. Da der Vorstand erst mit dem Ergebnis konfrontiert wird, kann die Anpassung einer ungewünschten Entwicklung bei der Delegation der Stufe 3 nur noch ex post erfolgen. Im Rahmen der Delegation der Stufe 2 kann diese noch vor tatsächlicher Umsetzung der Aufgabe vorgenommen werden, sodass die Steuerungsmöglichkeit der Weisung auch dann erhalten bleibt, wenn diese wegen technischer Besonderheiten nicht bereits jederzeit während des Arbeitsprozesses ausgeübt werden kann.157 Bei der Delegation der Stufe 3 würde hingegen der Charakter der Weisung als Interventionsmöglichkeit vor abschließender Aufgabenerfüllung gänzlich verloren gehen. Der Vorstand wäre darauf verwiesen, das Ergebnis der Aufgabenerfüllung als final hinzunehmen, auch wenn dieses durch Fehler oder die Adaptivität der KI nicht mehr dem Willen des Vorstands entspricht.158 Der Vorstand 155  So

im Ergebnis auch Becker/Pordzik, ZfPW 2020, 334 (346). den Fragenkatalog und das Transkript bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488; vgl. auch Herberger, NJW 2018, 2825 (2827). 157  Dazu oben unter 3. Teil B. II. 2. b) cc) (2). 158  Becker/Pordzik, ZfPW 2020, 334 (346) sprechen anschaulich von einem „Generalkonsens“ mit sämtlichen durch die KI getroffenen Entscheidungen. 156  Vgl.



B. Delegation an Künstliche Intelligenz113

würde aus dem Leitungsprozess insoweit ausgeschlossen werden. Ihm bliebe nur noch die Möglichkeit der Reaktion ex post, die allerdings die bereits durchgeführte KI-Entscheidung nicht mehr beeinflussen kann. Die Willenskongruenz hinge dann mangels ausreichender Prozesskontrolle ausschließlich davon ab, ob sich das Ergebnis der Aufgabenerfüllung – gewissermaßen zufällig hinsichtlich einer etwaigen Fehlfunktion oder -adaption – noch im der KI durch den Vorstand vorgegebenen Rahmen bewegt.159 Dies widerspräche indes dem Grundsatz der eigenständigen Leitung durch den Vorstand aus § 76 Abs. 1 AktG. Die Leitungsverantwortung des Vorstandes ist dann nicht dauerhaft sichergestellt. Es kommt nicht darauf an, dass die Letztentscheidungsverantwortung vom Vorstand einmalig zu Beginn der Aufgabenübertragung ausgeübt wird, sondern dass der Vorstand durchgehend Prozesskontrolle hat. Sonst könnte er sich nach Vorgabe des Arbeitsrahmens seiner gesamten Leitung mit dem Verweis auf seine ausgeübte Letztentscheidungsverantwortung begeben und nur noch die Ergebnisse ex post bewerten, um für die Zukunft Anpassungen vorzunehmen. Dies muss aber bereits vor dem Hintergrund des Sinns und Zwecks der dauerhaften eigenverantwortlichen Leitung aus § 76 Abs. 1 AktG unzulässig sein. (c) Reversibilität und jederzeitige Kündigungsmöglichkeit Die Prozesskontrolle des Vorstands wäre bei der Delegation der Stufe 3 jedoch nicht nur durch die Konfrontation mit dem Ergebnis der Aufgabenerfüllung ohne Informationsfluss und Weisungsmöglichkeit nicht mehr ausreichend gegeben. Sondern auch ist der Vorstand wegen der hohen Geschwindigkeit der Aufgabenerfüllung durch die KI und derer „Blackbox-Eigenschaft“ bei der unmittelbaren und endgültigen Ausführung von Leitungsaufgaben durch die KI nicht in der Lage die Aufgabe jederzeit wieder an sich zu ziehen, sodass er den restlichen Prozess der endgültigen Aufgabendurchführung noch selbst wahrnehmen könnte.160 Der Vorstand könnte zwar die KI durch Abschalten grundsätzlich von der Aufgabendurchführung abhalten, sodass die Reversibilität der delegierten Aufgabe rein theoretisch zu bejahen ist. 159  Dies wird von erster Ansicht zwar erkannt, jedoch offenbar als unproblematisch hingenommen. Siehe R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1134); siehe auch Becker/Pordzik, ZfPW 2020, 334 (345 f.), die die Zurechnung nicht nur als gewissermaßen vom Zufall abhängig bewerten, sondern als „grundsätzliche Unterstellung“ ansehen. 160  Vgl. in diese Richtung auch Becker/Pordzik, ZfPW 2020, 334 (345), die jedoch gegenüber der Delegation an den Menschen nur „keine gesteigerten Einflussmöglichkeiten“ annehmen. Vielmehr ist wegen der KI-Spezifika jedoch die Einflussmöglichkeit während der Aufgabenerfüllung im Gegensatz zur Delegation an Menschen so erheblich eingeschränkt, dass sie faktisch unmöglich ist.

114

3. Teil: Die Delegation durch den Vorstand der AG an KI

Indes wird faktisch gerade die KI-Spezifik der Undurchsichtigkeit sowie der Geschwindigkeit der Aufgabenerfüllung dazu führen, dass der Vorstand die Abweichung von dessen Willen schon nicht kommen sehen kann. Mangels Möglichkeit der Prüfung vor endgütiger Aufgabendurchführung bei der Delegation der Stufe 3 wird der Vorstand daher regelmäßig schon faktisch nicht in der Lage sein, die delegierte Aufgabe jederzeit161 wieder an sich zu ziehen. Ein solcher auch nur teilweiser Verlust der Prozesskontrolle und damit der Leitungshoheit des Vorstandes ist indes mit § 76 Abs. 1 AktG nicht zu vereinbaren. Ebenso verhält es sich mit der Steuerungsmöglichkeit durch jederzeitige Kündigung (Abschaltung der KI). Die tatsächliche Möglichkeit ist dem Vorstand nicht verwehrt. Allerdings wird der Sinn und Zweck, die alleinige Hoheit über die Leitungsentscheidungen sicherzustellen, mithin die volle Prozesskontrolle, nicht fortlaufend erreicht werden können. Die genannten KI-Spezifika der Undurchsichtigkeit bei Aufgabenerfüllung und der rasanten Aufgabenerfüllung selbst hindern den Vorstand faktisch an der Wahrnehmung der Kündigungsmöglichkeit zum rechten Zeitpunkt, um eine mögliche Inkongruenz mit dessen Willen vor endgültiger Aufgabenerfüllung noch abzuwenden. (d) Zwischenergebnis der Diskussion Im Rahmen der Delegation der Stufe 3 kann nicht mehr von einer lückenlos sichergestellten Prozesskontrolle durch den Vorstand ausgegangen werden. Er wäre dann nicht mehr fortlaufend Herr der Leitungsaufgabe und würde sich selbst zum Kontrolleur seiner eigenen Leitungsverantwortung degradieren. Die vollständige Delegation der Stufe 3 von Leitungsentscheidungen ist daher auch an KI unzulässig. (e) A  ndere Bewertung für spezialisierte Hochtechnologieunternehmen? (Diskussion der dritten Ansicht) Einzugehen bleibt auf eine letzte dritte Ansicht, die eine andere Bewertung für Hochtechnologieunternehmen mit hoch spezialisiertem Unternehmensgegenstand, wie eine Kapitalanlagegesellschaft für algorithmischen Wertpapierhandel, vorschlägt.162 Sie hält, ohne jedoch auf die zuvor vorgebrachten Schwierigkeiten einzugehen, die Delegation von Leitungsentscheidungen an KI nicht für per se unzulässig. Die Grenze der Aufgabenübertragung an KI 161  Im

Sinne von jederzeit vor vollständiger Aufgabenerfüllung durch die KI. AG 2019, 1 (7).

162  Zetzsche,



B. Delegation an Künstliche Intelligenz115

sei vielmehr anhand des in der Satzung festgelegten Unternehmensgegenstandes zu ziehen. Insoweit sei ein Hochtechnologieunternehmen, deren Kerngeschäft durch Algorithmen betrieben wird, anders zu bewerten als eines, das wenig Bezug zu Algorithmen hat. Damit sei die Zulässigkeit der vollständigen Delegation einer Aufgabe an KI eine Einzelfallentscheidung, die vom statutarischen Geschäftsgegenstand abhänge.163 Kritik Für die nachfolgende Bewertung zugrunde zu legen ist, dass die Gesellschaft sich gerade auf die KI-getriebene Arbeit als Kerngeschäft hochspezialisiert hat und die KI nicht nur – wie in der Regel – im Rahmen des Unternehmens vereinzelt als Assistenz eingesetzt wird. Der in dieser Ausnahme betrachtete Einsatz von KI muss also gleichzeitig Sinn und Zweck der Gesellschaft, mithin ihr unternehmerischer Daseinsgrund sein. Dies kann mit heutigem Stand der Technik wohl nur bei vereinzelten Aktiengesellschaften angenommen werden.164 Auf die Investmentgesellschaft als eine der Gesellschaften, die heute wohl am häufigsten mit solch hoch spezialisierten algorithmischen Unternehmensgegenstand anzutreffen ist, wird daher im Folgenden Bezug genommen. Der Einsatz von KI kann nichts an der Rechtslage de lege lata ändern, dass Leitungsaufgaben nicht vollständig delegiert werden dürfen. Dies widerspräche dem Grundsatz der eigenverantwortlichen Leitung nach § 76 Abs. 1 AktG. Insofern kommt eine vollständige Delegation von Leitungsaufgaben an KI unter Berücksichtigung der zuvor aufgestellten Maßstäbe der Prozesskontrolle auch dann nicht in Betracht, wenn der Einsatz von KI dem Unternehmensgegenstand immanent ist und der Vorstand daher statutarisch verpflichtet ist, die entsprechenden Aufgaben an KI zu delegieren.165 Die Zulässigkeit der Delegation einer Aufgabe kann nicht vom Inhalt der Satzungsklauseln abhängen. Die Leitung der Aktiengesellschaft ist nicht dispositiv, § 76 Abs. 1 AktG. Eine Abweichung aufgrund der Satzung verstöße gegen das Gebot der Satzungsstrenge aus § 23 Abs. 5 Satz 1 AktG.166 Dennoch wird man der dritten Ansicht im Ergebnis zustimmen können, dass die vollständige Delegation an KI in solch spezialisierten HochtechnoAG 2019, 1 (7). AG 2019, 1 (7) nennt beispielhaft als Geschäftsgegenstände: „algorithmische oder indexbezogene Handelsstrategien von Wertpapierfirmen, dateninduzierte Kreditvergabe oder die Erstellung eines 3D-Druckprodukts mittels spezieller Informationstechnik“. 165  A. A. Zetzsche, AG 2019, 1 (7). 166  So auch Kuntz, AG 2020, 801 (803). 163  Zetzsche, 164  Zetzsche,

116

3. Teil: Die Delegation durch den Vorstand der AG an KI

logieunternehmen zulässig sein muss. Dies lässt sich indes weniger mit einer Abweichung von obigem Grundsatz der Unveräußerlichkeit der Leitung begründen,167 als mit der Tatsache, dass der Einsatz von KI in solchen Unternehmen nicht den unveräußerlichen Leitungsaufgaben, sondern regelmäßig den Geschäftsführungsaufgaben zuzuordnen sein wird. Der Vorstand wird, um bei obigem Beispiel zu bleiben, in der genannten KI-Anlagegesellschaft im Rahmen seiner Leitungsaufgaben sämtliche Vorkehrungen treffen müssen, den algorithmischen Wertpapierhandel einzurichten. Dazu gehört insbesondere die Ausrichtung der Anlageentscheidungen anhand der Festlegung der Rahmenbedingungen und besonderer Parameter zur Absicherung erheblicher Fehlentscheidungen der KI.168 Der Vorstand ist Gestalter der Umgebung, in der das Tagesgeschäft der Gesellschaft abläuft. Er ist nicht verpflichtet, die Ausübung des Tagesgeschäfts selbst wahrzunehmen.169 Der Vorstand menschlicher Delegatare als Wertpapierhändler muss diesen ebenso nur die Rahmenbedingungen vorgeben. Die Optimierung im Rahmen des vom Vorstand als zulässig Vorgegebenen nehmen auch die menschlichen Delegatare selbst vor. Es ist nicht Leitungsaufgabe des Vorstandes selbst den Handel anhand der vorgegebenen Parameter durchzuführen. Genauso liegt es auch beim Einsatz von KI. Leitungsaufgabe des Vorstandes kann nur die Schaffung der Arbeitsumgebung sein. Den Handel selbst kann und soll die KI eigenständig vornehmen. Dazu kann und soll diese auch im vom Vorstand vorgegebenen Rahmen ihre Ziele optimieren. Dass der algorithmische Wertpapierhandel, mithin die Delegation an KI in Hochtechnologieunternehmen als Geschäftsführungsaufgabe zulässig ist, wird schließlich auch durch den Gesetzgeber mit der Regelung in § 80 Abs. 2–5 WpHG bestätigt, die die Zulässigkeit als gegeben voraussetzt.170 (f) Zusammenfassung zu Hochtechnologieunternehmen Im Ergebnis ist festzuhalten: Die Ausführung von Aufgaben durch KI in der Hochtechnologie-Aktiengesellschaft ist je mehr den Geschäftsführungsaufgaben zuzuordnen, desto immanenter der Einsatz der KI dem Unternehmensgegenstand und Zweck der Gesellschaft ist.171 Die vollständige Delega167  So

168  Zu

C. I.

aber wohl Zetzsche, AG 2019, 1 (7). den Pflichten des Vorstands beim Einsatz von KI siehe unten unter 3. Teil

169  Kubis, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015a), § 1 Rn. 233 ff. 170  So auch Becker/Pordzik, ZfPW 2020, 334 (344). 171  Die dritten Ansicht Zetzsche, AG 2019, 1 (7) ist also im Ergebnis insofern zutreffend, dass die Immanenz des Einsatzes von KI mit dem (statutarischen) Unternehmensgegenstand die Delegationsfähigkeit beeinflusst. Jedoch, wie zuvor herausgear-



B. Delegation an Künstliche Intelligenz117

tion auch von unternehmenswesentlichen Aufgaben ist dann als Geschäftsführungsaufgabe zulässig. (2) Zwischenergebnis Die Delegation von Leitungsaufgaben der Stufe 3 an KI ist unzulässig. Zwar wird man auch bei der Delegation der Stufe 3 grundsätzlich wegen der ex ante festgelegten Rahmenbedingungen und dem Training der KI durch den Vorstand von der aufgrund der Rigidität regelmäßigen Willenskongruenz ausgehen können. Jedoch begäbe sich der Vorstand seiner Leitungshoheit aus Gründen unzureichender Prozesskontrolle. Der Vorstand wäre bei der vollständigen Aufgabenübertragung an KI nicht vor endgültiger Ausführung in der Lage noch Einfluss auf die Aufgabenerfüllung zu nehmen. Zudem hätte er faktisch wegen der KI-Spezifika der Undurchsichtigkeit während der Aufgabenerfüllung und der hohen Geschwindigkeit der Prozesse keine Möglichkeit, jederzeit im Aufgabenprozess bei Willensinkongruenz zu intervenieren. Der Einsatz von KI in Hochtechnologie-Aktiengesellschaften wie einer algorithmischen Investmentgesellschaft ändert an dieser Bewertung des Erfordernisses der Prozesskontrolle nichts. Auch hier wird der Vorstand sich seiner Leitungsverantwortung nicht begeben dürfen.

III. Zusammenfassung zur Delegation an Künstliche Intelligenz Zusammenfassend hat sich gezeigt, dass die Delegation an Künstliche Intelligenz grundsätzlich zulässig ist. Während die Delegation von Geschäftsführungsaufgaben und der vor- und nachbereitenden Tätigkeiten für Leitungsaufgaben (Delegation Stufe 1) im Wesentlichen unproblematisch ist, sind hinsichtlich der Delegation von Leitungsaufgaben, während die Letztentscheidungsverantwortung beim Vorstand verbleibt (Delegation Stufe 2), die Anforderungen an das Vorliegen von Prozesskontrolle durch den Vorstand für die Zulässigkeit besonders zu berücksichtigen. Die Prozesskontrolle wird der Vorstand bei der Delegation der Stufe 2 regelmäßig wahren können, wenn er die Rahmenbedingungen der KI einrichtet, sie trainiert, sie vor dem Einsatz überprüft und das vorgeschlagene Ergebnis der KI einer eigenen Plausibilitätskontrolle und Abwägungsentscheidung unterwirft.172 Die vollständige Delegation von Leitungsaufgaben (Delegation Stufe 3) ist hingegen beitet, nicht, weil die Zulässigkeit der Delegation von Leitungsentscheidungen anders zu bewerten wäre, sondern weil es sich dann bei der Tätigkeit der KI um Geschäftsführungsaufgaben handelt. 172  Zu den Pflichten des Vorstands siehe unten unter 3. Teil C. I.

118

3. Teil: Die Delegation durch den Vorstand der AG an KI

wegen der KI-Spezifika, insbesondere der Undurchsichtigkeit der Prozesse, der rasanten Aufgabenausführung und der Adaptivität, mangels ausreichender Prozesskontrolle des Vorstands unzulässig.

C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG bei der Aufgabendelegation an KI Betrachtet werden im Folgenden zwei Konstellationen der Haftung des Vorstands für Pflichtverletzungen im Rahmen der Delegation an KI anhand derer Leitlinien für die vorstandsspezifischen Residualpflichten im Hinblick auf die Haftung nach § 93 Abs. 2 Satz 1 AktG entwickelt werden. Erstens die Haftung des Vorstands bei der allgemeinen Aufgabendelegation an KI. In diesem Rahmen soll die Übertragbarkeit der Residualpflichten des Vorstands für menschliche Delegatare zur sorgfältigen Auswahl, Einweisung und Überwachung auf KI beleuchtet und ein eigener KI-spezifischer Pflichtenkanon entwickelt werden. Zweitens die Haftung des Vorstands für vorstandseigene (Leitungs-)Entscheidungen, die auf Basis von „beratenden“ KI-Informationen getroffen worden sind. In diesem Zusammenhang wird auf die Anwendbarkeit des durch den BGH für menschliche Delegatare herausgearbeiteten Pflichtenkanons der ISION-Rechtsprechung173 eingegangen und ebenso ein eigener Lösungsansatz für entsprechende Vorstandspflichten entwickelt.

I. Pflicht zur Auswahl, Einweisung und Überwachung bei zulässiger Aufgabendelegation174 an KI Die Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG ist eine Haftung für Eigenverschulden.175 Eine Zurechnung von Pflichtverletzungen des menschlichen Delegataren nach § 278 BGB scheidet aus, da dieser nicht als Erfüllungsgehilfe des Vorstands tätig wird.176 Ebenso wenig kommt eine 173  BGH,

Urteil vom 20.09.2011 – II ZR 234/09 = ZIP 2011, 2097 (2099). unter 3. Teil B. Zur Haftung für (Leitungs-)Entscheidungen des Vorstands auf Basis eines „KI-Expertenrats“ siehe unten unter 3. Teil C. II. 175  BeckOGK AktG-Fleischer, § 93, Rn. 128; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 535; Fleischer, NZG 2003, 449 (453); MüKo AktG-Spindler, § 93, Rn. 202; Hüffer/Koch AktG-Koch, § 93, Rn. 42; Schwark, ZHR 142 (1978), 203 (219). 176  Fleischer, NZG 2003, 449 (453); BeckOGK AktG-Fleischer, § 93, Rn. 128; Hüffer/Koch AktG-Koch, § 93, Rn. 46; MüKo AktG-Spindler, § 93, Rn. 202; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 535 f.; Grigoleit AktG-Grigoleit/Tomasic, § 93, Rn. 56; eine Zurechnung des Verschuldens bei Delegation an 174  Dazu



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG119

diesbezügliche Haftung des Vorstands über § 831 BGB in Betracht, da Geschäftsherr nicht der Vorstand, sondern die Aktiengesellschaft ist.177 Jedoch kann sich der Vorstand auch durch Delegation nicht seiner Pflicht der ordnungsgemäßen Aufgabenerfüllung begeben. Aus der unübertragbaren Leitungsverantwortung des Vorstands ergeben sich,178 infolge der Delegation, Residualpflichten zur Auswahl, Einweisung und Überwachung des Delegataren.179 Bevor die Übertragbarkeit der wegen der Leitungsverantwortung des Vorstands verbleibenden Residualpflichten infolge zulässiger Delegation als Anknüpfungspunkt für eine mögliche Haftung nach § 93 Abs. 2 Satz 1 AktG beim Einsatz von KI diskutiert wird, ist zunächst in gebotener Kürze festzustellen, dass die Pflichtverletzungen von KI hinsichtlich des Auslösens von Residualpflichten als Anknüpfungspunkt der Haftung im Ergebnis ebenso wie die Delegation an Menschen zu behandeln ist. Dagegen könnte sprechen, dass der Vorstand die KI wie ein technisches Hilfsmittel verwendet. Denn begeht der Vorstand bei einer Geschäftsangelegenheit eine Pflichtverletzung infolge unrichtiger Kalkulation, weil ihn eine von ihm verwendete fehlerhafte Excel-Formel dazu „verleitet“ hat, würde der Vorstand unmittelbar für Eigenverschulden nach § 93 Abs. 2 Satz 1 AktG haften, ohne dass auf Residualpflichten abzustellen wäre. Allerdings ist der Einsatz von KI diesbezüglich nicht mit dem Einsatz einfacher Informationstechnik vergleichbar. Der Vorstand ist schon wegen der Adaptivität, Autonomie und der „BlackboxEigenschaft“ der KI nicht durchgehend allein unmittelbar für das Ergebnis der KI-Kalkulation verantwortlich. Er stellt, vergleichbar mit der Delegation an Menschen, der KI nur die Informationen zur Verfügung und gibt das Geschehen bezüglich der delegierten Aufgabe dann aus der Hand. Eine Pflichtexterne Dritte ablehnend BGH, Urteil vom 20.09.2011 – II ZR 234/09 = ZIP 2011, 2097 (2099); Strohn, ZHR 176 (2012), 137 (142 f.); Schwark, ZHR 142 (1978), 203 (219). 177  Fleischer, NZG 2003, 449 (453); BeckOGK AktG-Fleischer, § 93, Rn. 128; Hüffer/Koch AktG-Koch, § 93, Rn. 46; MüKo AktG-Spindler, § 93, Rn. 202; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 535 f.; Hegnon, CCZ 2009, 57 (58). 178  Fleischer, AG 2003, 291 (292). 179  Schwark, ZHR 142 (1978), 203 (219); Fleischer, ZIP 2003, 1 (9); Fleischer, AG 2003, 291 (292 f.), der diese Verhaltensvorgaben für den Vorstand schon früh aus der Übertragung deliktischer Verkehrspflichten und der Einschaltung von Verrichtungsgehilfen ableitet.; Grigoleit AktG-Grigoleit/Tomasic, § 93, Rn. 56; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 536; Seibt, in: Bitter/Lutter/ Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1481 f.; Hauschka, AG 2004, 461 (466); Froesch, DB 2009, 722 (725); Turiaux/Knigge, DB 2004, 2199 (2205); Schmidt-Housson, in: Hauschka/Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6, Rn. 28 ff.

120

3. Teil: Die Delegation durch den Vorstand der AG an KI

verletzung von KI ist folglich, entsprechend der Einordnung bei menschlichen Delegataren,180 keine Pflichtverletzung des Vorstands im Rahmen seiner Aufgabenerfüllungspflicht nach § 93 Abs. 2 Satz 1 AktG. Daneben scheitert schon aus Gründen der fehlenden Verschuldensfähigkeit der KI,181 aber auch aus den gleichen Gründen bezüglich menschlicher Delegatare, der fehlenden Erfüllungsgehilfeneigenschaft der KI sowie der fehlenden Geschäftsherreneigenschaft des Vorstands, eine Zurechnung nach § 278 BGB oder eine Haftung über § 831 BGB. Vielmehr wandeln sich infolge der Leitungspflicht des Vorstands182 auch in dieser KI-Konstellation die Pflichten des Vorstandes zur Aufgabenerfüllung um in Residualpflichten der Auswahl, Instruktion und Überwachung der KI.183 1. Auswahlpflicht Delegiert der Vorstand eine Aufgabe an einen menschlichen Delegataren, so hat er zunächst dessen Geeignetheit für die konkrete Aufgabenerfüllung zu prüfen. Diese Auswahl beinhaltet vor allem die Berücksichtigung dessen persönlicher und fachlicher Qualifikation.184 Welche Anforderungen an die Geeignetheit des Delegataren konkret zu stellen sind, hängt vom jeweiligen Einzelfall, insbesondere der Komplexität der Aufgabe und den zu erwartenden Risiken für das Unternehmen ab.185 Der Vorstand muss nicht in der Lage sein, die Qualifikation selbst fachlich (inhaltlich) zu überprüfen.186 Er muss 180  Ausführlich dazu Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 34 ff.; BeckOGK AktG-Fleischer, § 93, Rn. 128. 181  Horner/Kaulartz, CR 2016, 7 (7); Horner/Kaulartz, InTeR 2016, 22 (23); Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 516; vgl. auch MüKo BGB-Grundmann, § 278, Rn. 46; ausführlich zur fehlenden Verschuldensfähigkeit der KI siehe Kirn/Müller-Hengstenberg, MMR 2014, 307 (308); so auch früh schon zum automatisierten Geschäftsverkehr Lieser, JZ 26 (1971), 759 (761). 182  Fleischer, AG 2003, 291 (292). 183  Auf diese Residualpflichten als Anknüpfungspunkt für eine Haftung des Vorstands bei der Delegation an KI abstellend auch Becker/Pordzik, ZfPW 2020, ­ 334 (348); Grigoleit AktG-Grigoleit, § 76, Rn. 87; Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 516; R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1132); wohl auch Linardatos, ZIP 2019, 504 (507 f.); in diese Richtung auch Noack, ZHR 183 (2019), 105 (121). 184  BeckOGK AktG-Fleischer, § 93, Rn. 132; Schmidt-Housson, in: Hauschka/ Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6, Rn. 29; Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482. 185  BeckOGK AktG-Fleischer, § 93, Rn. 132; Schmidt-Housson, in: Hauschka/ Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6, Rn. 29; Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482. 186  Vgl. Fleischer, NZG 2010, 121 (123).



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG121

sich aber anhand entsprechender Nachweise vergewissern, dass der Delegatar fachlich qualifiziert und damit geeignet ist.187 Überwiegend werden bezüglich der Qualifikation nicht allzu hohe Anforderungen gestellt. Das Vorliegen der Formalqualifikation genügt grundsätzlich.188 Problematisch bei der Prüfung der Qualifikation von KI ist hingegen, dass solche allgemein anerkannten Nachweise für eine fachliche Qualifikation bislang fehlen. Eine mit einem Abschlusszeugnis oder Ähnlichem vergleichbare Referenz zur Geeignetheit für die vorgesehene Nutzung stellt bei technischen Produkten regelmäßig eine Zertifizierungsstelle aus. Die Übereinstimmung mit den vom Gesetzgeber aufgestellten Anforderungen für den Straßenverkehr prüfen für Kraftfahrzeuge beispielsweise die Prüfstellen des Technischen Überwachungsvereins (TÜV) gem. § 29 i. V. m. Anlagen VIII und VIIIa StVZO. Ein solches Prüfverfahren, mit welchem die Qualifikation der KI für den vorgesehenen ­Anwendungsbereich anhand allgemein anerkannter Maßstäbe geprüft wird, existiert bisher noch nicht. Solche Prüfverfahren werden jedoch derzeit er­ arbeitet,189 beispielsweise von der TÜV-Informationstechnik GmbH (­TÜViT), die schon ein Prüfverfahren für Quellcodes von Software (nicht KI) entwickelt hat190 und bereits zur Prüfung von IT-Sicherheit nach den jeweiligen Landesverfahren191 in Deutschland und vier weiteren Ländern zertifiziert wurde.192 Solange der Vorstand die Prüfung der Qualifikation der KI nicht anhand eines allgemein anerkannten Prüfnachweises validieren kann, wird er den Nachweis der Geeignetheit anders kompensieren müssen.193 Mangels 187  Vgl.

BeckOGK AktG-Fleischer, § 93, Rn. 44. ZHR 176 (2012), 137 (141); Strohn, CCZ 2013, 177 (181); Fleischer, NZG 2010, 121 (123); Kiefner/Krämer, AG 2012, 498 (501); Selter, AG 2012, 11 (14); vgl. aus der Rechtsprechung für das Ausreichen einer Formalqualifikation BGH, Urteil vom 17.12.1969 – VIII ZR 10/68 = NJW 1970, 463 (464); BGH, Urteil vom 16.12.1986 – KZR 36/85 = GRUR 1987, 564 (565); eine Empfehlung des Beraters durch den Aufsichtsrat sowie die von der Gesellschaft bereits in anderem Zusammenhang schon einmal erfolgte Mandatierung des Beraters als nicht ausreichend erachtend OLG Stuttgart, Urteil vom 25.11.2009 – 20 U 5/09 = ZIP 2009, 2386 (2389), der Vorstand müsse sich dennoch selbst hinsichtlich der Qualifikation vergewissern; die allgemeine Formalqualifikation als nicht ausreichend erachtend und auf besondere Fachkenntnisse abstellend Binder, AG 2008, 274 (285 f.); so auch Junker/Biederbick, AG 2012, 898 (901); nach Komplexität der Aufgabe differenzierend, dass eine Formalqualifikation im konkreten Fall gegebenenfalls nicht mehr ausreichend ist Peters, AG 2010, 811 (815). 189  TÜViT Pressestelle, Künstliche Intelligenz: TÜViT entwickelt gemeinsam mit Fraunhofer AISEC einen Ansatz zur Zertifizierung von KI-Algorithmen. 190  TÜViT Pressestelle, Mit geprüfter Softwarequalität zum Wettbewerbsvorteil. 191  Nach der Norm ISO/IEC 15408 (CC) – Evaluationskriterien für IT-Sicherheit. 192  TÜViT Pressestelle, TÜViT als IT-Sicherheitsprüfstelle in den Niederlanden lizenziert. 193  So im Ergebnis auch Becker/Pordzik, ZfPW 2020, 334 (349). 188  Strohn,

122

3. Teil: Die Delegation durch den Vorstand der AG an KI

technischem Verständnis wird der Vorstand indes die Qualifikation der KI regelmäßig nicht selbst anhand der Prüfung des Codes vornehmen können.194 Das von manchen geforderte „gewisse technische Grundverständnis“195, welches hinsichtlich der Zulässigkeit der Delegation bereits abgelehnt wurde,196 scheitert in seinem erhofften Sinn und Zweck, der „Algorithmenbeherr­ schung“197 hier gleichermaßen. Die Befähigung zur Prüfung des Codes würde ein umfangreiches technisches Spezialwissen voraussetzen,198 welches vom Vorstand schon aus praktischen Gesichtspunkten, noch geeignete Vorstandsmitglieder zu finden,199 nicht erwartet werden kann. Ein geringeres Wissen wäre hingegen unzureichend, um die Qualifikation der KI adäquat zu bewerten.200 Die Prüfung der KI wird der Vorstand daher regelmäßig bereits mangels eigener Qualifikation für die Bewertung der Geeignetheit der KI nicht erbringen können. Sachgerecht könnte es daher sein, mangels „KITÜV“ oder vergleichbarer Zertifizierungen, die Prüfungspflicht des Vorstands von der Geeignetheit der KI und damit der Prüfung des Codes der KI auf die Prüfung der Qualifikation des Herstellers201 und damit der Programmierkompetenzen, die ordnungsgemäße Aufgabenerfüllung der KI einzurichten, zu verlagern.202 Dies wäre zu bejahen, wenn der Sinn und Zweck der Qualifikationsprüfung, die Geeignetheit des Delegataren zur ordnungsgemäßen Ausführung der zu übertragenden Aufgabe,203 durch die Prüfung der Herstellerqualifikation zur Einrichtung dieser „Kompetenz“ der KI statt der unmittelbaren Prüfung der „KI-Qualifikation“, ebenso erreicht werden kann. 194  So auch Becker/Pordzik, ZfPW 2020, 334 (349); Hoch, AcP 219 (2019), 646 (681 f.); sehr kritisch hinsichtlich der Forderung (und sogar der Möglichkeit) einer Technikbeherrschung durch technische Laien auch Wischmeyer, AöR 143 (2018), 1 (53 f.). 195  So Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512; R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1132); J. Wagner, BB 2018, 1097 (1098 f.). 196  Dazu oben unter 3. Teil B. II. 2. b) bb) (1). 197  R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1132); J. Wagner, BB 2018, 1097 (1098 f.); Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 512 „Technikbeherrschung“. 198  Vgl. Wischmeyer, AöR 143 (2018), 1 (53). 199  Dazu bereits oben unter 3. Teil B. II. 2. b) bb) (1) (b); so auch Hoch, AcP 219 (2019), 646 (682). 200  Vgl. zum Erfordernis umfangreichen Spezialwissens für die Bewertung des Codes Wischmeyer, AöR 143 (2018), 1 (53). 201  Hersteller meint in diesem Rahmen hier und im Folgenden sowohl den Hersteller/Programmierer der KI als Dritten als auch den Programmierer/Hersteller in der Aktiengesellschaft selbst. 202  So auch Becker/Pordzik, ZfPW 2020, 334 (349); wohl auch Linardatos, ZIP 2019, 504 (508). 203  BeckOGK AktG-Fleischer, § 93, Rn. 132.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG123

a) Zweistufige Geeignetheitsprüfung: 1. Qualifikationsprüfung des Herstellers durch den Vorstand Dem Gedanken des Ausreichens der Formalqualifikation des Delegataren zur Validierung der Geeignetheit für die zu übertragende Aufgabe liegt zu Grunde, dass die hinsichtlich der Qualifikation geprüfte Person und die die Delegationsaufgabe ausführende Person identisch sind. Dann ist es sachgerecht, dass der Vorstand infolge der Prüfung der Formalqualifikation auch auf die ordnungsgemäße Aufgabenerfüllung des Delegataren vertrauen darf und diesbezüglich keiner weiteren Prüfungspflicht im Rahmen der Auswahl des Delegatars unterliegt.204 Der Vorstand muss hinsichtlich der Geeignetheitsprüfung menschlicher Delegatare nicht deren tatsächliche fachliche Eignung inhaltlich überprüfen, sondern darf auf Basis der Qualifikationsnachweise, wie beispielsweise einer Berufsausbildung, auf das Vorhandensein der erforderlichen Wissensstrukturen und die entsprechende Eignung zur Aufgabenerfüllung vertrauen.205 Demgegenüber würde beim Einsatz von KI als Delegationsempfänger und der Prüfung der Herstellerqualifikation auf Befähigung zur entsprechenden Programmierung zum einen eine Spaltung zwischen geprüfter und ausführender Entität vorliegen. Zum anderen bezöge sich die geprüfte Qualifikation auf die technischen Kompetenzen des Herstellers und nicht auf die fachlichen Kompetenzen zur spezifischen Aufgabenerfüllung. Die Geeignetheit des menschlichen Delegatars durch Prüfung dessen Formalqualifikation könnte auch nicht durch die Prüfung des diese Qualifikation Lehrenden, zum Beispiel der Universität, kompensiert werden. Das Vertrauen des Vorstands in die ordnungsgemäße Aufgabenerfüllung des Delegataren (der KI) wäre dann nicht mehr durch die Formalqualifikation unmittelbar gerechtfertigt.206 Bis zur Einführung eines „KI-TÜV“ wird man daher als weiteren Aspekt der Geeignetheitsprüfung der KI eine Pflicht des Vorstands zur Überzeugung von der Funktionalität der KI und damit deren tatsächlicher „Kompetenz“ als letztlich ausführende Entität für die Aufgabenerfüllung, fordern müssen.207 Dies beinhaltet insbesondere die Sicherstellung ausreichenden Trainings der 204  Vgl.

Fleischer, ZIP 2009, 1397 (1403). diese Richtung auch Hoch, AcP 219 (2019), 646 (682), die feststellt, dass auch menschliche Delegatare nicht hinsichtlich ihres Arbeitsprozesses geprüft würden und den Mehrwert einer solchen Prüfung darüber hinaus in Frage stellt; vgl. auch Fleischer, ZIP 2009, 1397 (1403). 206  Vgl. zum Vertrauen in menschliche Delegatare Fleischer, ZIP 2009, 1397 (1403). 207  Eine Funktionalitätsprüfung im Ergebnis auch fordernd Linardatos, ZIP 2019, 504 (508); Becker/Pordzik, ZfPW 2020, 334 (349); Lücke, BB 2019, 1986 (1993); wohl auch Noack, ZHR 183 (2019), 105 (121). 205  In

124

3. Teil: Die Delegation durch den Vorstand der AG an KI

KI durch qualitativ hochwertige Datensätze,208 sodass diese in der Lage ist in Testläufen regelmäßig die ihr zu übertragenden Aufgaben ordnungsgemäß zu erfüllen.209 Diese Funktionalitätsprüfung der KI vorausgesetzt, bleibt die Qualität und Wirkung der Geeignetheitsprüfung, trotz Verlagerung der Formalqualifikationsprüfung auf den Hersteller, nicht gegenüber einer unmittelbaren Formalqualifikationsprüfung menschlicher Delegatare zurück. Im Ergebnis kommt demnach im ersten Schritt das Vertrauen(dürfen), welches sich aus der Formalqualifikation ergibt,210 hinsichtlich der Programmierung der KI durch den Hersteller unmittelbar zum Einsatz. Die Person, die die Programmierung vornimmt und die Person deren Qualifikation formal überprüft wurde, sind identisch. Hinsichtlich der Prüfung der Formalqualifikation des Herstellers wird man sich dann auch weiter an den Maßstäben der Geeignetheit menschlicher Delegatare, an die nicht allzu hohe Anforderungen gestellt werden,211 orientieren dürfen, sodass die Formalqualifikation auch bei der Prüfung des Herstellers regelmäßig ausreicht.212 Die fach- und sachgerechte Programmierung des KI-Systems kann dann als grundsätzlich gegeben unterstellt werden.213 KI-spezifische Besonderheiten ergeben sich im zweiten Schritt: Der Funktionalitätsprüfung als Kompensation der fehlenden Prüfung der Qualifikation der KI als letztlich ausführende Entität der Delegationsaufgabe.

KI verstehen, S. 6. im Detail sogleich unten unter 3. Teil C. I. 1. b); für solche erweiterten Prüfpflichten auch Lücke, BB 2019, 1986 (1993). 210  Vgl. Fleischer, ZIP 2009, 1397 (1403). 211  Vgl. Fleischer, NZG 2010, 121 (123). 212  So auch Becker/Pordzik, ZfPW 2020, 334 (349); Linardatos, ZIP 2019, 504 (508). 213  Zur damit jedoch verbundenen Erweiterung der Pflichten des Vorstands auf eine Funktionsprüfung der KI siehe unten unter 3. Teil C. I. 1. b); für die hier benannte Unterstellung auch schlussfolgernd Hoch, AcP 219 (2019), 646 (682), allerdings mit der Einschränkung auf „branchen- und marktübliche Produkte“. Davon wird man bei spezialisierter und maßgefertigter KI, deren Einsatz einen relevanten Marktvorteil für die Aktiengesellschaft bietet, indes wohl auf absehbare Zeit nicht sprechen können. Gründe für eine solche Einschränkung sind mit der hier vorgelegten Argumentation hinsichtlich der Schlussfolgerung aus der Herstellerqualifikation allerdings auch nicht ersichtlich. Etwaige Unsicherheiten hinsichtlich der Ordnungsgemäßheit der Aufgabenerfüllung werden jedenfalls durch die Funktionsprüfungspflicht beseitigt. 208  Kreutzer/Sirrenberg, 209  Dazu



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG125

b) Zweistufige Geeignetheitsprüfung: 2. Funktionalitätsprüfung der KI durch den Vorstand Zur Überprüfung der Funktionalität, mithin der Tauglichkeit der KI zur Aufgabenerfüllung in dem Maße, wie es von einer entsprechenden Qualifikation erwartet werden darf, gehören die Überprüfung der Daten und Datenqualität aa), der Rahmenbedingungen und Algorithmen bb) nach denen die KI tätig wird sowie der Kontinuität brauchbarer Ergebnisse cc). aa) Überprüfung der Daten und Datenqualität Grundlage für die Forderung nach der Prüfung der Datenqualität ist, dass die Brauchbarkeit der Ergebnisse der KI maßgeblich von der Qualität der Daten abhängt.214 Denn die KI verarbeitet die Daten nach dem „Input = Output“-Qualitätsprinzip. Je hochwertiger die zum Training eingesetzten Daten, desto hochwertiger die Aufgabenerfüllung.215 Bei menschlichen Delegataren kann aus der Formalqualifikation geschlossen werden, dass auch die Strukturen zur brauchbaren Aufgabenerfüllung geschaffen wurden. Wegen des Auseinanderfallens der Qualifikationsprüfung und der Funktionalitätsprüfung bedarf es beim Einsatz von KI demgegenüber der gesonderten Überprüfung des Vorhandenseins dieser Strukturen. Die Prüfung der Datenqualität wird sich an den für eine funktionsfähige KI notwendigen Parametern zu orientieren haben:216 Der Datenmenge und Datendiversifikation (1), der Qualität der „Label“ der Daten (2) sowie der „Legalität“ der Daten (3).217 (1) Datenmenge und Datendiversifikation Zunächst bedarf es einer ausreichenden Menge an Trainingsdaten.218 Werden KI-Systeme mit zu wenigen Daten trainiert, neigen sie dazu, wegen der homogenen Datenstruktur der Lerndaten, ungewünschte Klassifizierungsmerkmale im Lernmodell auszuprägen.219 Beispielsweise könnte die KI bei Investitionsentscheidungen den Sitz einer Gesellschaft im Inland als besonders maßgeblich für eine gute Investition annehmen, weil die KI nur mit 214  Pointiert Kreutzer/Sirrenberg, KI verstehen, S. 80: „garbage in – garbage out“; Krug, beck.digitax 2020, 74 (78); Lücke, BB 2019, 1986 (1993); zu Vorschlägen der Regulierung der Datenqualität siehe Stevens, CR 2020, 73. 215  Vgl. Fraunhofer-Gesellschaft e. V., Maschinelles Lernen (2018), S. 12. 216  Vgl. Kreutzer/Sirrenberg, KI verstehen, S. 6. 217  Vgl. Kreutzer/Sirrenberg, KI verstehen, S. 6, 15. 218  Kreutzer/Sirrenberg, KI verstehen, S. 6. 219  Krug, beck.digitax 2020, 74 (79); vgl. auch Martini, Blackbox Algorithmus, S. 60.

126

3. Teil: Die Delegation durch den Vorstand der AG an KI

Daten von Gesellschaften trainiert wurde, deren Sitz im Inland ist und die zufälligerweise besonders gelungene Investitionen waren. Die KI irrt dann hinsichtlich Korrelation und Kausalität („cum hoc ergo propter hoc – Fehlschluss“).220 Der Vorstand hat daher sicherzustellen, dass eine große und diversifizierte Datenmenge zum Training verwendet wird, damit die Güte des Modells sichergestellt ist. (2) Qualität der „Label“ der Daten Eine große Datenmenge führt jedoch nur zu einer brauchbaren Aufgabenerfüllung durch die KI, wenn diese entsprechend hochwertig ist.221 Die KI lernt anhand der „Labels“ der Trainingsdaten, also der durch Menschen dem Inputdatensatz zugeordneten Ergebnisse für den als wünschenswert oder nicht wünschenswert zu qualifizierenden Output.222 Es ist daher ebenso notwendig, dass die mit den einzelnen Daten verknüpften „Label“ geprüfte Entscheidungsergebnisse verkörpern. Ansonsten würden sich die Fehler der Datensätze in der späteren Aufgabenausführung der KI fortsetzen. (3) „Legalität“ der Daten Damit schließlich die Aufgabenausführung durch KI nicht gegen geltendes Recht verstößt, darf auch der Inhalt der Trainingsdaten nicht gegen geltendes Recht verstoßen. Die Daten basieren auf empirischen Vorgängen in denen Menschen als entscheidende Entität involviert waren. Sie können daher unbewusste Diskriminierungen223 oder andere Rechtsverstöße strukturell enthalten und diese als maßgebliche (rechtlich unzulässige) Kriterien in der Aufgabenausführung weiter anwenden. Da die Legalität der späteren Aufgabenausführung im Unternehmen durch die Daten schon in der Algorithmenkonstruktion und dem Training der KI durch die Trainingsdaten determiniert wird, ist bereits an dieser Stelle durch den Vorstand entsprechend auf die Einhaltung der Legalität hinzuwirken. Dabei sind insbesondere geltende Rechtsregeln zu beachten. bb) Überprüfung der Rahmenbedingungen und Algorithmen Neben der Prüfung der Datenqualität muss der Vorstand die KI im Rahmen der Auswahlentscheidung auf die konkrete Aufgabenerfüllung zuschneiBlackbox Algorithmus, S. 60. KI verstehen, S. 6; vgl. Lücke, BB 2019, 1986 (1993). 222  Ertel, Grundkurs Künstliche Intelligenz, S. 192 ff. 223  Fraunhofer-Gesellschaft e. V., Maschinelles Lernen (2018), S. 31. 220  Martini,

221  Kreutzer/Sirrenberg,



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG127

den lassen.224 Da die Qualifikation des Herstellers nur dessen Fähigkeit zur technischen Umsetzung der Vorstandsvorgaben in die KI sichert, ist durch den Vorstand sicherzustellen, dass der KI die für die konkrete Aufgabenerfüllung erforderlichen Anlagen in Form von Algorithmen auch tatsächlich eingearbeitet werden. Dies beinhaltet insbesondere die Sicherstellung der „fachlichen Eignung“ der KI für die zu bewältigende Aufgabe.225 Diese erfolgt nicht nur durch die Programmierung von „Fachwissen“, welches von der KI bei der Berechnung zugrunde gelegt wird.226 Vielmehr ergibt sich die „fachliche Eignung“ bei der lernenden KI vorwiegend aus der Auswahl geeigneter Algorithmen und dem anschließenden Lernen im Training.227 Die Anforderungen an die Auswahlsorgfalt der KI können nur erfüllt sein, wenn die erforderliche fachliche Befähigung der KI, die sich bei Menschen aus der Formalqualifikation ergibt, anderweitig erreicht wird. Die fachliche Befähigung zur Aufgabenerfüllung erhält die KI durch die Auswahl geeigneter ­Algorithmen sowie der Erstellung sämtlicher Rahmenbedingungen für die Aufgabenbewältigung.228 Der Vorstand hat daher den Hersteller über die Anforderungen an die KI aufzuklären und ihm das Aufgabenumfeld, die zu bewältigende Aufgabe sowie die fachlich zu beachtenden Faktoren zu erörtern.229 Hinsichtlich der Umsetzung darf der Vorstand dann wieder auf die Qualifikation des Herstellers vertrauen.230 cc) Überprüfung der Kontinuität brauchbarer Ergebnisse Ist der Rahmen für die Aufgabenerfüllung durch die KI geschaffen, ist die KI hinsichtlich der Einsatztauglichkeit vor tatsächlichem Einsatz im Unternehmen zu prüfen.231 Dies ergibt sich einerseits schon aus der technischen Notwendigkeit für die Einsatztauglichkeit.232 Andererseits ist dieses Erfordernis, die Ergebnisse der Aufgabenerfüllung auf Plausibilität und Brauchbarkeit zu prüfen, ebenfalls Auswuchs der Spaltung von Ziel der Formalqualifikationsprüfung und letztlich ausführendem Delegatar. Die KI muss mithin 224  Ähnlich

auch Lücke, BB 2019, 1986 (1993). auch Becker/Pordzik, ZfPW 2020, 334 (349) „erforderliche Sachkunde“. 226  Kreutzer/Sirrenberg, KI verstehen, S. 41 f. 227  Kreutzer/Sirrenberg, KI verstehen, S. 42; Lücke, BB 2019, 1986 (1993). 228  In diese Richtung auch Lücke, BB 2019, 1986 (1993); Krug, beck.digitax 2020, 74 (78). 229  Vgl. in ähnlich auch Lücke, BB 2019, 1986 (1993). 230  Vgl. Fleischer, ZIP 2009, 1397 (1403). 231  Vgl. Krug, beck.digitax 2020, 74 (79). 232  Ohne einen Überprüfung des Lernerfolges durch einen Testdatensatz kann die Tauglichkeit der KI bei Einsatz von unbekannten Daten nicht sicher gewährleistet werden, vgl. Buxmann/H. Schmidt, Künstliche Intelligenz, (2019), S. 10. 225  So

128

3. Teil: Die Delegation durch den Vorstand der AG an KI

im Training gezeigt haben, dass regelmäßig plausible und wünschenswerte Ergebnisse produziert werden.233 Zum einen bedarf es, wie gezeigt, dafür eines ausreichenden Trainings anhand qualitativ hochwertiger Daten.234 Die Kontinuität gewünschter Ergebnisse anhand von Trainingsdaten kann jedoch dadurch allein nicht sichergestellt werden.235 Die KI lernt anhand empirischer Sachverhalte.236 Neue Daten werden anhand der ursprünglichen Erfahrung bewertet und verarbeitet. Die brauchbare Aufgabenerfüllung ist mög­ licherweise nur für die bekannten Daten oder ähnlich strukturierte Daten sichergestellt.237 Denn die KI lernt die Lösung gewissermaßen auswendig und ist möglicherweise nicht in der Lage auf veränderte Daten mit ausreichender Sicherheit zu abstrahieren.238 Unbekannte Daten mit neuen Sachverhalten können der KI Schwierigkeiten bereiten. Daher muss die KI auch anhand bisher unbekannter Testdaten entsprechend trainiert und geprüft werden.239 Nur so kann von einer ordnungsgemäßen Aufgabenerfüllung beim Einsatz im Unternehmen ausgegangen werden. dd) Art und Weise der Sicherstellung der Funktionalitätsprüfung durch den Vorstand An die einzelnen Elemente der Funktionalitätsprüfung der KI, die der Vorstand zu erfüllen hat, wird man schließlich keine allzu hohen Anforderungen stellen dürfen. Das Vertrauen, welches der Vorstand beim Einsatz menschlicher Delegatare in die Funktionalität, mithin die ordnungsgemäße Aufgabenerfüllung haben darf,240 wird dieser hinsichtlich der Einrichtung der KI durch den Hersteller ebenfalls haben dürfen. Denn das Vertrauen des Vorstands in die ordnungsgemäße Programmierung der Vorstandsvorgaben in die KI ist durch die Formalqualifikationsprüfung des Herstellers bereits gerechtfertigt. Der Sicherstellung der Funktionalität als Folge der Spaltung von Qualifika­ 233  So auch Lücke, BB 2019, 1986 (1993); Becker/Pordzik, ZfPW 2020, 334 (349); Linardatos, ZIP 2019, 504 (508). 234  Siehe oben 3. Teil C. I. 1. b) aa). 235  Vgl. Krug, beck.digitax 2020, 74 (79). 236  Buxmann/H. Schmidt, Künstliche Intelligenz, (2019), S. 8. 237  Krug, beck.digitax 2020, 74 (79); Ertel, Grundkurs Künstliche Intelligenz, S. 195; Buxmann/H. Schmidt, Künstliche Intelligenz (2019), S. 10; Kreutzer/Sirrenberg, KI verstehen, S. 6 f. 238  Vgl. Krug, beck.digitax 2020, 74 (79). 239  Krug, beck.digitax 2020, 74 (79); Ertel, Grundkurs Künstliche Intelligenz, S. 195; Buxmann/H. Schmidt, Künstliche Intelligenz (2019), S. 10; Kreutzer/Sirrenberg, KI verstehen, S. 6 f.; so für die Delegation an KI auch Lücke, BB 2019, 1986 (1993). 240  Vgl. Fleischer, ZIP 2009, 1397 (1403).



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG129

tionsprüfungssubjekt und ausführender Entität der delegierten Aufgabe ist, basierend auf diesem Vertrauen, genügt, wenn der Vorstand sich der entsprechenden Umsetzung der Vorgaben versichert. Er hat dem Hersteller die für die Aufgabenerfüllung notwendigen Daten und Vorgaben zur Verfügung zu stellen und die oben herausgearbeiteten Aspekte der Funktionalitätsprüfung beim Hersteller auf ihre Berücksichtigung bei der Programmierung zu hinterfragen. Er wird sich insoweit auf eine Plausibilitätskontrolle beschränken können.241 c) Zusammenfassung zur Auswahlpflicht Für die Auswahlentscheidung von KI fehlen bisher allgemein anerkannte Zertifizierungen, nach denen sich die Eignung der KI durch den Vorstand feststellen ließe. Daher ist die Geeignetheit der KI als wesentliches Element der Auswahlpflicht des Vorstands zweistufig zu prüfen. Einerseits ist die Formalqualifikation des Herstellers festzustellen. Im zweiten Schritt bedarf es aber wegen Auseinanderfallens der auf Qualifikation geprüften Person und der KI als Entität der Aufgabenerfüllung einer Funktionalitätsprüfung der KI. Der Vorstand hat dafür dem Hersteller die erforderlichen Daten und Parameter zu Verfügung zu stellen und zu benennen sowie sich von der Auswahl hochwertiger und zulässiger Daten, Rahmenbedingungen, Auswahl der Al­ gorithmen und der Kontinuität brauchbarer Ergebnisse der KI plausibel zu überzeugen. 2. Einweisungspflicht Neben der Auswahlsorgfalt hat der Vorstand für die Instruktion des Delegataren zu sorgen.242 In diesem Rahmen muss er ihm den übertragenen Aufgabenbereich erläutern und ihn in dessen Verantwortungsbereich einweisen.243 Dadurch wird nicht nur sichergestellt, dass der Delegatar die Aufgaben 241  In diese Richtung hinsichtlich der Anforderungen an die Ergebnisprüfung der KI durch den Vorstand auch Lücke, BB 2019, 1986 (1993). 242  BeckOGK AktG-Fleischer, § 93, Rn. 133; MüKo AktG-Spindler, § 76, Rn. 18; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 536; Fleischer, AG 2003, 291 (293); für den Geschäftsführer der GmbH vgl. BGH, Urteil vom 07.11.1994 – II ZR 270/93 = ZIP 1994, 1934 (1939); Schmidt-Housson, in: Hauschka/ Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6, Rn. 31; Froesch, DB 2009, 722 (725); vgl. Turiaux/Knigge, DB 2004, 2199 (2205); Hauschka, AG 2004, 461 (466); Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482. 243  BeckOGK AktG-Fleischer, § 93, Rn. 133; Fleischer, AG 2003, 291 (293); Schmidt-Housson, in: Hauschka/Moosmayer/Lösler (Hrsg.), Corporate Compliance

130

3. Teil: Die Delegation durch den Vorstand der AG an KI

im Sinne des Vorstands wahrnimmt, sondern auch, dass es zu keinen Zuständigkeitslücken kommt, in denen sich Delegatare auf den jeweils anderen als (scheinbar) zuständig verlassen.244 Darüber hinaus ist der Delegatar hinsichtlich der Berichtspflichten sowie der Aufbau- und Ablauforganisation zu in­ struieren.245 Der Vorstand hat ferner dem Delegatar typische Risiken zu ­erläutern. Dazu gehört insbesondere, ihn über etwaige wesentliche Rechtsverletzungen sowie Gefahrenmomente zu unterrichten.246 Die Einweisungspflicht ist zwar grundsätzlich vor Einsatz des Delegataren zu erfüllen.247 Besonders dynamische Einsatzgebiete können es indes erforderlich machen, dass die Instruktionen in Form von Schulungen und Fortbildungen regelmäßig wiederholt und aktualisiert werden.248 a) Einweisungsmaßstab bei KI-Delegataren Wie auch bei menschlichen Delegataren beeinflusst die Auswahl der KI die Einweisungspflichten des Vorstands. Je umfassender die KI bereits im Rahmen des Auswahlprozesses auf die Anforderungen der konkreten Aufgabe im konkreten Unternehmen zugeschnitten worden ist, desto geringer wird der Aufwand im Rahmen der Einweisungspflicht ausfallen.249 Dementsprechend wird der Vorstand eine umfassendere Instruktion grundsätzlich bei solcher KI vornehmen müssen, die als Serien- bzw. Standardprodukt am Markt eingekauft wird. Hingegen wird eine im oder für das Unternehmen maßgefertigte KI bereits im Rahmen des Auswahlprozesses derart auf die (32016), § 6 Rn. 31; Froesch, DB 2009, 722 (725); vgl. Turiaux/Knigge, DB 2004, 2199 (2205); Hauschka, AG 2004, 461 (466); Seibt, in: Bitter/Lutter/Priester/Schön/ Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482. 244  Hauschka/Moosmayer/Lösler, Corporate Compliance, 3. Aufl. (2016), S. 466. 245  BeckOGK AktG-Fleischer, § 93, Rn. 133; Schmidt-Housson, in: Hauschka/ Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6 Rn. 31; Fleischer, Handbuch des Vorstandsrechts, 2006), § 8 Rn. 31; vgl. Hauschka, AG 2004, 461 (466 f.); Froesch, DB 2009, 722 (725); Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482. 246  BeckOGK AktG-Fleischer, § 93, Rn. 133; Fleischer, Handbuch des Vorstandsrechts, 2006), § 8 Rn. 31; Froesch, DB 2009, 722 (725); Schmidt-Housson, in: Hauschka/Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6 Rn. 31. 247  Vgl. Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S.  238 ff. 248  Dazu für die GmbH U. H. Schneider, in: Lutter/Ulmer (Hrsg.), Festschrift 100 Jahre GmbH-Gesetz (1992), S. 486; BeckOGK AktG-Fleischer, § 93, Rn. 133; Froesch, DB 2009, 722 (725); siehe ausführlicher zu den Einweisungspflichten ­Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 254 ff. 249  Vgl. zu dieser Wechselwirkung bei menschlichen Delegataren auch Fleischer, AG 2003, 291 (293 f.); dies bei menschlichen Delegataren ebenso bewertend Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 239.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG131

Anforderungen zugeschnitten werden können, dass die nachfolgende Instruktion nur noch von geringerem Aufwand ist. aa) Verlagerung des Bezugszeitpunkts der Einweisung Eine generelle Tauglichkeit für sämtliche Aufgabenbereiche eines Fachgebiets, wie sie bei menschlichen Delegataren mit entsprechender Qualifikation regelmäßig vorliegen wird, ist bei KI mittelfristig nicht denkbar. Während die Einweisung des menschlichen Delegatars insbesondere dessen fachspezifisch-generelle Qualifikation im Unternehmen konkretisieren soll, erfolgt diese Konkretisierung beim Einsatz von KI baubedingt durch deren Schöpfung für einen bestimmten Einsatz durch den Hersteller. Schon im Rahmen der Auswahl wird es daher darauf ankommen, dass der Vorstand dem Hersteller entsprechend konkrete Vorgaben für die Entwicklung und Einstellung der KI macht. Die Wechselwirkung von Auswahl und Einweisung des Delegatars führt dann, wegen der KI-spezifischen Besonderheit, dass diese derzeit nur hoch spezialisiert programmiert werden kann, zu einer Konkretisierung der Einweisung durch den Vorstand. Sie wird sich dann regelmäßig nur noch auf die finale Anpassung und Implementierung der KI im konkreten Unternehmen sowie deren fortlaufende Aktualisierung konzentrieren. bb) Verlagerung des Bezugssubjekts der Einweisung Der Adressat der Instruktion muss bei menschlichen Delegataren dieser selbige sein. Dies ist nur logische Konsequenz aus der Personengleichheit von ausführender und die Parameter der Ausführung unmittelbar umsetzender Entität. Beim Einsatz von KI-Delegataren besteht jedoch die Besonderheit, dass die KI nach derzeitigem technischem Stand nicht selbst durch menschliche Sprache des Vorstands so instruiert werden kann, dass die KI die Anforderungen des Vorstands eigenständig unmittelbar in der Aufgabenerfüllung umsetzen kann. Vielmehr ist es notwendig, dass der Vorstand die Parameter, die durch die Instruktion vermittelt werden sollen, maschinenlesbar macht, mithin diese in die KI einprogrammiert.250 Mangels technischen Verständnisses wird der Vorstand die Instruktion der KI indes regelmäßig nicht selbst vornehmen können.251 Auch wird die Instruktion von KI-Delegataren im Vergleich zur Instruktion menschlicher Delegatare regelmäßig ungleich aufwändiger sein, da diese umfassende Programmierungen erfordert. 250  So

auch Lücke, BB 2019, 1986 (1993). wohl auch Lücke, BB 2019, 1986 (1993) der dies indes ausdrücklich nur für die Überwachungspflicht des Vorstands feststellt; die Instruktionspflicht auf den Hersteller verlagernd auch Becker/Pordzik, ZfPW 2020, 334 (350). 251  So

132

3. Teil: Die Delegation durch den Vorstand der AG an KI

Ebenso wird daher der technisch kundige Vorstand mangels verfügbarer eigener zeitlicher Kapazitäten, jedenfalls rein faktisch nicht in der Lage sein, die Instruktion der KI selbst vorzunehmen. Er wird daher, wie auch schon im Rahmen des Auswahlprozesses,252 den Hersteller als Intermediär einbeziehen müssen.253 Der Vorstand wird den Hersteller insoweit zu unterrichten haben, welche Einweisung die KI erhalten soll, um die Aufgabe nach den Vorstellungen des Vorstands wahrzunehmen. Die Einschaltung einer Vermittlungsperson bei der Instruktion von KI führt zwar grundsätzlich dazu, dass eine weitere potenzielle Fehlerquelle hinzutritt. Jedoch rechtfertigt das Vertrauen des Vorstands, welches er wegen der Qualifikationsprüfung des Herstellers in dessen Fähigkeit zur pflichtgemäßen Programmierung haben darf, nicht nur die pflichtgemäße Umsetzung der Vorstandsvorgaben im Rahmen des Auswahlprozesses, sondern auch im Rahmen der Instruktion der KI. Der Vorstand muss auch bei menschlichen Delegataren die Instruktion des Delegataren nicht persönlich vornehmen. Er darf diese ebenso delegieren und wegen der Qualifikation des mit der Instruktion beauftragten Delegataren auf die pflichtgemäße Instruktion vertrauen. cc) Konkrete Einweisungspflichten beim Einsatz von KI Die oben erläuterten Einweisungspflichten des Vorstands254 lassen sich im Wesentlichen auf eine KI als Delegatar übertragen.255 Es sind jedoch mit Blick auf die technischen Besonderheiten der KI entsprechende Anpassungen der zu fordernden Einweisungspflichten des Vorstands vorzunehmen. Da die tatsächliche Trennung von Auswahl und Einweisung bei KI-Delegataren schon aus technischen Gründen überwiegend nicht denkbar ist, werden einige typische Einweisungspflichten des Vorstands schon im Rahmen der Auswahlpflichten mit bearbeitet werden.256 Dies betrifft insbesondere die Instruktion des Aufgaben- und Verantwortungsbereichs, der Aufbau- und Ablauforganisation sowie des zu beachtenden Rechtsrahmens. Sie sind der Gestaltung der Rahmenbedingungen, der Auswahl der Algorithmen und dem 252  Siehe

unter 3. Teil C. I. 1. Becker/Pordzik, ZfPW 2020, 334 (350). 254  Siehe unter 3. Teil C. I. 2. 255  Vgl. Becker/Pordzik, ZfPW 2020, 334 (350); Lücke, BB 2019, 1986 (1993). 256  Dazu bereits oben unter 3. Teil C. I. 1. Für eine bessere Einordnung der Argumentation und Nachvollziehbarkeit wird hier jedoch auch für KI in systematischer Hinsicht an der Trennung festgehalten. Nicht zuletzt, da einzelne Pflichten, die üblicherweise der Einweisung zuzuordnen sind, auch bei KI nicht bereits im Rahmen der Ursprungsprogrammierung („Auswahl“ der KI) zwingend mit abgearbeitet werden müssen, sondern dieser als typische Einweisungspflichten nachgelagert werden können bzw. sogar zwingend nachgelagert sind. 253  Zustimmend



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG133

Training der KI bereits immanent.257 Die KI kann mit den heute und mittelfristig technischen Möglichkeiten nicht in der Generalität programmiert werden, dass eine Trennung von Einweisung und Auswahl wie hinsichtlich Menschen denkbar wäre. Anders als bei menschlichen Delegataren beinhaltet die Auswahl der KI nämlich nicht nur die Entscheidung für eine im fachspezifischen Rahmen generalisiert einsetzbare Entität, die durch Instruktion spezialisiert und konkretisiert werden kann und muss. Die Auswahl der KI ist die Erschaffung eines hochspezialisierten und konkretisierten Delegataren für das Unternehmen. Systematisch als solche Einweisungspflichten, die nicht zwingend bereits als Richtungsentscheidung bei der Grundprogrammierung und dem Grundtraining bearbeitet werden (müssen), verbleiben damit schließlich die Einstellung von Berichtspflichten der KI sowie die „Schulungen und Fortbildungen“ derselben.258 (1) Programmierung von Berichtspflichten der KI Auch die KI muss den Vorstand regelmäßig über die Aufgabenerfüllung unterrichten, damit er seiner Leitungsverantwortung nachkommen kann. Wegen der Rigidität der Aufgabenerfüllung durch KI und deren Adaptivität dienen die Berichte derselben neben dem Zweck als Ergebnisberichte an den Vorstand insbesondere als Notfallberichte bei auftretenden Unregelmäßigkeiten. Bei der Übertragung von Aufgaben an KI wird die Programmierung von „Ad-hoc-Meldungen“, die bei bestimmten Parametern ausgegeben werden, besonders wichtig für die Sicherstellung der pflichtgemäßen Überwachung der KI durch den Vorstand sein. Denn die rasante Aufgabenerfüllung der KI lässt (abgesehen von der Notabschaltung) ein Eingreifen während der Ausführung selbst faktisch nicht zu. Die Einrichtung einer solchen Eingriffsmöglichkeit wäre aber auch kontraproduktiv für die gewonnene Effizienz durch KI.259 Vielmehr dient es der Wahrung der Effizienz bei gleichzeitiger Sicherstellung der Überwachungsmöglichkeit durch den Vorstand, dass die KI nur bei Unregelmäßigkeiten die Arbeit bis zur Wiederfreigabe einstellt und eine Fehlermeldung ad hoc auswirft.260 Die Sensibilität der Fehlermeldungen 257  Zu den diesbezüglichen Anforderungen und Pflichten siehe daher oben unter 3. Teil C. I. 1. b) aa); die Vorverlagerung gewisser typischer Einweisungspflichten kurz feststellend auch Becker/Pordzik, ZfPW 2020, 334 (350). 258  Ähnlich Becker/Pordzik, ZfPW 2020, 334 (350); allgemein für menschliche Delegatare BeckOGK AktG-Fleischer, § 93, Rn. 133. 259  Vgl. Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 481, 484 f. 260  Vgl. Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 482 f.

134

3. Teil: Die Delegation durch den Vorstand der AG an KI

muss von der Sensibilität der Aufgabe abhängen.261 Bei Leitungsaufgaben, die ohnehin der Weiterverarbeitung und Plausibilitätsprüfung des Vorstands unterliegen, wird hingegen die Sensibilität für solche Meldungen weniger hoch angesetzt werden müssen und regelmäßig genügen, dass das Ergebnis berichtet wird. Der Vorstand wird im Rahmen der Überwachung und Weiterverarbeitung des Ergebnisses den Folgen eines KI-Fehlers dann ausreichend begegnen können. (2) Regelmäßige „Schulung und Fortbildung“ der KI Besonders dynamische Tätigkeitsfelder können dazu führen, dass der Vorstand menschliche Delegatare nicht nur einmalig einweisen muss, sondern die Einweisungen fortlaufend als Schulungen und Fortbildungen erbringt.262 Beim Einsatz von KI kommt hinzu, dass nicht nur das Tätigkeitsfeld dynamisch sein kann, sondern die KI selbst dynamisch ist. Die KI optimiert ihre Algorithmen während der Aufgabenerfüllung und damit auch die Zielerreichung eigenständig.263 Es ist daher erforderlich, dass die Algorithmen und Ziele regelmäßig geprüft und gegebenenfalls aktualisiert werden.264 Dabei werden nicht nur neue Ausrichtungen der Aufgabenausführung zu berücksichtigen sein, sondern auch neue legislative Vorgaben. Der aktive Eingriff in die KI birgt jedoch wegen der tiefgreifenden Strukturänderungen das Risiko, dass diese nicht mehr pflichtgemäß arbeitet.265 Der Vorstand kann nur weiter in die ordnungsgemäße Aufgabenerfüllung der KI vertrauen, wenn er sich erneut von der Funktionalität überzeugt hat.266 Daher wird nach der Aktualisierung der KI der gleiche Funktionsprüfungsprozess zu fordern sein, wie bereits im Rahmen der Auswahl der KI.267

261  Vgl.

Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. AktG-Fleischer, § 93, Rn. 133; Froesch, DB 2009, 722 (725). 263  Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 264  Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488; Becker/Pordzik, ZfPW 2020, 334 (350); Lücke, BB 2019, 1986 (1993). 265  Vgl. Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 266  Vgl. zur wiederholten Instruktionspflicht bei menschlichen Delegataren beispielsweise bei wesentlichen Änderungen der Entscheidungsfragen Seibt, in: Bitter/ Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482; so auch Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 536; zur Funktionalitätsprüfung oben unter 3. Teil C. I. 1. b). 267  Dazu oben unter 3. Teil C. I. 1. b). 262  BeckOGK



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG135

b) Zusammenfassung zur Einweisungspflicht Die Einweisungspflicht des Vorstands wird beim Einsatz von KI-Delegataren regelmäßig und überwiegend bereits im Rahmen der Auswahlpflicht des Vorstands mit bearbeitet worden sein. Denn anders als im Rahmen der fachlichen Spezifikation grundsätzlich generalisiert einsetzbare menschliche Delegatare, muss die KI technik-notwendigerweise bereits im Prozess der Herstellung für die zu erfüllende Aufgabe umfassend spezialisiert und konkretisiert werden. Für die (der Auswahl nachgelagerten) Einweisungspflichten verbleiben dann regelmäßig die Einstellung von Berichtspflichten der KI und insbesondere die fortlaufende Prüfung und Aktualisierung der KI-Algorithmen und weiterer Parameter der Rahmen- und Zielbedingungen. 3. Überwachungspflicht Infolge der Delegation einer Aufgabe treffen den Vorstand jedoch nicht nur ex ante Pflichten hinsichtlich des Delegataren, sondern auch laufende Überwachungspflichten, um die pflichtgemäße Aufgabenerfüllung sicherzustellen.268 Der genaue Umfang der Überwachungspflichten wird vom Einzelfall abhängen.269

268  BeckOGK AktG-Fleischer, § 93, Rn. 134; für den GmbH Geschäftsführer vgl. BGH, Urteil vom 07.11.1994 – II ZR 270/93 = ZIP 1994, 1934 (1939); MüKo AktGSpindler, § 76, Rn. 18; Froesch, DB 2009, 722 (725); Hauschka, AG 2004, 461 (467); Fleischer, Handbuch des Vorstandsrechts, (2006), § 8 Rn. 32; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 536; Fleischer, AG 2003, 291 (293); Schmidt-Housson, in: Hauschka/Moosmayer/Lösler (Hrsg.), Corporate Com­ pliance (32016), § 6 Rn. 32; Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482 f.; Turiaux/Knigge, DB 2004, 2199 (2205); U. H. Schneider/Brouwer, in: Hommelhoff (Hrsg.), Festschrift Priester (2007), S. 721. 269  BeckOGK AktG-Fleischer, § 93, Rn. 134; vgl. aus der Rechtsprechung BGH, Beschluss vom 25.06.1985 – KRB 2/85 = NStZ 1986, 34 (34); dazu schon früh Boesebeck, JW 1938, 2525 (2527); vgl. auch Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 537; Löbbe/Fischbach, AG 2014, 717 (720); Fleischer, AG 2003, 291 (293); Fleischer, NZG 2003, 449 (453); Seibt/Cziupka, DB 2014, 1598 (1600); Bürgers, ZHR 179 (2015), 173 (182); kritisch zu den auch in der Rechtsprechung fehlenden Leitlinen für Überwachungspflichten aus § 130 OWiG, die regelmäßig zur Bewertung für die Delegationsfälle bei der Vorstandsverantwortlichkeit herangezogen werden KK OWiG-Rogall, § 130, Rn. 43: „Nach dieser am Einzelfall orientierten Rechtsprechung wird infolgedessen nicht konkret festgelegt, welche Maßnahmen erforderlich sind, um der Aufsichtspflicht zu genügen, sondern es wird – was problematisch ist – häufig nur festgestellt, dass die vom Betriebsinhaber tatsächlich ergriffenen Maßnahmen im konkreten Fall nicht ausreichend waren.“.

136

3. Teil: Die Delegation durch den Vorstand der AG an KI

Die Vielzahl von denkbaren Einzelfällen hat zu Folge, dass diese nicht alle für sich hinsichtlich ihrer Überwachungspflichten spezifiziert werden können. Die Ausformung eines Überwachungs-Pflichtenkanons muss daher so speziell wie für die praktische Umsetzung nötig, jedoch für die allgemeine Anwendbarkeit so abstrakt wie möglich bleiben. Daher sollen zunächst auf einer gewissen Abstraktionshöhe Leitlinien benannt werden. Eine Annäherung an allgemeine Anhaltspunkte für die Überwachung menschlicher Delegatare, an denen sich der Vorstand als Ausgangspunkt orientieren kann, ist von Fleischer durch die Kategorisierung in unternehmens-, aufgaben- und personenbezogene Parameter vorgenommen worden, die er sodann fall­ gruppenspezifisch auffächert.270 Geleitet von dieser Struktur soll zunächst die Herausarbeitung allgemeiner Leitlinien für Überwachungspflichten beim Einsatz von KI folgen. Anschließend wird unter Berücksichtigung der KISpezifika die Herleitung eines konkretisierenden Überwachungs-Pflichten­ kanons bei der Delegation an KI vorgenommen. a) Allgemeine Überwachungsparameter beim Einsatz von KI Die Überwachung richtet sich bei menschlichen Delegataren in unternehmensbezogener Hinsicht nach der Art des Unternehmens und dessen Größe.271 Ferner wird die Intensität der Überwachung von der Unternehmensorganisation und der Komplexität des im Tätigkeitsbereich des Unternehmens zu beachtenden rechtlichen Regelungsrahmens beeinflusst.272 Daneben treten aufgabenbezogene Pflichten als Eckpfeiler für die Überwachungspflichten des Vorstands. Dazu gehört insbesondere die Bedeutung der Aufgabe für das Unternehmen.273 Diese Parameter wird der Vorstand grundsätzlich bereits unabhängig vom konkreten Delegatar für die Sicherstellung der pflichtgemäßen Erfüllung seiner Überwachung als Ausgangspunkt zugrunde legen müssen.274 Die dritte allgemeine Leitlinie, die personenbezogene Ausrichtung der 270  BeckOGK

AktG-Fleischer, § 93, Rn. 135 ff.; Fleischer, AG 2003, 291 (293 ff.). AktG-Fleischer, § 93, Rn. 135; Fleischer, AG 2003, 291 (293); vgl. KK OWiG-Rogall, § 130, Rn. 43; vgl. aus der Rechtsprechung OLG Düsseldorf, Beschluss vom 12.11.1998 – 2 Ss OWi 385-98 (OWi) 112-98 III = NStZ-RR 1999, 151 (151). 272  BeckOGK AktG-Fleischer, § 93, Rn. 135; Fleischer, AG 2003, 291 (293); MüKo AktG-Spindler, § 93, Rn. 114; U. H. Schneider/Brouwer, in: Hommelhoff (Hrsg.), Festschrift Priester (2007), S. 721; Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482. 273  BeckOGK AktG-Fleischer, § 93, Rn. 135; Fleischer, AG 2003, 291 (293); U. H. Schneider/Brouwer, in: Hommelhoff (Hrsg.), Festschrift Priester (2007), S. 721; Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482; vgl. Druey, in: Kramer (Hrsg.), Festschrift Koppensteiner (2001), S. 9. 274  Vgl. BeckOGK AktG-Fleischer, § 93, Rn. 135; Fleischer, AG 2003, 291 (293). 271  BeckOGK



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG137

Überwachungsintensität, ist hingegen vom Delegatar abhängig.275 Insoweit kommt es hier bei menschlichen Delegataren einerseits darauf an, welches Vertrauen der Vorstand aufgrund der Dauer und Ordnungsgemäßheit der Aufgabenerfüllung in den Delegataren haben darf.276 Andererseits kommt es aber auch auf die Gesamtschau der Person des Delegataren an. Die Überwachungsintensität hängt danach von dessen Qualifikation ab.277 Je qualifizierter der Delegatar ist, desto mehr darf der Vorstand in die ordnungsgemäße Aufgabenerfüllung vertrauen und kann die Überwachung entsprechend reduzieren.278 Personenbezogener Maßstab für menschliche Delegatare ist also insbesondere dessen Zuverlässigkeit und das daraus zu schöpfende (berechtigte) Vertrauen des Vorstands. Überträgt man diese allgemeinen personenbezogenen Leitlinien auf den Einsatz von KI, so wird man die Intensität der Überwachung von ebensolchen Faktoren abhängig machen können. Einem KI-Delegatar wird der Vorstand je mehr vertrauen dürfen, desto regelmäßiger und länger die Aufgabenerfüllung durch diesen pflichtgemäß erfolgt ist. Darüber hinaus wird die Wechselwirkung zwischen Auswahl, Einweisung sowie Überwachung279 bei KI besonders intensiv zu berücksichtigen sein. Die Prüfung der Formalqualifikation des menschlichen Delegatars im Rahmen der Auswahl und dessen Instruktion lassen nur Prognosen hinsichtlich der Qualität der konkreten (neuen) Aufgabenerfüllung zu, sodass der Entscheidung über die Überwachungsintensität ebenso nur diese Prognose zugrunde liegt. Bei der Auswahl der KI wird indes wegen der notwendigen zweistufigen Qualifikationsprüfung280 bereits wegen der Kenntnis über die Trainingsdaten und der Trainingsergebnisse mit hinreichender Sicherheit feststehen, welche Leistung von der KI bei der konkreten Aufgabenerfüllung zu erwarten ist. Als personenbezogene oder vielmehr (hinsichtlich der Personeneigenschaft wertungsneutral) delegatarbezogene Leitlinien der Überwachung wird sich der Vorstand daher mit gewisser Sicherheit an der zuvor erfolgten Auswahl und Instruktion der KI orientieren können. Denn diese wird regelmäßig schon wegen der Rigidität der Aufgabenerfüllung und auf Basis der Trainingsergebnisse der KI anfänglich größeres Vertrauen in die Pflichtgemäßheit 275  U. H. Schneider/Brouwer, in: Hommelhoff (Hrsg.), Festschrift Priester (2007), S. 721; BeckOGK AktG-Fleischer, § 93, Rn. 135; in diese Richtung auch Seibt, in: Bitter/Lutter/Priester/Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482. 276  BeckOGK AktG-Fleischer, § 93, Rn. 135; Fleischer, AG 2003, 291 (293); ausführlich zum Vertrauensgrundsatz bei der Delegation siehe Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 288 ff. 277  Vgl. Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 537. 278  BeckOGK AktG-Fleischer, § 93, Rn. 135; Fleischer, Handbuch des Vorstandsrechts, 2006), § 8 Rn. 33. 279  BeckOGK AktG-Fleischer, § 93, Rn. 135; Fleischer, AG 2003, 291 (293). 280  Dazu oben unter 3. Teil C. I. 1.

138

3. Teil: Die Delegation durch den Vorstand der AG an KI

der konkreten Aufgabenerfüllung durch die KI rechtfertigen können, als das ohne Testläufe vor Einsatz prognosebasierte281 Vertrauen in die Aufgabenerfüllung durch menschliche Delegatare. Auf der Kehrseite werden Schwierigkeiten bei der Funktionalitätsprüfung der KI zu gegebenenfalls erheblich erhöhten Überwachungspflichten des Vorstands führen müssen. Insgesamt wird man vom Vorstand beim Einsatz von KI auf Basis der Wechselwirkungen des Pflichtentrias282 eine exaktere Positionierung hinsichtlich der allgemeinen Grundausrichtung über die Überwachungsintensität abverlangen können und müssen, in deren Rahmen er die konkreteren Überwachungspflichten einschätzen wird. Zusammenfassend wird der Vorstand sich als Ausgangspunkt für Entscheidung über die Intensität seiner Überwachungspflicht beim Einsatz von KI zum einen an betriebs- und aufgabenbezogenen Leitlinien orientieren können. Zum anderen werden die delegatarbezogenen Leitlinien für den KIEinsatz noch intensiver von der Wechselwirkung der Auswahl und Instruk­ tionspflichten auf die Überwachungspflichten beeinflusst als bei mensch­ lichen Delegataren. Das Ergebnis vorheriger Pflichterfüllungen durch den Vorstand bei Auswahl und Instruktion kann daher mit gewisser empirischer Sicherheit hinsichtlich der konkreten Aufgabenerfüllung, ohne ausschließlich auf Prognosen zu basieren, eine Einschätzung über niedrigere oder höhere Überwachungsintensität als ersten allgemeinen Anhaltspunkt zur Ausrichtung der Entscheidung über die spezifischere Überwachung rechtfertigen. b) Herleitung spezifischer Überwachungspflichten beim Einsatz von KI Spezifische Überwachungspflichten beim Einsatz von KI durch den Vorstand sind von Gesetzes wegen nicht benannt. Auch aus der Regelung des § 91 Abs. 2 AktG, der die Pflicht des Vorstands statuiert, „geeignete Maßnahmen zu treffen, insbesondere ein Überwachungssystem einzurichten, damit den Fortbestand der Gesellschaft gefährdende Entwicklungen früh erkannt werden“, können entsprechende Anhaltspunkte nicht herausdestilliert werden.283 Ebenso wenig sind bisher in der Rechtsprechung Anforderungen an bestimmte Überwachungspflichten beim Einsatz von KI formuliert worden. 281  Dieses wird zumindest so lange das erhöhte Vertrauen in die KI rechtfertigen können, bis sich KI und menschlicher Delegatar im Einsatz im Unternehmen bewährt haben und entsprechend konkreteres Vertrauen aufgrund der Leistung das anfängliche Vertrauen verdrängt. 282  Auswahl, Einweisung, Überwachung. 283  So auch Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 516, „liefert nicht mehr als einen vagen Anhaltspunkt“; dazu auch Linardatos, ZIP 2019, 504 (507); ähnlich Zetzsche, AG 2019, 1 (7), der daraus aber die allgemeine Pflicht ableitet, „technikimmanenten Risiken angemessen zu begegnen“.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG139

Aus diesem Erkenntnisvakuum sollen nun konkretisierend zu den zuvor dargestellten allgemeinen Leitlinien zur Überwachungsintensität spezifischere Überwachungspflichten beim Einsatz von KI anhand zweier Erkenntnisquellen hergeleitet werden, um auf dieser Grundlage in einer Gesamtschau einen Pflichtenkanon auszudifferenzieren. aa) Kasuistik der Rechtsprechung und Literatur zu § 130 OWiG Zur Konkretisierung der Überwachungsparameter bei der Delegation wird regelmäßig auf die umfassende Kasuistik zu Überwachungspflichten im Rahmen des § 130 OWiG abgestellt.284 Aus dieser Kasuistik hat Fleischer die folgenden fallspezifische Eckpfeiler für die Überwachungspflichten bei menschlichen Delegataren herausgearbeitet.285 Angelehnt an diese Eckpfeiler sollen erste Erkenntnisse für KI-spezifische Pflichten erarbeitet werden. (1) Einschreiten bei Verdachtsmomenten Der Vorstand hat nicht erst dann tätig zu werden, wenn eine Pflichtverletzung des Delegataren offensichtlich zu Tage getreten ist, sondern bereits bei Indizien auf Unregelmäßigkeiten einzuschreiten.286 In Folge der Pflichtverletzung können intensivierte Überwachungspflichten erforderlich und Vorkehrungen zu treffen sein, künftige Pflichtverletzungen zu unterbinden.287 Beim Einsatz von KI-Delegataren wird der Vorstand sich demgemäß während der Aufgabenerfüllung der KI nicht nur auf erfolgreiche Trainingsergebnisse verlassen dürfen. Zwar werden bereits vor der Implementierung der KI im Unternehmen offensichtliche und einfache Fehler grundsätzlich immer gefunden.288 Probleme können jedoch verstecktere und komplexere Fehler be284  BeckOGK AktG-Fleischer, § 93, Rn. 136; Seibt, in: Bitter/Lutter/Priester/ Schön/Ulmer (Hrsg.), Festschrift K. Schmidt (2009), S. 1482; Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 537; Fleischer, AG 2003, 291 (294); systematisierend eingehend auf das Schrifttum und die umfassende Rechtsprechung siehe KK OWiG-Rogall, § 130, Rn. 42 f. 285  BeckOGK AktG-Fleischer, § 93, Rn. 136 ff.; Fleischer, AG 2003, 291 (294 f.). 286  BeckOGK AktG-Fleischer, § 93, Rn. 137; Fleischer, AG 2003, 291 (294); Dreher, in: Grundmann/Baum (Hrsg.), Festschrift Hopt (2010), S. 536 f.; U. H. Schneider, in: Lutter/Ulmer (Hrsg.), Festschrift 100 Jahre GmbH-Gesetz (1992), S. 487; Göhler OWiG-Thoma, § 130, Rn. 11; vgl. aus der Rechtsprechung BGH, Urteil vom 08.10.1984 – II ZR 175/83 = GmbHR 1985, 143 (144). 287  Vgl. OLG Koblenz, Urteil vom 10.06.1991 – 6 U 1650/89 = ZIP 1991, 870 (871); so auch BeckOGK AktG-Fleischer, § 93, Rn. 137; Fleischer, AG 2003, 291 (294). 288  Siehe das Experteninterview bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 487 und 489.

140

3. Teil: Die Delegation durch den Vorstand der AG an KI

reiten, die vor Implementierung regelmäßig nicht auffallen.289 Indizien für Fehler können beim Einsatz von KI unter Umständen weitaus schwieriger erkannt werden, als bei menschlichen Delegataren.290 Zudem führt die Adaptivität der KI dazu, dass sich Fehler möglicherweise erst im laufenden Prozess entwickeln.291 Der Vorstand muss diesen technischen Besonderheiten, die eine Indizienerkennung erschweren können, durch stichprobenartige Kontrollen der Algorithmen und Ergebnisse begegnen.292 Unterstützt werden können diese Kontrollen auch durch systemimmanente Sicherheitsschranken, die bei gewissen Veränderungen die KI „abstürzen“ lassen, sodass diese den Dienst bis zur Prüfung durch einen Menschen einstellt.293 (2) Laufende Kontrolle Eng verbunden mit der Pflicht des Vorstandes, bei Verdachtsmomenten einzuschreiten ist die Pflicht zur laufenden Kontrolle. Die laufende Kontrolle basiert sowohl bei menschlichen Delegataren als auch bei KI auf dem Grundgedanken der Leitungsverantwortung, dass der Vorstand die pflichtgemäße Aufgabenerfüllung im Sinne des Unternehmens auch für delegierte Aufgaben zu gewährleisten hat. Beim Einsatz menschlicher Delegatare wird Anknüpfungspunkt für die laufende Kontrolle häufig das Hinwirken auf die Einhaltung der unternehmensinternen und gesetzlichen Pflichten sein.294 Indes nicht, weil der menschliche Delegatar, ebenso wie KI, Fehler machen kann, sondern insbesondere, weil er dazu neigt in „Principal-Agent-Konflikte“ zu geraten.295 Die laufende Kontrolle des menschlichen Delegatars soll dazu führen, dass er sich bewusst ist, dass Missstände jederzeit aufgedeckt und geahndet werden (können).296 Ihre Grenze finden die laufenden Kontrollen an der objektiven Zumutbarkeit.297 Die laufende Kontrolle für menschliche Delegatare lässt sich schon wegen unterschiedlicher Anknüpfungspunkte der 289  Siehe das Experteninterview bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 487 und 489. 290  Vgl. das Experteninterview bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 291  Siehe dazu das Experteninterview bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 292  So im Ergebnis auch Becker/Pordzik, ZfPW 2020, 334 (351). 293  Siehe das Experteninterview bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 294  Vgl. BeckOGK AktG-Fleischer, § 93, Rn. 139. 295  Vgl. BeckOGK AktG-Fleischer, § 93, Rn. 139. 296  BeckOGK AktG-Fleischer, § 93, Rn. 139; vgl. BGH, Beschluss vom 25.06.1985 – KRB 2/85 = NStZ 1986, 34 (34). 297  Schmidt-Housson, in: Hauschka/Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6 Rn. 32; Fleischer, AG 2003, 291 (294); BeckOGK AktG-Fleischer,



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG141

Kontrolle inhaltlich nicht unmittelbar auf KI übertragen. KI unterliegt nicht dem „Principal-Agent-Konflikt“, sodass der bei menschlichen Delegataren dominierende Beweggrund der laufenden Kontrolle diesbezüglich nicht erfüllt werden kann. Die laufende Kontrolle ist aber deswegen bei KI nicht obsolet. Vielmehr hat diese lediglich ein anders geprägtes Telos und muss technikspezifisch umgesetzt werden. Im Rahmen der Pflicht des Vorstands, bei Verdachtsmomenten einzuschreiten, wurde bereits die Problematik systemimmanenter Code-Fehler und der Adaptivität angeführt.298 Sie führt bei der Indizienkontrolle bereits zu einer gewissermaßen stichprobenartigen laufenden Kontrolle.299 Diese ist jedoch im Rahmen einer allgemeinen laufenden Kontrolle zu erweitern. Die Stichprobenkontrolle wird die Plausibilität der Ergebnisse und Funktionstüchtigkeit der Algorithmen nicht sicherstellen können. Denn Fehler können sich in einzelnen Entscheidungen manifestieren, die von der Stichprobenkontrolle nicht erfasst sind. Der Vorstand muss aufgrund der Tatsache, dass Fehler zwar sehr selten, aber dennoch in Einzelfällen gewissermaßen ad hoc zu gänzlich unbrauchbaren Ergebnissen führen können, durch Kontrollsysteme prüfen, dass gesetzliche und unternehme­ rische Vorgaben fortlaufend eingehalten werden.300 Dazu kann er vom ­KI-Delegatar beispielweise dauerhaft Kontrollvariablen zu den Ergebnissen erstellen lassen, die von Kontrollalgorithmen ausgewertet und damit die ­Arbeitsfähigkeit einzelner Delegatars-Algorithmen fortlaufend prüfen.301 Insoweit erfolgt gleichzeitig eine erste technische und inhaltliche Plausibilitätskontrolle der Ergebnisse des KI-Delegatars.302 Die darüber hinaus bereits nach allgemeinen Grundsätzen erforderliche laufende Plausibilitätskontrolle der Ergebnisse durch den Vorstand ist insoweit KI-spezifisch zu erweitern. Diese erweiterten Kontrollpflichten rechtfertigen sich nicht zuletzt aus der Neigung des Menschen (im konkreten Fall: des Vorstands), von Computern oder vergleichbarer Technik geschaffenen Ergebnissen einen erheblichen Vertrauensvorschuss entgegenzubringen und die Plausibilitätsprüfung zu vernachlässigen.303 § 93, Rn. 139; MüKo AktG-Spindler, § 93, Rn. 43; vgl. OLG Düsseldorf, Beschluss vom 12.11.1998 – 2 Ss OWi 385-98 (OWi) 112-98 III = NStZ-RR 1999, 151 (151). 298  Dazu oben unter 3. Teil C. I. 3. b) aa) (1). 299  Dazu oben unter 3. Teil C. I. 3. b) aa) (1). 300  Zustimmend Noack, NZG 2021, 305 (306); wohl auch Becker/Pordzik, ZfPW 2020, 334 (352); in diese Richtung auch J. Wagner, BB 2018, 1097 (1099). 301  Siehe das Experteninterview bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488; dazu auch Martini, Blackbox Algorithmus, S. 351 f. 302  Vgl. das Experteninterview bei Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 488. 303  Vgl. Martini, Blackbox Algorithmus, S. 28, der das Verhältnis des durchschnittlichen Nutzers einer Softwareanwendung als von Vertrauen statt konkreter Nachvollziehbarkeit geprägt beschreibt.

142

3. Teil: Die Delegation durch den Vorstand der AG an KI

(3) Organisationspflichten und mehrstufige Überwachung Zur pflichtgemäßen Überwachung des Delegataren gehört auch die Einrichtung einer tauglichen Überwachungsorganisation.304 Dazu ist es erforderlich, dass der Vorstand selbst oder ein damit betrauter Mitarbeiter den Delegataren durch erkennbare Überwachungsmaßnahmen von Pflichtverletzungen abhält.305 Im Hinblick auf KI Delegatare wird zwar die Erkennbarkeit der Überwachungsmaßnahme die KI mangels psychischer Einwirkungsmöglichkeit nicht zu beeinflussen vermögen. Jedoch wird es auch hier zur Sicherstellung einer effektiven Überwachung der KI notwendig sein, dass der Vorstand ein entsprechendes Überwachungssystem einrichtet. Dies beinhaltet die zuvor erörterte Etablierung von Interventionsmechanismen bei Indizien zu Unregelmäßigkeiten sowie einer laufenden Kontrolle. Häufig dürfte mangels technischen Verständnisses des Vorstands der Einsatz eines „Chief Digital Officers“ (CDO) geeignet sein,306 um die technischen Verständnishürden zu kompen­ sieren,307 der die Anforderungen und Organisation der Überwachung, vorgegeben vom Vorstand, umsetzt. In der Folge wird sich der Vorstand auf eine Metaüberwachung des CDOs zurückziehen können.308 (4) Zusammenfassung Die Erkenntnisse aus der Kasuistik zu § 130 OWiG sowie der entsprechenden Literatur dienen als Basis für einen KI-spezifischen Pflichtenkanon. Ihre Wertungen zu Grunde gelegt, ergeben sich für KI-Delegatare besonders zu berücksichtigende Parameter bei der Überwachung durch den Vorstand. Die technischen Eigenheiten der KI machen es notwendig, dass der Vorstand 304  BeckOGK

AktG-Fleischer, § 93, Rn. 138; Fleischer, AG 2003, 291 (294). BGH, Urteil vom 23.03.1973 – 2 StR 390/72 = NJW 1973, 1511 (1513 f.). 306  So auch Lücke, BB 2019, 1986 (1993); Linardatos, ZIP 2019, 504 (508); Sattler, BB 2018, 2243 (2247): „Chief Information Security Officer“ (CIO); Thiel/NazariKhanachayi, RDi 2021, 134 (140); mit allgemeinem Bezug zur Organisation von Cyberrisiken in Unternehmen Kiefner/Happ, BB 2020, 2051 (2054). 307  Eine volle Sachkunde kann vom Vorstand auch bei der Übewachung der Delegatare nicht gefordert werden, U. H. Schneider, in: Lutter/Ulmer (Hrsg.), Festschrift 100 Jahre GmbH-Gesetz (1992), S. 487. 308  So auch Becker/Pordzik, ZfPW 2020, 334 (353); Lücke, BB 2019, 1986 (1993); zur Zulässigkeit der Metaüberwachung siehe U. H. Schneider, in: Lutter/Ulmer (Hrsg.), Festschrift 100 Jahre GmbH-Gesetz (1992), S. 487; Fleischer, AG 2003, 291 (295); Fleischer, Handbuch des Vorstandsrechts, (2006), § 8 Rn. 39; Hauschka, AG 2004, 461 (467); Schmidt-Housson, in: Hauschka/Moosmayer/Lösler (Hrsg.), Corporate Compliance (32016), § 6 Rn. 36; BeckOGK AktG-Fleischer, § 93, Rn. 141; eingehend zur Delegation der Überwachungspflicht auch Linnertz, Die Delegation durch den Vorstand einer Aktiengesellschaft, S. 290 ff. 305  Vgl.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG143

insbesondere eine effektive und fachlich geeignete Überwachungsorganisation einrichtet, die die gegenüber menschlichen Delegataren gesteigerten Pflichten zum Einschreiten bei Verdachtsmomenten und der fortlaufenden Überwachung pflichtgemäß leisten kann. Geeignet sein kann hier der Einsatz eines CDO als Überwacher. Der Vorstand selbst wird sich dann auf die Meta­ überwachung des Überwachers, beispielsweise eines CDO, beschränken können. Dem Vorstand obliegt im Rahmen seiner Leitungsverantwortung weiter die Oberaufsicht. bb) Analogie zu § 80 Abs. 2 WpHG (zuvor: § 33 Abs. 1a WpHG) Als zweiter Ansatzpunkt denkbar ist eine Herleitung KI-spezifischer Überwachungspflichten aus einer Analogie zu § 80 Abs. 2 WpHG.309 Dazu müsste eine planwidrige Regelungslücke vorliegen sowie die Interessenlage des geregelten und des zu regelnden Sachverhalts vergleichbar sein.310 Eine planwidrige Regelungslücke dürfte bezüglich der Überwachungspflichten beim Einsatz von KI jedenfalls gegeben sein.311 Es ist mangels damaliger technischer Existenz bzw. technischer Relevanz für den hier untersuchten Bereich nicht zu erwarten, dass der historische Gesetzgeber die Regelung der KI ­bewusst unterlassen hat.312 Problematisch ist indes die Vergleichbarkeit der Interessenlage.313 309  Soweit ersichtlich hat Möslein als erster eine solche Herleitung bemüht, ­ öslein, ZIP 2018, 204 (211); der diese Analogie kürzlich noch einmal eingehender M bekräftigt Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 517 ff.; nochmals Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 479 f.; nicht ausdrücklich eine Analogie bemühend aber dennoch ähnlich wie Möslein siehe Linardatos, ZIP 2019, 504 (508). 310  BVerfG, Urteil vom 03.04.1990 – 1 BvR 1186/89 = NJW 1990, 1593 (1593 f.); BGH, Urteil vom 13.07.1988 – IVa ZR 55/87 = NJW 1988, 2734 (2734); BGH, Urteil vom 13.03.2003 – I ZR 290/00 = NJW 2003, 1932 (1933), m. w. N.; Beaucamp, AöR 134 (2009), 83 (84 f.), mit zahlreichen Literaturnachweisen; umfassend eingehend auf die Analogiefähigkeit von Normen siehe Würdiger, AcP 206 (2006), 946 (947 ff.). 311  Zustimmend Möslein, ZIP 2018, 204 (211); Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 516 f.; Möslein, in: Ebers/Heinze/ Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 463 und 479; vgl. auch J. Wagner, BB 2018, 1097 (1099); Becker/Pordzik, ZfPW 2020, 334 (351 f.). 312  Ähnlich auch Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 463. 313  Diese ablehnend: Becker/Pordzik, ZfPW 2020, 334 (351  f.); J. Wagner, BB 2018, 1097 (1099); Lücke, BB 2019, 1986 (1992 f.); Zetzsche, AG 2019, 1 (8); wohl auch gegen eine vergleichbare Interessenlage und heranziehend „als Richt-

144

3. Teil: Die Delegation durch den Vorstand der AG an KI

(1) Keine vergleichbare Interessenlage Die Interessenlage des § 80 Abs. 2 WpHG unterscheidet sich an zentralen Punkten von derer bei der Ausgestaltung von Überwachungspflichten des Vorstands beim Einsatz von KI. (a) § 80 Abs. 2 WpHG als Ausnahmeregelung Zunächst stellt § 80 Abs. 2 WpHG eine Ausnahmeregelung für einen sehr begrenzten Anwendungsbereich der KI im algorithmischen Handel von Finanzinstrumenten dar,314 sodass der Ausnahmecharakter schon aufgrund des isolierten Regelungsgegenstands deutlich wird. Darüber hinaus ist § 80 Abs. 2 WpHG insbesondere als Reaktion auf unterschiedliche Missstände des algorithmischen Hochfrequenz-Wertpapierhandels geschaffen worden.315 Sie dient vor allem dem übergeordneten Ziel, die Risiken des algorithmischen (Hochfrequenz-)Handels316 für den Finanzmarkt einzudämmen.317 Die Pflichten des Vorstands hinsichtlich der Überwachung beim Einsatz von KI betreffen hingegen ausschließlich innergesellschaftliche Ziele im Haftungsverhältnis von Vorstand zur Gesellschaft und im Interessenverhältnis zur Gesellschaft und zu den Aktionären.318

schnur“ R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1135); die Vergleichbarkeit nun auch zurückhaltender verteidigend aber wohl dennoch eine Analogie bejahend Möslein, in: Kaulartz/Braegelmann (Hrsg.), Rechtshandbuch AI und ML (2020), S. 517 „ähnelt sich zumindest im Grundsatz“; genau so auch Möslein, in: Ebers/Heinze/ Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 479; zuvor noch klarer Möslein, ZIP 2018, 204 (211): „dürfte sich bejahen lassen“. 314  Umfassend dazu Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S.  192 ff. 315  Kindermann/Coridaß, ZBB 2014, 178 (178); Zetzsche, AG 2019, 1 (8); Deutscher Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 1 f. 316  Insbesondere wurde die Regelung für den Hochfrequenzhandel geschaffen, auch wenn § 80 Abs. 2 WpHG und die folgenden Absätze 3 bis 5 dem klaren Wortlaut und den abgrenzenden Definitionen in § 2 Abs. 44 WpHG (Hochfrequenzhandel) und § 80 Abs. 2 Satz 1 WpHG (algorithmischer Handel) nach auch für den algo­ rithmischen Handel insgesamt gelten, Deutscher Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 1 und 18; zur Abgrenzung der Begriffe (Hochfrequenzhandel als Spezialform des algorithmischen Handels) siehe auch Kindermann/Coridaß, ZBB 2014, 178 (180). 317  Deutscher Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 18. 318  Vgl. Becker/Pordzik, ZfPW 2020, 334 (351); Zetzsche, AG 2019, 1 (8).



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG145

(b) Nicht vergleichbare Pflichtenlage Aber nicht nur der Blick auf die allgemeinen Ziele, sondern auch ein solcher auf die Umsetzung durch die konkreten Organisationspflichten des § 80 Abs. 2 WpHG werfen gewichtige Zweifel auf, diese auf die Pflichten des Vorstands zur Überwachung bei der Delegation an KI zu übertragen. Die Organisationspflichten sind als Gegengewicht für die Risiken des Hochfrequenzhandels konzipiert und sollen insbesondere die Systemstabilität und Marktintegrität sicherstellen.319 Denn die Vorteile der Geschwindigkeit der Handelsalgorithmen für deren Nutzer führen zu einer Informationsasymme­ trie zu Lasten solcher Marktteilnehmer, die keinen algorithmischen Handel einsetzen.320 Die in § 80 Abs. 2 WpHG verankerten Organisationspflichten beim algorithmischen Handel sollen diesen Aspekten Rechnung tragen. Eine solche gesteigerte Schutzwürdigkeit gewisser Marktteilnehmer, die im Rahmen des algorithmischen Wertpapierhandels umfassende Organisationspflichten rechtfertigen mag, lässt sich indes im hier untersuchten Fall der Überwachungspflichten bei der Delegation nicht begründen. Die Aktionäre sind aber schon wegen der Vorteile, die diese aus dem Einsatz von KI im Unternehmen ziehen nur eingeschränkt schutzwürdig.321 Die Schutzwürdigkeit der Aktionäre der Gesellschaft ist auch deshalb nicht mit derer der Marktteilnehmer am Kapitalmarkt vergleichbar, die keine Algorithmen einsetzen, da letztere ohne ihr Zutun den Risiken der Algorithmen ausgeliefert sind und auch nicht von deren Nutzen profitieren. Hingegen haben die Aktionäre der Aktiengesellschaft in gewisser Hinsicht ein Wahlrecht, ob sie mit Algorithmen konfrontiert werden wollen und profitieren von deren Vorteilen.322 (c) Unterschiedliche Zielsetzung und Schutzwürdigkeit Darüber hinaus ist wesentlicher Bestandteil der Funktion der Finanzmärkte das Vertrauen der Marktteilnehmer sowohl in dessen Integrität als auch in die Funktionsfähigkeit der Mechanismen zur effektiven Preisbildung.323 Für das Vertrauen der Marktteilnehmer ist es notwendig, dass der Gesetzgeber Vorkehrungen trifft, um drohende Missstände zu unterbinden und, sollten sich dennoch solche ereignen, eine möglichst umfassende Rekonstruktion des Hergangs möglich ist.324 Wegen dem beim Einsatz von Algorithmen erhöhten 319  Deutscher

Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 1. Autonome und intelligente Wertpapierhandelssysteme, S. 217. 321  Vgl. Zetzsche, AG 2019, 1 (8). 322  Vgl. Zetzsche, AG 2019, 1 (8). 323  Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 212. 324  Vgl. Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 212 f. und 217 f. 320  Kollmann,

146

3. Teil: Die Delegation durch den Vorstand der AG an KI

Risiko der Marktmanipulation und des Marktmissbrauchs bestehen daher Dokumentations- und Aufklärungspflichten.325 Mit gleicher Zielrichtung ist die Bundesanstalt für Finanzdienstleistungsaufsicht nach § 6 Abs. 4 WpHG befugt, jederzeit Informationen über die entsprechende Aspekte zur Bewertung des Sachverhalts einzuholen.326 Im Gegensatz zum Vertrauen der Marktteilnehmer ist das Vertrauen der Aktionäre in die Gesellschaft jedoch schon nicht durch äußere Einflüsse gefährdet, auf welche diese keinen Einfluss haben. Daneben besteht auch kein Risiko eines Schadens der Aktionäre durch Missbrauch oder Manipulation durch den Vorstand bzw. die Gesellschaft als Nutzer der Algorithmen. Insoweit besteht auch hier keine Vergleichbarkeit der Interessenlage. (d) Unterschiedliche Beziehungen der betroffenen Akteure Schließlich begegnen die Organisationspflichten des § 80 Abs. 2 WpHG dem Risiko des Marktzusammenbruchs durch die Abhängigkeit und Interaktion der Handelsalgorithmen untereinander.327 Bei Aktiengesellschaft sind die unmittelbaren Auswirkungen der KI-Entscheidungen jedoch internalisiert. Es besteht regelmäßig keine unmittelbare Abhängigkeit anderer Marktteilnehmer von algorithmischen Entscheidungen innerhalb der Gesellschaft, auch dann nicht, wenn diese selbst innergesellschaftlich Algorithmen einsetzen. Eine vergleichbare Interessenlage ist daher insgesamt abzulehnen. (2) E  xtraktion organisatorischer Grundanforderungen beim Einsatz von KI aus § 80 Abs. 2 WpHG zur Konkretisierung der Überwachungspflichten des Vorstands Gleichwohl eine Analogie abzulehnen ist, lassen sich aus § 80 Abs. 2 WpHG zumindest organisatorische Grundanforderungen extrahieren, die bei der Ausformung der Überwachungspflichten des Vorstands bei der Delegation von Aufgaben an KI konkretisierend herangezogen werden können.328 325  Deutscher

Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 18. Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 1 f. und 18. 327  Kindermann/Coridaß, ZBB 2014, 178 (178); Deutscher Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 1. 328  So auch Becker/Pordzik, ZfPW 2020, 334 (352); J. Wagner, BB 2018, 1097 (1099); Noack, ZHR 183 (2019), 105 (127); „als Richtschnur herangezogen“ R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1135); unklar hinsichtlich der Analogie aber auch für die Extraktion von Organisationspflichten aus § 80 Abs. 2 WpHG Linardatos, ZIP 2019, 504 (508); ähnlich „dürfte sich zumindest der Grundsatz entsprechend 326  Deutscher



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG147

(a) Zur Tauglichkeit der Vorschrift für den vorgesehenen Zweck der Konkretisierung Vereinzelt wird vorgetragen, dass die Orientierung an § 80 Abs. 2 WpHG bei der Erarbeitung von Vorstandspflichten bei der Delegation an KI nicht zielführend sei, da diese zu sehr die IT-Sicherheit betreffe, ohne die KI-spezifischen Besonderheit der Autonomie zu würdigen sowie stattdessen die Besonderheiten des Finanzmarktes fokussiere.329 Zuzustimmen ist dem insoweit, dass bei der Extraktion von in § 80 Abs. 2 WpHG enthaltenen Wertungen zur Konkretisierung der Vorstandspflichten, die finanzmarktspezifischen Anpassungen außer Betracht bleiben müssen. Sie eignen sich nicht zur unmittelbaren Übertragung auf die Vorstandspflichten.330 Indes ist unzutreffend, dass § 80 Abs. 2 WpHG die KI-Spezifika nicht ausreichend würdige. Bereits im Gesetzesentwurf wurde auf die Adaptivität331 und die Autonomie332 der KI als Anknüpfungspunkt Bezug genommen.333 Die IT-Sicherheit im Sinne einer Sicherheit gegen Eingriffe Dritter von außen oder technischer Sicherheit gegen Systemausfall wird von § 80 Abs. 2 WpHG nicht primär intendiert.334 Gleichwohl ist aber zuzustimmen, dass der Schutz gegen Angriffe Dritter sowie andere IT-Sicherheitsvorkehrungen als nicht speziell KI- sondern allgemein technikspezifische Pflichten vom Vorstand zu erfüllen sind.335 Hingegen sind wesentlicher Aspekt der Regelung des § 80 Abs. 2 WpHG vielmehr die sich aus den KI-Spezifika ergebenden Risiken für die mit den KI-Systemen in Berührung kommenden Entitäten.336 Folglich eignet sich die übertragen lassen“, aber wohl weiterhin ausgehend von einer Analogie Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 479; Eine Orientierung an § 80 Abs. 2 WpHG grundsätzlich ablehnend und stattdessen auf eine „an Sinn und Zweck der Delegation orientierte Rechtsfortbildung“ verweisend Lücke, BB 2019, 1986 (1992 f.). 329  Lücke, BB 2019, 1986 (1993). 330  Siehe dazu bereits oben unter 3. Teil C. I. 3. b) bb) (1) unter Ablehnung der Vergleichbaren Interessenlage und damit einer Analogie. 331  Deutscher Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 18. 332  Deutscher Bundestag, BT-Drs. 17/11631 v. 16.11.2012, S. 1. 333  Dazu auch Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S.  203 f. 334  Siehe zu den Intentionen der Regelung bereits oben unter 3. Teil C. I.; ausführlich dazu siehe Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S.  212 ff.; a. A. Lücke, BB 2019, 1986 (1993). 335  Lücke, BB 2019, 1986 (1993); im Ergebnis auch Becker/Pordzik, ZfPW 2020, 334 (352); Linardatos, ZIP 2019, 504 (508); J. Wagner, BB 2018, 1097 (1099); ähnlich Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 479. 336  Dazu bereits oben unter 3. Teil C. I. 3. b) bb) (1); ausführlich dazu siehe Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 212 ff.

148

3. Teil: Die Delegation durch den Vorstand der AG an KI

Heranziehung der Regelung zumindest für den hier vorgesehenen Zweck, die Pflichten des Vorstands bei der Überwachung der KI-Delegataren zu konkretisieren und in einer Gesamtschau einen Pflichtenkanon zu formulieren. (b) E  xtraktion organisatorischer Grundanforderungen aus § 80 Abs. 2  WpHG Neben den Grundanforderungen an die IT-Sicherheit ist aus § 80 Abs. 2 Satz 2 WpHG das Bedürfnis nach einer angemessenen Risikokontrolle ab­ zuleiten. Die Konkretisierung der Risikokontrolle in den darauffolgenden Nr. 1–3 ist zwar finanzmarktspezifisch. Jedoch kann daraus der allgemeine Grundsatz gewonnen werden, dass den KI-spezifischen Risiken nicht nur technikspezifisch337 sondern auch aufgabenspezifisch zu begegnen ist (in Übereinstimmung mit den allgemeinen Anforderungen aus § 91 Abs. 2 AktG). Der Vorstand hat danach die Besonderheiten der KI unter Berücksichtigung des Einsatzfeldes zu würdigen und entsprechende Vorkehrungen zu treffen, die Auswirkungen technischer Risiken im konkreten Aufgabenfeld einzudämmen. Ist das System beispielsweise regelmäßig immensen Rechenzugriffen ausgesetzt und ist es in eine sensible Infrastruktur im Unternehmen eingebettet, wird der Vorstand besondere Vorkehrungen für die Systemstabilität bei besonderer Belastung und ebenso spezielle Vorkehrungen für die Aufrechterhaltung des Unternehmensablaufs bei Ausfall des Systems treffen müssen.338 Daneben wollen manche Stimmen der Literatur unterschiedliche Dokumentationspflichten aus § 80 Abs. 2 WpHG ableiten.339 Während diese Pflichten in besonderen Einzelfällen340, wie dem Hochfrequenzhandel ihre Berechtigung haben, um Marktmanipulation abzuwenden sowie die Transparenz des Handelsverkehrs mit Finanzinstrumenten zu sichern, ist nicht ersichtlich, welcher Zweck eine Ableitung als Erforderlichkeit bei der Konzeption allgemeiner Pflichten bei der Überwachung durch den Vorstand im 337  So

Zetzsche, AG 2019, 1 (7). im Ergebnis auch Becker/Pordzik, ZfPW 2020, 334 (352); Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 479; Linardatos, ZIP 2019, 504 (508); J. Wagner, BB 2018, 1097 (1099); Lücke, BB 2019, 1986 (1993). 339  Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 479; Becker/Pordzik, ZfPW 2020, 334 (352); Linardatos, ZIP 2019, 504 (508); Lücke, BB 2019, 1986 (1993). 340  Beispielsweise in bestimmtem Umfang auch für Hochrisikosysteme Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), S. 29 f. und 49 f. 338  So



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG149

Rahmen der Delegation rechtfertigen sollte.341 Zum einen ist bei Betrachtung des Wortlauts auch im Rahmen des § 80 Abs. 2 i. V. m. Abs. 3 WpHG die Dokumentationspflicht keine solche der Verarbeitungsprozesse, sondern der Ergebnisse und würdigt damit das Bedürfnis der (erhofften)342 Rekonstruierbarkeit für die Transparenz des Finanzmarktes. Zum anderen würde eine tatsächliche Rekonstruktion der Datenverarbeitung, also der Herleitung des Ergebnisses, regelmäßig kaum mit vertretbarem Aufwand aus Dokumentationen über die Verarbeitungsvorgänge zu entnehmen oder auf andere Weise zu ermöglichen sein,343 sodass die Tauglichkeit solcher Dokumentationspflichten ohnehin für den hier erhofften Zweck zu bezweifeln ist.344 Auch führt die Dokumentation von Änderungen der Algorithmen, die in Folge der Adaptivität der KI erfolgen nicht zu mehr Transparenz oder Nachvollziehbarkeit,345 was kürzlich auch vom Gesetzgeber in § 80 Abs. 2 WpHG berücksichtigt wurde, indem die Pflicht zur Dokumentation der Änderung der Algorithmen im Rahmen des autonomen Anpassungsverhaltens der KI wieder abgeschafft wurde.346 Insgesamt ergibt sich also auch aus § 80 Abs. 2 WpHG nichts anderes, als vom Vorstand nach allgemeinen Grundsätzen zu erwarten ist. Er hat die Ergebnisse der KI im Rahmen seiner Überwachungspflicht auf Plausibilität zu prüfen, nicht deren Herleitung.347 Dies ergibt sich schon aus dem Vertrauen, das der Vorstand in Folge der vorgelagerten Auswahl- und Einweisungspflichten der KI348 haben darf. Dokumentationspflichten können sich im ausschließlich internen Wirkungskreis der KI beim Einsatz durch den Vorstand nicht durch übergeordnete Interessen rechtfertigen.349 Für die Plau341  So wohl auch Linardatos, ZIP 2019, 504 (508), der nur bei „technikgetriebenen Unternehmen“ Dokumentationspflichten zur Erklärbarkeit und Nachvollziehbarkeit der Algorithmen für begründbar hält, nicht hingegen in eher analog ausgerichteten Branchen. 342  Zur Problematik der (kaum möglichen) Rekonstruierbarkeit des Zustandekommens der Entscheidung siehe Martini, Blackbox Algorithmus, S. 43 ff. 343  Martini, Blackbox Algorithmus, S. 194. 344  So auch Wischmeyer, AöR 143 (2018), 1 (53). 345  Vgl. Martini, Blackbox Algorithmus, S. 194 f.; Wischmeyer, AöR 143 (2018), 1 (53). 346  Deutscher Bundestag, BT-Drs. 18/10936 v. 23.01.2017, S. 241; ähnlich der Regulierungsvorschlag der EU-Kommission, die bestimmte Dokumentationspflichten nur für „Hochrisikosysteme“ fordert Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), S. 29 f. und 49 f. 347  Für keine Pflicht zur Prüfung der Herleitungsplausibilität bei KI auch Noack, NZG 2021, 305 (306); Linardatos, ZIP 2019, 504 (508); Becker/Pordzik, ZfPW 2020, 334 (352); vgl. zur Untauglichkeit der Forderung der Nachvollziehbarkeit von KI Entscheidungen zur Verbesserung der Wahrnehmung der Rechte Betroffener auch Wischmeyer, AöR 143 (2018), 1 (53). 348  Dazu oben unter 3. Teil C. I. 1. und 2. 349  Dazu bereits oben unter 3. Teil C. I. 3. b) bb) (1).

150

3. Teil: Die Delegation durch den Vorstand der AG an KI

sibilitätsprüfung kann es aber regelmäßig hilfreich sein, die Ergebnisse der Datenverarbeitung mit den entsprechenden Parametern zu dokumentieren, sodass Entwicklungen in einer Reihe von Entscheidungen durch die KI ­nachvollziehbarer werden.350 Es mag darüber hinaus aus unternehmerischen Gründen auch wünschenswert sein, darauf hinzuarbeiten, entsprechende Transparenz und Dokumentation der Verarbeitungsprozesse der KI zu erreichen, um etwaige Unregelmäßigkeiten und Fehlern schneller und effektiver begegnen zu können und die Effizienz zu optimieren. Eine solche Möglichkeit unter Berücksichtigung vertretbaren Aufwands ist zwar derzeit nicht ersichtlich, befindet sich jedoch in Erarbeitung.351 c) Zusammenfassung und Formulierung eines Kanons der Überwachungspflichten beim Einsatz von KI352 Bei der allgemeinen Grundausrichtung der Überwachungsorganisation durch den Vorstand sind zunächst betriebsbezogene, aufgabenbezogene und delegatarbezogene Leitlinien zu ziehen, die wegen der Wechselwirkung zwischen Auswahl-, Einweisungs- und Überwachungspflichten durch erstere beiden maßgeblich determiniert werden. Daran anschließend hat die konkretisierende Gestaltung der Überwachung für den Einzelfall zu erfolgen. Aus der Zusammenschau der Ergebnisse der behandelten Erkenntnisquellen lässt sich ein KI-spezifischer 5-Punkte-Pflichtenkanon ableiten, an dem der Vorstand die Ausgestaltung der konkreten Überwachungsorganisation des KIDelegatars orientieren kann: 1. Der Vorstand hat regelmäßige Stichprobenkontrollen der Algorithmen und KI-Ergebnisse vorzunehmen und bei Verdachtsmomenten auf Unregelmäßigkeiten einzuschreiten. 2. KI-spezifischen Risiken der seltenen, aber möglichen groben Abweichung durch Fehlprogrammierung der Rahmenbedingungen und Schranken ist durch systemimmanente Sicherheitsschranken zu begegnen, die zum Systemabsturz der KI führen, wenn diese überschritten werden. 3. Dem Vorstand obliegt die laufende Kontrolle der Ergebnisplausibilität der KI-Ergebnisse. Daneben ist es notwendig, zusätzlich zur allgemeinen Plausibilitätsprüfung durch den Vorstand als vorgelagerten Filter eine 350  In diese Richtung auch der Regulierungsvorschlag der EU-Kommission, die allerdings entsprechend strenge Aufzeichnungspflichten des Betriebs nur für „Hochrisiko-Systeme“ fordert Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), S. 29 f. und 49 f. 351  Martini, Blackbox Algorithmus, S. 194. 352  Grundzüge angelehnt an die Auffächerung für menschliche Delegatare von Fleischer in BeckOGK AktG-Fleischer, § 93, Rn. 134 ff.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG151

technisch-automatisierte Plausibilitätsprüfung etwa durch Kontrollalgorithmen einzuführen, die die Ergebnisse auf Einhaltung gesetzlicher und unternehmerischer Vorgaben vorfiltern, um laufend auf versteckte Systemfehler zu prüfen, die sich gegebenenfalls erst später auswirken. 4. Der KI-Delegatar ist in die allgemeine IT-Sicherheitsstruktur einzubinden, sodass die Stabilität der Systeme, Notfallvorkehrungen für einen Systemausfall und der Schutz vor Angriffen Dritter gewährleistet ist. 5. Die Überwachung der KI kann und sollte bei mangelndem technischem Verständnis des Vorstands zur Wahrnehmung der effektiven Überwachung einer qualifizierten Person übertragen werden (beispielsweise einem „Chief Digital Officer“). Dem Vorstand obliegt die Metaüberwachung des Überwachers nach allgemeinen Grundsätzen. 6. Zusammenfassung zur Haftung des Vorstands bei der Aufgabendelega­ tion an KI nach § 93 Abs. 2 AktG Der Vorstand hat auch bei der Delegation von Aufgaben an KI Auswahl-, Einweisungs- und Überwachungspflichten zu erfüllen. Diese müssen jedoch eine KI-spezifische Erweiterung erfahren, damit die Substitution der Haftung für unmittelbares Eigenverschulden des Vorstands durch die Haftung für Einhaltung dieser Residualpflichten gerechtfertigt sein kann. Dies lässt sich durch angepasste Auswahl- und Einweisungspflichten sowie einen 5-PunktePflichtenkanon des Vorstands bei der Überwachung erreichen.

II. Übertragbarkeit der ISION-Grundsätze bei „beratender KI“ Vom Vorstand der Aktiengesellschaft kann keine umfassende Sachkunde in allen Bereichen verlangt werden353. Er wird daher regelmäßig den Rat eines Experten einholen.354 Wann der Vorstand auf Informationen Dritter vertrauen darf, wenn er Entscheidungen trifft, hat der BGH355 in Form von vier Leitplanken356 als Vertrauensschutzmerkmale konkretisiert, welche die, letztlich immer vom Einzelfall abhängigen,357 konkreten Anforderungen vorbereiten ZHR 176 (2012), 137 (138). AktG-Fleischer, § 93, Rn. 245; Krieger, ZGR 2012, 496 (498). 355  BGH, Urteil vom 14.05.2007 – II ZR 48/06 = ZIP 2007, 1265 (1267); BGH, Urteil vom 20.09.2011 – II ZR 234/09 = ZIP 2011, 2097 (2099); BGH, Urteil vom 28.04.2015 – II ZR 63/14 = ZIP 2015, 1220 (1222). 356  Binder, AG 2008, 274 (287); BeckOGK AktG-Fleischer, § 93, Rn. 43; BuckHeeb, BB 2016, 1347 (1347). 357  Buck-Heeb, BB 2016, 1347 (1347); BeckOGK AktG-Fleischer, § 93, Rn. 43; Cahn, Der Konzern 2015, 105 (108); vgl. auch Krieger, ZGR 2012, 496 (499, 500, 503). 353  Strohn,

354  BeckOGK

152

3. Teil: Die Delegation durch den Vorstand der AG an KI

sollen. Danach ist erforderlich, dass sich das Vorstandsmitglied, „das selbst nicht über die erforderliche Sachkunde verfügt, unter umfassender Darstellung der Verhältnisse der Gesellschaft und Offenlegung der erforderlichen Unterlagen (aa)) von einem unabhängigen (bb)), für die zu klärende Frage fachlich qualifizierten Berufsträger beraten lässt (cc)) und die erteilte […] (Auskunft) einer sorgfältigen Plausibilitätskontrolle (dd)) unterzieht“358. Sie lassen sich als kapitalgesellschaftsrechtlichen Vertrauensgrundsatz bei Beratung verallgemeinern und finden damit nicht nur auf Rechtsrat, sondern allgemein auf Expertenrat Anwendung.359 Mit zunehmender Entwicklung von KI-Systemen und deren Einsatz im Unternehmen, wird auch der Vorstand regelmäßig auf KI-Ratschläge zurückgreifen. Es stellt sich daher die Frage, ob die soeben zitierten, zu Expertenrat durch Menschen entwickelten Leitplanken beim Einsatz von KI ebenso Anwendung finden. 1. Umfassende Darstellung der Verhältnisse der Gesellschaft und Offenlegung der erforderlichen Unterlagen Wenig problematisch ist die umfassende Darstellung der Verhältnisse der Gesellschaft und Offenlegung der erforderlichen Unterlagen. Der Vorstand wird hier die gleichen Anforderungen zu erfüllen haben, die auch bei menschlichen Beratern verlangt werden. 360 Daran ändert der Einsatz von KI insbesondere deshalb nichts, da die Pflicht nicht aus der Sphäre des Beraters beeinflusst wird, sondern in der Sphäre des Vorstands liegt.361 Der Vorstand hat demnach der KI alle Informationen zur Verfügung zu stellen, um die KI in die Lage zu versetzen, den Sachverhalt zu erfassen und, dass diese selbst beurteilen kann, welche Informationen für die Beurteilung noch fehlen.362 Grundsätzlich ist der Input von Informationsdaten durch eine Eingabemaske der KI vorstellbar.363 Die Eingabemaske lässt zu, dass der Vorstand in natürlicher Sprache Informationen eingibt und die KI die Übersetzung in maschinenlesbare Sprache selbst vornimmt, um den Sachverhalt zu erfassen. Dabei würde der Vorstand durch entsprechende Eingabefelder bereits auf die not358  BGH, Urteil vom 20.09.2011 – II ZR 234/09 = ZIP 2011, 2097 (2099), Einfügungen durch den Verfasser. 359  BGH, Urteil vom 27.03.2012 – II ZR 171/10 = ZIP 2012, 1174 (1176); grundlegend dazu Fleischer, KSzW 2013, 3 (5); Fleischer, ZIP 2009, 1397 (1397 ff.); BeckOGK AktG-Fleischer, § 93, Rn. 245; Lieder, ZGR 2018, 523 (566); H.-F. Müller, DB 2014, 1301 (1301). 360  Zustimmend J. Wagner, BB 2018, 1097 (1102); Hoch, AcP 219 (2019), 646 (675). 361  So auch J. Wagner, BB 2018, 1097 (1103). 362  So für menschliche Berater Krieger, ZGR 2012, 496 (499). 363  So auch Hoch, AcP 219 (2019), 646 (675).



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG153

wendigen Informationen hingewiesen werden. Der Vorstand genügt seiner Informationspflicht indes regelmäßig auch, wenn er die erforderlichen Informationen offenlegt bzw. die Informationsquelle selbst zugänglich macht.364 Denkbar wäre in der Folge auch, dass die KI den Sachverhalt selbst ohne Eingabemaske durch den Zugriff auf sämtliche Unternehmensdaten erfasst, wenn dies als entsprechend geeignete Informationsquelle lesbar zur Verfügung gestellt wird.365 Fehlende Informationen hat die KI in beiden Fällen jedenfalls durch Rückfragen nachzufordern. Wie bei menschlichen Beratern obliegt es dem fachlich versierteren Auskunftsgeber an der umfassenden Sachverhaltsaufklärung durch gezielte Fragen mitzuwirken, um offensichtlich notwendige Informationen zu erhalten.366 Vom Vorstand wird man schließlich unter Würdigung der technischen Besonderheiten der KI erwarten können, dass er, sollte der Input zur Sachverhaltsbegutachtung relevanter Informationen nicht gelingen oder nicht möglich sein, die KI dies jedoch nicht bemängelt, daraus Konsequenzen für die spätere Plausibilitätsprüfung zieht.367 Er muss dann zumindest damit rechnen, dass der KI-Rat unzutreffend ist oder an anderen Herleitungsfehlern leidet.368 Er kann sich dann nicht enthaftend auf den Rat stützen. Anderes gilt nur, wenn die Information gerade wegen der unzureichenden Sachkunde des Vorstands schuldlos als entbehrlich angesehen wurde.369 2. KI-Berater als fachlich qualifizierter Berufsträger Der Vorstand hat sich für die enthaftende Wirkung einer Beratung an einen fachlich qualifizierten Berufsträger zu halten. Diese Anforderungen müssen auch an einen KI-Berater gestellt werden. a) „Berufsträger“ Schwierigkeiten bereitet bereits das Merkmal des „Berufsträgers“. Dieses wird für KI, die unternehmensintern zur Beratung eingesetzt wird und für BB 2016, 1347 (1350); ähnlich Krieger, ZGR 2012, 496 (499). Wagner, BB 2018, 1097 (1102); ebenso Hoch, AcP 219 (2019), 646 (675 in der Fn. 91). 366  Fleischer, ZIP 2009, 1397 (1403); Binder, AG 2008, 274 (286); Cahn, WM 2013, 1293 (1304); Krieger, ZGR 2012, 496 (499); Buck-Heeb, BB 2016, 1347 (1350); Peters, AG 2010, 811 (816). 367  In diese Richtung für menschliche Berater Buck-Heeb, BB 2016, 1347 (1350). 368  In diese Richtung für menschliche Berater Buck-Heeb, BB 2016, 1347 (1350). 369  Buck-Heeb, BB 2016, 1347 (1350); Fleischer, ZIP 2009, 1397 (1403); Binder, AG 2008, 274 (286); Krieger, ZGR 2012, 496 (499); Peters, AG 2010, 811 (816). 364  Buck-Heeb, 365  J.

154

3. Teil: Die Delegation durch den Vorstand der AG an KI

solche KI, die als externer Berater tätig wird unterschiedlich zu bewerten sein. aa) Interne Beratung Das Merkmal des Berufsträgers soll sicherstellen, dass der externe Beratungsdienstleister eine gewisse gesetzliche Mindestqualifikation erfüllt und damit zu einer Beratung Dritter befugt ist.370 Ein zusätzlicher Nachweis besonderer Qualifikation geht mit der Anforderung jedoch nicht einher.371 Vielmehr ist bereits mit der Prüfung der „fachlichen Qualifikation“ ausreichend sichergestellt, dass der Berater die Mindestanforderungen an die konkrete Beratung erfüllt.372 Der Vorstand wird dabei ohnehin regelmäßig über die gesetzlichen fachlichen Mindestanforderungen, die an die Qualifikation als Berufsträger zu stellen sind, hinaus gehen (müssen), um Zweifeln im Rahmen der Enthaftung vorzubeugen. Beim Einsatz eines internen KI-Beraters ist die Berufsträgereigenschaft daher mangels Beratung Dritter außerhalb des Unternehmens entbehrlich, sodass die interne Beratung durch KI einer enthaftenden Wirkung unter diesem Merkmal nicht entgegensteht.373 bb) Externe Beratung Anders liegt es hingegen bei externer Beratung durch KI. Diese wird an den gesetzlichen Erfordernissen der Berufsträgereigenschaft als notwendige Voraussetzung für die externe Beratung scheitern, die von KI schon mangels eigener Rechtspersönlichkeit nicht erfüllbar sind.374 Der Rat eines externen KI-Beraters hätte in der Folge keine enthaftende Wirkung für den Vorstand und verringert die Attraktivität der externen KI-Beratung erheblich.375 Der Gesetzgeber wird hier, mit steigender Relevanz externer KI-Beratungssysteme entsprechend nachbessern müssen, um die Vorteile der technischen Entwicklung nicht zu konterkarieren.376 De lege lata möglich ist es hingegen, den Einsatz externer KI-Berater mit der Übernahme der Letztverantwortung für deren Ratschlag und der Prüfung des Ratschlags durch einen entspreAG 2012, 898 (903); Binder, AG 2008, 274 (285). AG 2012, 898 (903); Binder, AG 2008, 274 (285). 372  Dazu unten unter 3. Teil C. II. 2. b). 373  So für menschliche Berater Junker/Biederbick, AG 2012, 898 (903); Binder, AG 2008, 274 (285); Klöhn, DB 2013, 1535 (1539 f.); in diese Richtung für KI-Berater auch Hoch, AcP 219 (2019), 646 (678). 374  Vgl. Hoch, AcP 219 (2019), 646 (678); J. Wagner, BB 2018, 1097 (1102). 375  Hoch, AcP 219 (2019), 646 (679). 376  Vgl. Hoch, AcP 219 (2019), 646 (679). 370  Junker/Biederbick, 371  Junker/Biederbick,



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG155

chend fachlich qualifizierten Berufsträger zu kombinieren, sodass im Ergebnis ein Rat durch den (menschlichen) Berufsträger vorliegt.377 Es kommt für die enthaftende Wirkung des Expertenrats nicht darauf an, unter Hinzuziehung welcher Hilfsmittel er zustande gekommen ist, sondern darauf, als wessen Ratschlag derselbe nach außen hin erscheint.378 Im Ergebnis ist damit eine externe KI-Beratung zumindest mittelbar zulässig konstruierbar. b) „Fachliche Qualifikation“ Die fachliche Qualifikation lässt sich, wie bereits zuvor hinsichtlich der Auswahlpflicht bei der einfachen Delegation ausgeführt wurde, durch ein entsprechendes zweistufiges Prüfungsprogramm mit hinreichender Sicherheit feststellen, sodass sie hinter einer Formalqualifikationsprüfung hinsichtlich eines Menschen nicht zurückbleibt.379 aa) Zweistufige Formalqualifikationsprüfung auch bei Beratung Jenes entwickelte besondere Pflichtenprogramm des Vorstands beim Einsatz von KI zugrunde gelegt, ist jedoch fraglich, ob wegen der besonderen fachlichen Anforderungen bei der Beratungsleistung gegenüber der zweistufigen Qualifikationsprüfung noch weiter erhöhte Anforderungen gelten müssen. (1) Interne Beratung Vereinzelt wird vorgebracht, dass die Prüfung der Formalqualifikation des Herstellers allein bei intern beratender KI nicht mehr ausreichen könne, da durch den Hersteller eine zweite Fehlerquelle hinzutrete, die das Rekurrieren auf die Qualifikation des Herstellers nicht mehr sachgerecht sein ließe und erst bei Etablierung entsprechender Zertifizierungsmöglichkeiten, wie einem Algorithmen-TÜV, eine andere Bewertung angezeigt sei.380 Dem ist aus mehreren Gründen nicht zu folgen. Zum einen würdigt eine solche Sichtweise die technischen Besonderheiten eines KI-Systems nicht konstruktiv. Eine KI, wie auch jedes einfache Computersystem, im weitesten Sinne sogar jedes technische Produkt, weicht hinsichtlich der Zahl der Fehlerquellen von der isolierten Ausführung durch den Menschen ab. AcP 219 (2019), 646 (677 f.); J. Wagner, BB 2018, 1097 (1102). J. Wagner, BB 2018, 1097 (1102). 379  Dazu bereits ausführlich oben unter 3. Teil C. I. 1. 380  So Becker/Pordzik, ZfPW 2020, 334 (350); auf die Notwendigkeit einer Zeritifzierung abstellend auch Hoch, AcP 219 (2019), 646 (679). 377  Hoch, 378  Vgl.

156

3. Teil: Die Delegation durch den Vorstand der AG an KI

Vereinfacht seien zwei Beispiele angeführt: Rechnet ein Mensch die Summe aus Zwei und Zwei ausschließlich mit Hilfe seiner geistigen Fähigkeiten, so wird das Ergebnis nur von einer potenziellen Fehlerquelle beeinflusst werden können: eben diesem einzelnen Menschen selbst. Setzt der Mensch dazu einen Taschenrechner ein, gibt es bereits mindestens zwei Fehlerquellen: Den Hersteller des Taschenrechners, der die ordnungsgemäße Programmierung liefern muss und den Menschen, der die Eingabe korrekt ausführen muss. Spezifischer für KI: Auch der Einsatz eines Navigationsgeräts durch den Vorstand bedarf keiner Zertifizierung, obwohl hier bereits eine erhebliche Anzahl an Fehlerquellen denkbar sind. Das dürften mindestens der Hersteller des Navigationsgeräts, der Empfang durch das GPS-Signal, die Frequenz, von dem das Gerät etwaige Verkehrs-Meldungen erhält, die Eingabe in das Navigationssystem sowie die korrekte Befolgung der Naviga­ tionsanweisung durch den Fahrer sein. Allein von der Anzahl der Fehlerquellen die Notwendigkeit einer Zertifizierung abhängig zu machen, würde die technischen Errungenschaften als Helfer für den Menschen unverhältnismäßig beschränken. Darüber hinaus ist auch schon zweifelhaft, ob eine Zertifizierung konkret für KI-Systeme zielführend ist.381 Die Zertifizierung testiert einen Qualitätsstandart zum Zeitpunkt der Prüfung. Wegen der Adaptivität der Algorithmen wäre die Zertifizierung jedoch schon kurze Zeit später nicht mehr aktuell, da sich die Algorithmen verändert haben. Dieser grundsätzlich bestehenden Besonderheit selbst einfacher technischer Systeme, sich zu verändern, trägt beispielsweise der TÜV für Kraftfahrzeuge durch regelmäßige Prüfungen im zwei JahresTakt Rechnung. Die Veränderungen der KI erfolgen jedoch demgegenüber mit erheblich gesteigerter Frequenz. Eine tagesaktuelle oder stundenweise Zertifizierung wäre aber weder technisch noch wirtschaftlich umsetzbar. Darüber hinaus wäre sie auch für den Zweck der Bestätigung der Qualifikation der KI aufgrund ihrer Fluktuation ungeeignet. Zweitens wurde dem Aspekt der hinzutretenden Fehlerquellen beim Einsatz von KI hier bereits durch die Forderung eines zweistufigen Prüfungsprogramms ausreichend Rechnung getragen. Das Phänomen der zweiten Fehlerquelle ist keines der Beratung durch KI sondern, wie zuvor beispielshaft gezeigt wurde, ein technikimmanentes. Zu würdigen ist jedoch das Rechtfertigungselement der besonderen Sachkunde des Beraters im Rahmen der enthaftenden Wirkung der Beratung für den Vorstand.382 Diesem Aspekt ist jedoch durch eine Modifikation der entwickelten zweistufigen Qualifikations381  So auch Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 481; dazu auch Martini, Blackbox Algorithmus, S. 351. 382  Vgl. BeckOGK AktG-Fleischer, § 93, Rn. 132.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG157

prüfung ausreichend beizukommen.383 Es ist somit grundsätzlich, wie im obigen Fall der einfachen Aufgabendelegation an KI384 auch bei der Beratung durch KI zweistufig die Qualifikation des Herstellers und die Funktionstüchtigkeit und Tauglichkeit der KI für die konkrete Aufgabe zu prüfen. (2) Externe Beratung Bei externer Beratung durch KI wird hingegen wegen der ausschließlich zulässigen mittelbaren KI-Beratung durch einen menschlichen letztverantwortlichen Berater auf die allgemeinen Grundsätze für die fachlicher Qualifikation menschlicher Berater zurückzugreifen sein. Der Vorstand wird insoweit lediglich den menschlichen Letztverantwortlichen bezüglich seiner fachlichen Qualifikation zu prüfen haben aber auch mangels Zugangs zur externen KI auch nur können. Die Prüfung der eingesetzten KI liegt hingegen im Verantwortungsbereich des menschlichen externen Beraters als Letztverantwortlichen. Erhöhte Anforderungen an den Vorstand bestehen insoweit nicht. bb) Intensivierung der zweistufigen Qualifikationsprüfung bei KI-Beratung Die enthaftende Wirkung des Vertrauens in eine Beratungsleistung kann nur durch dessen besondere Sachkunde gerechtfertigt werden.385 Insofern ist die zweistufige Qualifikationsprüfung anhand dieser Anforderung zu prüfen und zu modifizieren. Auch bei der Ausgestaltung der Qualifikationsprüfung durch den Vorstand wird in interne und externe Beratung durch KI zu unterscheiden sein. (1) Interne Beratung Die interne Beratung durch unternehmenseigene KI-Berater macht es erforderlich, mangels menschlichem Letztverantwortlichen, auf die bereits zur „einfachen Delegation“ vorgebrachten Ausführungen für die Prüfung der fachlichen Qualifikation von KI386 zurückzukommen. Denn der Vorstand darf auf den Expertenrat nur vertrauen, wenn dieser aufgrund seiner Erfahrung und Expertise geeignet ist, hinsichtlich des Sachverhaltes eine hochwer383  Dazu

gleich unter 3. Teil C. I. 1. oben unter 3. Teil C. II. 2. b) bb). 385  BeckOGK AktG-Fleischer, § 93, Rn. 132. 386  Dazu oben unter 3. Teil C. I. 1. 384  Dazu

158

3. Teil: Die Delegation durch den Vorstand der AG an KI

tige Beratungsleistung zu erbringen.387 Das bereits im Rahmen der Delegation herausgearbeitete Pflichtenprogramm würdigt zwar die Faktoren im Rahmen der einfachen Aufgabendelegation an KI. Bei der Beratung kommt es jedoch besonders auf die Qualität des Expertenrats für ein gegebenenfalls besonders komplexes fachliches Problem an. Der Rat kann die Enthaftung des Vorstands nur rechtfertigen, wenn dieser wegen der Expertise eine hochwertigere Beurteilung des in Frage stehenden Sachverhalts rechtfertigt, als der Vorstand es vermöge seiner Kompetenz könnte und der Vorstand daher berechtigtes Vertrauen in den Rat haben darf.388 Die für die einfache Aufgabendelegation herausgearbeitete Qualitätssicherung durch den Vorstand sowie die Funktionsprüfung gegebenenfalls in Zusammenarbeit mit einer technisch ausgebildeten Person389 reicht dann fachlich nicht weit genug um das Vertrauen in die Beratungsleistung zu rechtfertigen.390 Denn weder Vorstand noch der technische Spezialist sind in der Lage die KI-Ratschläge im Training, als notwendigen Bestandteil der Funktionsprüfung, in dem Umfang auf ihre fachlich inhaltliche Qualität hin zu überprüfen, wie es für das Vertrauen in eine Beratungsleistung erforderlich wäre. Sie werden regelmäßig nur die allgemeine fachliche und inhaltliche Plausibilität des Endergebnisses der KI beurteilen können. Insoweit ist das Pflichtenprogramm des Vorstands bei der Beratung durch KI zu intensivieren. Der Vorstand wird sich auf den Rat der KI nur verlassen dürfen, wenn er vor dessen Einsatz bereits im Training einer Plausibilitätskontrolle durch einen fachlich qualifizierten Experten unterzogen wird, der auch die fachlich beratende Funktionstüchtigkeit der KI bestätigt.391 An den menschlichen prüfenden Experten werden keine erhöhten Anforderungen zu stellen sein. Es wird genügen, dass dieser im Rahmen der Auswahlentscheidung des Vorstands nach allgemeinen Maßstäben für menschliche Delegatare für die konkrete Aufgabe als geeignet befunden wird. Dies wird regelmäßig mit der Formalqualifikation der Fall sein.392 Andernfalls würde die Funktions­ prüfung im Rahmen der zweistufigen Qualifikationsprüfung überspannt werden. 387  Vgl.

BeckOGK AktG-Fleischer, § 93, Rn. 132. J. Wagner, BB 2018, 1097 (1103); vgl. dazu auch Fleischer, ZIP 2009, 1397 (1403). 389  Dazu oben unter 3. Teil C. I. 1. 390  In diese Richtung auch Becker/Pordzik, ZfPW 2020, 334 (350). 391  In diese Richtung auch J. Wagner, BB 2018, 1097 (1103). 392  Strohn, ZHR 176 (2012), 137 (141); Strohn, CCZ 2013, 177 (181); Fleischer, NZG 2010, 121 (123); Kiefner/Krämer, AG 2012, 498 (501); Selter, AG 2012, 11 (14); vgl. aus der Rechtsprechung für das Ausreichen einer Formalqualifikation BGH, Urteil vom 17.12.1969 – VIII ZR 10/68 = NJW 1970, 463 (464); BGH, Urteil vom 16.12.1986 – KZR 36/85 = GRUR 1987, 564 (565). 388  Vgl.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG159

(2) Externe Beratung Lässt sich der Vorstand hingegen, de lege lata zulässig,393 extern von einem menschlichen Berufsträger beraten, der KI zur Unterstützung dessen Beratungsleistung einsetzt, so wird er den menschlichen Berufsträger nach den üblichen allgemeinen Prüfungspflichten für menschliche Berater hinsichtlich der fachlichen Qualifikation untersuchen müssen. Hat er indes von den Umständen des Einsatzes von KI Kenntnis, wird er seine Plausibilitätsprüfung, ausgerichtet an den vorstehend erarbeiteten Grundsätzen, intensivieren müssen. 394 c) Zwischenergebnis zum Erfordernis des „fachlich qualifizierten Berufsträger“ Die Anforderung eines „fachlich qualifizierten Berufsträgers“ können auch beim Einsatz von beratender KI gewahrt werden. Bei interner Beratung wird jedoch eine Intensivierung der zur einfachen Aufgabendelegation heraus­ gearbeiteten zweistufige Qualifikationsprüfung zu fordern sein, um den in der ISION-Entscheidung manifestierten gesteigerten Anforderungen an einen Expertenrat gerecht zu werden. Bei externem Rat ergeben sich grundsätzlich keine Bedenken, wenn der menschliche fachlich qualifizierte Berufsträger KI einsetzt. Hat der Vorstand jedoch davon Kenntnis, wird sich dies auf Ebene der zu fordernden Plausibilitätsprüfung intensivierend auswirken müssen. 3. Unabhängigkeit des KI-Beraters Das Kriterium der Unabhängigkeit des Beraters soll gewährleisten, dass die Auskunft des Beraters sachlich frei von mittelbaren und unmittelbaren Einflüssen des Vorstands auf das Auskunftsergebnis ist.395 Es dient der Vermeidung von Interessenkonflikten bei der Beratung.396 Ferner kommt es auch grundsätzlich nicht darauf an, ob die Auskunft von einem externen oder

393  Dazu oben unter 3. Teil C. II. 2. a) bb); so auch J. Wagner, BB 2018, 1097 (1102). 394  Dazu unten unter 3. Teil C. II. 4. b), vgl. auch J. Wagner, BB 2018, 1097 (1102). 395  BGH, Urteil vom 28.04.2015 – II ZR 63/14 = ZIP 2015, 1220 (1223). 396  Junker/Biederbick, AG 2012, 898 (903); BGH, Urteil vom 20.09.2011 – II ZR 234/09 = ZIP 2011, 2097 (2098); Fleischer, NZG 2010, 121 (123); J. Wagner, BB 2012, 651 (656); Fleischer, ZIP 2009, 1397 (1403); Peters, AG 2010, 811 (815); Merkt/Mylich, NZG 2012, 525 (528); Selter, AG 2012, 11 (14 f.).

160

3. Teil: Die Delegation durch den Vorstand der AG an KI

internen Berater erlangt wird oder ob Weisungsunabhängigkeit vorliegt.397 Einzig das Ergebnis darf nicht als unumstößlich vorgegeben sein.398 a) Grundsätzliche Unabhängigkeit von KI Für KI wird dieses Kriterium in aller Regel erfüllt sein.399 Teilweise wird zwar darauf hingewiesen, dass dies nur für extern programmierte und intern eingesetzte KI gelten könne, da bei intern programmierter und ebendort eingesetzter KI diese im Training durch den Vorstand dessen Präferenzen lerne und somit ein Einfluss des Vorstands vorliege.400 Jedoch verkennt die Ansicht zum einen, dass der Vorstand die KI pflichtgemäß nicht nach subjek­ tiven Kriterien anlernt, sondern objektiv nach richtig und falsch, sodass ein denkbarer Einfluss im Training jedenfalls kein pauschal KI-spezifisches Hinderungskriterium für die Unabhängigkeit ist,401 sondern allenfalls Resultat einer Pflichtverletzung. Zudem ist das Ergebnis des KI-Rats nicht vor­ hersehbar,402 sodass daher ein Einfluss auf ein konkretes gewünscht konstruiertes Ergebnis schon technisch nicht denkbar ist. Es kommt nach den oben erwähnten Maßstäben des BGH403 darauf an, ob von der KI sachliche Unabhängigkeit zu erwarten ist. Dies wird man unter Verweis auf ein ordnungsgemäßes Training und die Einhaltung sämtlicher Organisationspflichten des Vorstands404 regelmäßig mit größerer Sicherheit bestätigen können, als dies für menschliche Berater der Fall wäre. Erstere unterliegen schon konstruktionsbedingt keinen Interessenkonflikten, wie dem Principal-Agent-Konflikt405. KI würde auch durch langjährige Zusammenarbeit mit dem Vorstand nicht in „persönlicher“ Hinsicht beinflussbar sein. Während von menschlichen Beratern erst aufgrund derer beruflichen „Professionalität“, aber auch durch das Inaussichtstellen von Sanktionen erwartet werden kann, dass sie trotz langjähriger, gegebenenfalls interner, Zusammenarbeit weiterhin unabhängig 397  Junker/Biederbick, AG 2012, 898 (902); Fleischer, NZG 2010, 121 (123); J. Wagner, BB 2012, 651 (656); Fleischer, ZIP 2009, 1397 (1403); Kiefner/Krämer, AG 2012, 498 (501); Krieger, ZGR 2012, 496 (500); Peters, AG 2010, 811 (816); Binder, ZGR 2012, 757 (771); Redeke, AG 2017, 289 (292); Merkt/Mylich, NZG 2012, 525 (528); Selter, AG 2012, 11 (14 f.). 398  Junker/Biederbick, AG 2012, 898 (902); Strohn, ZHR 176 (2012), 137 (140 f.); Cahn, WM 2013, 1293 (1304). 399  So auch Hoch, AcP 219 (2019), 646 (676). 400  R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1133). 401  So auch Hoch, AcP 219 (2019), 646 (676 f.) in der Fußnote 96. 402  Martini, Blackbox Algorithmus, S. 28 f. 403  BGH, Urteil vom 28.04.2015 – II ZR 63/14 = ZIP 2015, 1220 (1223). 404  Dazu oben unter 3. Teil C. II. 1. bis 4. 405  Darauf eingehend bereits oben unter 2. Teil A. I. 1. a) aa) (2).



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG161

sind, ist dieses Vertrauen beim Einsatz von KI-Beratern wegen derer kon­ struktionsbedingten Objektivität in geringerem Maße vonnöten. Aber auch praktische Gründe sprechen gegen eine restriktivere Bewertung der Unabhängigkeit von KI-Beratern. Gerade für Investitionsentscheidungen der KI ist der Informationsvorteil durch unternehmenseigene KI besonders relevant. Würde die Unabhängigkeit der KI nur gegeben sein, wenn diese extern programmiert und lediglich intern eingesetzt wird, wäre in vielen Fällen der Wettbewerbsvorteil der KI konterkariert.406 Die Attraktivität von KI-Beratern, wäre in der Folge erheblich eingeschränkt. Im Ergebnis kann also die Unabhängigkeit von KI-Beratern bejaht werden. b) KI-spezifische Besonderheit: Mögliche „technische Unabhängigkeit“ Einzugehen bleibt indes noch auf eine technische Besonderheit der KI: Wird diese nicht mit der angemessenen Datendiversität trainiert,407 kommt es zum sogenannten „overfitting“. Die KI ist dann gewissermaßen faktisch dateninduziert abhängig in ihren Entscheidungen, da die Datenlage im Training nicht so divers gewählt wurde, sodass auf neue Situationen objektiv richtig reagiert werden kann. Zwar kommt es hier nicht zu einer tatsächlichen Abhängigkeit zwischen Vorstand und Berater oder einer Abhängigkeit wegen vorsätzlichen Einflusses des Vorstands auf das Ergebnis der Beratung. Jedoch ist das Ergebnis mit dem einer tatsächlichen Abhängigkeit vergleichbar. Es entspricht dann einer nicht objektiven Bewertung des Sachverhalts, wegen der Abhängigkeit von der einseitigen Datenlage.408 Die Organisationspflichten des Vorstands im Rahmen des Trainings einer intern beratenden KI, für ein pflichtgemäßes Training und damit die Funktionstüchtigkeit der KI zu sorgen,409 beeinflussen damit auch das Kriterium der dateninduzierten Unabhängigkeit. Die Unabhängigkeit der intern beratenden KI ist im Ergebnis gewährleistet, wenn der Vorstand die Anforderungen an die Datendiversität und Datenqualität im Training wahrt.410 Bei einer externen Beratung, die KI zur Hilfe nimmt, wird der Vorstand demgegenüber die Unabhängigkeit der KI nicht zu prüfen haben. Er wird es auch rein tatsächlich mangels Zugriffs auf die KI nicht können. Der Vorstand wird dann auf die Unabhängigkeit des

406  Vgl.

Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 490. oben unter 3. Teil C. I. 1. b) aa). 408  Vgl. zu den hinsichtlich der Objektivität unbrauchbaren Ergebnissen wegen Overfittings bei der Einordnung steuerlicher Sachverhalte Stevens, CR 2020, 73 (79). 409  Dazu oben unter 3. Teil C. I. 1. b). 410  Dazu oben unter 3. Teil C. I. 1. b) aa). 407  Dazu

162

3. Teil: Die Delegation durch den Vorstand der AG an KI

letztverantwortlichen menschlichen Beraters nach den Grundsätzen für menschliche Berater abstellen können.411 4. Sorgfältige Plausibilitätskontrolle des KI-Rats Schließlich hat der Vorstand den KI-Rat einer sorgfältigen Plausibilitätskontrolle zu unterziehen. Die Anforderungen richten sich auch hier nach dem Einzelfall.412 Jedoch wurden in den letzten Jahren durch die Literatur einige Leitlinien herausgearbeitet, anhand derer die Plausibilitätskontrolle des Expertenrats zumindest ausgerichtet werden kann.413 a) Allgemeine Leitlinien für die Plausibilitätsprüfung Während bei der einfachen Aufgabendelegation der Vorstand seinen Überwachungspflichten durch regelmäßige Prüfung des Ergebnisses auf Plausibilität genügt, ohne auch die Herleitungsplausibilität näher zu untersuchen,414 müssen bei der Beratung andere Maßstäbe gelten. Es geht dann nicht mehr nur um die Ausführung der übertragenen Aufgabe, sondern die Enthaftung des Vorstands durch einen Expertenrat für eine Entscheidung unter Unsicherheit zu einer konkreten Sachlage. Der Expertenrat kann indes eine Enthaftung nur rechtfertigen, wenn der Vorstand auf dessen objektive Richtigkeit vertrauen durfte.415 Dabei dürfen die Anforderungen an das Vertrauen allerdings auch nicht allzu hoch angelegt werden.416 Aufgrund der Wechselwirkung der vorherigen Auswahlpflichten des Vorstands im Hinblick auf den Berater wird der Vorstand dem Rat regelmäßig schon aufgrund einer sorgfältigen Auswahl des Beraters vertrauen dürfen.417 Grund zu zweifeln muss der 411  So

auch J. Wagner, BB 2018, 1097 (1103). ZGR 2012, 496 (501 f.); Kiefner/Krämer, AG 2012, 498 (499); Cahn, Der Konzern 2015, 105 (108); Buck-Heeb, BB 2016, 1347 (1347); Binder, AG 2008, 274 (287); Strohn, ZHR 176 (2012), 137 (142 f.); H.-F. Müller, DB 2014, 1301 (1305); Fleischer, KSzW 2013, 3 (9). 413  Ausführlich zu den Leitlinien siehe Buck-Heeb, BB 2016, 1347 (1349 ff.). 414  Siehe dazu oben unter 3. Teil C. I. 3.; so für Delegation an KI auch Noack, NZG 2021, 305 (306); Becker/Pordzik, ZfPW 2020, 334 (352); Linardatos, ZIP 2019, 504 (508). 415  Binder, AG 2008, 274 (286); Fleischer, ZIP 2009, 1397 (1404); Buck-Heeb, BB 2016, 1347 (1348); Fleischer, KSzW 2013, 3 (9). 416  Fleischer, KSzW 2013, 3 (9); H.-F. Müller, DB 2014, 1301 (1305); Binder, ZGR 2012, 757 (772); Kiefner/Krämer, AG 2012, 498 (500); Krieger, ZGR 2012, 496 (502 f.); Merkt/Mylich, NZG 2012, 525 (529); Buck-Heeb, BB 2016, 1347 (1349); Strohn, CCZ 2013, 177 (183). 417  Vgl. Buck-Heeb, BKR 2011, 441 (447); Binder, AG 2008, 274 (286). 412  Krieger,



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG163

Vorstand regelmäßig nur dann haben, wenn die objektive Unrichtigkeit oder der Gefälligkeitscharakter offensichtlich sind.418 Umgekehrt muss er kritischer hinsichtlich der Plausibilität sein, wenn dem Vorstand bereits im Rahmen der Auswahlpflicht Zweifel an der Verlässlichkeit des Beraters auf­ kamen.419 Im Einzelnen haben sich im Wesentlichen drei Schwerpunkte he­ rausgebildet, die der Vorstand im Rahmen der Plausibilitätsprüfung zu untersuchen hat. Der Expertenrat muss erstens darauf untersucht werden, ob er zutreffend und vollständig die maßgeblichen Informationen verwertet hat, zweitens, ob der Rat die beabsichtigte Maßnahme deckt und drittens daraufhin, ob der Expertenrat Begründungslücken oder Widersprüche beinhaltet.420 Die Meinungen hinsichtlich der Intensität divergieren nicht unerheblich.421 Gemein ist ihnen aber, dass der Vorstand zumindest (irgend)eine Begründung für das Ergebnis der Expertenbefragung, mithin dem Expertenrat erhalten muss.422 Dies wird man schon denklogisch als notwendig erachten müssen, da der Vorstand andernfalls die drei genannten Aspekte auch kaum hinreichend prüfen können wird.

418  Fleischer, EuZW 2013, 326 (329); Fleischer, KSzW 2013, 3 (9); Merkt/Mylich, NZG 2012, 525 (529); Binder, AG 2008, 274 (286); Bayer/P. Scholz, ZIP 2015, 1853 (1861); so auch EuGH, Schlussantrag der Generalanwältin Kokott vom 28.02.2013 – C-681/11 (Schenker & Co AG u. a.) = NZKart 2013, 147 (150); in diese Richtung auch Kiefner/Krämer, AG 2012, 498 (500); ebenfalls in diese Richtung aber etwas zurückhaltender Strohn, CCZ 2013, 177 (183 f.). 419  Vgl. Buck-Heeb, BKR 2011, 441 (447). 420  Fleischer, NZG 2010, 121 (124); Cahn, WM 2013, 1293 (1305); Peters, AG 2010, 811 (816); Strohn, CCZ 2013, 177 (183); Fleischer, KSzW 2013, 3 (9); ­H.-F. Müller, DB 2014, 1301 (1304 f.); ebenso BGH, Urteil vom 28.04.2015 – II ZR 63/14 = ZIP 2015, 1220 (1223 Rn.33); zustimmend und auch anwendend auf den Aufsichtsrat Lieder, ZGR 2018, 523 (568); grundsätzlich zustimmend auch Merkt/ Mylich, NZG 2012, 525 (529), diese bezweifeln jedoch letzteren Aspekt mit Verweis auf die Wechselwirkung der vorherigen Auswahlpflichten als regelmäßig genügend und verweisen auf eine Dilemmasituation des Vorstands: Sollte dieser die Auskunft des Experten als „widersprüchlich“ einschätzen, sei dieser zur Einholung einer Zweitund gegebenenfalls sogar Drittmeinung genötigt; ähnlich Binder, AG 2008, 274 (286). 421  Ausführlich eingehend auf den Meinungsstand Buck-Heeb, BB 2016, 1347 (1348 ff.). 422  Fleischer, KSzW 2013, 3 (9); Binder, ZGR 2012, 757 (772); Buck-Heeb, BB 2016, 1347 (1351); vgl. auch OLG Hamm, Urteil vom 10.04.2002 – 11 U 180/01 = NZG 2002, 782 (782); Strohn, CCZ 2013, 177 (183) „Es soll nur sichergestellt sein, dass sich der Geschäftsleiter nicht blind auf die Antwort des Gutachters verlässt, egal wie diese Antwort begründet wird“.

164

3. Teil: Die Delegation durch den Vorstand der AG an KI

b) Plausibilitätsprüfung bei KI-Beratern Auch im Rahmen der Plausibilitätsprüfung wird es wieder darauf ankommen müssen, ob es sich um eine internen KI-Berater handelt oder eine externe KI-gestützte Beratungsleistung vorliegt. aa) Interne Beratung Ausgehend von den zu menschlichen Beratern entwickelten Leitlinien, bestehen beim Einsatz von internen KI-Beratern bereits grundsätzliche Zweifel hinsichtlich der Durchführbarkeit einer ausreichenden Plausibilitätskon­ trolle, die den Leitplanken für ein Vertrauen auf Expertenrat gerecht würde. Das Konzept des Vertrauens auf Expertenrat beruht maßgeblich auf dessen Nachvollziehbarkeit. Kann der Vorstand nicht zumindest in Grundzügen erkennen, wie der entsprechende Rat zustande gekommen ist, wird er diesem kaum vertrauen dürfen. Selbst Anfragen, bei denen eine mündliche Auskunft ausreicht, kommen nicht ohne Begründung aus. Die „Blackbox-Problematik“ der KI führt indes zu erheblichen Begründungsproblemen des erteilten Rats. Zwar kann der Vorstand feststellen, welche Informationen die KI zur Verfügung gestellt bekommen hat und mit welchen Informationen diese grundsätzlich arbeitet, mithin auch welche möglicherweise fehlen. Allerdings hat der Vorstand keinen Einblick auf den konkreten Datenverarbeitungsprozess. Es wird ihm also nicht einmal in Grundzügen möglich sein, zu beurteilen, in welcher Art und Weise die Informationen bewertet wurden und wie sie konkret zum Endergebnis beigetragen haben. Die Intransparenz der KI hinsichtlich der Datenverarbeitung führt dazu, dass eine, selbst auch nur laienhafte Prüfung auf Widersprüchlichkeit und Begründungslücken nicht möglich ist.423 Im Ergebnis wird man daher den Einsatz von internen KI-Beratern als zwar zulässig, aber mangels enthaftender Wirkung praktisch nicht empfehlenswert für den Vorstand bewerten müssen.424 bb) Externe KI-gestützte Beratung Anders liegt es bei der externen KI-gestützten Beratung. Da die einzig zulässige Form der externen Beratung durch KI eine solche ist, in der ein 423  Ähnlich R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1133); Hoch, AcP 219 (2019), 646 (681); J. Wagner, BB 2018, 1097 (1103); Noack, ZHR 183 (2019), 105 (119). 424  So im Ergebnis auch Hoch, AcP 219 (2019), 646 (681); R. Weber/Kiefner/ Jobst, NZG 2018, 1131 (1133).



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG165

menschlicher Berufsträger als Letztverantwortlicher vorgeschaltet ist,425 kommt es hier nicht zwangsläufig zu den vorstehenden Nachvollziehbarkeitslücken. Hat der Vorstand keine Kenntnis vom KI-Einsatz, wird man keine höheren Anforderungen als die allgemeine Plausibilitätsprüfung für menschliche Delegatare fordern können.426 Ist ihm die Beteiligung der KI am Zustandekommen des Rats bekannt, wird man hingegen fordern müssen, dass der Vorstand die Plausibilitätsprüfung insoweit intensiviert.427 In Kenntnis der KI-spezifischen Risiken möglicher Fehlfunktionen wird der Vorstand für ein berechtigtes Vertrauen in den Rat, neben den geltenden Anforderungen an die Plausibilitätsprüfung hinsichtlich menschlicher Berater, auch den Einfluss der eingesetzten KI auf das Beratungsergebnis einer gewissen Plausibilitätsprüfung unterziehen müssen.428 Hier wird man indes die Anforderungen ebenso nicht allzu hoch ansetzen dürfen. Auch der menschliche Berater kann und wird zu seiner Beratungsleistung auf die Unterstützung anderer Quellen als sein eigenes unmittelbares Fachwissen, etwa Erkenntnisse der Rechtsprechung, zurückgreifen.429 Der Vorstand muss auch diese Einflüsse nicht inzident auf Plausibilität prüfen, sondern nur das Gesamtergebnis.430 Er hat insoweit in seine Plausibilitätsprüfung einzubeziehen, auf welcher Basis das Ergebnis zustande gekommen ist.431 Diesen Gesichtspunkten der zumindest laienhaften Nachvollziehbarkeit und Widerspruchsfreiheit folgend,432 muss es daher für KI genügen, dass die KI-spezifischen Risiken ausreichend erkannt und gegebenenfalls hinterfragt433 werden, sowie der Vorstand sich die Auswirkungen auf das Gesamtergebnis erläutern lässt.434 Dies wird man als erfüllt ansehen können, wenn der Vorstand sich vom letztverantwort­lichen Berater für ersteren nachvollziehbar und widerspruchsfrei darstellen lassen kann, inwieweit die KI auf das Zustandekommen des Beratungsergebnis Einfluss genommen hat.435

425  Dazu

oben unter 3. Teil. C. II. 2. a) bb. J. Wagner, BB 2018, 1097 (1102). 427  So auch J. Wagner, BB 2018, 1097 (1102). 428  Ähnlich J. Wagner, BB 2018, 1097 (1103). 429  Vgl. Fleischer, in: Kindler/Koch/Ulmer/Winter (Hrsg.), Festschrift Hüffer (2010), S. 195. 430  Vgl. Fleischer, in: Kindler/Koch/Ulmer/Winter (Hrsg.), Festschrift Hüffer (2010), S. 195; vgl. auch Buck-Heeb, BB 2016, 1347 (1352). 431  Buck-Heeb, BB 2016, 1347 (1352). 432  Dazu bereits oben unter 3. Teil C. II. 4. a). 433  Vgl. Fleischer, ZIP 2009, 1397 (1404); Buck-Heeb, BB 2016, 1347 (1352). 434  Ähnlich J. Wagner, BB 2018, 1097 (1103). 435  In diese Richtung auch J. Wagner, BB 2018, 1097 (1103). 426  Vgl.

166

3. Teil: Die Delegation durch den Vorstand der AG an KI

5. Zusammenfassung: Leitplanken beim Einholen von KI-Rat Die vom BGH maßgeblich in seiner ISION-Entscheidung entwickelten Leitplanken für die Enthaftung des Vorstands bei Entscheidungen auf Basis eines Expertenrats können auch auf den Einsatz von KI-Beratern übertragen werden. Während die ausreichende Information sowie die Unabhängigkeit des KI-Beraters wenig problematisch sind, muss das Element des „fachlich qualifizierten Berufsträgers“ für interne und externe KI-Berater technikspezifisch fortgebildet werden. Bei externen KI-Beratern führt bereits die fehlende Berufsträgereigenschaft dazu, dass eine (haftungserleichternde) Beratung des Vorstands nur bei Dazwischenschalten eines menschlichen letztverantwortlichen Berufsträgers möglich ist. In der Folge gelten in dieser Konstellation der KI-gestützten Beratung die für die Auswahl des „fachlich qualifizierten Berufsträgers“ allgemeinen Pflichten weiter in Bezug auf den menschlichen Letztverantwortlichen. Für interne KI-Berater lässt sich im Wesentlichen der bereits zur einfachen Aufgabendelegation herausgearbeitete Pflichtenkanon weiter fruchtbar machen. Dieser ist wegen der erhöhten Anforderungen beim Vertrauen des Vorstands auf Expertenrat entsprechend fortzubilden. Der Vorstand wird das Vertrauen in die Qualität der Beratung beim Einsatz von internen KI-Beratern nur rechtfertigen können, wenn er eine Intensivierung der Qualifikationsprüfung, durch Hinzuziehung eines fachlichen Experten bei der Einrichtung und dem Training der KI vornimmt. Problematisch ist hingegen die Plausibilitätsprüfung des KI-Rats. Wegen der „Blackbox-Eigenschaft“ und der daraus folgenden fehlenden Begründung des KI-Rats wird der Vorstand die Anforderungen hinsichtlich der Plausibilitätsprüfung bei interner KI-Beratung nicht erfüllen können. Sie kann damit nicht enthaftend für den Vorstand wirken und wäre zwar zulässig, aber wegen der daraus entstehenden Risiken für den Vorstand faktisch unbrauchbar. Bei extern gestützter KI-Beratung bestehen diese Bedenken wegen des zu notwendigen mensch­ lichen letztverantwortlichen Beraters nicht. Der Vorstand wird jedoch die hinsichtlich menschlicher Beratung geforderte Plausibilitätsprüfung auf die Nachvollziehbarkeit und Widerspruchsfreiheit der Einflussnahme der KI auf das Beratungsergebnis ausweiten müssen. Schließlich kann also de lege lata nur die externe KI-gestützte Beratung enthaftende Wirkung für den Vorstand erzeugen.



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG167

6. (Mittelfristige) Zukunft der KI-Beratung – Überlegungen zu einem Rechtsfortbildungsvorschlag unter Berücksichtigung ökonomischer und gesellschaftspolitischer Anforderungen Der Einsatz von KI-Beratern scheitert derzeit an der Nachvollziehbarkeit des Expertenrats, die nach hergebrachten Grundsätzen für menschliche Berater für das Vertrauendürfen notwendig ist.436 a) Notwendigkeit der Erwägung einer Anpassung der Plausibilitätsprüfung bei KI-Beratung Geht man davon aus, dass das „Blackbox-Problem“ durch Maßnahmen zur Erklärbarkeit der KI irgendwann technisch ausgeräumt wird, befindet sich die rechtliche Bewertung der Plausibilitätsprüfung wieder in sicherem Fahrwasser. Die Plausibilitätsprüfung des Expertenrates ist dann durch den Vorstand nach den bereits gefestigten Grundsätzen möglich. Wahrscheinlicher ist es derzeit indes, dass eine adäquate Beratung durch fortschrittliche KI-Berater schneller möglich sein wird als dessen Erklärbarkeit. Nun gilt der Grundsatz, dass die Technik dem Recht zu folgen hat und nicht das Recht der Technik.437 Aus ökonomischen und gesellschaftspolitischen Gründen wird man jedoch, will man die deutschen Aktiengesellschaften nicht wettbewerblich lähmen,438 über eine Alternative zum Nichteinsatz der KI im Wege der Rechtsfortbildung nachdenken müssen. Bereits die technischen Entwicklungen beim Einsatz von KI im Hochfrequenzhandel haben gezeigt, dass innerhalb kürzester Zeit ein Wandel des Wettbewerbsumfeldes stattfindet, sodass der Einsatz von KI für ein Bestehenkönnen gegenüber Wettbewerbern obligatorisch ist.439 b) Kompensationsmöglichkeit der Intransparenz der KI bei der Plausbilitätsprüfung nach hergebrachten Grundsätzen für menschliche Berater Ausgehend von der Annahme, dass eine für hergebrachte Grundsätze der Plausibilitätsprüfung ausreichende Transparenz technisch (mittelfristig) nicht erreicht werden kann, ist fraglich, ob sich die vertrauensbasierte enthaftende 436  Dazu

oben unter 3. Teil C. II. 4. a). Blackbox Algorithmus, S. 345, „[…](jedenfalls, so lange die Vorgabe, wenn auch mit erheblichem Aufwand, technisch umsetzbar ist)“. 438  Vgl. Zetzsche, AG 2019, 1 (7). 439  Vgl. Kollmann 2020, 515 (515); ausführlich zur Entwicklung Kollmann, Autonome und intelligente Wertpapierhandelssysteme, S. 22 ff. 437  Martini,

168

3. Teil: Die Delegation durch den Vorstand der AG an KI

Wirkung des Vorstands bei Einholung des KI-Rats durch anderweitige Kompensation der Plausibilitätsprüfung rechtfertigen lässt. Sinn und Zweck der Plausibilitätsprüfung ist es, „völlig untaugliche Gutachten oder Gefälligkeitsgutachten auszuscheiden“440.441 aa) Ausschluss „völlig untauglicher Gutachten“ Völlig untaugliche Gutachten werden schon wegen der eigenen Haftung des Beraters den Einzelfall darstellen, dem für die Rechtfertigung der Enthaftung des Vorstands nicht zwingend erneut zu begegnen ist.442 Denn der Vorstand darf schon wegen der sorgfältigen Auswahl des Beraters auf die grundsätzliche Tauglichkeit des Rats vertrauen.443 Für die Beratung durch KI kann völlig untauglichen Gutachten ausreichend über die Qualitätssicherung des Pflichtenkanons des Vorstands vorgebeugt werden.444 bb) Ausschluss von „Gefälligkeitsgutachten“ Es verbleibt der zweite Zweck der Plausibilitätsprüfung, Gefälligkeitsgutachten auszuschließen. Die Anreize zur Erstattung von Gefälligkeitsgutachten ergeben sich insbesondere durch die (persönliche) Beziehung zwischen Beratern und Vorstand. Pflichtgemäß ausgewählte und trainierte KI-Berater lassen demgegenüber schon konstruktionsbedingt keine Gefälligkeitsgutachten zu. Bei Erfüllung der Auswahlpflichten und des Überwachungspflichtenkanons durch den Vorstand kann berechtigt darauf vertraut werden, dass die KI lediglich objektiv berät. Das Vertrauen auf die Tauglichkeit und Objektivität des Rats rechtfertigt sich dementsprechend nicht mehr mit der Pflicht zur ex post Plausibilitätsprüfung auf Widersprüche und Begründungslücken. Es gründet dann auf den umfangreichen Pflichten vor Einsatz des KI-Beraters in Verbindung mit den Überwachungspflichten445 sowie einer reduzierten ex post Prüfung auf Ergebnisplausibilität des Rats.446 Dieser Verzicht auf eine 440  So ausdrücklich Strohn, CCZ 2013, 177 (183); dem zustimmend Fleischer, DB 2015, 1764 (1768). 441  Dies als Grundsatz formulierend schon Fleischer, ZIP 2009, 1397 (1404); zustimmend Strohn, ZHR 176 (2012), 137 (141); vgl. in diese Richtung bereits BGH, Urteil vom 15.05.1979 – VI ZR 230/76 = NJW 1979, 1882 (1884); Buck-Heeb, BB 2016, 1347 (1348); Buck-Heeb, BKR 2011, 441 (448); Bayer/P. Scholz, ZIP 2015, 1853 (1860); Krieger, ZGR 2012, 496 (503). 442  Vgl. Merkt/Mylich, NZG 2012, 525 (529). 443  So auch Merkt/Mylich, NZG 2012, 525 (529). 444  Dazu oben unter 3. Teil C. II. 1. bis 4. 445  Siehe dazu oben unter 3. C. II. 1. bis 4. 446  Ähnlich auch Zetzsche, AG 2019, 1 (8 f.).



C. Haftung des Vorstands nach § 93 Abs. 2 Satz 1 AktG169

Plausibilitätsprüfung auf Widersprüche und Begründungslücken, zugunsten einer umfassenden vorgelagerten und begleitenden Funktions- und Sicherheitsprüfung der KI, berücksichtigt zum einen deren technikimmanente Risiken und Besonderheiten für die objektive Tauglichkeit des Rats. Zum anderen geht damit nicht auch ein gänzlicher Verzicht auf die hergebrachten Vertrauensgrundsätze, die bisher menschliche Besonderheiten berücksichtigen, einher. Vielmehr findet eine Anpassung der Grundsätze an eben jene KI-Eigenschaften statt. Das Vertrauen schöpft sich dann aus den intensivierten vorgelagerten Pflichten, die wegen der Rigidität der KI mit ausreichender Sicherheit hochwertige und objektive Ergebnisse sicherstellt. Eine solche Intensivierung vorgelagerter Prüfpflichten zur Kompensation der „Blackbox“ lässt sich auch im jüngsten Regulierungsvorschlag der EU zum Vertrauen in den Einsatz von Künstlicher Intelligenz entnehmen.447 Der Regulierungsvorschlag verfolgt, wegen des thematisch sehr breit angelegten Regelungsrahmens, den Ansatz der Einteilung der KI nach Gefährdungs­ potenzial. Je größer das Gefährdungspotenzial, desto intensiver die Pflichten für die Zulässigkeit des Einsatzes. Er bezieht sich dabei ganz überwiegend auf den Einsatz Künstlicher Intelligenz in besonders sensiblen Bereichen mit Einfluss auf den Menschen und entsprechender Grundrechtsrelevanz,448 wie beispielsweise der Medizin oder bei der Verarbeitung biometrischer Daten.449 In der Folge liegen zwar schon die Regelungsbedürfnisse anders, als bei der Beratung des Vorstands einer AG, der ausschließlich einen unternehmensbezogenen KI-Einsatz verfolgt, der regelmäßig nur ein geringes Gefährdungspotenzial mit sich bringt. Dennoch sind dem Regelungsvorschlag zwei übergreifende Wertungen zu entnehmen. Erstens, der Schwerpunkt der Pflichten beim Einsatz von KI verlagert sich ganz überwiegend auf solche vor Einsatz derselben. Mithin auf die Programmierung, die Daten und das Training.450 Ferner auf fortlaufende Überwachung der Brauchbarkeit der Ergebnisse während des Einsatzes,451 nicht deren Herleitung. Zweitens wird zwar vom Regulierungsvorschlag für bestimmte Hoch­ risiko-KI-Systeme, wie den zuvor genannten, grundsätzlich eine Form der 447  Europäische Kommission, Proposal final – 2021/0106 (COD), S. 1. 448  Europäische Kommission, Proposal final – 2021/0106 (COD), S. 11. 449  Europäische Kommission, Proposal final – 2021/0106 (COD), S. 4 und 38. 450  Europäische Kommission, Proposal final – 2021/0106 (COD), S. 7. 451  Europäische Kommission, Proposal final – 2021/0106 (COD), S. 7.

on AI v. 21.04.2021 – COM(2021) 205 on AI v. 21.04.2021 – COM(2021) 205 on AI v. 21.04.2021 – COM(2021) 205 on AI v. 21.04.2021 – COM(2021) 205 on AI v. 21.04.2021 – COM(2021) 205

170

3. Teil: Die Delegation durch den Vorstand der AG an KI

„Transparenz“ und „Nachvollziehbarkeit“ gefordert.452 Allerdings bleibt zum einen unklar, wie diese erreicht werden soll.453 Zum anderen beschränkt der Regulierungsvorschlag für KI-Systeme mit geringem Risiko, wie solche, die der Vorstand ganz überwiegend einsetzen wird, die Notwendigkeit der Transparenz auf die Offenlegung des Einsatzes von KI und den damit verbundenen Risiken für die Beteiligten.454 Die Transparenz ist regelmäßig dann gewahrt, wenn den Beteiligten offengelegt wird, dass sie mit KI-Entscheidungen konfrontiert sind und sie auf die technikspezifischen Risiken hingewiesen werden.455 Eine Transparenz des Datenverarbeitungsvorgangs ist dann für das Vertrauen in die KI-Ergebnisse nicht zwingend notwendig.456 Der Vorstand, der selbst die Entscheidung für die KI-Beratung trifft, ist sich der technik­ immanenten Risiken bewusst. Darüber hinaus weiß er auch um die Qualität des KI-Rats aufgrund der Trainingsergebnisse und der Kenntnis von der Datenqualität. Er wird sich pflichtwidrig verhalten, wenn er auf das Ergebnis vertraut, obwohl er weiß, dass die KI hinsichtlich der Beratungsqualität instabil ist. Er wird aber keinen Grund haben, dem Ergebnis nicht zu vertrauen, wenn die KI ganz überwiegend und regelmäßig im Training brauchbare Beratung geliefert hat und er die fortlaufenden Kontrollpflichten zur Qualitätssicherung ordnungsgemäß wahrnimmt. c) Ergebnis zu den Überlegungen einer künftigen Anpassung der Plausibilitätsprüfung beim Einsatz von KI-Beratern Zusammenfassend wird man im Ergebnis, angetrieben von ökonomischen und gesellschaftspolitischen Gründen, den Gedanken an eine gewisse Neuorientierung der zu fordernden Plausbilitätsprüfung und damit des Vertrauens in KI-Beratung für den Einsatz zulassen können. Mit mittelfristig weiter steigender Relevanz der KI-Beratung des Vorstands stünden einer solchen Überlegung der Neuorientierung, auf einen vollständige und jederzeit einsehbaren KI-Datenverarbeitungsvorgang zu verzichten, dann keine schwerwiegenden rechtlichen Bedenken entgegen, wenn stattdessen die vorgelagerten 452  Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), S. 10. 453  Dies kritisierend auch Ebers, NJW-Magazin Editorial „Kontroverse KI-Verordnung“ vom 20.05.2021. 454  Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), S. 3 und 7. 455  Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), S. 7; Vgl. so zum Datenschutzrecht Sesing, MMR 2021, 288 (291 f.). 456  Europäische Kommission, Proposal on AI v. 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), S. 7.



D. Pflicht zum Einsatz von KI im Rahmen der Business Judgment Rule? 171

und fortlaufenden Pflichten des Vorstands beim Einsatz von KI intensiviert werden. Dies bedeutet zwar nicht weniger, als von den bisher für mensch­ liche Beratung geltenden Grundsätzen in das Vertrauen in einzelnen Teilen, nämlich der Plausibilitätsprüfung auf offensichtliche Widersprüche und Begründungslücken, abzurücken. Die Verlagerung der Prüfpflichten führt aber dazu, dass jene Prüfung hinreichend kompensiert wird.457 Sollte die Transparenz nicht auf technischem Wege ausreichend früh erreicht werden können, ist es ökonomisch und gesellschaftspolitisch förderlich, die Entwicklung des Rechts in genannte Richtung in Erwägung zu ziehen.

D. Pflicht zum Einsatz von KI im Rahmen der Business Judgment Rule? An das Recht des KI-Einsatzes, schließt sich die Frage an, ob der Vorstand verpflichtet sein kann, KI bei der unternehmerischen Entscheidungsfindung zu nutzen, um in den Genuss der haftungsprivilegierenden Wirkung der Business Judgment Rule nach § 93 Abs. 1 Satz 2 AktG zu kommen. Dazu muss der Vorstand bei einer unternehmerischen Entscheidung vernünftigerweise annehmen können dürfen, auf Grundlage angemessener Informationen zum Wohle der Gesellschaft zu handeln, § 93 Abs. 1 Satz 2 AktG.

I. Maßstab für eine angemessene Informationsgrundlage Maßgeblich wird eine mögliche Pflicht zum Einsatz von KI bei der unternehmerischen Entscheidung zum einen davon abhängen, welche Anforderungen man materiell an die „Angemessenheit“ der Informationsgrundlage stellt. Darauf aufbauend wird sie zum anderen von der Reichweite der gerichtlichen Kontrolle der „Angemessenheit“ abhängen. Mithin, ob man dem Vorstand nicht nur hinsichtlich der Entscheidung auf Basis angemessener Informationen („Entscheidungsebene“) unternehmerisches Ermessen einräumt, sondern auch ob und in wie weit man ihm bereits hinsichtlich der Beschaffung angemessener Informationen („Erkenntnisebene“) unternehmerisches Ermessen einräumt.

457  Vgl. Merkt/Mylich, NZG 2012, 525 (529); in diese Richtung auch Krieger, ZGR 2012, 496 (502), der eine Plausibilitätsprüfung für nicht erforderlich hält, wenn der Geschäftsleiter keinen Anlass zu konkreten rechtlichen Zweifeln haben muss; so im Ergebnis für KI auch Zetzsche, AG 2019, 1 (8 f.); ähnlich Linardatos, ZIP 2019, 504 (508), der die Undurchsichtigkeit der Blackbox als nicht hinderlich ansieht, wenn diese durch Überwachungs- und Kontrollmaßnahmen kompensiert wird.

172

3. Teil: Die Delegation durch den Vorstand der AG an KI

1. „Angemessenheit“ der Informationsgrundlage Zunächst ist materiell zu beurteilen, wann die Informationsgrundlage bei der unternehmerischen Entscheidung „angemessen“ i. S. d. § 93 Abs. 1 Satz 2 AktG ist. Insbesondere in der Rechtsprechung wird vertreten, dass der Vorstand – entgegen dem Wortlaut „angemessen“ – „alle verfügbaren Informa­ tionsquellen tatsächlicher und rechtlicher Art auszuschöpfen und auf dieser Grundlage die Vor- und Nachteile der bestehenden Handlungsoptionen sorgfältig abzuschätzen und den erkennbaren Risiken Rechnung zu tragen“458 hat. Dieses Verständnis ist jedoch schon vom bewusst gewählten Wortlaut des Reformgesetzgebers nicht gedeckt.459 Vielmehr ist der Umfang der Information dann „angemessen“ i. S. d. § 93 Abs. 1 Satz 2 AktG, wenn er an den für eine sachgerechte Entscheidung nötigen Informationen ausgerichtet ist.460 458  BGH, Beschluss vom 14.07.2008 – II ZR 202/07 = ZIP 2008, 1675 (1676 f., Rn. 11) (Hervorhebung durch den Verfasser); Goette, in: Geiß (Hrsg.), Festschrift 50 Jahre BGH (2000), S. 140 f. 459  Vgl. Deutscher Bundestag, Begr. RegE UMAG, BT Drs. 15/5092, S. 12; vgl. zum Referentenentwurf auch Seibert/Schütz, ZIP 2004, 252 (254); Fleischer, NJW 2009, 2337 (2339); Lutter, ZIP 2007, 841 (844 f.); C. Schäfer, ZIP 2005, 1253 (1258); Hopt, ZIP 2013, 1793 (1801); Lieder, ZGR 2018, 523 (555 f.); eine Abweichung durch die höchstrichterliche Rechtsprechung entgegen des Wortlauts und der Begründung des Referentenentwurfs für richtig erachtend Goette, ZGR 2008, 436 (448 in der Fußnote Fn. 46); diesem zustimmend Altmeppen, GmbHG-Altmeppen, § 43, Rn. 9; diese umfassende Informationsgrundlage nicht mehr fordernd BGH, Beschluss vom 03.11.2008 – II ZR 236/07 = ZIP 2009, 223 (223); die umfassenden Anforderungen als „überspannt“ zurücknehmend auch BGH, Urteil vom 22.02.2011 – II ZR 146/09 = ZIP 2011, 766 (767 f.); siehe zu dieser Rücknahme der Anforderungen auch Bachmann, ZHR 177 (2013), 1 (3 f.); als Korrektur der vorherigen Rechtsprechung einordnend auch Freitag/Korch, ZIP 2012, 2281 (2286); eine ausdrückliche Rücknahme in der Rechtsprechung nicht erkennend, aber eine solche nach anderer Leseart für geringere Anforderungen als eine umfassende Informationsgrundlage auch für nicht notwendig erachtend Hüffer/Koch AktG-Koch, § 93, Rn. 20; dagegen wieder die umfassenden Anforderungen zitierend BGH, Urteil vom 18.06.2013 – II ZR 86/11 = ZIP 2013, 1712 (1715, Rn. 30); letztere BGH-Entscheidung mit Hinweis auf eine wohl unbedachte Übernahme der ursprünglichen strengen Anforderungen des BGH als nicht für die Rückbesinnung auf eben jene strengeren Maßstäbe relevant einordnend Bachmann, NZG 2013, 1121 (1124 f.); diese Einordnung Bachmanns bestätigend zuletzt der 5. Strafsenat BGH, Urteil vom 12.10.2016 – 5 StR 134/15 = ZIP, 2467 (2470 Rn. 34), der zwar zunächst die umfassenden Anforderungen zugrunde legt, sich dann jedoch konkretisierend den zurückgenommenen Anforderungen der Literatur anschließt; dazu und dem zustimmend Schmidt/Lutter AktG-Sailer-Coceani, § 93, Rn. 17; aus der jüngsten obergerichtlichen Rechtsprechung ausführlich eingehend und der Literatur ebenso zustimmend OLG Köln, Urteil vom 01.10.2019 – 18 U 34/18 = ZIP 2020, 210 (212 f.). 460  Schmidt/Lutter AktG-Sailer-Coceani, § 93, Rn. 17; Hüffer/Koch AktG-Koch, § 93, Rn. 20; BGH, Urteil vom 12.10.2016 – 5 StR 134/15 = ZIP, 2467 (2470, Rn. 34); eingehend OLG Köln, Urteil vom 01.10.2019 – 18 U 34/18 = ZIP 2020, 210 (212 f.).



D. Pflicht zum Einsatz von KI im Rahmen der Business Judgment Rule? 173

Dazu sind die konkreten Umstände der Entscheidung einzubeziehen, insbesondere die Eilbedürftigkeit, die Bedeutung der Entscheidung für das Unternehmen, das zugrundeliegende Risiko sowie das Verhältnis von Kosten und Nutzen.461 Es besteht folglich insoweit im Ausgangspunkt ein flexibler Pflichtenkanon.462 2. Gerichtliche Kontrolle des Beurteilungsspielraums Dies zugrunde gelegt, ist auf die Frage der gerichtlichen Kontrolle des Beurteilungsspielraums des Vorstands hinsichtlich der „Angemessenheit“ zu­ rückzukommen. Einige Stimmen wollen dem Vorstand auch auf der Erkenntnisebene einen erheblichen Spielraum, mithin eine Art informationelle Business Judgment Rule einräumen.463 Dazu werden insbesondere der Wortlaut sowie die Gesetzesbegründung464 herangezogen.465 Dem Wortlautargument ist in Bezug

461  So oder ähnlich für eine einzelfallorientiere Bewertung und eine umfassende Informationsgrundlage ablehnend zugunsten einer angemessenen Informationsgrundlage OLG Köln, Urteil vom 01.10.2019 – 18 U 34/18 = ZIP 2020, 210 (212 f.); Redeke, ZIP 2011, 59 (60); Schmidt/Lutter AktG-Sailer-Coceani, § 93, Rn. 17; Fleischer, in: Wank (Hrsg.), Festschrift Wiedemann (2002), S. 841; vgl. Deutscher Bundestag, Begr. RegE UMAG, BT Drs. 15/5092, S. 12; BGH, Urteil vom 12.10.2016 – 5 StR 134/15 = ZIP, 2467 (2470, Rn. 34); Spindler, AG 2013, 889 (893); MüKo AktG-Spindler, § 93, Rn. 55; Fleischer, ZIP 2004, 685 (691); Kock/Dinkel, NZG 2004, 441 (444); Peters, AG 2010, 811 (813); Freitag/Korch, ZIP 2012, 2281 (2285); Bachmann, ZHR 177 (2013), 1 (12); Peltzer, in: Krieger/Lutter/Schmidt (Hrsg.), Festschrift Hoffmann-Becking (2013), S. 866; Paefgen, AG 2004, 245 (254); Bosch/Lange, JZ 2009, 225 (231); Böttcher, NZG 2009, 1047 (1049); P. Schaub/ M. Schaub, ZIP 2013, 656 (659); Druey, in: Habersack/Hommelhoff (Hrsg.) (2011), S.  64 f.; Brömmelmeyer, WM 2005, 2065 (2067); Hüffer/Koch AktG-Koch, § 93, Rn. 20; Lutter, ZIP 2007, 841 (845); ausführlich auf die betriebswirtschaftlichen ­Aspekte der Angemesseneheit eingehend Grundei/Werder, AG 2005, 825 (827 ff.); Weißhaupt, ZIP 2019, 202 (208); Hopt, ZIP 2013, 1793 (1801); Fleischer, NJW 2009, 2337 (2339); C. Schäfer, ZIP 2005, 1253 (1258); BeckOGK AktG-Fleischer, § 93, Rn. 89; Koch, ZGR 2006, 769 (789); Ulmer, DB 2004, 859 (860); ausführlich mit Bezug zu unternehmerischen Entscheidungen des Aufsichtsrats siehe Lieder, ZGR 2018, 523 (554 f.). 462  Redeke, ZIP 2011, 59 (60). 463  Grigoleit AktG-Grigoleit/Tomasic, § 93, Rn. 49; Bachmann, WM 2015, 105 (110); Peters, AG 2010, 811 (813); Freitag/Korch, ZIP 2012, 2281 (2282); Kocher, CCZ 2009, 215 (220); Lutter, ZIP 2007, 841 (844 f.); dafür auch Druey, in: Habersack/Hommelhoff (Hrsg.) (2011), S. 64 f.; in diese Richtung aber mit Tendenz zu einer differenzierenden Ansicht Bosch/Lange, JZ 2009, 225 (231). 464  „Es wird dem Vorstand also in den Grenzen seiner Sorgfaltspflichten ein erheblicher Spielraum eingeräumt, den Informationsbedarf abzuwägen und sich selbst eine

174

3. Teil: Die Delegation durch den Vorstand der AG an KI

auf die reine Syntax zwar zuzustimmen. § 93 Abs. 1 Satz 2 AktG statuiert: „Eine Pflichtverletzung liegt nicht vor, wenn das Vorstandsmitglied […] vernünftigerweise annehmen durfte, auf der Grundlage angemessener Information zum Wohle der Gesellschaft zu handeln“. Der Beurteilungsspielraum des „vernünftigerweise annehmen Dürfens“ bezieht sich nach der Syntax sowohl auf die Grundlage angemessener Information (Erkenntnisebene) als auch auf das Handeln zum Wohle der Gesellschaft (Entscheidungsebene). Jedoch sprechen gewichtige Gründe gegen ein Festhalten an der vermeintlich klaren Syntax. Zum einen wurde die ARAG/Garmenbeck-Rechtsprechung466 als Kodifikationsgegenstand467 in § 93 Abs. 1 Satz 2 AktG als sogenannte „Merkpostengesetzgebung“ so deutungsoffen normiert, dass der Normbestandteil weiterer tatbestandlicher Konturierung bedarf.468 Folglich kommt der Orientierung an der ARAG/Garmenbeck-Rechtsprechung ein ­höheres Gewicht zu, wohingegen der Wortlaut in den Hintergrund tritt.469 Zum anderen besteht für die Ausweitung der Business Judgment Rule auf die Erkenntnisebene schon kein Bedarf. Teleologisch soll die Business Judgment Rule den vielschichtigen besonderen Herausforderungen von Vorstandsentscheidungen Rechnung tragen und die Einflüsse von Instinkt, Geschick, Erfahrung würdigen.470 Diese sind indes bei der Informationsbeschaffung nur von unwesentlicher Relevanz gegenüber der tatsächlichen Entscheidung auf Basis der Informationen.471 Die Business Judgment Rule schützt damit die unternehmerischen Eigenschaften des wohlinformierten wagemutigen Vorstands.472 Demgegenüber schützt sie nicht einen solchen Vorstand, der wegen seiner Nachlässigkeit unangemessen informiert ist473 Annahme dazu zu bilden.“, Deutscher Bundestag, Begr. RegE UMAG, BT Drs. 15/ 5092, S. 12. 465  Lutter, ZIP 2007, 841 (844 f.). 466  BGH, Urteil vom 21.04.1997 – II ZR 175/95 = ZIP 1997, 883. 467  Deutscher Bundestag, Begr. RegE UMAG, BT Drs. 15/5092, S. 11; Hüffer/ Koch AktG-Koch, § 93, Rn. 8; Redeke, ZIP 2011, 59 (61); S. H. Schneider, DB 2005, 707 (707); Baur/Holle, ZIP 2017, 597 (600); BeckOGK AktG-Fleischer, § 93, Rn. 80. 468  Hüffer/Koch AktG-Koch, § 93, Rn. 10; Baur/Holle, ZIP 2017, 597 (601); ­Redeke, ZIP 2011, 59 (61); BeckOGK AktG-Fleischer, § 93, Rn. 91; Bachmann, ZHR 177 (2013), 1 (11). 469  Hüffer/Koch AktG-Koch, § 93, Rn. 10; vgl. auch Baur/Holle, ZIP 2017, 597 (600); Redeke, ZIP 2011, 59 (61). 470  Deutscher Bundestag, Begr. RegE UMAG, BT Drs. 15/5092, S. 11; BeckOGK AktG-Fleischer, § 93, Rn. 92; Baur/Holle, ZIP 2017, 597 (600); Hüffer/Koch AktGKoch, § 93, Rn. 9. 471  Baur/Holle, ZIP 2017, 597 (604). 472  Fleischer, in: Wank (Hrsg.), Festschrift Wiedemann (2002), S. 840. 473  Lieder, ZGR 2018, 523 (556); Fleischer, in: Wank (Hrsg.), Festschrift Wiedemann (2002), S. 840.



D. Pflicht zum Einsatz von KI im Rahmen der Business Judgment Rule? 175

und damit bereits Grundvoraussetzungen pflichtgemäßer unternehmerischer Tätigkeit verletzt.474 Darüber hinaus soll durch die Business Judgment Rule der Gefahr von Rückschaufehlern bei der gerichtlichen Bewertung vorgebeugt werden.475 Solche Rückschaufehler ergeben sich daraus, dass die gerichtliche Kontrolle, zwar eine ex ante Sicht einnehmen soll, jedoch aufgrund der tatsächlichen ex post Ausgangsposition der Beurteilung zu „nachträglichen Prognosen“476 neigt, (sogenannte „hindsight bias“)477. Auch diese Problematik wird hingegen auf der Entscheidungsebene weitaus virulenter sein als auf der Erkenntnis­ ebene,478 da letztere gegenüber ersterer eine objektive Bewertung der Angemessenheit der Informationseinholung durch Sachverständige zulässt.479 Dem verbleibenden Risiko der „hindsight bias“ wird hinreichend durch die subjektive Komponente des „vernünftiger Weise annehmen Dürfens“ im Rahmen der Business Judgment Rule begegnet, wonach das Gericht bei der Bewertung des Beurteilungsspielraums die ex ante Sicht des Vorstands einzunehmen hat. Daher ist vorzugswürdig, dem Vorstand zwar einen gewissen Beurteilungsspielraum bei der Informationsbeschaffung bis zur Grenze der Vertretbarkeit480 einzuräumen, diesen aber im Rahmen einer Plausibilitätskontrolle gerichtlicher Überprüfung zugänglich zu machen.481 Dadurch werden sowohl 474  Vgl. Arnold/Rothenburg, in: Semler/Peltzer/Kubis (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder (22015), §7 Rn. 33; Hüffer/Koch AktG-Koch, § 93, Rn. 20; BGH, Beschluss vom 14.07.2008 – II ZR 202/07 = ZIP 2008, 1675 (1676 f.). 475  Fleischer, in: Wank (Hrsg.), Festschrift Wiedemann (2002), S. 831 f.; Fleischer, ZIP 2004, 685 (686); MüKo AktG-Spindler, § 76, Rn. 36; Lutter, ZIP 2007, 841 (845); Spindler, AG 2013, 889 (892); Freitag/Korch, ZIP 2012, 2281 (2285); Bachmann, ZHR 177 (2013), 1 (4 und 11 f.); Hopt, ZIP 2013, 1793 (1801); Lieder, ZGR 2018, 523 (557); Redeke, ZIP 2011, 59 (61 ff.); ebenso P. Schaub/M. Schaub, ZIP 2013, 656 (658); Baur/Holle, ZIP 2017, 597 (604); Hüffer/Koch AktG-Koch, § 93, Rn. 9; Fleischer, NJW 2009, 2337 (2338 f.); Koch, ZGR 2006, 769 (782); Brömmelmeyer, WM 2005, 2065 (2068); S. H. Schneider, DB 2005, 707 (708 f.). 476  Bär, ZBJV 106 (1970), 457 ff. 462: „Der Richter darf keine nachträglichen Prognosen stellen, d. h. er sollte in nun hergestellter Kenntnis des schädigenden Verlaufs nicht leicht annehmen, man hätte mit etwas derart rechnen müssen.“, zit. nach Fleischer, ZIP 2004, 685 (686). 477  Fleischer, ZIP 2004, 685 (686), m. w. N. 478  Darauf ausführlich eingehend Redeke, ZIP 2011, 59 (61  ff.); dazu auch P. Schaub/M. Schaub, ZIP 2013, 656 (658); Baur/Holle, ZIP 2017, 597 (604). 479  Redeke, ZIP 2011, 59 (62). 480  So BGH, Urteil vom 12.10.2016 – 5 StR 134/15 = ZIP, 2467 (2470 Rn. 34) „Die Beurteilung des Vorstands im Zeitpunkt der Entscheidungsfindung muss aus der Sicht eines ordentlichen Geschäftsleiters vertretbar erscheinen (‚vernünftiger-weise‘).“ 481  So oder ähnlich Redeke, ZIP 2011, 59 (62 ff.); Lieder, ZGR 2018, 523 (556 f.); Baur/Holle, ZIP 2017, 597 (605 f.); Cahn, Der Konzern 2015, 105 (111); BeckOGK AktG-Fleischer, § 93, Rn. 91; Schmidt/Lutter AktG-Sailer-Coceani, § 93, Rn. 17;

176

3. Teil: Die Delegation durch den Vorstand der AG an KI

Rückschaufehler angemessen berücksichtigt als auch der Wille des Gesetzgebers, dem Vorstand einen erheblichen Spielraum einzuräumen.482 Schließlich wahrt diese Lösung auch das Gleichgewicht zwischen Haftungsprivilegierung des Vorstands und damit einhergehend die Förderung ökonomischer Interessen des Unternehmens auf der einen Seite und der Verhaltenssteuerung zu sorgsamen Entscheidungen und damit Schutz des Unternehmens vor Eingehung verantwortungsloser Risiken483 auf der anderen Seite.484

II. Pflicht zur Konsultation von KI für eine angemessene Informationsgrundlage? Aus der Maßstabsbildung hat sich ergeben, dass die objektive Angemessenheit der Informationsgrundlage zum einen vom Einzelfall abhängt485 und zum anderen dem Vorstand diesbezüglich ein auf Plausibilität überprüfbarer weiter subjektiver Ermessensspielraum486 zukommt. Dies vorausgeschickt wird der Vorstand grundsätzlich frei in der Wahl der Art und Weise der Informationsbeschaffung und -auswertung sein. Eine Pflicht zum KI-Einsatz kann nicht schon deswegen bestehen, weil der Einsatz denkbar ist, sodass im Ausgangspunkt eine grundsätzliche Pflicht abzulehnen ist.487 Da der Vorstand Bürgers/Körber AktG-Bürgers, § 93, Rn. 13; Hüffer/Koch AktG-Koch, § 93, Rn. 21; unklar hinsichtlich der Reichweite des Spielraums aber wohl auch in diese Richtung MüKo AktG-Spindler, § 93, Rn. 57; P. Schaub/M. Schaub, ZIP 2013, 656 (659); aus der Rechtsprechung zuletzt ähnlich unklar aber wohl auch in diese Richtung OLG Köln, Urteil vom 01.10.2019 – 18 U 34/18 = ZIP 2020, 210 (212 f.); etwas klarer BGH, Urteil vom 12.10.2016 – 5 StR 134/15 = ZIP, 2467 (2470 Rn. 34) „Die Beurteilung des Vorstands im Zeitpunkt der Entscheidungsfindung muss aus der Sicht eines ordentlichen Geschäftsleiters vertretbar erscheinen (‚vernünftiger-weise‘).“. 482  Redeke, ZIP 2011, 59 (63 f.). 483  Zum Phänomen des Überoptimismus von Managern und deren Folgen siehe zum Beispiel Fleischer, ZHR 172 (2008), 538 (541 f.), m. w. N. 484  So oder ähnlich auch Redeke, ZIP 2011, 59 (63 f.); BeckOGK AktG-Fleischer, § 93, Rn. 91. 485  Dazu oben unter 3. Teil D. I. 486  Dazu oben unter 3. Teil D. I. 487  So auch Zetzsche, AG 2019, 1 (9); Noack, ZHR 183 (2019), 105 (122 f.); J. Wagner, BB 2018, 1097 (1099); Becker/Pordzik, ZfPW 2020, 334 (347 f.); R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1133); Lücke, BB 2019, 1986 (1989); Hüffer/ Koch AktG-Koch, § 93, Rn. 20; wohl auch Schmidt/Lutter AktG-Sailer-Coceani, § 93, Rn. 17; Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 476, der aber eine Kapitalgesellschaftliche Pflicht zum angemessenen Einsatz von KI für absehbar hält; zuvor dies auch schon prognostizierend Möslein, ZIP 2018, 204 (209 f.); ähnlich auch Sattler, BB 2018, 2243 (2248); speziell für Rechtsrat Hoch, AcP 219 (2019), 646 (695 f.); noch weitergehend und damit wohl a. A. MüKo AktG-Spindler, § 93, Rn. 56, der eine Pflicht zum Ein-



D. Pflicht zum Einsatz von KI im Rahmen der Business Judgment Rule? 177

jedoch bei seiner Entscheidung sämtliche Aspekte des konkreten Einzelfalls zu würdigen hat,488 kann sich das Ermessen des Vorstands in Ausnahmefällen zu einer Pflicht zum KI-Einsatz verdichten.489 Wegen der vielen denkbaren Konstellationen können diesbezüglich zwar keine konkreten Vorgaben für das mögliche Bestehen einer Einsatzpflicht statuiert werden. Jedoch sollen im Folgenden Leitlinien aufgezeigt werden, anhand derer der Vorstand zumindest eine sich abzeichnende Tendenz erkennen kann, dass ein KI-Einsatz angezeigt ist, hinsichtlich derer ihm jedoch weiterhin ein Beurteilungsspielraum490 zusteht. Erstens wird es auf den Gegenstand des Unternehmens ankommen. Je datengetriebener er ist, desto eher wird der KI-Einsatz gegenüber anderer Vorgehensweise hinsichtlich erreichbarer Qualität und Effizienz der durch KI generierten Informationsbasis überwiegen. Das gilt insbesondere für Prog­ noseentscheidungen,491 denen keine mathematisch zu beschreibenden Werturteile oder Abwägungsentscheidung zugrunde liegen.492 Da die KI der menschlichen Auswertung und Zusammenstellung von Informationen gerade bei undurchsichtigen oder komplexen Datenstrukturen oder besonders großen Datenmengen erheblich überlegen ist, kann, unter Berücksichtigung der wirtschaftlichen Verhältnismäßigkeit, der KI-Einsatz geboten sein.493 Zweitens und eng verbunden mit der ökonomischen Abwägung, wird es darauf ankommen, ob für die zu schaffende Informationsgrundlage bereits ein entsprechender Marktstandard für die durch KI zu erledigende Aufgabe existiert, sowie satz von KI schon dann annimmt, wenn die Möglichkeit dazu besteht; zuvor hinsichtlich der Pflicht noch zurückhaltender Formulierend Spindler, ZGR 2018, 17 (43); ebenso Spindler, CR 2017, 715 (723). 488  Siehe dazu oben unter 3. Teil D. I. 489  So auch J. Wagner, BB 2018, 1097 (1099); Schmidt/Lutter AktG-Sailer-Coceani, § 93, Rn. 17; Becker/Pordzik, ZfPW 2020, 334 (347 f.); Noack, ZHR 183 (2019), 105 (122 f.); Lücke, BB 2019, 1986 (1989); Zetzsche, AG 2019, 1 (9); R. Weber/ Kiefner/Jobst, NZG 2018, 1131 (1134); Möslein, in: Ebers/Heinze/Krügel/Steinrötter/ Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 476; Möslein, ZIP 2018, 204 (209 f.); Sattler, BB 2018, 2243 (2248); mit Bezug zur Rechtsberatung durch KI Hoch, AcP 219 (2019), 646 (696); MüKo AktG-Spindler, § 93, Rn. 56, der eine Pflicht jedoch bereits immer dann vorsieht, wenn die Möglichkeit des KI-Einsatzes besteht; zuvor hinsichtlich der Pflicht noch zurückhaltender Spindler, ZGR 2018, 17 (43); ebenso Spindler, CR 2017, 715 (723). 490  Dazu oben unter 3. Teil D. I. 491  Agrawal/Gans/Goldfarb, Information Economics and Policy 2019 (Vol. 47), 1 (1); Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 475, m. w. N. 492  Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 475. 493  Zetzsche, AG 2019, 1 (9); Becker/Pordzik, ZfPW 2020, 334 (347); J. Wagner, BB 2018, 1097 (1099); Spindler, ZGR 2018, 17 (43); Spindler, CR 2017, 715 (723).

178

3. Teil: Die Delegation durch den Vorstand der AG an KI

ob der KI-Vorteil am Markt gewöhnlich beziehbar ist oder zunächst eine eigene Inhouse-Entwicklung notwendig ist.494 Diese Leitlinien geben eine Tendenz vor, wann der Vorstand den Einsatz von KI verstärkt in den Blick nehmen muss, um zu einer angemessenen Informationsgrundlage zu gelangen. Dennoch wird dem Vorstand nach wie vor ein nur auf Plausibilität überprüfbarer Entscheidungsspielraum verbleiben.495 Der Einsatz von KI wird sich auch innerhalb der Leitlinien erst dann zur Pflicht verdichten können, wenn der Nichteinsatz nicht mehr vertretbar ist.496 Dies dürfte allerdings mit Blick auf den heutigen Stand der KI-Technik und den mit dem Einsatz von KI verbundenen regelmäßig erheblichen Kosten nur in Ausnahmefällen gegeben sein. Mittelfristig wird mit steigender Leistungsfähigkeit der KI, Verfügbarkeit am Markt und Üblichkeit des Einsatzes zur Unterstützung menschlicher Entscheidungen für eine Vertretbarkeit des Nichteinsatzes indes ein höherer Begründungsaufwand des Vorstands notwendig sein.497

III. Zusammenfassung Im Rahmen des Beurteilungsspielraums des Vorstands ist mit dem heutigen Stand der Technik keine grundsätzliche Pflicht zum Einsatz von KI zu fordern, um in den Genuss der haftungsprivilegierenden Wirkung der Business Judgment Rule zu kommen. Im Einzelfall kann sich jedoch das Ermessen zu einer Pflicht verdichten. Mit Fortschreiten der Entwicklung der KI und derer Marktüblichkeit wird dies künftig regelmäßiger der Fall sein.

E. Zusammenfassung zur Delegation Die Delegation von Aufgaben an KI spielt bereits heute eine nicht unwesentliche Rolle. Zulässig sind, wie für menschliche Delegatare, die Delegation von einfachen Geschäftsführungsaufgaben sowie vor- und nachbereitenden Aufgaben zu Leitungsentscheidungen. Eine vollständige Übertragung 494  Becker/Pordzik, ZfPW 2020, 334 (347); Noack, ZHR 183 (2019), 105 (122 f.); Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 476; Lücke, BB 2019, 1986 (1989 f.). 495  Dazu oben unter 3. Teil D. I.; zustimmend auch Möslein, in: Ebers/Heinze/ Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 476; Zetzsche, AG 2019, 1 (9); J. Wagner, BB 2018, 1097 (1099). 496  Ähnlich auch Noack, ZHR 183 (2019), 105 (122 f.); Zetzsche, AG 2019, 1 (9). 497  So oder ähnlich auch Möslein, in: Ebers/Heinze/Krügel/Steinrötter/Beck (Hrsg.), Künstliche Intelligenz und Robotik (2020), S. 476; J. Wagner, BB 2018, 1097 (1099); Möslein, ZIP 2018, 204 (209 f.); Lücke, BB 2019, 1986 (1989 f.); ­Noack, ZHR 183 (2019), 105 (122 f.); R. Weber/Kiefner/Jobst, NZG 2018, 1131 (1134); Sattler, BB 2018, 2243 (2248).



E. Zusammenfassung zur Delegation179

von Leitungsaufgaben ist auch für KI, trotz derer Rigidität der Zielverfolgung, unzulässig. Die Aufgabendelegation hat zur Folge, dass der Vorstand zwar von der unmittelbaren Haftung für die Aufgabenausführung frei wird, ihn jedoch hinsichtlich des Delegataren Residualpflichten treffen. Der Vorstand wird dabei für eine haftungsbefreiende Wirkung einen KI-spezifischen Pflichtenkanon im Rahmen der Auswahl-, Einweisungs- und Überwachungspflichten zu erfüllen haben. Lässt sich der Vorstand von KI beraten intensiviert sich der Pflichtenkanon hinsichtlich der Sicherstellung der fachlichen Qualität der Beratungsleistung durch KI. Problematisch für die Haftungserleichterung des Vorstands ist bei Beratung durch KI jedoch, dass, der ISIONRechtsprechung folgend, der Vorstand de lege lata im Rahmen der Plausi­ bilitätsprüfung zur, zumindest laienhaften, Nachvollziehbarkeitsprüfung verpflichtet ist. Wegen der „Blackbox“ der KI wird ihm dies jedoch nicht gelingen. Ein Verzicht auf die Nachvollziehbarkeit ist jedoch vor dem Hintergrund der enthaftenden Wirkungen bei Expertenrat nicht zu rechtfertigen. Insofern wird lediglich die externe KI-gestützte Beratung durch einen menschlichen Berater als Letztverantwortlichen haftungsbefreiend wirken können, wenn der Vorstand seine Plausibilitätsprüfung KI-spezifisch erweitert. Mit mittelfristigem Blick in die Zukunft und zu erwartender stark steigender Relevanz für die Wettbewerbsfähigkeit deutscher Aktiengesellschaften, wird es jedoch ökonomisch notwendig, dass eine Anpassung der zu Menschen entwickelten Erfordernisse der Plausibilitätsprüfung beim Einsatz von KI thematisiert wird. Der im Rahmen der Delegation entwickelte Pflichtenkanon lässt sich insoweit für eine Rechtfertigung des Verzichts auf die Ergebnisnachvollziehbarkeit anführen, da die intensivierten vorgelagerten und laufenden KI-spezifischen Pflichten den Sinn und Zweck der Plausibilitätsprüfung weiter erfüllt sein lassen.

Zusammenfassung der Forschungsergebnisse in Thesen Zum zweiten Teil A.  Keine Künstliche Intelligenz als Vorstandsmitglied I. Ausgehend von den heutigen und mittelfristigen technischen Möglichkeiten ist Künstliche Intelligenz nicht als Vorstandsmitglied einer Aktiengesellschaft einsetzbar. Zwar sprechen eine Reihe bereits heute überwindbare Aspekte für eine Tauglichkeit von KI als Vorstandsmitglied. Gewichtiger sind demgegenüber jedoch die derzeit nicht kompensierbaren Hinderungsgründe. 1.  Einige Aspekte, die eine Entität als zum Vorstand der Aktiengesellschaft geeignet qualifizieren, können beim Einsatz von KI erfüllt werden. –– Es bestehen keine Bedenken hinsichtlich der Sicherstellung von Kompensations- und Steuerungsmöglichkeiten beim Einsatz von KI-Vorstandsmitgliedern. Erstere lässt sich per Pflichtversicherung oder Opt-in-Lösung der Gesellschafter darstellen. Zweitere ist durch ein Gebot, dass der Vorstand aus mindestens einer menschlichen Person zu bestehen hat, die die pflichtgemäße Aufgabenerfüllung der KI durch einen KI-spezifischen Pflichtenkanon sicherstellen muss, realisierbar. –– Der Einsatz von KI als Vorstandsmitglied führt nicht zu einer Verschiebung des Gleichgewichts der Organe der Aktiengesellschaft. –– Die Personalkompetenz des Aufsichtsrats kann auch beim Einsatz von KI gesichert werden. Sie muss jedoch eine Modifikation erfahren. Der Aufsichtsrat wird mit dem menschlichen Gesamtvorstand seine Rahmenvorstellungen erörtern müssen. Letzterer wird dann das KI-Vorstandmitglied kompetenzsystematisch zur Aufgabenerfüllung einrichten und trainieren, mithin zunächst als existierende Entität erschaffen müssen. Sodann schließt der Aufsichtsrat, nachdem er sich von der Tauglichkeit des KI-Vorstandsmitglieds überzeugen konnte, die „Personalentscheidung“ durch Bestellung ab. –– Aufgrund der Interessentreue des KI-Vorstands in Folge dessen Rigidität und werksseitigen Bindung an die Vorgaben des (menschlichen) Gesamtvorstands sind, anders als bei der Diskussion um den Einsatz juristischer



Zusammenfassung der Forschungsergebnisse in Thesen181

Personen als Vorstand, keine negativen Auswirkungen bezüglich einer Doppelbindung auf die allgemeine Funktionsfähigkeit des Geschäftsleitungsorgans oder das Unternehmenswohl zu erwarten. –– Die Transparenz- und Publizitätspflicht ist an die KI-spezifischen Besonderheiten anzupassen. Dies kann dadurch erfolgen, dass mitzuteilen ist, ob eine KI als Vorstandsmitglied in einer konkreten Funktion tätig wird. Dadurch wird der beabsichtigte Schutzzweck der Regelung, dass der Rechtsverkehr sich ein Bild über den Geschäftspartner machen kann, in vergleichbarer Weise gewürdigt werden können, ohne jenen beim Tätigwerden von KI-Vorstandsmitgliedern zu übervorteilen. –– In Bezug auf die Vertrauensbeziehungen menschlicher Akteure zum KIVorstandsmitglied wird man keinen Hinderungsgrund für den Einsatz von KI als Vorstandsmitglied feststellen können. Zwischen Aufsichtsrat und KI-Vorstandsmitglied sowie dem menschlichen Gesamtvorstand und dem KI-Vorstandsmitglied kommt es zwar zu modifizierten Vertrauensbeziehungen. Diese wirken sich jedoch im Ergebnis ebenso wenig vertrauenshindernd aus. –– Aus allgemeinen technikspezifischen Eigenschaften, wie der Rigidität der Zielverfolgung in Verbindung mit der daraus folgenden potenzierten Schadensdynamik, erwachsen keine wesentlichen Bedenken. 2. Demgegenüber stehen grundsätzliche gewichtige aktienrechtliche und vorstandspraktische Gegebenheiten der Befähigung der KI zum Vorstandsmitglied entgegen. Das KI-Vorstandsmitglied kann insbesondere dem Grundsatz der eigenverantwortlichen Geschäftsleitung sowie dem Grundsatz der Gesamtverantwortung nicht entsprechen. –– Die Tätigkeit des Vorstands ist keine statische oder iterativ reproduzier­ bare Aufgabenerfüllung. Die Handlungsfähigkeit des Vorstands kann daher beim Einsatz eines KI-Vorstandsmitglieds, wegen gewöhnlicherweise regelmäßig notwendiger Anpassungen der Geschäftsführungsaufgaben und -ziele, nicht dauerhaft gesichert werden. Zudem stellt das technische Ausfallrisiko der KI für die Handlungsfähigkeit einen Hinderungsgrund für den Einsatz eines KI-Vorstandsmitglieds dar. –– Es existieren derzeit ausschließlich KI-Anwendungen für einzelne unternehmerische Funktionen, die jedoch keine unternehmerische Gesamtsteuerung ermöglichen. Auch eine unternehmerisch schöpferische oder gestal­ terische Fähigkeit ist mit dem heutigen Stand der KI nicht möglich. Ein KI-Vorstand wird die besonders hervorgehobene unternehmerische Geschäftsleitung daher nicht im erforderlichen Maße ausüben können und widerspräche dem Grundgedanken des Vorstands als unternehmerisches Geschäftsführungsorgan.

182

Zusammenfassung der Forschungsergebnisse in Thesen

–– Ferner stehen vorstandspraktische Gründe dem Einsatz von KI im Kollegialorgan entgegen. Mangels mit Menschen vergleichbarer genereller Intelligenz sowie aufgabenübergreifender Mensch-Maschine-Kommunika­ tion ist die Kollegialarbeit gegenwärtig nicht pflichtgemäß umsetzbar. –– Der Einsatz von KI-Vorstandsmitgliedern läuft dem Gebot der eigenverantwortlichen und weisungsunabhängigen Gesamtleitung sowie der Willensfreiheit zuwider. –– Durch den Einsatz von KI-Vorstandsmitgliedern wird das Gebot der Gleichberechtigung innerhalb des Vorstands verletzt. a)  Der Einsatz von KI als Vorstandsmitglied ist wegen der beschränkten hoch spezialisierten Einsatzmöglichkeiten von KI derzeit nicht wünschenswert. Mit fernerem Ausblick in die Zukunft, in der eine KI die bisherigen Hinderungsgründe wegen derer Superintelligenz überwinden könnte, stünden ihr darüber hinaus keine weiteren (technikspezifischen) Hinderungsgründe entgegen. b) Auf absehbare Zeit wird sich der Einsatz von KI auf vom Vorstand delegierte, hochspezialisierte Einzelaufgaben beschränken. Zum dritten Teil A.  Zulässigkeit der Aufgabendelegation an KI I. Die Aufgabendelegation durch den Vorstand an KI ist grundsätzlich zulässig. II.  Die Delegation von Geschäftsführungsaufgaben und der Informationsbeschaffung für Leitungsaufgaben (Delegation Stufe 1) ist unproblematisch. III.  Demgegenüber ist für die Zulässigkeit der Delegation von Leitungsaufgaben, etwa der Ausarbeitung einer Beschlussvorlage, während lediglich die Letztentscheidungsverantwortung beim Vorstand verbleibt (Delegation Stufe 2), das Vorhandensein von ausreichender Prozesskontrolle durch den Vorstand besonders zu berücksichtigen. Ausreichende Prozesskontrolle wird für den Vorstand bei der Delegation der Stufe 2 regelmäßig vorliegen, wenn er die Rahmenbedingungen der KI einrichtet, sie trainiert, sie vor dem Einsatz überprüft und hinsichtlich des vorgeschlagenen Ergebnisses der KI eine eigene Plausibilitätskontrolle und Abwägungsentscheidung vornimmt. IV. Eine vollständige Delegation von Leitungsaufgaben (Delegation Stufe 3) ist wegen der KI-Besonderheiten, insbesondere der „Blackbox-Eigenschaft“, der Adaptivität und der hohen Geschwindigkeit der Aufgabenausführung, mangels ausreichender zurückbleibender Prozesskontrolle des Vorstands als unzulässig zu beurteilen.



Zusammenfassung der Forschungsergebnisse in Thesen183

B.  Haftung des Vorstands bei der Aufgabendelegation an KI Einfache Aufgabendelegation an KI Auswahl-, Einweisungs- und Überwachungspflichten treffen den Vorstand auch bei der Delegation an KI. Diese Pflichten sind KI-spezifisch zu erweitern, um die Beschränkung der Haftung auf die Einhaltung dieser Residualpflichten zu rechtfertigen. Eine solche Rechtfertigung ist durch angepasste Auswahl- und Einweisungspflichten und die Erfüllung eines KI-spezifischen 5-Punkte-Pflichtenkanons durch den Vorstand zu erreichen. I. Auswahlpflichten Wegen fehlender anerkannter Zertifizierungsmöglichkeiten zur Feststellung der Eignung von KI für eine konkrete Aufgabe, muss die Geeignetheitsprüfung durch den Vorstand zweistufig erfolgen. 1.  In einem ersten Schritt ist die Formalqualifikation des Herstellers festzustellen. 2.  Daraufhin ist, wegen Auseinanderfallens der auf Qualifikation geprüften Person und der KI als Entität der Aufgabenerfüllung, eine zusätzliche Funktionalitätsprüfung der KI durch den Vorstand zu fordern. In diesem Rahmen hat der Vorstand dem Hersteller die erforderlichen Daten zugänglich zu machen sowie die für die Aufgabenerfüllung notwendigen Anforderungen zu erklären. Zudem wird der Vorstand sich von der Auswahl hochwertiger und zulässiger Daten, Rahmenbedingungen, Auswahl der Algorithmen und der Kontinuität brauchbarer Ergebnisse der KI plausibel überzeugen müssen. II. Einweisungspflichten Die KI muss techniknotwendigerweise bereits im Prozess der Herstellung für die zu erfüllende Aufgabe umfassend spezialisiert und konkretisiert werden. Aus diesem Grund wird die Einweisungspflicht bei der Aufgabendelegation an KI überwiegend bereits im Rahmen der Auswahlpflicht des Vorstands berücksichtigt werden. Regelmäßig verbleiben als der Auswahl nachgelagerte Einweisungspflichten die Einstellung von Berichtspflichten der KI sowie insbesondere die fortlaufende Prüfung und Aktualisierung der KI-Algorithmen und weiterer Parameter der Rahmen- und Zielbedingungen. III.  5-Punkte-Pflichtenkanon der Überwachung Der Vorstand wird zunächst anhand betriebsbezogener, aufgabenbezogener und delegatarbezogener Leitlinien eine allgemeine Grundausrichtung der Überwachungsorganisation vornehmen müssen. Diese werden aufgrund der Wechselwirkung zwischen Auswahl-, Einweisungs- und Überwachungspflichten durch erstere beide maßgeblich determiniert. Daran anschließend

184

Zusammenfassung der Forschungsergebnisse in Thesen

kann die konkretisierende Gestaltung der Überwachungsmaßnahmen für den Einzelfall erfolgen. Dabei wird ein KI-spezifischer 5-Punkte-Pflichtenkanon einzuhalten sein, an dem der Vorstand die Ausgestaltung der im Einzelfall erforderlichen Überwachungsorganisation des KI-Delegatars orientieren kann: 1. Der Vorstand hat regelmäßige Stichprobenkontrollen der Algorithmen und KI-Ergebnisse vorzunehmen und bei Verdachtsmomenten auf Unregelmäßigkeiten einzuschreiten. 2. KI-spezifischen Risiken der seltenen, aber möglichen groben Abweichung durch Fehlprogrammierung der Rahmenbedingungen und Schranken ist durch systemimmanente Sicherheitsschranken zu begegnen, die zum Systemabsturz der KI führen, wenn diese überschritten werden. 3.  Dem Vorstand obliegt die laufende Kontrolle der Ergebnisplausibilität der KI-Ergebnisse. Daneben ist es notwendig als ersten Filter eine technischautomatisierte Plausibilitätsprüfung, etwa durch Kontrollalgorithmen einzuführen, die die Ergebnisse auf Einhaltung gesetzlicher und unternehmerischer Vorgaben vorfiltern um laufend auf versteckte Systemfehler zu prüfen, die sich gegebenenfalls erst später auswirken. 4.  Der KI-Delegatar ist in die allgemeine IT-Sicherheitsstruktur einzubinden, sodass die Stabilität der Systeme, Notfallvorkehrungen für einen Systemausfall und der Schutz vor Angriffen Dritter gewährleistet ist. 5.  Die Überwachung der KI kann und sollte bei mangelndem technischem Verständnis des Vorstands zur Wahrnehmung der effektiven Überwachung einer qualifizierten Person übertragen werden (beispielsweise einem „Chief Digital Officer“). Dem Vorstand obliegt die Metaüberwachung des Überwachers nach allgemeinen Grundsätzen. Beratende KI und Übertragbarkeit der ISION-Grundsätze 1.  Die vom BGH maßgeblich in seiner ISION-Entscheidung entwickelten Leitplanken für die Enthaftung des Vorstands bei Entscheidungen auf Basis eines Expertenrats können im Wesentlichen auch auf den Einsatz von KIBeratern übertragen werden. a.  Die ausreichende Information sowie die Unabhängigkeit des KI-Beraters bereiten wenig Probleme. b. Technikspezifisch fortzubilden ist das Merkmal des „fachlich qualifizierten Berufsträgers“. 2.  Die externe KI-Beratung kann wegen der fehlenden Berufsträgereigenschaft der KI nur haftungsbefreiend wirken, wenn ein menschlicher letztver-



Zusammenfassung der Forschungsergebnisse in Thesen185

antwortlicher Berufsträger die Beratung als „KI-gestützte Beratung“ durchführt. 3. Bei externer KI-gestützter Beratung ist die Plausibilitätsprüfung hinsichtlich des menschlichen Letztverantwortlichen nach den ISION-Grundsätzen durchzuführen. Dabei ist jedoch die Prüfung der Widerspruchsfreiheit und Nachvollziehbarkeit auf die Einflussnahme der KI auf das Ergebnis der Beratung auszuweiten. 4.  Für die interne KI-Beratung ist, der zur einfachen Aufgabendelegation entwickelte, 5-Punkte-Pflichtenkanon heranzuziehen und wegen der höheren Anforderungen an das Vertrauen des Vorstands auf Expertenrat zu intensivieren. Dazu ist ein fachlicher Experte bei der Einrichtung und dem Training der KI hinzuzuziehen. 5.  Der Vorstand wird die hergebrachten Grundsätze der Plausibilitätsprüfung bei der internen KI-Beratung wegen derer „Blackbox-Eigenschaft“ nicht erfüllen können. Die interne Beratung ist daher zwar zulässig, aber wegen der fehlenden Enthaftungswirkung praktisch nicht empfehlenswert. 6. Die zu erwartende schnell voranschreitende technische Entwicklung von KI wird es für die ökonomische Wettbewerbsfähigkeit deutscher Aktiengesellschaften notwendig machen, mittelfristig eine Anpassung der Plausi­ bilitätsprüfung beim Einsatz von KI-Beratern vorzunehmen. Dabei wird unter Intensivierung der dem Einsatz von KI vorgelagerten und begleitenden Pflichten auf das Nachvollziehbarkeitselement der Plausibilitätskontrolle hinsichtlich des Datenverarbeitungsvorgangs verzichtet und diese auf die Ergebnisplausibilität beschränkt werden können. Business Judgment Rule und der Einsatz von KI 1.  Grundsätzlich besteht mit heutigem Stand der Technik keine Pflicht des Vorstands, KI einzusetzen, um in den Genuss der haftungsprivilegierenden Wirkung der Business Judgment Rule zu kommen. 2.  Der Beurteilungsspielraum des Vorstands, ob er KI einsetzt, kann sich jedoch im Einzelfall zu einer Pflicht verdichten. 3.  Mit fortschreitender technischer Entwicklung der KI wird eine Tendenz zur Pflicht des KI-Einsatzes regelmäßiger in Betracht kommen.

Literaturverzeichnis Agrawal, Ajay K./Gans, Joshua S./Goldfarb, Avi: Exploring the impact of artificial Intelligence: Prediction versus judgment, Information Economics and Policy 2019 (Vol. 47), 1 ff. Altmeppen, Holger (Hrsg.): Gesetz betreffend die Gesellschaft mit beschränkter Haftung, 10. Aufl. 2021. Amour, John/Eidenmüller, Horst: Selbstfahrende Kapitalgesellschaften?, ZHR 183 (2019), 169 ff. Arnold, Michael: § 19, in: Marsch-Barner, Reinhard/Schäfer, Frank A. (Hrsg.), Handbuch börsennotierte AG, 5. Aufl., Köln 2022. Arnold, Michael/Rothenburg, Vera: § 7, in: Semler, Johannes/Peltzer, Martin/Kubis, Dietmar (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder, 2. Aufl., München 2015. Bachmann, Gregor: Die Haftung des Geschäftsleiters für die Verschwendung von Gesellschaftsvermögen, NZG 2013, 1121 ff. Bachmann, Gregor: Reformbedarf bei der Business Judgment Rule?, ZHR 177 (2013), 1 ff. Bachmann, Gregor: Zehn Thesen zur deutschen Business Judgment Rule, WM 2015, 105 ff. Bär, Rolf: Verantwortlichkeit des Verwaltungsrats der Aktiengesellschaft, Probleme bei einer Mehrheit von verantwortlichen Personen, ZBJV 106 (1970), 457 ff. Barthelmeß, Ulrike/Furbach, Ulrich: Künstliche Intelligenz aus ungewohnten Per­ spektiven, 1. Aufl., Wiesbaden 2019. Baur, Alexander/Holle, Philipp Maximilian: Zur privilegierenden Wirkung der Business Judgment Rule bei Schaffung einer angemessenen Informationsgrundlage, ZIP 2017, 597 ff. Bayer, Walter/Scholz, Philipp: Haftungsbegrenzung und D&O-Versicherung im Recht der aktienrechtlichen Organhaftung, NZG 2014, 926 ff. Bayer, Walter/Scholz, Philipp: Vertretung durch den Aufsichtsrat nach § 112 AktG und Rechtsirrtümer im Kernbereich des Aktienrechts (§ 112 AktG), ZIP 2015, 1853 ff. Beaucamp, Guy: Zum Analogieverbot im öffentlichen Recht, AöR 134 (2009), 83 ff. Becker, Marcus/Pordzik, Philipp: Digitalisierte Unternehmensführung, ZfPW 2020, 334 ff. Beierle, Christoph/Kern-Isberner, Gabriele: Methoden wissensbasierter Systeme, 4. Aufl., Wiesbaden 2008.

Literaturverzeichnis187 Binder, Jens-Hinrich: Geschäftsleiterhaftung und fachkundiger Rat, AG 2008, 274 ff. Binder, Jens-Hinrich: Mittelbare Einbringung eigener Aktien als Sacheinlage und Informationsgrundlagen von Finanzierungsentscheidungen in Vorstand und Aufsichtsrat, ZGR 2012, 757 ff. Bitkom e. V./DFKI: Künstliche Intelligenz Gipfelpapier, https://www.dfki.de/filead min/user_upload/import/9744_171012-KI-Gipfelpapier-online.pdf, (zuletzt geprüft am 01.09.2022). Boesebeck, Ernst: Unklarheiten in der Geschäftsführung und Verantwortung bei der Aktiengesellschaft, JW 1938, 2525 ff. Bosch, Nikolaus/Lange, Knut Werner: Unternehmerischer Handlungsspielraum des Vorstandes zwischen zivilrechtlicher Verantwortung und strafrechtlicher Sanktion, JZ 2009, 225 ff. Böttcher, Lars: Bankvorstandshaftung im Rahmen der Sub-Prime Krise, NZG 2009, 1047 ff. Brenner, Walter/Zarnekow, Rüdiger/Wittig, Hartmut: Intelligente Softwareagenten, 1. Aufl., Berlin 1998. Brömmelmeyer, Christoph: Neue Regeln für die Binnenhaftung des Vorstands – Ein Beitrag zur Konkretisierung der Business Judgment Rule, WM 2005, 2065 ff. Brynjolfsson, Erik/McAfee, Andrew: The business of Artificial Intelligence, HBR 2017, 3 ff. Buck-Heeb, Petra: Vertrauen auf den Rechtsrat Dritter und Wissenszurechnung bei der Anlageberatung, BKR 2011, 441 ff. Buck-Heeb, Petra: Die Plausibilitätsprüfung bei Vorliegen eines Rechtsrat, BB 2016, 1347 ff. Bürgers, Tobias: Compliance in Aktiengesellschaften, ZHR 179 (2015), 173 ff. Bürgers, Tobias/Körber, Torsten/Lieder, Jan (Hrsg.): Aktiengesetz, Heidelberg, 5. Aufl. 2021. Cahn, Andreas: Aufsichtsrat und Business Judgment Rule, WM 2013, 1293 ff. Cahn, Andreas: Business Judgment Rule und Rechtsfragen, Der Konzern 2015, 105 ff. Clases, Christoph: Vertrauen, in: Wirtz, Markus Antonius (Hrsg.), Dorsch – Lexikon der Psychologie, 20. Aufl., Bern 2021. Clases, Christoph/Wehner, Theo: Vertrauen, in: Wenninger, Gerd (Hrsg.), Spektrum – Lexikon der Psychologie (online Ressource), Heidelberg 2021. Dauner-Lieb, Barbara: Aktiengesetz §§ 76–94, in: Henssler, Martin/Strohn, Lutz (Hrsg.), Gesellschaftsrecht, 5. Aufl., München 2021. Deutscher Bundestag: Entwurf eines Gesetzes zur Unternehmensintegrität und Modernisierung des Anfechtungsrechts (UMAG). Deutscher Bundestag: Entwurf eines Gesetzes zur Vermeidung von Gefahren und Missbräuchen im Hochfrequenzhandel (Hochfrequenzhandelsgesetz) – BT-Drs. 17/11631 v. 16.11.2012, https://dipbt.bundestag.de/dip21/btd/17/116/1711631.pdf, (zuletzt geprüft am 01.09.2022).

188 Literaturverzeichnis Deutscher Bundestag: Entwurf eines Zweiten Gesetzes zur Novellierung von Finanzmarktvorschriften auf Grund europäischer Rechtsakte (Zweites Finanzmarktnovellierungsgesetz – 2. FiMaNoG) – BT-Drs. 18/10936 v. 23.01.2017, http://dipbt. bundestag.de/dip21/btd/18/109/1810936.pdf, (zuletzt geprüft am 01.09.2022). Deutscher Bundestag: Drucksache IV/171, http://dipbt.bundestag.de/doc/ btd/04/001/0400171.pdf, (zuletzt geprüft am 01.09.2022). Dreher, Meinrad: Nicht delegierbare Geschäftsleiterpflichten, in: Grundmann, Stefan/ Baum, Harald (Hrsg.), Festschrift für Klaus J. Hopt zum 70. Geburtstag am 24. August 2010: Unternehmen, Markt und Verantwortung – 1/2, Berlin 2010, 517 ff. Druey, Jean Nicolas: Wo hört das Prüfen auf? Das Misstrauensprinzip, insbesondere im Gesellschaftsrecht, in: Kramer, Ernst A. (Hrsg.), Beiträge zum Unternehmensrecht: Festschrift für Hans-Georg Koppensteiner zum 65. Geburtstag, Wien 2001, 3 ff. Druey, Jean Nicolas: Standardisierung der Sorgfaltspflicht? Fragen zur Business Judgment Rule, in: Habersack, Mathias/Hommelhoff, Peter (Hrsg.), Festschrift für Wulf Goette zum 65. Geburtstag, München 2011, 57 ff. Dubovitskaya, Elena: Sind Vorstandsmitglieder einer AG wirklich Treuhänder?, NZG 2015, 983 ff. Ebers, Martin: Kontroverse KI-Verordnung, https://rsw.beck.de/aktuell/daily/magazin/ detail/kontroverse-ki-verordnung?bifo=port, (zuletzt geprüft am 01.09.2022). Ernst, Christian: Algorithmische Entscheidungsfindung und personenbezogene Daten, JZ 2017, 1026 ff. Ertel, Wolfgang: Grundkurs Künstliche Intelligenz, 4. Aufl., Wiesbaden 2016. Europäische Kommission: Schaffung von Vertrauen in eine auf den Menschen ausgerichtete künstliche Intelligenz, https://eur-lex.europa.eu/legal-content/DE/TXT/PD F/?uri=CELEX:52019DC0168&from=DE, (zuletzt geprüft am 01.09.2022). Europäische Kommission: Weißbuch zur Künstlichen Intelligenz, https://ec.europa. eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_ de.pdf, (zuletzt geprüft am 01.09.2022). Europäische Kommission: Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain union legislative acts – Brüssel, 21.04.2021 – COM(2021) 205 final – 2021/0106 (COD), https://ec.europa.eu/newsroom/dae/ items/709090, (zuletzt geprüft am 01.09.2022). Eymann, Torsten: Digitale Geschäftsagenten, Berlin/Heidelberg 2003. Ferber, Jacques: Multiagentensysteme, München 2001. Fleischer, Holger: Die „Business Judgment Rule“ im Spiegel von Rechtsvergleichung und Rechtsökonomie, in: Wank, Rolf (Hrsg.), Festschrift für Herbert Wiedemann zum 70. Geburtstag, München 2002, 827 ff. Fleischer, Holger: Vorstandsverantwortlichkeit und Fehlverhalten von Unternehmensangehörigen – Von der Einzelüberwachung zur Errichtung einer Compliance-Organisation, AG 2003, 291 ff.

Literaturverzeichnis189 Fleischer, Holger: Zum Grundsatz der Gesamtverantwortung im Aktienrecht, NZG 2003, 449 ff. Fleischer, Holger: Zur Leitungsaufgabe des Vorstands im Aktienrecht, ZIP 2003, 1 ff. Fleischer, Holger: Der Einfluß der Societas Europaea auf die Dogmatik des deutschen Gesellschaftsrechts, AcP 204 (2004), 503 ff. Fleischer, Holger: Die „Business Judgment Rule“: Vom Richterrecht zur Kodifizierung, ZIP 2004, 685 ff. Fleischer, Holger: Juristische Personen als Organmitglieder im Europäischen Gesellschaftsrecht, RIW 2004, 16 ff. Fleischer, Holger: § 8 – Überwachungspflicht der Vorstandsmitglieder, in: Fleischer, Holger (Hrsg.): Handbuch des Vorstandsrechts, München 2006. Fleischer, Holger: § 11 – Tatbestandsvoraussetzungen der Binnenhaftung, in: Fleischer, Holger (Hrsg.), Handbuch des Vorstandsrechts, München 2006. Fleischer, Holger: Der Zusammenschluss von Unternehmen im Aktienrecht, ZHR 172 (2008), 538 ff. Fleischer, Holger: Aktuelle Entwicklungen der Managerhaftung, NJW 2009, 2337 ff. Fleischer, Holger: Vertrauen von Geschäftsleitern und Aufsichtsratsmitgliedern auf Informationen Dritter, ZIP 2009, 1397 ff. Fleischer, Holger: Rechtsrat und Organwalterhaftung im Gesellschafts- und Kapitalmarktrecht, in: Kindler, Peter/Koch, Jens/Ulmer, Peter/Winter, Martin (Hrsg.), Festschrift für Uwe Hüffer zum 70. Geburtstag, München 2010, 187 ff. Fleischer, Holger: Vorstandshaftung und Vertrauen auf anwaltlichen Rat, NZG 2010, 121 ff. Fleischer, Holger: Expertenrat und Organhaftung, KSzW 2013, 3 ff. Fleischer, Holger: Verbotsirrtum und Vertrauen auf Rechtsrat im europäischen Wettbewerbsrecht, EuZW 2013, 326 ff. Fleischer, Holger: Ruinöse Managerhaftung – Reaktionsmöglichkeiten de lege lata und de lege ferenda, ZIP 2014, 1305 ff. Fleischer, Holger: Vorstandshaftung und Rechtsirrtum über die Vertretungskompetenz beim Abschluss eines Interim-Management-Vertrags, DB 2015, 1764 ff. Fonk, Hans-Joachim: Vergütungsrelevante Zielvereinbarungen und -vorgaben versus Leitungsbefugnis des Vorstands, NZG 2011, 321 ff. Franklin, Stan/Graesser, Art: Is It an Agent or Just a Program?: A Taxonomy for Autonomous Agents, in: Müller, Jörg P./Wooldridge, Michael J./Jennings, Nicholas R. (Hrsg.), Intelligent Agents III Agent Theories, Architectures, and Languages, Heidelberg 1996, 21 ff. Fraunhofer-Gesellschaft e. V., Maschinelles Lernen – Eine Analyse zu Kompetenzen, Forschung und Anwendung, https://www.bigdata.fraunhofer.de/content/dam/big data/de/documents/Publikationen/Fraunhofer_Studie_ML_201809.pdf, (zuletzt ge­ prüft am 01.09.2022).

190 Literaturverzeichnis Freitag, Robert/Korch, Stefan: Die Angemessenheit der Information im Rahmen der Business Judgment Rule (§ 93 Abs. 1 Satz 2 AktG), ZIP 2012, 2281 ff. Freund, Stefan: Brennpunkte der Organhaftung, NZG 2015, 1419 ff. Frhr. von Falkenhausen, Joachim: Der Aufsichtsrat der Aktiengesellschaft als Geschäftsführungs- und Vertretungsorgan, ZIP 2015, 956 ff. Froesch, Daniel: Managerhaftung – Risikominimierung durch Delegation?, DB 2009, 722 ff. Gehrlein, Markus: Leitung einer juristischen Person durch juristische Person?, NZG 2016, 566 ff. Gil, Dario/Hobson, Stacy/Mojsilović, Aleksandra/Puri, Ruchir/Smith, John R.: AI for Management: An Overview, in: Canals, Jordi/Heukamp, Franz (Hrsg.), The Future of Management in an AI World: Redefining Purpose and Strategy in the Fourth Industrial Revolution 2020, 3 ff. Goertzel, Ben/Wang, Pei (Hrsg.): Advances in artificial general intelligence, Amsterdam/Washington 2007. Goette, Wulf: Leitung, Aufsicht, Haftung – zur Rolle der Rechtsprechung bei der Sicherung einer modernen Unternehmensführung, in: Geiß, Karlmann (Hrsg.), Festschrift aus Anlaß des fünfzigjährigen Bestehens von Bundesgerichtshof, Bundesanwaltschaft und Rechtsanwaltschaft beim Bundesgerichtshof, Köln/Berlin/Bonn/ München 2000, 123 ff. Goette, Wulf: Gesellschaftsrechtliche Grundfragen im Spiegel der Rechtsprechung, ZGR 2008, 436 ff. Goette, Wulf: Grundsätzliche Verfolgungspflicht des Aufsichtsrats bei sorgfaltswidrig schädigendem Verhalten im AG-Vorstand?, ZHR 176 (2012), 588 ff. Goette, Wulf/Habersack, Mathias (Hrsg.): Münchener Kommentar zum Aktiengesetz, München, 5. Aufl. 2019. Göhler, Erich/Gürtler, Franz (Hrsg.): Gesetz über Ordnungswidrigkeiten (OWiG), München, 18. Aufl. 2021. Goodfellow, Ian/Bengio, Yoshua/Courville, Aaron: Deep Learning, Cambridge, MA 2017. Görz, Günther/Nebel, Bernhard: Künstliche Intelligenz, Frankfurt am Main 2014. Graevenitz, Albrecht von: „Zwei mal Zwei ist Grün“ – Mensch und KI im Vergleich, ZRP 2018, 238 ff. Grigoleit, Hans Christoph (Hrsg.): Aktiengesetz, München, 2. Aufl. 2020. Grundei, Jens/Werder, Axel von: Die Angemessenheit der Informationsgrundlage als Anwendungsvoraussetzung der Business Judgment Rule, AG 2005, 825 ff. Harbarth, Stephan: Unternehmensorganisation und Vertrauensgrundsatz im Aktienrecht, ZGR 2017, 211 ff.

Literaturverzeichnis191 Hauschka, Christoph E.: Corporate Compliance – Unternehmensorganisatorische Ansätze zur Erfüllung der Pflichten von Vorständen und Geschäftsführern, AG 2004, 461 ff. Hegnon, Oliver: Aufsicht als Leitungspflicht, CCZ 2009, 57 ff. Henze, Hartwig: Leitungsverantwortung des Vorstands – Überwachungspflicht des Aufsichtsrats, BB 2000, 209 ff. Herberger, Maximilian: Künstliche Intelligenz und Recht, NJW 2018, 2825 ff. Hoch, Veronica R. S.: Anwendung Künstlicher Intelligenz zur Beurteilung von Rechtsfragen im unternehmerischen Bereich, AcP 219 (2019), 646 ff. Hoffmann-Becking, Michael: Zur rechtlichen Organisation der Zusammenarbeit im Vorstand der AG, ZGR 1998, 497 ff. Hoffmann-Becking, Michael: § 26 – Haftung der Vorstandsmitglieder, in: HoffmannBecking, Michael (Hrsg.), Münchener Handbuch des Gesellschaftsrechts: Band 4 – Aktiengesellschaft, 5. Aufl., München 2020. Hölters, Wolfgang/Weber, Markus (Hrsg.): Aktiengesetz, München, 4. Aufl. 2022. Hopt, Klaus J.: Die Verantwortlichkeit von Vorstand und Aufsichtsrat Grundsatz und Praxisprobleme – unter besonderer Berücksichtigung der Banken, ZIP 2013, 1793 ff. Hopt, Klaus J.: Verschiebung des Sorgfaltsmaßstabs bei Herstellung und Nutzung autonomer Systeme?, CR 2016, 7 ff. Horner, Susanne/Kaulartz, Markus: Haftung 4.0, InTeR 2016, 22 ff. Hüffer, Uwe: Die Leitungsverantwortung des Vorstands in der Managementholding, in: Hoffmann-Becking, Michael/Ludwig, Rüdiger (Hrsg.), Liber amicorum Wilhelm Happ: zum 70. Geburtstag am 30. April 2006, Köln/Berlin/München 2006, 93 ff. Hüffer, Uwe/Koch, Jens (Hrsg.): Aktiengesetz, München, 16. Aufl. 2022. Ihrig, Hans-Christoph/Schäfer, Carsten: Abschnitt 1 Grundlagen, in: Ihrig, HansChristoph/Schäfer, Carsten (Hrsg.), Rechte und Pflichten des Vorstandes, 2. Aufl., Köln 2020. Junker, Claudia/Biederbick, Jörn: Die Unabhängigkeit der Unternehmensjuristen, AG 2012, 898 ff. Kiefner, Alexander/Happ, Benedikt: Cyber-Security als rechtliche Herausforderung für die Unternehmensleitung und Unternehmensorganisation, BB 2020, 2051 ff. Kiefner, Alexander/Krämer, Lutz: Geschäftsleiterhaftung nach ISION und das Vertrauendürfen auf Rechtsrat, AG 2012, 498 ff. Kindermann, Jochen/Coridaß, Benedikt: Der rechtliche Rahmen des algorithmischen Handels inklusive des Hochfrequenzhandels, ZBB 2014, 178 ff. Kirn, Stefan: Kooperierende intelligente Softwareagenten, WI 44 (2002), 53 ff. Kirn, Stefan/Müller-Hengstenberg, Claus D.: Intelligente (Software-)Agenten: Eine neue Herausforderung unseres Rechtssystems, MMR 2014, 307 ff.

192 Literaturverzeichnis Kirn, Stefan/Müller-Hengstenberg, Claus D.: Intelligente (Software-)Agenten: Von der Automatisierung zur Autonomie? – Verselbstständigung technischer Systeme, MMR 2014, 225 ff. Kirn, Stefan/Müller-Hengstenberg, Claus D.: Rechtliche Risiken autonomer und vernetzter Systeme, Berlin 2016. Klöhn, Lars: Geschäftsleiterhaftung und unternehmensinterner Rechtsrat, DB 2013, 1535 ff. Klügl, Franziska: Multiagentensysteme, in: Görz, Günther/Schneeberger, Josef/ Schmid, Ute (Hrsg.), Handbuch der künstlichen Intelligenz, 5. Aufl., München 2014, 527 ff. Koch, Jens: Das Gesetz zur Unternehmensintegrität und Modernisierung des Anfechtungsrechts (UMAG), ZGR 2006, 769 ff. Koch, Jens: Der Vorstand im Kompetenzgefüge der Aktiengesellschaft, in: Fleischer, Holger/Koch, Jens/Kropff, Bruno (Hrsg.), 50 Jahre Aktiengesetz, Berlin 2016, 65 ff. Kocher, Dirk: Zur Reichweite der Business Judgment Rule, CCZ 2009, 215 ff. Kock, Martin/Dinkel, Renate: Die zivilrechtliche Haftung von Vorständen für unternehmerische Entscheidungen – Die geplante Kodifizierung der Business Judgment Rule im Gesetz zur Unternehmensintegrität und Modernisierung des Anfechtungsrechts, NZG 2004, 441 ff. Kollmann, Hanns-Peter: Autonome und intelligente Wertpapierhandelssysteme, Tübingen 2019. Kollmann, Hanns-Peter: Kursdifferenzschäden durch intelligente Wertpapierhandelssysteme 2020, 515 ff. Komp, Gabriele: Die juristische Person als Geschäftsführungsorgan einer Kapitalgesellschaft, Frankfurt am Main 2000. Kreutzer, Ralf T./Sirrenberg, Marie: Künstliche Intelligenz verstehen, Wiesbaden 2019. Krieger, Gerd: Wie viele Rechtsberater braucht ein Geschäftsleiter?, ZGR 2012, 496 ff. Krug, Peter: Haftung im Rahmen der Anwendung Künstlicher Intelligenz, beck.digitax 2020, 74 ff. Kubis, Dietmar: § 1, in: Semler, Johannes/Peltzer, Martin/Kubis, Dietmar (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder, 2. Aufl., München 2015. Kubis, Dietmar: § 2: Die Bestellung von Vorstandsmitgliedern, in: Semler, Johannes/ Peltzer, Martin/Kubis, Dietmar (Hrsg.), Arbeitshandbuch für Vorstandsmitglieder, 2. Aufl., München 2015, 1–135. Kuntz, Thilo: Leitungverantwortung des Vorstands und Delegation, AG 2020, 801 ff. Legg, Shane/Hutter, Marcus: A Formal Measure of Machine Intelligence, in: Saeys, Yvan/van de Peer, Yves/Tsiporkova, Elena/Baets, Bernhard de (Hrsg.), Proceed-

Literaturverzeichnis193 ings of the 15th Annual Machine Learning Conference of Belgium and The Netherlands (BENELEARN 2006) 2006, 73 ff. Legg, Shane/Hutter, Marcus: A Collection of Definitions of Intelligence, in: Goertzel, Ben/Wang, Pei (Hrsg.), Advances in artificial general intelligence: Concepts, architectures and algorithms; proceedings of the AGI Workshop 2006, Amsterdam/ Washington 2007, 17 ff. Lehmann, Karl/Ring, Viktor: Das Handelsgesetzbuch für das Deutsche Reich, Berlin 1902. Lieder, Jan: Der Aufsichtsrat im Wandel der Zeit, Jena 2006. Lieder, Jan: Unternehmerische Entscheidungen des Aufsichtsrats, ZGR 2018, 523 ff. Lieser, Joachim: Die zivilrechtliche Haftung im automatisierten Geschäftsverkehr, JZ 26 (1971), 759 ff. Linardatos, Dimitrios: Künstliche Intelligenz und Verantwortung, ZIP 2019, 504 ff. Linnertz, Anja: Die Delegation durch den Vorstand einer Aktiengesellschaft, Berlin 2020. Löbbe, Marc/Fischbach, Jonas: Die Business Judgment Rule bei Kollegialentscheidungen des Vorstands, AG 2014, 717 ff. Lücke, Oliver: Der Einsatz von Künstlicher Intelligenz in der und durch die Unternehmensleitung, BB 2019, 1986 ff. Lutter, Marcus: Die Business Judgment Rule und ihre praktische Anwendung, ZIP 2007, 841 ff. Lutter, Marcus/Krieger, Gerd/Verse, Dirk A.: § 2, in: Lutter, Marcus/Krieger, Gerd/ Verse, Dirk A. (Hrsg.), Rechte und Pflichten des Aufsichtsrats, 7. Aufl., Köln 2020. Martini, Mario: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz, 1. Aufl. 2019. McCarthy, John/Minsky, Marvin Lee/Rochester, Nathaniel/Shannon, Claude Elwood: A Proposal for the Dartmouth summer research project on Artificial Intelligence, http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html, (zuletzt geprüft am 01.09.2022). Merkt, Hanno/Mylich, Falk: Einlage eigener Aktien und Rechtsrat durch den Aufsichtsrat, NZG 2012, 525 ff. Meyer, Susanne: Compliance-Verantwortlichkeit von Vorstandsmitgliedern – Legalitätsprinzip und Risikomanagement Besprechung des Urteils des LG München I vom 10.12.2013 – 5 HK O 1387/10, DB 2014 S. 766, DB 2014, 1063 ff. Mitsch, Wolfgang (Hrsg.): Karlsruher Kommentar zum Gesetz über Ordnungswidrigkeiten, München, 5. Aufl. 2018. Möslein, Florian: Digitalisierung im Gesellschaftsrecht, ZIP 2018, 204 ff.

194 Literaturverzeichnis Möslein, Florian: § 13 – KI im Gesellschaftsrecht, in: Ebers, Martin/Heinze, Chris­ tian/Krügel, Tina/Steinrötter, Björn/Beck, Susanne (Hrsg.), Künstliche Intelligenz und Robotik: Rechtshandbuch, München 2020, 461 ff. Möslein, Florian: Aktienrechtliche Leitungsverantwortung beim Einsatz künstlicher Intelligenz, in: Kaulartz, Markus/Braegelmann, Tom (Hrsg.), Rechtshandbuch Artificial Intelligence und Machine Learning, München 2020, 509 ff. Möslein, Florian: Die normative Kraft des Ethischen, RDi 2020, 34 ff. Müller, Hans-Friedrich: Geschäftsleiterhaftung und Vertrauen auf fachkundigen Rat, DB 2014, 1301 ff. Münchener Kommentar zum Bürgerlichen Gesetzbuch – Schuldrecht Besonderer Teil IV §§ 705–853, 8. Aufl. 2020. Neuner, Jörg: Allgemeiner Teil des Bürgerlichen Rechts, 12. Aufl., München 2020. Niederée, Claudia/Nejdl, Wolfgang: § 2: Technische Grundlagen der KI, in: Ebers, Martin/Heinze, Christian/Krügel, Tina/Steinrötter, Björn/Beck, Susanne (Hrsg.), Künstliche Intelligenz und Robotik: Rechtshandbuch, München 2020. Noack, Ulrich: Organisationspflichten und Strukturen kraft Digitalisierung, ZHR 183 (2019), 105 ff. Noack, Ulrich: Künstliche Intelligenz und die Unternehmensleitung, in: Bachmann, Gregor/Grundmann, Stefan/Mengel, Anja/Krolop, Kaspar (Hrsg.), Festschrift für Christine Windbichler zum 70. Geburtstag am 8. Dezember 2020, Berlin 2020, 947 ff. Noack, Ulrich: Künstliche Intelligenz und Unternehmensleitung, NZG 2021, 305 f. Paefgen, Walter G.: Dogmatische Grundlagen, Anwendungsbereich und Formulierung einer Business Judgment Rule im künftigen UMAG, AG 2004, 245 ff. Peltzer, Martin: Mehr Ausgewogenheit bei der Vorstandshaftung, in: Krieger, Gerd/ Lutter, Marcus/Schmidt, Karsten (Hrsg.), Festschrift für Michael Hoffmann-­ Becking zum 70. Geburtstag, München 2013, 861 ff. Peters, Kai: Angemessene Informationsbasis als Voraussetzung pflichtgemäßen Vorstandshandelns, AG 2010, 811 ff. Petersen, Gustav: Ein Beitrag zum Recht der geschäftsführenden Organe von Handelsge­sellschaften, in: Glossner, Ottoarndt (Hrsg.), Festschrift für Martin Luther zum 70. Geburtstag am 13. Juli 1976, München 1976, 127 ff. Priester, Hans-Joachim: Die Kommanditgesellschaft auf Aktien ohne natürlichen Komplementär, ZHR 160 (1996), 250 ff. Rapp, Christian: Juristische Personen als Mitglieder der Leitungs- und Überwachungsorgane von Aktiengesellschaft und Societas Europaea mit Sitz in Deutschland, München 2006. Redeke, Julian: Zur gerichtlichen Kontrolle der Angemessenheit der Informationsgrundlage im Rahmen der Business Judgment Rule nach § 93 Abs. 1 Satz 2 AktG (§ 93 Abs. 1 Satz 2 AktG), ZIP 2011, 59 ff.

Literaturverzeichnis195 Redeke, Julian: Zur gesellschaftsrechtlichen Gremienberatung durch die Rechtsabteilung, AG 2017, 289 ff. Rieger, Harald: Gesetzeswortlaut und Rechtswirklichkeit im Aktiengesetz, in: Lutter, Marcus/Sigle, Walter/Scholz, Manfred (Hrsg.), Festschrift für Martin Peltzer zum 70. Geburtstag, Köln 2001, 339 ff. Rosenschein, Jeffrey Solomon: Rational interaction: Cooperation among Intelligent Agents 1985. Russell, Stuart J./Norvig, Peter/Davis, Ernest/Edwards, Douglas: Artificial Intelligence, Boston/Columbus/Indianapolis/New York/San Francisco/Upper Saddle River/Amsterdam, Cape Town/Dubai/London/Madrid/Milan/Munich/Paris/Montreal/Toronto/Delhi/Mexico City/Sao Paulo/Sydney/Hong Kong/Seoul/Singapore/ Taipei/Tokyo 2016. Säcker, Franz Jürgen/Rixecker, Roland/Oetker, Hartmut/Limperg, Bettina (Hrsg.), Münchener Kommentar zum Bürgerlichen Gesetzbuch, München, 8. Aufl. Sattler, Andreas: Der Einfluss der Digitalisierung auf das Gesellschaftsrecht, BB 2018, 2243 ff. Schäfer, Carsten: Die Binnenhaftung von Vorstand und Aufsichtsrat nach der Renovierung durch das UMAG, ZIP 2005, 1253 ff. Schalkowski, Henrik/Ortiz, André: Mensch – Roboter – Unternehmung im Führungsprozess, ZCG 2019, 101 ff. Schaub, Peter/Schaub, Michael: Ratingurteile als Entscheidungsgrundlage für Vorstand und Abschlussprüfer?, ZIP 2013, 656 ff. Schmidt, Karsten/Lutter, Marcus (Hrsg.): Aktiengesetz, Köln, 4. Aufl. 2020. Schmidt-Housson, Franck G.: § 6 Delegation von Organpflichten, in: Hauschka, Christoph E./Moosmayer, Klaus/Lösler, Thomas (Hrsg.), Corporate Compliance: Handbuch der Haftungsvermeidung im Unternehmen, 3. Aufl., München 2016. Schneider, Sven H.: „Unternehmerische Entscheidungen“ als Anwendungsvoraussetzung für die Business Judgment Rule, DB 2005, 707 ff. Schneider, Uwe H.: Die Wahrnehmung öffentlich-rechtlicher Pflichten durch den Geschäftsführer, in: Lutter, Marcus/Ulmer, Peter (Hrsg.), Festschrift 100 Jahre ­ GmbH-Gesetz, Köln 1992, 473 ff. Schneider, Uwe H./Brouwer, Tobias: Die Verantwortlichkeit der Gesellschaft und ihrer Geschäftsleiter bei Delegation öffentlich-rechtlicher Pflichten, in: Hommelhoff, Peter (Hrsg.), Festschrift für Hans-Joachim Priester zum 70. Geburtstag, Köln 2007, 713 ff. Schwark, Eberhard: Spartenorganisation in Großunternehmen und Unternehmensrecht, ZHR 142 (1978), 203 ff. Seibert, Ulrich/Schütz, Carsten: Der Referentenentwurf eines Gesetzes zur Unternehmensintegrität und Modernisierung des Anfechtungsrechts – UMAG, ZIP 2004, 252 ff. Seibt, Christoph H.: Dekonstruktion des Delegationsverbots bei der Unternehmens­ leitung, in: Bitter, Georg/Lutter, Marcus/Priester, Hans-Joachim/Schön, Wolfgang/

196 Literaturverzeichnis Ulmer, Peter (Hrsg.), Fetschrift für Karten Schmidt zum 70. Geburtstag, Köln 2009. Seibt, Christoph H./Cziupka, Johannes: 20 Thesen zur Compliance-Verantwortung im System der Organhaftung aus Anlass des Siemens/Neubürger-Urteils LG München I vom 10.12.2013 – 5 HK O 1387/10, DB 2014 S. 766, DB 2014, 1598 ff. Selter, Wolfgang: Haftungsrisiken von Vorstandsmitgliedern bei fehlendem und von Aufsichtsratsmitgliedern bei vorhandenem Fachwissen, AG 2012, 11 ff. Semler, Johannes: Leitung und Überwachung der Aktiengesellschaft, 2. Aufl., Köln 1996. Sesing, Andreas: Grenzen systemischer Transparenz bei automatisierter Datenverarbeitung, MMR 2021, 288 ff. Spindler, Gerald: § 13 Zivilrechtliche Verantwortlichkeit gegenüber Dritten, in: Fleischer, Holger (Hrsg.), Handbuch des Vorstandsrechts, München 2006. Spindler, Gerald: Organhaftung in der AG – Reformbedarf aus wissenschaftlicher Perspektive, AG 2013, 889 ff. Spindler, Gerald: Haftung der Geschäftsführung für IT-Sachverhalte, CR 2017, 715 ff. Spindler, Gerald: Gesellschaftsrecht und Digitalisierung, ZGR 2018, 17 ff. Spindler, Gerald: Zukunft der Digitalisierung – Datenwirtschaft in der Unternehmenspraxis, DB 2018, 41 ff. Spindler, Gerald/Stilz, Eberhard (Hrsg.): Aktiengesetz, 4. Aufl. 2019. Spindler, Gerald/Stilz, Eberhard (Hrsg.): beck-online.Großkommentar, München, 2020. Staudinger, Julius von (Hrsg.): J. von Staudingers Kommentar zum Bürgerlichen Gesetzbuch mit Einführungsgesetz und Nebengesetzen, Berlin, 2018. Stevens, Jeremy: Datenqualität bei algorithmischen Entscheidungen, CR 2020, 73 ff. Stiemerling, Oliver: Kapitel 2.1 Technische Grundlagen, in: Kaulartz, Markus/Braegelmann, Tom (Hrsg.), Rechtshandbuch Artificial Intelligence und Machine Learning, München 2020. Strohn, Lutz: Beratung der Geschäftsleitung durch Spezialisten als Ausweg aus der Haftung?, ZHR 176 (2012), 137 ff. Strohn, Lutz: Pflichtenmaßstab und Verschulden bei der Haftung von Organen einer Kapitalgesellschaft, CCZ 2013, 177 ff. Strohn, Lutz: Die Rolle des Aufsichtsrats beim Einsatz von Künstlicher Intelligenz, ZHR 182 (2018), 371 ff. Teubner, Gunther: Digitale Rechtssubjekte?, AcP 218 (2018), 155 ff. Thiel, Sandra/Nazari-Khanachayi, Arian: Digitalisierung aus gesellschaftsrechtlicher Perspektive, RDi 2021, 134 ff. Thomas, Robert J./Amico, Richard/Kolbjørnsrud, Vergard: How Artificial Intelligence Will Redefine Management, https://hbr.org/2016/11/how-artificial-intelligencewill-redefine-management, (zuletzt geprüft am 01.09.2022).

Literaturverzeichnis197 Turiaux, André/Knigge, Dagmar: Vorstandshaftung ohne Grenzen?, DB 2004, 2199 ff. TÜViT Pressestelle: Künstliche Intelligenz: TÜViT entwickelt gemeinsam mit Fraunhofer AISEC einen Ansatz zur Zertifizierung von KI-Algorithmen, https://www. tuvit.de/de/aktuelles/pressemitteilungen/pressemitteilungen-detail/article/kuenstli che-intelligenz-tuevit-entwickelt-gemeinsam-mit-fraunhofer-aisec-einen-ansatzzur-zertifizierung-von-ki-algorithmen/, (zuletzt geprüft am 01.09.2022). TÜViT Pressestelle: Mit geprüfter Softwarequalität zum Wettbewerbsvorteil, https:// www.tuvit.de/de/innovationen/code-matrix/, (zuletzt geprüft am 01.09.2022). TÜViT Pressestelle: TÜViT als IT-Sicherheitsprüfstelle in den Niederlanden lizenziert, https://www.tuvit.de/de/aktuelles/pressemitteilungen/pressemitteilungen-de tail/article/tuevit-als-it-sicherheitspruefstelle-in-den-niederlanden-lizenziert/, (zuletzt geprüft am 01.09.2022). Ulmer, Peter: Haftungsfreistellung bis zur Grenze grober Fahrlässigkeit bei unternehmerischen Fehlentscheidungen von Vorstand und Aufsichtsrat? Kritische Bemerkungen zur geplanten Kodifizierung der business judgment rule im UMAG-Entwurf (§ 93 Abs. 1 Satz 2 AktG), DB 2004, 859 ff. Veelken, Winfried: Der Betriebsführungsvertrag im deutschen und amerikanischen Aktien- und Konzernrecht, Baden-Baden 1975. Vetter, Eberhard: § 22 – Risikobereich und Haftung: Organisation (Geschäftsverteilung und Delegation) und Überwachung, in: Krieger, Gerd/Schneider, Uwe H. (Hrsg.), Handbuch Managerhaftung, 3. Aufl., Köln 2017. Wagner, Gerhard: Organhaftung im Interesser der Verhaltenssteuerung – Skizze eines Haftungsregimes, ZHR 178 (2014), 227 ff. Wagner, Jens: Die Rolle der Rechtsabteilung bei fehlenden Rechtskenntnissen der Mitglieder von Vorstand und Geschäftsführung, BB 2012, 651 ff. Wagner, Jens: Legal Tech und Legal Robots in Unternehmen und den sie beratenden Kanzleien, BB 2018, 1097 ff. Weber, Robert/Kiefner, Alexander/Jobst, Stefan: Künstliche Intelligenz und Unternehmensführung, NZG 2018, 1131 ff. Weißhaupt, Frank: „Form follows function“ bei unternehmerischen Ermessensentscheidungen im Kompetenzgefüge der AG, ZIP 2019, 202 ff. Wellhöfer, Werner: § 3 Haftung des Vorstands gegenüber Dritten, in: Wellhöfer, Werner/Peltzer, Martin/Müller, Welf (Hrsg.), Die Haftung von Vorstand Aufsichtsrat Wirtschaftsprüfer, München 2008. Wentrup, Christian: 5. Kapitel Vorstand, in: Hoffmann-Becking, Michael (Hrsg.), Münchener Handbuch des Gesellschaftsrechts: Band 4 – Aktiengesellschaft, 5. Aufl., München 2020. Weyland, Peter: Rechtsirrtum und Delegation durch den Vorstand, NZG 2019, 1041 ff. Wicke, Hartmut: Der CEO im Spannungsverhältnis zum Kollegialprinzip – Gestaltungsüberlegungen zur Leitungsstruktur der AG, NJW 2007, 3755 ff.

198 Literaturverzeichnis Wieland, Andreas: § 23, in: Assmann, Heinz-Dieter/Wallach, Edgar/Zetzsche, Dirk (Hrsg.), Kapitalanlagegesetzbuch: Kommentar, Köln 2019. Wieland, Karl: Handelsrecht, München/Leipzig 1931. Wischmeyer, Thomas: Regulierung intelligenter Systeme, AöR 143 (2018), 1 ff. Wrobel, Stefan/Joachims, Thorsten/Morik, Katharina: Maschinelles Lernen und Data Mining, in: Görz, Günther/Schneeberger, Josef/Schmid, Ute (Hrsg.), Handbuch der künstlichen Intelligenz, 5. Aufl., München 2014, 405 ff. Würdiger, Markus: Die Analogiefähigkeit von Normen – eine methodologische Untersuchung über Ausnahmevorschriften und deklaratorische Normen, AcP 206 (2006), 946 ff. Zetzsche, Dirk: Corporate Technologies – Zur Digitalisierung im Aktienrecht, AG 2019, 1 ff.

Stichwortverzeichnis Agent –– Grundfunktionen  29 ff. –– Lernfähigkeit siehe Learning Auswahlpflichten Delegation an KI  118 ff. –– Daten und Datenqualität  125 f. –– Funktionalitätsprüfung  125 ff. –– Geeignetheitsprüfung  120 ff. –– Kontinuität der Ergebnisse  127 –– Legalität der Daten  126 –– Prüfung der Rahmenbedingungen  126 –– Qualität der „Label“  126 –– Zweistufige Geeignetheitsprüfung  125 ff. Beratung durch KI –– Anpassung der Plausibilitätskontrolle  167 ff. –– Berufsträgereigenschaft von KI  153 f. –– Externe Beratung  165, 168, 170 –– Fachliche Qualifikation von KI  165 ff. –– Intensivierte Qualifikationsprüfung  157 ff. –– Interne Beratung  155, 157 f., 164 –– ISION-Entscheidung  151 ff. –– KI-Berater  153 ff. –– Plausibilitätskontrolle  162 ff. –– Unabhängigkeit des KI-Beraters  159 f. –– Zukunft der KI-Beratung  167 ff. –– Zweistufige Formalqualifikations­ prüfung  157 ff. Blackbox der KI  39 f. Business Judgement Rule –– Angemessene Informationsgrundlage  171 ff.

–– Beurteilungsspielraum  173 ff. –– Pflicht zum Einsatz von KI  176 ff. Delegation –– An Künstliche Intelligenz siehe Delegation an KI –– An natürliche Personen  82 ff. –– Geschäftsführungsaufgaben  83 f. –– Leitungsaufgaben  83 f. –– Pflichtenkanon bei KI siehe Pflichtenkanon –– Reichweite  85 f. –– Zulässigkeit  82 f. Delegation an KI  86 ff. –– Beratung durch KI siehe Beratung durch KI –– Einfluss des Vorstands  91 ff. –– Exzess der KI  102 f. –– Geschäftsführungsaufgaben  87 ff. –– Haftung siehe Haftung bei Delegation an KI –– Informationsfluss  104 ff. –– Kein grundsätzliches Verbot  86 f. –– Leitungsaufgaben  89 ff. –– Letztentscheidungsbefugnis  87 ff. –– Reversibilität  108, 113 –– Sicherung des Vorstandswillens  56 ff., 98 ff., 106 f., 112 f. –– Steuerungsmacht des Vorstands  94 ff., 106 ff., 112 f. –– Stufe 1  89 ff. –– Stufe 2  91 ff. –– Stufe 3  109 ff. –– Stufen der Delegation  85 ff. –– Technisches Grundverständnis  92 ff. –– Vollständige Delegation  109 ff. –– Zulässigkeit  86 ff., 117 f.

200 Stichwortverzeichnis Einweisungspflichten Delegation an KI  129 ff. –– Berichtspflichten  133 –– Bezugssubjekt  131 –– Bezugszeitpunkt  131 –– Schulung und Fortbildung  134 –– Verlagerung  131 f. Haftung bei Delegation an KI  118 ff. –– Haftung für Beratung siehe Beratung durch KI –– Pflichtenkanon siehe Pflichtenkanon ISION siehe Beratung durch KI Künstliche Intelligenz –– Besonderheiten für die rechtliche Bewertung  41 –– Blackbox  26, 39 f. –– Definition  23 ff. –– Delegation an KI siehe Delegation an KI –– Entwicklung  25 ff. –– Grundlagen  29 ff. –– Haftung siehe Haftung bei Delegation an KI –– Hinderungsgründe zum Vorstandsmitglied siehe Natürliche Person als Vorstand –– im und als Vorstand siehe Natürliche Person als Vorstand –– KI-Vorstand siehe Natürliche Person als Vorstand –– Künstliche Neuronale Netze siehe Learning –– Label siehe Label –– Lernen siehe Learning –– Softwareagenten siehe Agent –– Training siehe Training der KI Künstliche Neuronale Netze siehe Learning Label 37 f. Learning –– Künstliche Neuronale Netze  39 f.

–– Supervised Learning  38 –– Unsupervised Learning  39 Natürliche Person als Vorstand –– Arbeit im Kollegialorgan  63 –– Geschäftsführung  50 f. –– Geschäftsleitung durch Gesamtvorstand  62 ff. –– Gesetzliche Hinderungsgründe  42 ff., 65 ff. –– Gleichberechtigung im Vorstand  58 f. –– Haftung siehe Vorstandshaftung –– Handlungsfähigkeit  51 f. –– Hinderungsgründe  42 ff. –– Kommunikation im Kollegialorgan  63 –– Kompensationsfunktion  44 –– Persönliche Anforderungen  59 ff. –– Publizität siehe Transparenz und Publizität –– Steuerungsfunktion  46 –– Technikspezifische Hinderungsgründe  77 ff. –– Transparenz siehe Transparenz und Publizität –– Unternehmenspolitik  50 f. –– Unternehmerische Funktion  62 f. –– Verschiebung Personalkompetenz  53 ff. –– Vertrauen siehe Vertrauen und KI-Vorstand –– Weisungsfreiheit  56 ff. –– Willensfreiheit  56 ff. Pflichtenkanon –– Auswahlpflichten siehe Auswahlpflichten Delegation an KI –– Einweisungspflichten siehe Einweisungspflichten Delegation an KI –– Geeignetheitsprüfung  120 ff. –– Überwachungspflichten siehe Über­ wachungspflichten Delegation an KI –– Zweistufige Geeignetheitsprüfung  123 ff.

Stichwortverzeichnis201 Rahmenbedingungen  30 ff. Softwareagent siehe Agent Technische Hinderungsgründe KI-­ Vorstand –– Haftungsrisiken  78 ff. –– Missbrauchspotenzial  77 f. –– Potenzierte Fehlleistung  78 ff. –– Unternehmensgegenstand  77 f. –– Unternehmensziele  77 f. Training der KI  34 ff. Transparenz und Publizität –– KI-Vorstandsmitglieder  75 ff. –– Menschliche Vorstandsmitglieder  74 Überwachungspflichten Delegation an KI  144 ff. –– Ableitung Grundanforderungen aus § 80 Abs. 2 WpHG  146 ff. –– Allgemeine Überwachungsparameter  136 ff. –– Analogie zu § 80 Abs. 2 WpHG  143 ff. –– Beratung siehe Beratung durch KI –– ISION siehe Beratung durch KI –– Kasuistik  139 ff. –– Laufende Kontrolle  140 ff. –– Mehrstufige Überwachung  142 –– Organisationspflichten  142 –– Verdachtsmomente  39 Vertrauen und KI-Vorstand –– Technikspezifisches Vertrauen  68 ff.

–– Vertrauen Aufsichtsrat in KI-Vorstand  70 –– Vertrauen Dritte in KI-Vorstand  73 f. –– Vertrauen Hauptversammlung in KI-Vorstand  69 f. –– Vertrauen in KI  67 ff. –– Vertrauen Vorstandsmitglieder in KI-Vorstand  71 ff. –– Vertrauensbeziehung Mensch  65 ff. Vorstand –– Delegation an KI siehe Delegation an KI –– Delegation siehe Delegation –– Haftung bei Delegation an KI siehe Haftung bei Delegation an KI –– Haftung siehe Vorstandshaftung –– KI als Vorstand siehe Natürliche Person als Vorstand –– Natürliche Person siehe Natürliche Person als Vorstand –– Persönliche Anforderungen siehe Natürliche Person als Vorstand –– Pflichtenkanon bei KI siehe Pflichtenkanon –– Publizität siehe Transparenz und Publizität –– Transparenz siehe Transparenz und Publizität –– Vertrauen siehe Vertrauen und KI-Vorstand Vorstandshaftung –– Haftung bei Delegation an KI siehe Haftung bei Delegation an KI –– Kompensationsfunktion  44 –– Steuerungsfunktion  46