Sprachassistenten – eine rechtliche Betrachtung de lege lata und de lege ferenda [1 ed.] 9783428585045, 9783428185047

Sprachassistenten und Künstliche Intelligenz sind aus dem modernen Leben und dem Marketing vieler Unternehmen nicht mehr

178 54 3MB

German Pages 272 Year 2022

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Sprachassistenten – eine rechtliche Betrachtung de lege lata und de lege ferenda [1 ed.]
 9783428585045, 9783428185047

Citation preview

Internetrecht und Digitale Gesellschaft Band 32

Sprachassistenten – eine rechtliche Betrachtung de lege lata und de lege ferenda Von

Lukas Schmidt

Duncker & Humblot · Berlin

LUKAS SCHMIDT

Sprachassistenten – eine rechtliche Betrachtung de lege lata und de lege ferenda

Internetrecht und Digitale Gesellschaft Herausgegeben von

Dirk Heckmann

Band 32

Sprachassistenten – eine rechtliche Betrachtung de lege lata und de lege ferenda Von

Lukas Schmidt

Duncker & Humblot · Berlin

Die Juristische Fakultät der Universität Passau hat diese Arbeit im Jahr 2021 als Dissertation angenommen.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

D 739 Alle Rechte vorbehalten © 2022 Duncker & Humblot GmbH, Berlin Satz: TextFormA(r)t, Daniela Weiland, Göttingen Druck: CPI buchbücher.de GmbH, Birkach Printed in Germany ISSN 2363-5479 ISBN 978-3-428-18504-7 (Print) ISBN 978-3-428-58504-5 (E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706 Internet: http://www.duncker-humblot.de

Meinen Eltern

Vorwort Die vorliegende Arbeit wurde im Sommersemester 2021 von der Juristischen Fakultät der Universität Passau als Dissertationsschrift angenommen. Literatur und Rechtsprechung wurden bis zur Einreichung im Oktober 2020 berücksichtigt. Mein besonderer Dank gilt meinem Doktorvater Herrn Prof. Dr. Dirk Heckmann, der mir während der Erstellung der Arbeit jederzeit mit Rat und Tat zur Seite stand und es mir während meiner Zeit an seinem Lehrstuhl an der Universität Passau ermöglicht hat, meinen eigenen wissenschaftlichen Studien nachzugehen. Des Weiteren danke ich dem DFG-Graduiertenkolleg 1681/2 „Privatheit und Digitalisierung“ an der Universität Passau, welches mich nicht nur finanziell unterstützt hat, sondern mich viel mehr durch seinen interdisziplinären Aufbau mit verschiedensten wissenschaftlichen Fachbereichen und Themenfeldern angeregt hat, der Arbeit nicht nur einen rein juristischen Ansatz zu Grunde zu legen. Darüber hinaus danke ich meinem Zweitgutachter Herrn Prof. Dr. Moritz Hennemann sowie dem Vorsitzenden der Prüfungskommission Herrn Prof. Dr. Meinhard Schröder, die meine Arbeit im Rahmen des Graduiertenkollegs begleitet haben und überdies zu einem schnellen Abschluss des Verfahrens beigetragen haben. Zu guter Letzt möchte ich mich bei meiner Familie für ihre umfassende Geduld und wundervolle Unterstützung während der Erstellung der vorliegenden Arbeit bedanken. Ohne sie wäre mir die Beendigung der Dissertation wesentlich erschwert worden. München, September 2021

Lukas Schmidt

Inhaltsverzeichnis Kapitel 1 Einleitung 23

Kapitel 2 Sprachassistenten 25 A. Einführung und Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 B. Abgrenzung Robotik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Kapitel 3 Intelligenztheorien 28 A. Spearman: Generalfaktorentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 B. Thurstone: Sieben Primärfaktoren der Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 C. Cattell: Fluide und kristalline Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 D. Johnson / Bouchard Jr.: Vier-Schichten-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 E. Caroll: Drei-Schichten-Modell der Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 F. Jäger: Berliner Intelligenz-Struktur-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 G. Guilford: Würfelmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 H. Gardner: Theorie der Multiplen Intelligenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 I. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

Kapitel 4

Künstliche Intelligenz 39

A. Geschichtlicher Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 B. Definition Künstliche Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 C. Arten Künstlicher Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 I. Schwache KI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 II. Starke KI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

10

Inhaltsverzeichnis III. Superintelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

D. Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 I. Volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 II. Velocity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 III. Variety . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 IV. Veracity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 E. Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 I. Künstliche Neuronale Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 1. Funktionsweise organischer Neuronaler Netzwerke . . . . . . . . . . . . . . . . . . . . 47 2. Funktionsweise Künstlicher Neuronaler Netzwerke . . . . . . . . . . . . . . . . . . . . 50 II. Lernmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 1. Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2. Überwachtes Lernen (Supervised Learning) . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3. Unüberwachtes Lernen (Unsupervised Learning) . . . . . . . . . . . . . . . . . . . . . . 54 4. Bestärkendes Lernen (Reinforcement Learning) . . . . . . . . . . . . . . . . . . . . . . . 54 F. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Kapitel 5

Rechtliche Problemstellungen 56

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten und der von ihnen generierten Inhalte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 I. Schutz der Künstlichen Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 1. Urheberrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 a) Grundzüge des Urheberrechts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 b) Der urheberrechtliche Werkbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 c) Unterscheidung Computerprogramme und Benutzeroberfläche . . . . . . . . 59 d) Schutz der Ausdrucksform Sprachassistent . . . . . . . . . . . . . . . . . . . . . . . . 61 e) Schutzvoraussetzungen des Programmcodes von Sprachassistenten . . . . . 62 f) Urheberrechte im Unternehmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2. Leistungsschutzrechte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3. Patentrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 a) Patentschutztheorien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 b) Erteilungsvoraussetzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 aa) Die Erfindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 bb) Patentschutz von Systemen Künstlicher Intelligenz . . . . . . . . . . . . . . 73 (1) Nationales Patentrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

Inhaltsverzeichnis

11

(2) Europäisches Patenrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 (3) Kurzfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 II. Schutz der von Künstlicher Intelligenz generierten Daten . . . . . . . . . . . . . . . . . . 78 1. Urheberrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 a) Sprachassistenten als Schöpfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 b) Ersteller oder Nutzer des Sprachassistenten als Rechtsinhaber . . . . . . . . . 80 c) Exkurs: Schutz der vorbestehenden Werke . . . . . . . . . . . . . . . . . . . . . . . . 81 2. Leistungsschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 a) Kreationen von Sprachassistenten als Lichtbilder . . . . . . . . . . . . . . . . . . . 84 b) Schutz des Datenbankherstellers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 aa) Systematische und methodische Anordnung unabhängiger Elemente 86 bb) Investitionsgegenstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3. Patentrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 a) Unmittelbarer Schutz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 b) Derivativer Schutz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4. Lauterkeitsrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 III. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 B. Haftung für Schäden durch Sprachassistenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 I. Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 1. Verschuldensabhängige Haftung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 2. Verschuldensunabhängige Gefährdungshaftung . . . . . . . . . . . . . . . . . . . . . . . 95 II. Produkthaftungsgesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 1. Sprachassistenten als Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 2. Der Fehlerbegriff des Produkthaftungsgesetzes . . . . . . . . . . . . . . . . . . . . . . . 98 a) Konstruktionsfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 b) Fabrikationsfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 c) Instruktionsfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 d) Haftungsausschlusstatbestände . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 aa) Fehlerlosigkeit zum Zeitpunkt des Inverkehrbringens . . . . . . . . . . . . 102 bb) Nichterkennbarkeit des Fehlers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 III. Deliktische Haftung des Herstellers nach § 823 BGB . . . . . . . . . . . . . . . . . . . . . 106 1. Produzentenhaftung nach § 823 Abs. 1 BGB . . . . . . . . . . . . . . . . . . . . . . . . . . 106 a) Produktbeobachtungspflicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 b) Warn- und Updatepflicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 c) Rückrufpflicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 2. Schutzgesetzverletzung § 823 Abs. 2 BGB . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 a) Haftung nach § 823 Abs. 2 BGB i. V. m. § 3 Abs. 2 und 3 ProdSG . . . . . . . 110

12

Inhaltsverzeichnis b) Updateverpflichtung nach dem ProdSG . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3. Haftung des Aufsichtspflichtigen nach § 832 BGB . . . . . . . . . . . . . . . . . . . . . 113 IV. Haftung des Verwenders . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 1. Haftung nach § 823 Abs. 1 BGB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 2. Haftung für Verrichtungsgehilfen nach § 831 Abs. 1 BGB . . . . . . . . . . . . . . . 116 V. Exkurs: Lauterkeitsrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 VI. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

C. Kommunikation mit Sprachassistenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 I. Datenschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 1. Rechtsgrundlagen des Datenschutzrechts . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 a) Nationales Recht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 b) Europäisches Recht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 c) Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 2. Begrifflichkeiten des Datenschutzrechts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 a) Personenbezogene Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 b) Pseudonymisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 c) Anonymisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 aa) Differential Privacy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 bb) k-Anonymität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 cc) l-Diversity und t-Closeness . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 d) Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 3. Räumlicher Anwendungsbereich der DS-GVO . . . . . . . . . . . . . . . . . . . . . . . . 133 4. Der datenschutzrechtlich Verantwortliche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 a) Abgrenzung zur Auftragsverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 b) Gemeinsame Verantwortlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 c) Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 5. Rechtfertigung der Datenverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 a) Einwilligung, Art. 6 Abs. 1 lit. a) DS-GVO . . . . . . . . . . . . . . . . . . . . . . . . 140 aa) Formelle Wirksamkeitsvoraussetzungen . . . . . . . . . . . . . . . . . . . . . . . 141 bb) Materielle Wirksamkeitsvoraussetzungen . . . . . . . . . . . . . . . . . . . . . . 142 (1) Freiwilligkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 (2) Informiertheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 (3) Bestimmtheit und Zweckbindung . . . . . . . . . . . . . . . . . . . . . . . . . 145 cc) Besondere Kategorien personenbezogener Daten . . . . . . . . . . . . . . . . 145 dd) Kopplungsverbot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 ee) Folgen einer fehlerhaften Einwilligung . . . . . . . . . . . . . . . . . . . . . . . . 149 b) Vertragserfüllung, Art. 6 Abs. 1 lit. b) DS-GVO . . . . . . . . . . . . . . . . . . . . . 151 c) Wahrung berechtigter Interessen, Art. 6 Abs. 1 lit. f) DS-GVO . . . . . . . . . 152

Inhaltsverzeichnis

13

d) Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 6. Pflichten des Verantwortlichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 a) Grundsatz der Transparenz nach Art. 5 Abs. 1 lit. a) Alt. 3 DS-GVO . . . . . 157 b) Grundsatz der Überprüfbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 c) Datenminimierung / Datensparsamkeit, Art. 5 Abs. 1 lit. c) DS-GVO . . . . . 160 d) Zweckbindungsgrundsatz nach Art. 5 Abs. 1 lit. b) DS-GVO . . . . . . . . . . 162 aa) Zweckbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 bb) Zweckänderung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 (1) Einwilligung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 (2) Abweichung durch eine nationale Rechtsvorschrift . . . . . . . . . . . 164 (3) Kompatibilitätstest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 (4) Big Data und der statistische Zweck . . . . . . . . . . . . . . . . . . . . . . . 167 e) Technische und organisatorische Anforderungen . . . . . . . . . . . . . . . . . . . . 168 aa) Datenschutz durch Technikgestaltung . . . . . . . . . . . . . . . . . . . . . . . . . 168 (1) Privacy by Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 (2) Privacy by Default . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 bb) Sicherheit der Datenverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 cc) Auftragsverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 (1) Pflichten des Verantwortlichen . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 (2) Pflichten des Auftragsverarbeiters . . . . . . . . . . . . . . . . . . . . . . . . 174 f) Betrieblicher Datenschutzbeauftragter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 aa) Kerntätigkeit der umfangreichen, regelmäßigen und systematischen Überwachung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 bb) Kerntätigkeit der Verarbeitung besonderer Kategorien personenbezogener Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 cc) Nationale Regelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 g) Datenschutz-Folgenabschätzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 h) Übermittlung in Drittländer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 aa) Feststellung der Angemessenheit des Datenschutzniveaus im Drittland durch die EU-Kommission, Art. 45 DS-GVO . . . . . . . . . . . . . . . . . . . 179 bb) Vorliegen geeigneter Garantien, Art. 46 DS-GVO . . . . . . . . . . . . . . . . 182 (1) Verbindliche interne Datenschutzvorschriften . . . . . . . . . . . . . . . 182 (2) Standarddatenschutzklauseln der Kommission oder einer Aufsichts­ behörde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 (3) Genehmigte Verhaltensregeln und genehmigter Zertifizierungsmechanismus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 cc) Ausnahmen für bestimmte Fälle, Art. 49 DS-GVO . . . . . . . . . . . . . . . 184 i) Verbot automatisierter Entscheidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 aa) Rechtliche Wirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

14

Inhaltsverzeichnis bb) Erhebliche Beeinträchtigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 cc) Ausnahmetatbestände . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 dd) Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 j) Rechtsfolgen der Pflichtverletzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 aa) Schadensersatz, Art. 82 DS-GVO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 (1) Pflichtverletzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 (2) Schaden und Kausalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 (3) Verschulden und Exkulpation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 bb) Verhängung eines Bußgeldes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 k) Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 7. Rechte des Betroffenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 a) Auskunftsrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 b) Recht auf Vergessenwerden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 c) Recht auf Datenportabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 d) Zwischenfazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 8. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 II. Telemediengesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 1. Anwendungsbereich des TMG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 2. Verpflichteter nach dem TMG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 3. Rechtliche Verpflichtungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 a) Informationspflichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 b) Haftungsregelungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 c) Datenschutz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 4. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 III. Telekommunikationsgesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 1. Sprachassistenten als Spionageeinrichtungen . . . . . . . . . . . . . . . . . . . . . . . . . 203 2. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 IV. Strafrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 1. Regelungen nach dem Strafgesetzbuch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 a) Verletzung der Vertraulichkeit des Wortes . . . . . . . . . . . . . . . . . . . . . . . . . 206 b) Verletzung von Privatgeheimnissen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 c) Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 2. Strafverfolgung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 a) Fernmeldegeheimnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 b) Unverletzlichkeit der Wohnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 c) Zugriff durch die Ermittlungsbehörden . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 aa) Die Durchsicht nach § 110 StPO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 bb) Die Sicherstellung und Beschlagnahme nach § 94 StPO . . . . . . . . . . . 216

Inhaltsverzeichnis

15

cc) Telekommunikationsüberwachung nach § 100a StPO . . . . . . . . . . . . . 216 dd) Online-Durchsuchung nach § 100b StPO . . . . . . . . . . . . . . . . . . . . . . 219 ee) Akustische Wohnraumüberwachung nach § 100c StPO . . . . . . . . . . . 220 ff) Kernbereich privater Lebensgestaltung . . . . . . . . . . . . . . . . . . . . . . . . 221 d) Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

Kapitel 6

Ausblick auf die Konturen eines KI Rechts 224

A. ePerson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 I. Immaterialgüterrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 II. Verantwortung i. S. d. Datenschutzrechts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 III. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 B. Regelungen der Kommunikation und ethische Überlegungen . . . . . . . . . . . . . . . . . . 228

Kapitel 7 Fazit 232

Rechtsprechungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 Sachwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269

Abbildungsverzeichnis Abbildung 1: Funktionsweise des Sprachassistenten . . . . . . . . . . . . . . . . . . . . . . . . . . 26 Abbildung 2: Generalfaktor „g“ und spezifische Intelligenzfaktoren „s“ . . . . . . . . . . . 30 Abbildung 3: Primärfaktoren der Intelligenz (primary mental abilities) nach Thurstone 31 Abbildung 4: Darstellung des vierschichtigen verbal-perceptual-rotation-model (VPR) nach Johnson / Bouchard. Schicht I stellen hierbei die insgesamt 42 Tests dar, welche acht Faktoren der Schicht II mit Informationen versorgen. Schicht III wiederum fasst diese acht Faktoren zusammen und ergibt zusammen einen „g“-Faktor in Schicht IV. . . . . . . . . . . . . . . . . . . . . . . . . . 33 Abbildung 5: Carrolls Modell der drei Intelligenzschichten . . . . . . . . . . . . . . . . . . . . . 34 Abbildung 6: Berliner Intelligenz-Struktur-Modell nach Jäger . . . . . . . . . . . . . . . . . . . 35 Abbildung 7: Würfelmodell nach Guilford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Abbildung 8: Darstellung eines Neurons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Abbildung 9: Synaptische Verschaltungen im zentralen Nervensystem . . . . . . . . . . . . 49 Abbildung 10: Bildliche Darstellung eines einfachen neuronalen Netzwerks mit drei Schichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Abbildung 11: Verarbeitung von Informationen in Künstlichen Neuronalen Netzen . . . 51 Abbildung 12: Bestandteile Künstlicher Intelligenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Abbildung 13: Screenshot der Benutzeroberfläche der Amazon Alexa Applikation . . . 60 Abbildung 14: Prinzip der Stimmerfassung und Verifikation . . . . . . . . . . . . . . . . . . . . . 146

Abkürzungsverzeichnis a. F. alte Fassung Abb. Abbildung Abl. Amtsblatt der Europäischen Union Abs. Absatz AcP Archiv für die civilistische Praxis AEUV Vertrag über die Arbeitsweise der Europäischen Union AGB Allgemeine Geschäftsbedingungen AI HLEG High Level Expert Group on Artificial Intelligence Art. Artikel Artt. Artikel (Plural) BB Betriebs-Berater BC Zeitschrift für Bilanzierung, Rechnungswesen & Controlling BDSG Bundesdatenschutzgesetz Beschl. Beschluss BGB Bürgerliches Gesetzbuch BGH Bundesgerichtshof BPatG Bundespatentgericht BT-Drs. Bundestagsdrucksache BVerfG Bundesverfassungsgericht bzgl. bezüglich bzw. beziehungsweise Cal. L. Rev. California Law Review CCZ Corporate Compliance Compact Disc CD Computer Emergency Response Team CERT CLB Chemie in Labor und Biotechnik CR Computer und Recht CSIRT Computer Security Incident Response team d. h. das heißt DEK Datenethikkommission Deep Learning DL DoS Denial of Service DÖV Die Öffentliche Verwaltung DS-GVO Datenschutz-Grundverordnung DStR Deutsches Steuerrecht DStRE Deutsches Steuerrecht Entscheidungsdienst DuD Datenschutz und Datensicherheit DVD Digital Versatile Disc E. I.P. R. European Intellectual Property Review EDPL European Data Protection Law Review EG Europäische Gemeinschaft

Abkürzungsverzeichnis

19

Europäisches Patentamt EPA Amtsblatt EPA EPA ABl. Europäische Patentübereinkommen EPÜ Erwg. Erwägungsgrund Europäische Union EU Journal of European Consumer and Market Law EuCML Gericht der Europäischen Union EuG Gerichtshof der Europäischen Union EuGH EuR Europarecht Vertrag über die Europäische Union EUV Europäische Zeitschrift für Wirtschaftsrecht EuZW f. folgend folgend (Plural) ff. Federal Trade Commission FTC Generative Adversarial Network GAN GG Grundgesetz Gesetz betreffend die Gesellschaften mit beschränkter Haftung GmbHG Gemeinsames Ministerialblatt GMBl Geräte- und Produktsicherheitsgesetz GPSG Charta der Grundrechte der Europäischen Union GRCh Gewerblicher Rechtsschutz und Urheberrecht GRUR Gewerblicher Rechtsschutz und Urheberrecht Internationaler Teil GRUR Int. Gewerblicher Rechtsschutz und Urheberrecht Beilage GRUR-Beil. Gewerblicher Rechtsschutz und Urheberrecht, Praxis im ImmaterialgüterGRUR-Prax und Wettbewerbsrecht Gewerblicher Rechtsschutz und Urheberrecht, Rechtsprechungs-Report GRUR-RR Gewerblicher Rechtsschutz und Urheberrecht, Rechtsprechungssammlung GRUR-RS HS Hauptsatz im Sinne der i. S. d. Zeitschrift zum Innovations- und Technikrecht InTeR Internet of Things (Internet der Dinge) IoT Der IT-Rechts-Berater ITRB Journal of Intellectual Property, Information Technology and E-Commerce jipitec Law juris PraxisReport IT-Recht jurisPR-ITR Juristische Schulung JuS JZ Juristenzeitung Kommunikation & Recht K&R Künstliche Intelligenz KI Künstliches Neuronales Netzwerk KNN littera (Buchstabe) lit. Machine Learning ML MultiMedia und Recht MMR Medizin Produkte Recht MPR MwStR Mehrwertsteuerrecht Neue Juristische Online-Zeitschrift NJOZ Neue Juristische Wochenschrift NJW Neue Juristische Wochenschrift Rechtsprechungs-Report Zivilrecht NJW-RR

20

Abkürzungsverzeichnis

Nr. Nummer Neue Zeitschrift für Strafrecht NStZ Neue Zeitschrift für Verwaltungsrecht NVwZ Neue Zeitschrift für Arbeitsrecht NZA Neue Zeitschrift für Gesellschaftsrecht NZG Neue Zeitschrift für Kartellrecht NZKart Neue Zeitschrift für Verkehrsrecht NZV OLG Oberlandesgericht Oberster Gerichtshof (Österreich) ÖOGH OVG Oberverwaltungsgericht PatG Patentgesetz Privacy in Germany PinG Proceedings of the National Academy of Sciences of the United States of PNAS America ProdHaftG Produkthaftungsgesetz ProdSG Produktsicherheitsgesetz recht und schaden r+s Rabels Zeitschrift für ausländisches und internationales Privatrecht RabelsZ Berner Übereinkommen zum Schutz von Werken der Literatur und Kunst RBÜ RL Richtlinie Rn. Randnummer RStV Rundfunkstaatsvertrag RW Rechtswissenschaft Rz. Randzeichen Satz oder Seite S. sog. sogenannt StGB Strafgesetzbuch StPO Strafprozessordnung StVG Straßenverkehrsgesetz TKG Telekommunikationsgesetz TMG Telemediengesetz technische und organisatorische Maßnahme TOM TPG Transplantationsgesetz Übereinkommen über handelsbezogene Aspekte der Rechte des geistigen TRIPS Eigentums UAbs. Unterabsatz UrhG Urhebergesetz Urt. Urteil Vereinigte Staaten von Amerika USA Universal Serial Bus USB Gesetz gegen den unlauteren Wettbewerb UWG v. vom Virtueller Assistent VA VG Verwaltungsgericht vgl. vergleiche VO Verordnung Verbal-Perceptual-Image Rotation VPR Verbraucher u. Recht VuR

Abkürzungsverzeichnis World Intellectual Property Organization WIPO Zeitschrift für Wirtschafts- und Bankenrecht WM Wettbewerb in Recht und Praxis WRP zum Beispiel z. B. Zeitschrift für Datenschutz ZD ZD-Aktuell Zeitschrift für Datenschutz Aktuell Zeitschrift für die gesamte Privatrechtswissenschaft ZfPW ZKG Zahlungskontengesetz Zeitschrift für Rechtspolitik ZRP Zeitschrift für Urheber- und Medienrecht ZUM Zeitschrift für Urheber- und Medienrecht – Rechtsprechungsdienst ZUM-RD Zeitschrift für Vertriebsrecht ZVertriebsR Zeitschrift für Wohnungseigentumsrecht ZWE

21

Kapitel 1

Einleitung Sprachassistenten und Künstliche Intelligenz sind aus dem modernen Leben und dem Marketing vieler Unternehmen nicht mehr weg zu denken. Ein wichtiges Kriterium einer vernetzen Welt ist, dass nicht nur der Anwender, sondern zusehends auch die Produkte „smart“ sind. Sei es das Smartphone, der Kühlschrank, die Küchenmaschine oder das Auto – jedes Gerät sollte im modernen Leben möglichst miteinander verbunden sein, die Vorlieben des Nutzers kennen und dessen Wünsche am besten antizipieren, bevor sich dieser Wunsch überhaupt gebildet hat. Im Zentrum dieses „Smart Living“ stehen Sprachassistenten. Zahlreiche namhafte Hersteller konkurrieren darum, ihre Produkte in den Mittelpunkt des Lebens eines jeden Anwenders zu zentrieren und möglichst viele eigene Produkte sowie Erzeugnisse von Drittherstellern in die Produktfamilie zu integrieren, um den Kunden langfristig zu binden. Aus rechtlicher Perspektive wirft das Dazwischentreten eines zunehmend autonom handelenden maschinellen Assistenten zahlreiche Fragen auf. So gilt es unter anderem zu klären, wem die Handlungen des Sprachassistenten zugerechnet werden müssen bzw. wer haftet, falls durch bewusste oder unbewusste Handlungen des Sprachassistenten einem Dritten Schäden zugefügt werden. Ferner ist bislang noch ungeklärt, wem die Inhalte, die der Sprachassistent möglicherweise schafft, gehören. Aber auch das Datenschutzrecht, seit Einführung der DSGVO von gesteigerter Relevanz und viel diskutiert, darf in einer datenzentrierten Umgebung, wie es der Einsatz von Sprachassistenten im Speziellen und das Konzept Smart Living im Allgemeinen mit sich bringt, nicht vernachlässigt werden. Ziel der nachfolgenden Abhandlung ist daher die Beleuchtung wesentlicher rechtlicher Fragestellungen im Rahmen des Einsatzes von Sprachassistenten sowohl seitens privater als auch professioneller Benutzer. Als Schwerpunkt konzentriert sich die juristische Ausarbeitung auf Fragestellungen des Immaterial-, Datenschutz- und allgemeinen Haftungsrechts. Dem Leser soll zuerst eine grundlegende Übersicht in Bezug auf gängige Intelligenztheorien sowie menschlicher Lernprozesse gegeben werden. Sodann wird ein Fokus auf die Einführung in die Thematik der Künstlichen Intelligenz (KI) gesetzt. Nach einem kurzen geschichtlichen Überblick werden die verschiedenen Kategorien der KI (mithin schwache KI, starke KI und Superintelligenz) dargestellt. Die Gegebenheiten des zuvor ausgeführten menschlichen Lernens werden im Folgenden auf den maschinellen Be-

24

Kap. 1: Einleitung

reich im Wege des Machine Learnings (ML) mit einer besonderen Fokussierung auf Deep Learning (DL) umgelegt. Es wird die These aufgestellt, dass Maschinelles Lernen durchaus mit dem des menschlichen  – wenn auch auf abstrakter Ebene – vergleichbar ist. Die zuvor dargestellten Grundsätze der Künstlichen Intelligenz erfahren eine Präzisierung auf den Anwendungsbereich der Sprachassistenten. Es wird untersucht, ob sich, neben der Schutzfähigkeit der KI selbst, bestehende Grundsätze des Immaterialgüterrechts auf Erzeugnisse und Werke der Sprachassistenten im Einsatzbereich des kreativen und erfinderischen Schaffens übertragen lassen und die These postuliert, dass das menschlich zentrierte europäische und nationale Recht nicht hinreichend ausgestaltet ist, um auf die Möglichkeiten der fortschreitenden Automatisierung angemessen zu reagieren. Insbesondere die Zuteilung möglicher Immaterialgüterrechte autonomer Schöpfungen und Erfindungen gestaltet sich problematisch. Im Bereich des Datenschutz- und Haftungsrechts wird untersucht, ob die geltenden Konzepte der Zurechnung der Verantwortlichkeit auf autonome Sprachassistenten übertragen werden können. Ausgangspunkt der rechtlichen Prüfung sind aktuell existierende Systeme schwacher Künstlicher Intelligenz mit einem Ausblick auf künftige stärker autonomisierte Sprachassistenten. Die Betrachtung steht unter der Prämisse, dass de lege lata eine Zurechnung der Verantwortlichkeit gelingt, jedoch in Zukunft die Handlungen der Sprachassistenten unter Umständen weder dem Verwender des Systems noch dem Hersteller bzw. Betreiber zurechenbar sein könnten. Um diesen Bedürfnissen zu genügen, wird abschließend ein kurzer Ausblick auf die Rechtslage de lege ferenda gegeben, wobei insbesondere die Grundzüge einer möglichen ePerson sowie Voraussetzungen einer ethischen Mensch-MaschineKommunikation dargestellt werden. Es wird die Hypothese aufgestellt, dass rechtliche Fragestellungen in Bezug auf Systeme Künstlicher Intelligenz unter der geltenden Rechtsordnung nur hinreichend beantwortet werden können. Sofern es sich um schwache autonome Ausprägungen handelt, gelingt in den überwiegenden Konstellationen eine Beantwortung von Problemstellungen nach geltendem Recht. Bei einer zunehmenden Autonomisierung scheitert bislang eine gerechte Zurechnung der Verantwortung für Handlungen einer starken Künstlichen Intelligenz an eine hinter dieser stehenden natürlichen oder juristischen Person.

Kapitel 2

Sprachassistenten Ein großer Vorteil des Einsatzes Künstlicher Intelligenz und die Verknüpfung derselben mit alltagstauglichen Gegenständen ist die Ermöglichung eines MenschMaschine-Dialogs durch Verwendung natürlicher Sprache.1 Wesentlicher Inhalt der Arbeit ist die Auseinandersetzung mit rechtlichen Problemstellungen im Bereich der Sprachassistenten (Virtual Assistants).

A. Einführung und Funktionsweise Siri, Alexa, Google Assistant und andere Sprachassistenten sind aus dem Alltag der meisten Menschen, wenn nicht aus eigener Verwendung, so doch aus dem allgemeinen Sprachgebrauch, nicht mehr fortzudenken. Einer Umfrage aus dem Jahr 2017 nach kennen 78 Prozent der deutschen Bevölkerung den Assistenten Alexa des Anbieters Amazon und 70 Prozent Siri von Apple.2 Seit der Vorstellung des Sprachassistenten Siri im Jahr 20113, welcher bereits über die Fähigkeit verfügte, natürliche Sprache zu verstehen und erste Suchanfragen beantworten konnte, kann eine stetige Verbesserung beobachtet werden, bis hin zu Sprachassistenten wie Google Duplex, denen es möglich ist, in menschlicher Sprache eigenständig Telefonanrufe zu übernehmen und beispielsweise Reservierungen auszuführen.4 Der große Vorteil von Sprachassistenten ist darin zu sehen, dass die Maschine lernt, den Menschen zu verstehen, nicht der Mensch die Maschine.5 Der Zugang zu neuartigen Funktion steht diskriminierungsfrei und ohne technisches Vorwissen allen Menschen grundsätzlich zur Verfügung. Derzeitige Sprachassistenten nehmen mittels eingebauter Mikrofone dauerhaft oder nach gesonderter Aktivierung die Umgebungsgeräusche auf. Sobald der lokale Algorithmus ein bestimmtes Stichwort erkennt, z. B. „OK Google“, beginnt das System mit der Aufnahme und Übersendung des gesprochenen Wortes an die 1

Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 33. 2 PwC, Vier von fünf Deutschen kennen „Alexa“, https://www.pwc.de/de/pressemitteilungen/ 2017/vier-von-fuenf-deutschen-kennen-alexa.html (Stand: 27. 09. 2020). 3 Apple Inc., Apple Launches iPhone 4S, iOS 5 & iCloud. 4 Herbig, Google Duplex: Guten Tag, Sie sprechen mit einer KI, https://www.heise. de/newsticker/meldung/Google-Duplex-Guten-Tag-Sie-sprechen-mit-einer-KI-4046987.html (Stand: 27. 09. 2020). 5 Heckmann, in: Kusche / Valerius (Hrsg.), Festgabe Forschungsstelle RobotRecht, 45 (46).

26

Kap. 2: Sprachassistenten

Cloud-Server des Betreibers, auf welchen diese Aufnahmen in computerverständliche Inhalte umgewandelt und ausgewertet werden und eine entsprechende Antwort an das lokale Gerät ausgegeben wird (vgl. Abbildung 1).6

Warten auf Signalwort

Aufzeichnung der Daten

Übersendung an Server des Betreibers

Ende der Kommunikation

Übersendung und Ausgabe der Antwort

Verarbeitung auf dem Server

Abbildung 1: Funktionsweise des Sprachassistenten

B. Abgrenzung Robotik Rechtliche und ethische Diskussionen um Künstliche Intelligenz entspannen sich oftmals im Zusammenhang mit dem Einsatz intelligenter Roboter. Seit jeher fasziniert die Menschheit die Vorstellung eines intelligenten und autonom handelnden Maschinenwesens. Sei es die Darstellung des Bildhauers Pygmalion, der sich in eine von ihm erstellte und von der Göttin Venus zum Leben erweckte Statue verliebt7, über den Mythos des Prager Golems bis hin zu den Androiden des Schriftstellers Čapek8, welcher den neuzeitlichen Begriff „Roboter“ prägte, überwiegt der Wunsch nach der Schaffung eines Androiden mit menschlichen Zügen.9 Im Zuge der Erarbeitung rechtlicher Kriterien werden vielfach auf die Robotergesetze des Autors Isaac Asimov Bezug genommen.10 Dessen ursprüngliche drei Regeln lauten:11 1) A robot may not injure a human being or, through inaction, allow a human being to come to harm 2) A robot must obey orders given to it by human beings except where such orders would conflict with the First Law. 6

Brockmeyer / Vogt, Alexa, Siri & Google Assistant – was ist erlaubt?, Sprachassistenten und das Recht, 2018, S. 1. 7 Ovid, Metamorphosen, Verse 243–297. 8 Čapek, R. U.R. (Rossum’s universal robots). 9 Rechtsausschuss des Europäischen Parlaments, Zivilrechtliche Regelungen im Bereich Robotik, Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)), S. 3. 10 Kornwachs, DuD 2019, 332 (339). 11 Asimov, I, robot.

B. Abgrenzung Robotik

27

3) A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. Die Robotic Industries Association setzt einen modernen Ansatz an die Definition eines Roboters: „A robot is a reprogrammable, multifunctional manipulator designed to move material, parts, tools or specialized devices through variable programmed motions for the performance of a variety of tasks.“12 Sprachassistenten selbst können ein teil eines Roboters darstellen, sind ihrer Natur nach jedoch keine Roboter, hierfür bedürfte es die Einbindung der Software in einen gesonderten hardwarebasierten Korpus. Aufgabe des Sprachassistenten ist primär nicht die Manipulation äußerer Begebenheiten, sondern die Auswertung von Fragestellungen, Unterstützung des Verwenders und Einflussnahme auf Drittgeräte (z. B. IoT-Gerätschaften). Die nachfolgende rechtliche Betrachtung knüpft daher primär an die Beurteilung der softwarespezifischen Begebenheiten an. Die zuvor vorgestellten Assimovschen Robotergesetze sind zwar in keinerlei Form staatliches kodifiziertes Recht, können jedoch als Anhaltspunkte herangezogen werden.

12 USLegal, Robotics Law and Legal Definition, https://definitions.uslegal.com/r/robotics/ (Stand: 27. 09. 2020).

Kapitel 3

Intelligenztheorien Das Bestreben der derzeitigen technischen Entwicklung, immer „intelligentere“ und funktionalere Sprachassistenten zu schaffen, deren Einsatzbereich von der Verwaltung des Terminkalenders, der Auskunft über die schnellste Wegstrecke bis hin zu eigenständigen Restaurantbuchungen1 reicht und sich in Zukunft nahtlos dank Bedienbarkeit mittels Augmented Reality, Gesten und Sprachbefehlen2 in das Leben der Menschen einklinken könnte, ist maßgeblich durch eine Nachbildung der uns bekannten menschlichen Intelligenz geprägt. Dabei wird der Begriff der Künstlichen Intelligenz inzwischen inflationär jedwedem neueren und verfeinerten Produkt zugeschrieben. Um zu verstehen, was das Wesen der menschlichen Intelligenz als Ausgangspunkt der technischen Umsetzung ausmacht, wird im Folgenden ein kurzer Einblick in die Intelligenzforschung der Neuzeit gegeben. Erklärte Zielsetzung ist nicht, eine alle existierenden Theorien umfassende und erschöpfende Darstellung zu liefern, sondern eine Umgrenzung und Annäherung für das Wesen der Künstlichen Intelligenz zu bieten. Obwohl die Intelligenz eines der am besten untersuchten psychologischen Merkmale ist, verbleibt sie dennoch bis heute ein komplexes und umfassendes Konzept.3 Eine einheitliche und feststehende trennscharfe Definition der Intelligenz ist bisher nicht gelungen. Stern beispielweise definiert Intelligenz als „die allgemeine Fähigkeit eines Individuums, sein Denken bewußt auf neue Forderungen einzustellen; sie ist [die] allgemeingeistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens“4. Weniger auf das Merkmal der Anpassungsfähigkeit, sondern auf den zielgerichteten und effizienten Umgang mit den alltäglichen Begebenheiten ausgerichtet definiert Wechsler Intelligenz facettenreich als „the aggregate or global capacity of the individual to act purposefully, to think rationally and to deal effectivly with his environment“5.

1 Herbig, Google Duplex: Guten Tag, Sie sprechen mit einer KI, https://www.heise. de/newsticker/meldung/Google-Duplex-Guten-Tag-Sie-sprechen-mit-einer-KI-4046987.html (Stand: 27. 09. 2020). 2 Tißler, Alexa, was ist die Zukunft der Sprachassistenten?, https://dmexco.com/de/stories/ alexa-was-ist-die-zukunft-der-sprachassistenten/ (Stand: 27. 09. 2020). 3 Schael, DuD 2018, 547 (547). 4 W. Stern, Die Intelligenz der Kinder und Jugendlichen, 2 f. 5 Wechsler, The Measurement of Adult Intelligence, S. 3.

A. Spearman: Generalfaktorentheorie

29

Die Intelligenzforschung und Entwicklung verschiedener Theorien basiert auf der quantitativen Messung der kognitiven Leistungsfähigkeit eines Individuums.6 Hierbei wird versucht, einzelne Elemente der Zusammensetzung menschlicher Intelligenz und deren Zusammenwirken zu beschreiben.7 Grundsätzlich kann man existierende Intelligenztheorien in drei Gruppen klassifizieren: a priori Modelle, a posteriori Modelle und eine Mischung aus beiden Ansätzen.8 Im Folgenden soll ein kurzer Einblick in die Vielzahl existierender Modelle gegeben werden.

A. Spearman: Generalfaktorentheorie Die Faktorenanalyse nach Spearman ist eine der ersten9 und bis heute bedeutendsten Intelligenztheorien. Diese basiert auf der bereits Anfangs des 20. Jahrhunderts feststellbaren empirischen Gesetzmäßigkeit, dass bei der Bearbeitung von Intelligenztests positive Korrelationen bei der Beantwortung der Testfragen zu beobachten sind: Testpersonen beantworten Fragen generell entweder zufriedenstellend oder mangelhaft.10 Spearman erklärte dieses Phänomen mittels der „Zwei-Faktoren-Theorie“. Nach dieser weisen alle intellektuellen Leistungen der Menschen eine allgemeine Intelligenz „g“ (Generalfaktor) sowie einen der spezifischen Aufgabe entsprechenden Anteil „s“ auf.11 Der Generalfaktor „g“ wirkt sich nach Spearman bei der Bearbeitung sämtlicher mentaler Aufgaben gleichförmig aus, wohingegen der spezifische Faktor „s“ (zum Beispiel das sprachliche Verständnis) nur für den jeweiligen Aufgabentyp beiträgt und nicht mit anderen Aufgabenarten korreliert.12 Charakterisiert wird der Generalfaktor „g“ nach Spearman durch drei basale mentale Operationen13: – Apprehension of one’s own experience: Das Verständnis des Einzelnen zu eruieren und zu erkennen, welche Gedankengänge in ihm vorgehen und sich dieser Gefühle und Zielsetzungen bewusst zu sein ist für Spearman ein wesentlicher Teil der generellen Intelligenz.14

6

Braidt, Der radikale Qualitätssprung in der Intelligenz zwischen Mensch und Tier, S. 19. Stumpf, Intelligenz verstehen, S. 17. 8 D. Rost, Handbuch Intelligenz, S. 39. 9 Carroll, Human cognitive abilities, S. 636. 10 Schönemann / Borg, in: Erdfelder / Mausfeld / Meiser u. a. (Hrsg.), Handbuch Quantitative Methoden, 241 (241). 11 D. Rost / Sparfeldt, in: Schweer (Hrsg.), Lehrer-Schüler-Interaktion, 315 (320). 12 Schönemann / Borg, in: Erdfelder / Mausfeld / Meiser u. a. (Hrsg.), Handbuch Quantitative Methoden, 241 (243). 13 D. Rost / Sparfeldt, in: Schweer (Hrsg.), Lehrer-Schüler-Interaktion, 315 (320). 14 Spearman, The Abilities Of Man, S. 164. 7

30

Kap. 3: Intelligenztheorien

– Education of relations: Die Ableitung von fundamentalen und intrinsischen Beziehungen sieht Spearman als unbestreitbar wichtig an. Intelligent handeln kann nur derjenige, der zumindest einfachste Korrelationen erkennen kann und sich diese vergegenwärtigt.15 Beispiel: Die Vorgabe, dass alle Inhalte A in der Menge B enthalten sind beweist die These, dass einige Inhalte A in der Menge B enthalten sind. – Education of correlates: Die Dritte und letzte mentale Operation erblickt Spearman in der Fähigkeit zur Deutung innerer Zusammenhänge. Hat der Mensch eine bestimmte Tatsache zusammen mit einer sich darauf beziehenden Verknüpfung im Kopf, kann er diese beiden Punkte zu etwas Anderem wandeln.16 Beispiel: Gibt man einem Musiker auf, sich eine Note um ein Fünftel höher vorzustellen, wird ihm dies gelingen, sofern er den Zusammenhang zwischen der konkreten Note und unterschiedlichen Tonhöhen kennt. Spearmans erster Gedanke, es gebe nur einen intelligenzbestimmenden Faktor, musste er nach der Feststellung, dass die Leistungen von Probanden in unterschiedlichen Intelligenzaufgaben nur bedingt korrelierten, aufgeben und schloss daraus auf einen aufgabenspezifischen Intelligenzfaktor, der „g“ ergänzen müsse.17 Diesbezüglich ist die Bezeichnung als Zwei-Faktoren-Theorie etwas unglücklich gewählt. Zutreffend ist, dass Spearman für jeden Test „g“ und ein spezifisches „s“ heranzieht, die menschliche Intelligenz jedoch je nach Aufgabentyp aus denkbar unzähligen „s“ besteht.

Test 3

Test 2 S3

S2

Test 1

Test 4

g S1

S4

Abbildung 2: Generalfaktor „g“ und spezifische Intelligenzfaktoren „s“18

15

Spearman, The Abilities Of Man, S. 165. Spearman, The Abilities Of Man, S. 166. 17 Stumpf, Intelligenz verstehen, 28 f. 18 D. Rost, Handbuch Intelligenz, S. 45. 16

31

B. Thurstone: Sieben Primärfaktoren der Intelligenz

Kritik erfährt Spearmans Theorie insbesondere auf Grund der Tatsache, dass sich Spearmans Vorhersagen nur bedingt bestätigen lassen und ungenaue Testergebnisse interpretiert werden müssen.19 Statt der Annahme eines bestimmenden Faktors „g“ könnten nach dieser Ansicht alle Vorhersagen auch mit unendlich vielen Intelligenzfaktoren getroffen werden.20

B. Thurstone: Sieben Primärfaktoren der Intelligenz Von den Ausführungen Spearmans weicht die Theorie der sieben Primärfaktoren von Louis Leon Thurstone21 insbesondere im Hinblick auf das Vorliegen von „g“ ab. Nach Thurstone sind nicht hauptsächlich ein einzelner Faktor für das Vorliegen einer Intelligenz überwiegend verantwortlich, sondern mehrere unabhängige Gruppenfaktoren der Intelligenz. Diese lassen sich unter die Begriffe memory (Behalten von Informationen), number (simple mathemathische Fertigkeiten), perceptual speed (Wahrnehmungsgeschwindigkeit von Inhalten), reasoning (Problemlösungsfähigkeiten), space (räumliche Orientierungsfähigkeit), verbal comprehension (Sprachverständnis) und word fluency (Umfang des Vokabulariums) fassen.22

memory

T1

T2

T3

T4

number

T5

T6

perception

T7

T8

T9

reasoning

T10

T11

T12

space

T13

T14 T15

word fluency

verbal

T16

T17

T18

T19

1. Ordnung

T20

T21

Testebene

Abbildung 3: Primärfaktoren der Intelligenz (primary mental abilities) nach Thurstone23

Ähnlich des spezifischen Faktors der Zwei-Faktoren-Theorie von Spearman beruhen intellektuelle Leistungen nicht in jeder zu bewältigenden Aufgabe auf allen Faktoren kumulativ.24 Sprachliche Problemstellungen rekrutieren insbesondere Fähigkeiten aus den Bereichen der „verbal“ und „reasoning“ Faktoren, mathematische Aufgaben je nach Konzeption aus den Gruppen „number“ und „space“. Die von Thurstone aufgestellte These verschiedenster Gruppenfaktoren wurde in der psychologischen Forschung durchweg positiv aufgenommen; es basieren bis zum heutigen Tage Intelligenztests auf der aufgestellten Hypothese.25 19

Schönemann / Borg, in: Erdfelder / Mausfeld / Meiser u. a. (Hrsg.), Handbuch Quantitative Methoden, 241 (244). 20 Thomson, British Journal of Psychology 8 (1916), 271 (272). 21 Thurstone, Primary Mental Abilities. 22 D. Rost / Sparfeldt, in: Schweer (Hrsg.), Lehrer-Schüler-Interaktion, 315 (321). 23 D. Rost, Handbuch Intelligenz, S. 50. 24 D. Rost, Handbuch Intelligenz, S. 54. 25 D. Rost, Handbuch Intelligenz, S. 56.

32

Kap. 3: Intelligenztheorien

C. Cattell: Fluide und kristalline Intelligenz Die von Spearman und Thurstone postulierten Theorien werden von Cattell im Fortgang weitergeführt und aus seiner Ansicht verfeinert. Cattell erblickt im Zuge der Intelligenzforschung zwei wesentliche Parameter, welche er als fluide (gf) und kristalline (gc) Intelligenz bezeichnet.26 Die fluide Intelligenz ist hierbei vergleichbar mit Spearmans Generalfaktor „g“ und beschreibt eine von kulturellen Einflüssen unabhängige Fähigkeit des Einzelnen, auf unterschiedlichste Bedingungen angemessen zu reagieren.27 Diese sehr allgemeine Fähigkeit stellt letztlich den Grad der Komplexität dar, mit welchem eine Person Zusammenhänge und Beziehungen in neuartigen Aufgabenstellungen erkennen kann.28 Die kristalline Intelligenz hingegen beschreibt Gewohnheiten und Fähigkeiten auf einem bestimmten Gebiet, welche zwar ursprünglich Produkt der fluiden Intelligenz, in der Zwischenzeit jedoch zu einem bereichsspezifischen Automatismus des Einzelnen geworden sind und keiner weiteren Wahrnehmung und Reflektion für ihr Funktionieren bedürfen.29 Sie ist mithin nicht wie die fluide Intelligenz genetisch vorbestimmt, sondern viel mehr eine bildungs- und erfahrungsabhängige kognitive Befähigung.30 Bedingt durch die Korrelation von fluider und kristalliner Intelligenz lässt sich festhalten, dass in jungen Jahren der Mensch nach Cattells Theorie überwiegend durch die Stärke der Ausprägung seiner fluiden Intelligenz beeinflusst wird, mit fortschreitendem Alter und gemachten Erfahrungen jedoch die kristalline Intelligenz zunehmend an Bedeutung gewinnt.31

D. Johnson / Bouchard Jr.: Vier-Schichten-Modell Das neuere Verbal-Wahrnehmungs-Bildrotationsmodell (VPR = Verbal-Perceptual-Image Rotation) von Johnson und Bouchard Jr. orientiert sich ebenfalls unter anderem stark an dem Modell der fluiden und kristallinen Intelligenz. Anders als bei Cattell weicht dieses Modell die starre Trennung zwischen gf und gc auf und lässt diese in den unterschiedlichen Faktoren aufgehen.32 Ein Festhalten an der starren Trennung zwischen gf und gc wird hierbei abgelehnt, da diese zwar Aussagen darüber geben, „wie“ die intellektuelle Leistung des Einzelnen zu bewerten ist, aber keine Rückschlüsse darauf zulassen, „warum“ die Leistung derart ausfällt. Dies folgt der Begebenheit, dass eine Vergleichbarkeit schwer darzustellen ist, da

26

Cattell, Intelligence, S. 96. Cattell, Intelligence, S. 97. 28 Stumpf, Intelligenz verstehen, S. 35. 29 Cattell, Psychological Bulletin 40 (1943), 153 (178). 30 D. Rost, Handbuch Intelligenz, S. 18. 31 Stumpf, Intelligenz verstehen, S. 36. 32 Stumpf, Intelligenz verstehen, S. 43. 27

33

E. Caroll: Drei-Schichten-Modell der Intelligenz

jeder Mensch in seinem Leben bereits unterschiedliche Erfahrungen gemacht hat und Testfragen daher für einen Probanden neu sein können (gf) und für den anderen bereits erlerntes Wissen darstellen (gc).33

.96 .88 Verbal

g

.99

Perceptual

11 Tests

Fluency

8 Tests

.27

Number

10 Tests

.68

Content Memory

4 Tests

.79 .83

.97 Image Rotation

Scholastic

6 Tests

.83 .55

.96

Verbal

1.00

Perceptual Speed

10 Tests

Spatial

14 Tests

Image Rotation

4 Tests

Abbildung 4: Darstellung des vierschichtigen verbal-perceptual-rotation-model (VPR) nach Johnson / Bouchard. Schicht I stellen hierbei die insgesamt 42 Tests dar, welche acht Faktoren der Schicht II mit Informationen versorgen. Schicht III wiederum fasst diese acht Faktoren zusammen und ergibt zusammen einen „g“-Faktor in Schicht IV.34

E. Caroll: Drei-Schichten-Modell der Intelligenz Das „Drei-Schichten-Modell“ nach Carroll35 stellt ein in der Intelligenzforschung überaus wichtiges Modell dar. Es ist das Ergebnis einer umfassenden Auswertung einer beträchtlichen Anzahl bereits existierender faktorenanaly­ tischer Studien. Carroll entwickelt nicht nur ein hierarchisches Schichtungsmodell, er integriert in dieses auch die Ergebnisse und Annahmen der bisherigen Intelligenztheorien.36

33

Johnson / Bouchard Jr., Intelligence 33 (2005), 393 (410). Johnson / Bouchard Jr., Intelligence 33 (2005), 393 (408). 35 Carroll, Human cognitive abilities. 36 D. Rost / Sparfeldt, in: Schweer (Hrsg.), Lehrer-Schüler-Interaktion, 315 (323). 34

34

Kap. 3: Intelligenztheorien

Schicht III

Faktor „g“

Schicht II fluid intelligence

crystallized intelligence

general memory ability

broad visual perception

broad auditory perception

retrieval ability

cognitive processing speed/ speediness detection speed

Schicht I

Abbildung 5: Carrolls Modell der drei Intelligenzschichten37

Carroll selbst nimmt an, dass Schicht III dem Generalfaktor „g“ nach Spearman entspricht und akzeptiert dessen grundsätzliche Annahmen, fordert jedoch, dass es einer weitgehenderen Bestätigung und Verfeinerung der postulierten Zusammenhänge bedarf. Hierfür müssten objektive Verfahren entwickelt werden die erkennen lassen, ob eine Aufgabe metakognitive und eduktive Prozesse umfasst.38 Diesem Ansatz möchte Carroll mit der ersten und zweiten Schicht gerecht werden, wobei die erste Schicht aus ca. 70 einzelnen Faktoren besteht, welche für sich jeweils auf enge Anwendungsbereiche zugeschnittene Spezialfähigkeiten – beispielsweise Leseverstehen – darstellen.39 Die zweite Schicht hingegen konstituiert Querbeziehungen zwischen den einzelnen Faktoren der ersten Schicht und fasst diese in acht breitere und stärkere Kategorien, welche weite Verhaltensbereiche determinieren, zusammen.40

F. Jäger: Berliner Intelligenz-Struktur-Modell Auch Jäger baut mit seinem von ihm entwickelten Berliner Intelligenz-Struktur-Modell41 auf der Faktorenanalyse auf und erarbeitet hierbei sieben Intelligenzfaktoren. Diese gliedert er hierarchisch in drei inhaltsgebundene Fähigkeiten und vier Intelligenzoperationen.42 Als Intelligenzoperationen legt Jäger die sprach­ 37 Grafik angelehnt an Grégoire, Approche Neuropsychologique des Apprentissages chez l’Enfant 110 (2010), 353 (355). 38 Carroll, Human cognitive abilities, S. 637. 39 Stumpf, Intelligenz verstehen, S. 39. 40 D. Rost / Sparfeldt, in: Schweer (Hrsg.), Lehrer-Schüler-Interaktion, 315 (323); Stumpf, Intelligenz verstehen, S. 40. 41 Vgl. den hierzu herausgegebenen Testkoffer Jäger / Süß / Beauducel, Berliner Intelligenzstruktur-Test: BIS-Test: Form 4: mit einem separat verwendbaren Kurztest der Allgemeinen Intelligenz und der Verarbeitungskapazität. 42 Stumpf, Intelligenz verstehen, S. 37.

F. Jäger: Berliner Intelligenz-Struktur-Modell

35

gebundene, zahlengebundene sowie die anschauungsgebundene, figural-bildhatte Denkfähigkeit zu Grunde; als inhaltsgebundene Fähigkeiten zieht Jäger Bearbeitungsgeschwindigkeit, Merkfähigkeit, Einfallsreichtum sowie geistige Verarbeitungskapazität des Einzelnen heran.43 Diese sieben Faktoren sind nicht getrennt voneinander zu betrachten, sondern ermöglichen nur in Kombination untereinander eine Aussage über die Intelligenz eines Menschen. „g“ Allgemeine Intelligenz

AT IO

K

OP

ER

K

TE AL

NE

N

K

INH

K

K

K

K Leistungen K

Figuralbild- K haft Verbal

K

K

Numerisch

K

K

Bearbeitungsgeschwindigkeit Merkfähigkeit

Einfallsreichtum

K Verarbeitungskapazität

Abbildung 6: Berliner Intelligenz-Struktur-Modell nach Jäger44

Werden alle Werte in einer Gesamtschau beleuchtet, kommt Jägers Modell zu einem mit dem g-Faktor von Spearman vergleichbaren Ergebnis; die direkte Korrelation aller einzelnen Werte untereinander grenzt Jägers Theorie deutlich von 43

Krampen, Report Psychologie 1998, 750 (753). Jäger, Berliner Intelligenzstrukturtest für Jugendliche: Begabungs- und Hochbegabungsdiagnostik, S. 19. 44

36

Kap. 3: Intelligenztheorien

Thurstones Primärfaktoren der Intelligenz ab, welche jeweils nur aufgabenspezifisch zur Anwendung gelangen.45

G. Guilford: Würfelmodell Guilfords Würfelmodell stellt, ähnlich dem Berliner Intelligenz-Struktur-Modell, ein mehrdimensionales Würfelmodell dar. Nach dieser Theorie setzt sich Intelligenz aus drei Dimensionsebenen (Content, Operation und Product) zusammen, welche ihrerseits Unterkategorien bestimmter Intelligenzmerkmale aufweisen. Jede intellektuelle Leistung bildet eine Kombination aus den Inhalten dieser drei Dimensionen und stellt ein Würfelfeld im Sinne einer umrissenen kognitiven Fähigkeit dar.46 OPERATION: Evaluation Convergent production Divergent production Memory Cognition

F

S

M

B

Units

U

PRODUCT

Classes

C

Relations

R

Systems

S

Transformations

T

Implications

I

CONTENT: Figural Symbolic Semantic Behavioral

C

M

D

N

E

Abbildung 7: Würfelmodell nach Guilford47

Auch wenn das Modell – so wie hier – in der Literatur noch regelmäßige Erwähnung findet, konnte sich das Modell letztendlich in der Intelligenzforschung nicht 45

Stumpf, Intelligenz verstehen, S. 38. Kiese-Himmel / Christiane, Sprache Stimme Gehör 36 (2012), e41-e46 (e42). 47 Guilford / Joy Paul, The nature of human intelligence. 46

I. Fazit

37

durchsetzen48, da eine befriedigende Korrelation zwischen den theoretischen Überlegungen mit den empirischen Ergebnissen nicht zu treffen war. Eine strikte Unabhängigkeit der einzelnen Intelligenzfaktoren wird in der Literatur als nicht plausibel angesehen, da sich vielfach eine Interkorrelation der Faktoren zeigen lässt.49

H. Gardner: Theorie der Multiplen Intelligenzen Ebenfalls als wissenschaftlich wenig überzeugend wird Gardners „Theory of multiple inteligences“50 angesehen. Es wird die Theorie vertreten, dass es mehrere, voneinander unabhängige, menschliche Intelligenzen gäbe. Darunter zählen die logisch-mathematische, sprachliche, naturkundliche, musikalisch-rhythmische, visuell-räumliche, körperlich-kinästhetische, sozial-interpersonale sowie sozialintrapersonale Intelligenz51; zwischenzeitlich wurden diese sieben Intelligenzen durch eine achte – naturalistische52 – und achteinhalbte – existenzielle53 – Intelligenz erweitert. Gardners Intelligenztheorie stößt weitgehend auf Ablehnung, da es sich bis auf die ersten vier Intelligenzen um reine Spekulationen handelt, die wissenschaftlich bisher nicht nachgewiesen wurden.54 Stumpf / Perleth gehen sogar so weit, dass Gardners Theorie – insbesondere durch die neueren Ausweitungen – „wissenschaftlich nicht mehr ganz ernst genommen werden kann“55.

I. Fazit Zusammenfassend lässt sich festhalten, dass folgende Merkmale der Intelligenz wohl als allen Theorien immanent zu beurteilen sind56: – abstraktes Denken – logisches Schlussfolgern – Problemlösungsfähigkeiten – Kapazität zur Wissensaneignung – Gedächtnis 48

E. Stern / Neubauer, Psychologische Rundschau 67 (2016), 15 (18 f.). Stumpf / Perleth, in: Urhahne / Dresel / Fischer (Hrsg.), Psychologie für den Lehrberuf, 165 (170). 50 Gardner, Frames of Mind. 51 Kiese-Himmel / Christiane, Sprache Stimme Gehör 36 (2012), e41-e46 (e42). 52 Torff / Gardner, in: Anderson (Hrsg.), The Development of Intelligence, 139. 53 Gardner, Intelligence Reframed: Multiple Intelligences for the 21st Century. 54 D. Rost, in: D. Rost (Hrsg.), Hochbegabte und hochleistende Jugendliche, 1 (26 f.). 55 Stumpf / Perleth, in: Urhahne / Dresel / Fischer (Hrsg.), Psychologie für den Lehrberuf, 165 (170). 56 Stumpf, Intelligenz verstehen, S. 15. 49

38

Kap. 3: Intelligenztheorien

Eine im Jahr 1987 durchgeführte Befragung von 615 ausgewiesenen Experten aus dem Fachbereich der Psychologie und Intelligenzforschung in Bezug auf die Wesensmerkmale der Intelligenz und der Sinnhaftigkeit von IQ-Tests bestimmt diese Kernelemente als jene der für die Intelligenz als wesensgebende Eigenschaften. Weitgehend einstimmig werden abstraktes Denken und logisches Schlussfolgern von 99,3 %, das Vorhandensein von Problemlösungsfähigkeiten von 97,7 %, die Kapazität zur Wissensaneignung von 96 % und ein gutes Gedächtnis von 80,5 % der Befragten als wichtige Elemente der Intelligenz angesehen57 und auch in der neueren Literatur für zutreffend erachtet58. Diese Kernelemente menschlicher Intelligenz sollten daher, wenn auch erst mit fortschreitender Entwicklung und steigender Rechenleistung, der Künstlichen Intelligenz als Ziel zu Grunde gelegt werden und als Kennzeichen einer starken KI dienen.

57 58

Snyderman / Rothman, American Psychologist 42 (1987), 137 (140). D. Rost / Sparfeldt, in: Schweer (Hrsg.), Lehrer-Schüler-Interaktion, 315 (318).

Kapitel 4

Künstliche Intelligenz A. Geschichtlicher Überblick Die moderne Geschichte Künstlicher Intelligenz geht langläufig auf den Antrag zur Förderung für das „Dartmouth Summer Research Project on Artificial Intelligence“ aus dem Jahr 1955 zurück.1 Das hochgesteckte Ziel des Projekts war es, innerhalb eines kurzen Zeitraumes von zwei Monaten mittels zehn Forschern eine Studie zur Künstlichen Intelligenz durchzuführen. Ausgangspunkt war die These, „dass alle Aspekte des Lernens oder jegliches Merkmal der Intelligenz so beschrieben werden können, dass eine Maschine dazu gebracht werden kann, dies zu simulieren.“2 Die Markierung dieses Zeitpunkts als die Geburtsstande der Künstlichen Intelligenz ist insofern richtig, als dass die Begrifflichkeit „Artificial Intelligence“ in diesem Zusammenhang durch die Dartmouth-Konferenz geprägt wurde. Bereits 1943, und damit ein gutes Jahrzehnt vor Dartmouth, definierten Warren McCulloch und Walter Pitts ein, heute unter dem Namen McCulloch-PittsZelle bekanntes und in der Neuroinformatik verwendetes3, einfaches, auf binären Signalen basierendes, Neuronenmodell.4 Alan Turing, einer der Vorreiter der frühen Informatik, stellte im Jahr 1950 in seinem viel beachteten Aufsatz ‚Computing Machinery And Intelligence‘ die Frage „Can machines think?“5 auf. Die entfachte Euphorie und die Vorstellung, Künstliche Intelligenz innerhalb weniger Jahre zu entwickeln, konnte jedoch mit den Rechenleistungen der frühen Jahre nicht erfüllt werden. In den 1970er Jahren stagnierte die Entwicklung zusehends und leitete einen ersten „KI-Winter“ ein.6 Erst ab dem Jahr 2000, begünstigt durch die Verfügbarkeit leistungsstärkerer Hardware und den Anfängen von Big Data, konnten moderne Künstliche Neuronale Netzwerke verwirklicht werden, welche die derzeitige Künstliche Intelligenz prägen.7 1

McCarthy / Minsky / Rochester, Nathaniel, Shannon, Claude E., AI Magazine 27 (2006), 12. Eigene Übersetzung, original Text: The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it, McCarthy / Minsky / Rochester, Nathaniel, Shannon, Claude E., AI Magazine 27 (2006), 12 (12). 3 Copony, Dynamisches Verhalten in Neuronalen Netzen, S. 1–16, S. 12. 4 McCulloch / Pitts, Bulletin of Mathematical Biophysis 5 (1943), 115. 5 Turing, Mind, New Series 59 (1950), 433 (433). 6 Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 9. 7 Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 10. 2

40

Kap. 4: Künstliche Intelligenz

B. Definition Künstliche Intelligenz Eine nationale oder international einheitliche Normierung des Begriffs der Künstlichen Intelligenz in einer umfassenden Form steht zu diesem Zeitpunkt noch aus.8 Fälschlicherweise wird der Begriff der Künstlichen Intelligenz häufig mit der Begrifflichkeit Big Data gleichgesetzt. Auch wenn Künstliche Intelligenzen in der Regel auf Big-Data-Analysen zurückgreifen, sollte nicht jedes Verfahren, welches versucht Wertigkeiten und Ergebnisse aus Datensätzen zu aggregieren, mit dem Schlagwort Big Data betitelt werden, ohne definitorische Grenzen zu ziehen.9 Die Norm ISO / IEC 2382:2015: Information technology – Vocabulary beschreibt Künstliche Intelligenz als „capability of a functional unit to perform functions that are generally associated with human intelligence such as reasoning and learning“. Diese Definition an sich ist eine rein technisch orientierte. Mangelsdorf gibt insbesondere zu bedenken, dass eine umfassende Normierung neben technischen Gesichtspunkten der Terminologie insbesondere Aussagen zur Interoperabilität, Sicherheit und Qualität sowie ethischen Standards getroffen werden sollten.10 Ähnlich der Definition der vorgenannten ISO-Norm definiert der Bitkom e. V. „Künstliche Intelligenz [als] die Eigenschaft eines IT-Systems, ‚menschenähn­ liche‘, intelligente Verhaltensweisen zu zeigen“11 Auf europäischer Ebene hat die Europäische Kommission im Jahr 2018 im Rahmen ihrer Kommunikation „Künstliche Intelligenz für Europa“ folgende Definition für dienlich erachtet: „Künstliche Intelligenz (KI) bezeichnet Systeme mit einem ‚intelligenten‘ Verhalten, die ihre Umgebung analysieren und mit einem gewissen Grad an Autonomie handeln, um bestimmte Ziele zu erreichen. KI-basierte Systeme können rein softwaregestützt in einer virtuellen Umgebung arbeiten (z. B. Sprachassistenten, Bildanalysesoftware, Suchmaschinen, Sprachund Gesichtserkennungssysteme), aber auch in Hardware-Systeme eingebettet sein (z. B. moderne Roboter, autonome Pkw, Drohnen oder Anwendungen des ‚Internet der Dinge‘)“12

Ist diese Definition Künstlicher Intelligenz bereits sehr umfassend, beschränkt sich der wirkliche Informationsgewinn nur darauf, dass sowohl Software als auch Hardware basierte Systeme unter diese Definition zu fassen sind. Das konkrete Verfahren, welches einem „intelligenten Verhalten“ zu Grunde liegt, wird allerdings nicht näher definiert. Daher ist die verfeinerte Definition der High Level Expert Group on Artificial Intelligence (AI HLEG) vorzugswürdig: 8

Freyler, NZA 2020, 284. Barocas / Rosenblat / Boyd u. a., Data & Civil Rights: Technology Primer, 2014, S. 1 f. 10 Mangelsdorf, in: Wittpahl (Hrsg.), Künstliche Intelligenz, 48 (53). 11 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 14. 12 Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Künstliche Intelligenz für Europa, 2018, S. 1. 9

B. Definition Künstliche Intelligenz

41

„Artificial intelligence (AI) systems are software (and possibly also hardware)  systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behaviour by analysing how the environment is affected by their previous actions. As a scientific discipline, AI includes several approaches and techniques, such as machine learning (of which deep learning and reinforcement learning are specific examples), machine reasoning (which includes planning, scheduling, knowledge representation and reasoning, search, and optimization), and robotics (which includes control, perception, sensors and actuators, as well as the integration of all other techniques into cyber-physical systems).“13

Im Gegensatz zur vorhergehenden Definition wird die hinter Künstlicher Intelligenz stehende Technik mit umfasst, ist jedoch diesbezüglich offen genug gehalten, um neuere technische Entwicklungen mit zu erfassen. Eine deutliche und nicht zukunftsorientierte Einschränkung trifft die HLEG allerdings mit der Beschränkung auf Systeme, die von Menschen entworfen worden sind. Nicht nur ist es denkbar, dass sich eine Künstliche Intelligenz im laufenden Betrieb selbst derart auf der Ebene des Programmcodes umgestaltet, dass von einem „menschlichen Design“ schwerlich auszugehen sein wird, vielmehr können in der Zukunft Systeme entstehen, die komplett durch eine andere KI – ohne weiteren Einfluss menschlichen Schaffens – entwickelt wurden. Es wird daher vorgeschlagen, die Definition der HLEG dahingehend zu öffnen und die Passage „designed by humans“ zu streichen, um eine technologieoffene und -neutrale Definition zu erhalten. In diesem Bezug äußert sich die EU Kommission in ihrem Whitepaper betreffend Künstlicher Intelligenz bisher noch zurückhaltend und spricht KI zwar die Möglichkeit autonomen Handelns zu, welches jedoch weiterhin stark durch die Determinierung des menschengemachten Softwarecodes geprägt sei.14 Auf nationaler Ebene hat sich die Datenethikkommission in ihrem 2019 erschienen Gutachten15 umfassend mit der Thematik der ethischen Gesichtspunkte neuartiger datenbasierter Technologien, unter anderem auch der Künstlichen Intelligenz, auseinandergesetzt. Als Arbeitsdefinition versteht die Datenethikkommission Künstliche Intelligenz als „Sammelbegriff für diejenigen Technologien und ihre Anwendungen, die durch digitale Methoden auf der Grundlage potenziell sehr großer und heterogener Datensätze in einem komplexen und die menschliche Intelligenz gleichsam nachahmenden maschinellen Verarbeitungsprozess ein Ergebnis ermitteln, das ggf. automatisiert zur Anwendung gebracht wird. Die wich 13 High-Level Expert Group on Artificial Intelligence, A definition of AI: Main capabilities and disciplines, 2019, S. 6. 14 Europäische Kommission, White Paper, On Artificial Intelligence – A European approach to excellence and trust, 2020, S. 16. 15 Datenethikkommission der Bundesregierung, Gutachten der Datenethikkommission, 2019.

42

Kap. 4: Künstliche Intelligenz

tigsten Grundlagen für KI als Teilgebiet der Informatik sind die subsymbolische Mustererkennung, das maschinelle Lernen, die computergerechte Wissensrepräsentation und die Wissensverarbeitung, welche Methoden der heuristischen Suche, der Inferenz und der Handlungsplanung umfasst.“16 Auch die Datenethikkommission vermeidet es, den Begriff der menschlichen Schöpfung der vollständigen Künstlichen Intelligenz in die Begriffsbestimmung aufzunehmen und wählt eine technologieneutrale Definition, welche für zukünftige Entwicklungen starker und hochautonomer Systeme definitorischen Raum lässt.17

C. Arten Künstlicher Intelligenz Der Arbeit werden drei Stadien der Künstlichen Intelligenz zu Grunde gelegt – schwache KI, starke KI und die Superintelligenz. Der deutliche Fokus wird auf die zwei erstgenannten Ausprägungen gelegt, die Superintelligenz wird nur der Vollständigkeit halber kurz vorgestellt, bleibt ansonsten jedoch als derzeit faktischer Homunkulus unberücksichtigt.

I. Schwache KI Als schwache KI werden Systeme bezeichnet, welche eine Mensch-MaschineInteraktion und Zusammenarbeit ermöglichen und den Menschen bei der Erreichung seiner Ziele unterstützen.18 Ein wirkliches eigenständiges und unabhängiges Denken der Maschine findet in dieser Implementierungsvariante gerade nicht statt. Ein Beispiel stellen hierbei insbesondere derzeitige Sprachassistenten dar.

II. Starke KI Starke KI hingegen beschreibt einen Zustand, an welchem das jeweilige ITSystem in der Lage ist, eigenständige und mit der menschlichen Intelligenz vergleichbare bzw. diese sogar übertreffende Überlegungen und Entscheidungen zu treffen.19 Zum derzeitigen Zeitpunkt sind derartige Systeme noch nicht realisiert

16 Datenethikkommission der Bundesregierung, Gutachten der Datenethikkommission, 2019, S. 34. 17 Datenethikkommission der Bundesregierung, Gutachten der Datenethikkommission, 2019, S. 34. 18 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 15. 19 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 31.

D. Big Data

43

worden. Starke Stimmen in der Wissenschaft gehen jedoch davon aus, dass es zukünftig möglich sein wird, selbstdenkende künstliche Systeme zu entwickeln und Maschinen in der Lage sein werden, Logik, vergleichbar der eines Menschen, zu erlernen.20 Müller / Bostrom befragten hierzu in einer Studie 550 auf dem Gebiet Künstlicher Intelligenz tätige Forscher, nach deren Überzeugung, ob eine menschenähnliche Künstliche Intelligenz bei einem abzusehenden gleichbleibenden Forschungsfortgang in den Jahren 2040–2050 zu erwarten sei.21 Abzulehnende Meinungen hingegen gehen davon aus, dass Maschinen zu keiner eigenen Gedankenfindung fähig sind und dies auch auf absehbare Zeit nicht der Fall sein wird.22 Dieser ablehnenden Auffassung wird in der Arbeit nicht gefolgt werden. Es kann nicht überzeugen, dass es Maschinen schlechterdings abgesprochen werden kann, selbstständig zu Ergebnissen zu gelangen, sofern der Blick von einer starr menschlich zentrierten Sichtweise gelockert wird.

III. Superintelligenz Nach bisherigem Forschungsstand stark an Science-Fiction anmutend ist das Konstrukt einer Singularität bzw. Superintelligenz. Unter einer solchen ist ein Intellekt zu verstehen, der die menschlichen Fähigkeiten bei weitem übersteigt und auf jeglichen Feldern, sei es Wissenschaft, Kreativität, generellem Verständnis oder sozialen Fähigkeiten, weit überlegen ist.23 Auch hier variieren die Einschätzungen, ob überhaupt (ablehnend wohl z. B. Bitkom e. V.24) und falls ja wann, eine derartige Superintelligenz zu erwarten ist.

D. Big Data Das Phänomen Big Data ist spätestens seit der Verbreitung internetfähiger Geräte und dem Vormarsch des Internet of Things (IoT) in aller Munde. Eine genaue Festlegung, was unter diesem Begriff zu fassen ist, lässt sich auf Grund der Vielschichtigkeit seiner Erscheinungsformen schwerlich treffen; es handelt sich weder um eine genormte Technologie noch ein Geschäftsmodell.25 Hierunter ist vielmehr

20 Sakama / Inoue, in: Bieger / Goertzel / Potapov (Hrsg.), Artificial General Intelligence, 341 (350). 21 Müller / Bostrom, in: Müller (Hrsg.), Fundamental Issues of Artificial Intelligence, 555 (569). 22 Kaplan, Communications Of The ACM 60 (2017), 36 (37). 23 Bostrom, How Long Before Superintelligence?, https://nickbostrom.com/superintelligence. html (Stand: 27. 09. 2020). 24 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 31. 25 Dorschel / Dorschel, 1.2 S. 5.

44

Kap. 4: Künstliche Intelligenz

eine Bündelung neuer Methoden und Technologien zur Erfassung, Speicherung und Auswertung eines beliebig großen und erweiterbaren Datensatzes zu verstehen.26 Das Ziel einer solchen Big Data Analyse ist die Sichtbarmachung neuer Zusammenhänge und Verbindungen innerhalb des Datensatzes27, welche Grundlage für Prognosen und Entscheidungen in unterschiedlichsten Anwendungsszenarien darstellen können.28 Big Data Analysen basieren auf den vier Hauptmerkmalen: Volume, Velocity, Variety und Veracity.29

I. Volume Ausgangspunkt einer jedweden Big-Data-Analyse ist, wie bereits die Nomenklatur erwarten lässt, ein auswertbarer Datensatz. Je größer dieser ist, desto belastbarere Aussagen lassen sich aus diesem potenziell gewinnen. Der Begriff „Volume“ beschreibt diese Datensatzgröße.30 Sprachassistenten erheben differenzierte Datenkategorien, welche beispielsweise von biometrischen Daten, Gesundheitsdaten, Geschäftsdaten bis hin zu Informationen der mit dem Gerät verbundenen IoT-Geräten reicht. Big Data Analysen eignen sich dazu, diese verschiedenen Datenvolumen zu verknüpfen und Korrelationen zu bilden.31 Kann eine große Menge an Daten einen guten Ausgangspunkt für nachfolgende Analysen bilden, ist dies alleine kein Garant für die Erzielung des gewünschten Ergebnisses; die steigende Anzahl an auszuwertenden Daten stellt den Verarbeiter auch vor erhebliche Probleme, passende algorithmische Operationen auf diese anzuwenden.32 Durch die Digitalisierung werden ehemals analog verfügbare Informationen standardisierbar und computerkompatibel, weswegen auch die komplexesten Daten Eingang in das Volumen eines Big-Data-Systems finden können.33

II. Velocity Das Merkmal der „Velocity“ findet in der Literatur in Bezug auf Big Data verschiedene Bedeutungen. So kann hierunter zum einen verstanden werden, dass Daten immer schneller anfallen und auf Grund dessen nur eine kurze Halbwertszeit 26 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 8. 27 Niklas / T hurn, BB 2017, 1589. 28 Vgl. für eine umfassende Darstellung verschiedener Einsatzbereiche Bitkom e. V., Big Data und Geschäftsmodell-Innovationen in der Praxis: 40+ Beispiele, 2015, 23 ff. 29 Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (524). 30 Culik / Döpke, ZD 2017, 226 (227). 31 Al-Salim / Ali / L awey u. a., in: Marciniak (Hrsg.), 18th International Conference on Transparent Optical Networks (ICTON), 1 (1). 32 Shneiderman / Plaisant, IEEE Comput Graph Appl 35 (2015), 10 (10). 33 Boehme-Neßler, DuD 2016, 419 (421).

D. Big Data

45

der monetären Verwertbarkeit aufweisen34, da neuere Daten gegenüber den älteren eine höhere Aussagekraft mit sich bringen.35 King hingegen erblickt in der Velocity die Geschwindigkeit, mit der Daten produziert und verändert werden müssen36, Bendler et. al. verstehen darunter eher die Geschwindigkeit, mit welcher Daten seitens des Big Data Anwenders verarbeitet werden müssen.37 Allen Annahmen zu gleich ist die enge Wechselbeziehung zwischen Volume und Velocity: je schneller die Rechengeschwindigkeit, desto größere Datensätze können ausgewertet werden und je mehr und neuere Daten aufgenommen werden, desto kürzer ist deren Zeitraum der wirtschaftlichen Verwertbarkeit.38

III. Variety „Variety“ im Kontext von Big Data stellt eines der herausforderndsten Merkmale für das Datenverarbeitungssystem dar. Aufgabe eines funktionalen Systems ist es, Daten verschiedenster Dateiformate – Text, Sprache, Video – und Strukturierungsgrade – Daten können entweder strukturiert, semistrukturiert oder unstrukturiert vorliegen – zu verarbeiten.39 Verfolgte Zielsetzung hierbei ist, dass das Computersystem die Daten weitgehend selbstständig und ohne Eingriff von außen verstehen und sinnvoll interpretieren kann.40 Eine besondere Herausforderung stellen Sprachassistenten dar. Nicht nur hat das der Künstlichen Intelligenz zu Grunde gelegte Big Data System menschliche Sprache möglichst in Echtzeit auszuwerten, es kommen viel mehr oftmals zahlreiche Daten von verbunden IoT-Geräten hinzu. Der Sprachassistent muss folglich Daten einer Vielzahl von Sensoren auswerten und diese in seine Entscheidungsfindung so integrieren, dass ein Mehrwert für die zu treffenden Erkenntnisse und Antworten geschaffen wird.41

IV. Veracity Neben den drei ursprünglichen42 „3 Vs“ Volume, Velocity und Variety, wurde seitens der Literatur nunmehr auch die Eigenschaft der Veracity der Daten im Rahmen der V-Dimensionen anerkannt.43 Mit Hilfe dieser sollen der Grad der Doppeldeutigkeit bzw. mögliche Unklarheiten des Ergebnisses abgeschwächt 34

Fasel, HMD Praxis der Wirtschaftsinformatik 2014, 386 (389). Weck / Fetzer, NZKart 2019, 588 (588). 36 King, Big Data, S. 35. 37 Bendler / Sebastian Wagner / T. Brandt u. a., Business & Information Systems Engineering 6 (2014), 279 (279). 38 Dorschel / Dorschel, 1.2 S. 7. 39 Arora, Data Management Solutions for Tackling Big Data Variety, S. 1. 40 Dorschel / Dorschel, 1.2 S. 8. 41 Arora, Data Management Solutions for Tackling Big Data Variety, S. 4. 42 Drexl, jipitec 2017, 257 (264). 43 Copland-Cale, CCZ 2016, 281 (282). 35

46

Kap. 4: Künstliche Intelligenz

werden.44 Bezogen sich die vorhergehenden Dimensionen auf messbare Bezugspunkte, gestaltet sich die Bestimmung der Veracity schwieriger. Ausgangspunkt ist, dass eine Big-Data-Analyse nur dann verlässlich ist, wenn die der Auswertung zu Grunde gelegten Daten richtig sind. Da sich keine genauen Abgrenzungskriterien der Richtigkeit eines Datums ziehen lassen, schlagen Rubin / Lukoianova vor, auf die Paradigmen der Objektivität, Richtigkeit und Glaubwürdigkeit der Daten als Bewertungskriterien abzustellen.45 Sprachassistenten stehen in Anbetracht der Wahrhaftigkeit der Daten insbesondere bei den auszuwertenden Sprachdaten vor der Problematik, dass die nutzergenerierten Daten von den subjektiven Empfindungen des Verwenders und nicht rein objektiven Tatsachen geprägt sind.46 Um diesen Bias auszugleichen, müssen dem Big Data Netzwerk eine ausreichende Zahl an sog. „Ground Truth Daten“ zur Verfügung stehen, mit welchen die neu eingehenden Daten auf ihre Veracity validiert werden können; je kleiner die Anzahl der verfügbaren objektiv richtigen Validierungsdaten sind, desto eher wird dieses Ergebnis verzerrt und der Big-Data-Datensatz möglicherweise entwertet.47

E. Machine Learning Zentraler technischer Kernpunkt einer funktionalen KI ist der Bereich des maschinellen Lernens (Machine Learning, ML), da eine Zusammenstellung und Aufbereitung großer Datensammlungen im Rahmen des Big Data für das sachgerechte Funktionieren einer Künstlichen Intelligenz unentbehrlich ist. Ein allumfassender Begriff des Lernens soll an dieser Stelle nicht gegeben werden, vielmehr wird auf die Definition des Brockhaus als Anhaltspunkt zurückgegriffen: „der Begriff [Lernen] umfasst alle individuellen, relativ dauerhaften Veränderungen des Verhaltens und Erlebens, die auf Erfahrung beruhen.“48

Unter maschinellem Lernen im Sinne dieser Arbeit soll eine Künstliche Intelligenz verstanden werden, die in „bestehenden Daten Muster erkennt und diese Erkenntnisse anschließend auf neue Daten anwendet“49. Zweck des maschinellen Lernens ist die Verankerung neuer Wissenselemente aus trainierter Erfahrung und

44 Pasha / L atha, in: R. Silhavy / P. Silhavy / Prokopova (Hrsg.), Intelligent Systems Applications in Software Engineering, 69 (70). 45 Rubin / Lukoianova, Advances In Classification Research Online 24 (2014), 4 (7). 46 Dorschel / Dorschel, 1.2 S. 8. 47 Berti-Equille, in: Ho (Hrsg.), 2015 IEEE International Conference on Big Data, 2628 (2634). 48 Brockhaus Enzyklopädie Online, Lernen, https://brockhaus.de/ecs/permalink/DFCAC 4CA44C36F06DDDF2B8BEE22C5A3.pdf (Stand: 27. 09. 2020). 49 Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Künstliche Intelligenz für Europa, 2018, S. 11.

E. Machine Learning

47

die algorithmische Generierung eines komplexen Modells von Zusammenhängen.50 Das Besondere an dieser Konstellation ist, dass der Algorithmus nicht in seiner Gänze durch menschliche Hand determiniert ist, sondern die Technik selbst für eine Anpassung des Codes im Zuge des maschinellen Lernens sorgt.51

I. Künstliche Neuronale Netzwerke 1. Funktionsweise organischer Neuronaler Netzwerke Das menschliche Gehirn ist ohne Zweifel eines der komplexesten Organe des menschlichen Körpers und ist als Schaltzentrale für die Steuerung der wesentlichen Funktionen des Körpers zuständig. Nicht ohne Grund stellt beispielsweise eine Entnahme von Organen nach dem Transplantationsgesetz (TPG) nicht mehr auf den Herztod ab, sondern verfolgt vielmehr das Gesamthirntodkonzept; ein Mensch gilt demnach nur als verstorben, sofern die Gesamtfunktionen des Großhirns, des Kleinhirns und des Hirnstamms irreversibel erloschen sind.52 An dieser Stelle soll ein knapper und vereinfachter Überblick über die Funktionsweise des menschlichen Gehirns gegeben werden, um die nachfolgenden Ausführungen der Modellierung eines Künstlichen Neuronalen Netzwerks zu versinnbildlichen. Für die Funktionsfähigkeit des menschlichen Gehirns sind unter anderem die Zelltypen der Neuronen und Gliazellen verantwortlich. Gliazellen ernähren und unterstützen hierbei benachbarte Neuronen, welche ihrerseits für die Wahrnehmung der Umgebungsveränderung zuständig sind, diese Informationen an andere Neuronen weitergeben und so eine körperliche Aktion bzw. Reaktion auslösen.53 Das Gehirn eines erwachsenen Menschen besteht nach derzeitigem Stand der Wissenschaft aus ungefähr 86 Milliarden Neuronen bzw. Nervenzellen54, welche ihrerseits aus einem Zellkörper (Soma, enthält den Zellkern), vom Zellkörper abgehenden Dendriten (zuständig für den Empfang neuronaler Impulse), dem Axon (Aussendung neuronaler Impulse) sowie den Axonendigungen (zuständig für die Synapsenbildung mit anderen Neuronen innerhalb des Zentralnervensystems sowie mit Muskelzellen und Epithelzellen von Hormondrüsen) bestehen (vgl. Abbildung 8). Zuständig für die neuronalen Funktionen des Gehirns sind die in Form interneuraler Synapsen zwischen verschiedenen Neuronen gebildeten Verknüpfungen, welche ein neuronales Netzwerk bilden. Eine Synapse besteht sowohl aus einer präsynaptischen als auch einer postsynaptischen Seite; die präsynaptische Seite

50 Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 8; Kirn / Müller-Hengstenberg, MMR 2014, 225 (229). 51 Specht, GRUR 2019, 253 (253). 52 MüKoStGB / Tag, § 3 TPG Rn. 16. 53 Bear / Connors / Paradiso, Neurowissenschaften, S. 26. 54 Herculano-Houzel, Frontiers in Human Neuroscience 3 (2009), 1 (4).

48

Kap. 4: Künstliche Intelligenz

Abbildung 8: Darstellung eines Neurons55

stellt hierbei in der Regel ein Synapsenendknöpfchen dar, wohingegen die postsynaptische Seite meist der Dendrit (axo-dendritische Synapse)  oder das Soma (axo-somatische Synapse) eines zweiten Neurons darstellt56 (Abb. 9a, 9b). Daneben finden sich auch axo-axonale Synapsen (Abb. 9c) mit modulierender Funktion meist im Sinne einer präsynaptischen Hemmung, bei der im Zentralnervensystem eine präsynaptische Nervenendigung durch ein anderes Neuron gehemmt wird. Die Kommunikation zwischen den Synapsen findet sowohl in elektrischer als auch chemischer Weise statt. Innerhalb eines Neurons werden Informationen durch elektrische Impulse entlang des Axons weitergegeben, welche an der präsynaptischen Membran in chemische Neurotransmitter umgewandelt werden, den synaptischen Spalt zwischen den Neuronen überqueren und an der postsynaptischen Membran seitens des empfangenden Neurons wieder in elektronische Signale übersetzt und

55

Universität Stuttgart, Nervenzelle (Neuron), https://www2.ims.uni-stuttgart.de/sgtutorial/ graphic/neuron.gif (Stand: 27. 09. 2020). 56 Bear / Connors / Paradiso, Neurowissenschaften, S. 44.

E. Machine Learning

49

weitergeleitet werden.57 Unterschiedliche Neurotransmitter können dabei entweder erregungssteigernd oder erregungshemmend wirken.

Abbildung 9: Synaptische Verschaltungen im zentralen Nervensystem58

An den Dendriten der Nervenzelle ankommende erregungsfördernde Signale erhöhen, vereinfacht gesagt, den Erregungszustand der Nervenzelle und erzeugen das Aktionspotential. Ist eine bestimmte Schwelle überschritten (vergleichbar mit dem Binärcode 1/0 bzw. wahr / falsch), löst das Neuron aus und gibt diese positive Ladung entlang des Axons weiter, wo die Signale wiederrum über die Synapsen am Ende des Axons an nachfolgende Nervenzellen weitergeben werden.59 Bildlich dargestellt: Bei einem Schnitt in den Finger reagieren die sensorischen Nervenenden auf die Verletzung, geben diese Informationen entlang des Axons an andere Neuronen weiter, am Ende führt dies zum einen zu einem Schmerzempfinden und zum anderen eventuell zu einer motorischen Reaktion. Im Gegensatz dazu vermindern erregungshemmende Neurotransmitter den Erregungszustand einer Nervenzelle, indem sie die Auslösung von Aktionspotentialen erschweren. Die Komplexität der zentralnervösen Verschaltungen sowie die nervalen Verbindungen zu allen Organen und Geweben garantieren letztlich die Funktion des Gesamt­ organismus.

57

Bear / Connors / Paradiso, Neurowissenschaften, S. 44. Bear / Connors / Paradiso, Neurowissenschaften, S. 124. 59 Bear / Connors / Paradiso, Neurowissenschaften, S. 113. 58

50

Kap. 4: Künstliche Intelligenz

2. Funktionsweise Künstlicher Neuronaler Netzwerke Künstliche Neuronale Netzwerke (KNN) stehen vor der Aufgabe, ähnlich dem menschlichen Gehirn, komplexe Muster zu analysieren, zu erkennen und hieraus logische Schlüsse zu ziehen. Ein Sprachassistent muss bei der Eingabe „Setze einen Frisörtermin am 15.01. um 12:30!“ erkennen, dass vier Parameter (Termin, Grund, Tag und Zeit) sinngemäß auszuführen sind und beispielsweise nicht von ihm verlangt wird, eine bloße Notiz anzufertigen. Zentrale Elemente eines KNNs sind hierbei, wenig überraschend, digitale Neuronen, welche als Verarbeitungseinheiten Informationen aufnehmen und aus diesen wiederum eine eigene Ausgabe generieren, indem sie die Eingangsinformationen zu einer Aktivierung umformen60 und sich somit an der Struktur des menschlichen Gehirns zumindest grundsätzlich orientieren.61 Anders als vielfach angenommen, baut ein KNN nicht das menschliche Gehirn elektronisch nach, sondern stellt ein statistisches Verfahren dar, in dem ein computergestütztes System Nervenzellen durch Knotenpunkte, welche als künstliche Neuronen bezeichnet werden62, simuliert, welche in verschiedenen Schichten aufgebaut sind.63 Diese Schichten können ihrer Aufgabe nach drei unterschiedlichen Kategorien zugeordnet werden: Eingabe-, Ausgabe- und verborgene Einheit.64 Vergleiche hierzu Abbildung 10.

Eingabeschicht

verborgene Schicht

Ausgabeschicht

Abbildung 10: Bildliche Darstellung eines einfachen neuronalen Netzwerks mit drei Schichten65 60

Mursina, Medizintechnik 2010, 96 (97). Hartmann / Prinz, WRP 2018, 1431 (1432). 62 Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 11. 63 Ramge, Mensch und Maschine, S. 46. 64 Mursina, Medizintechnik 2010, 96 (97). 65 Ehinger / Stiemerling, CR 2018, 761 (762). 61

E. Machine Learning

51

Die verborgene Schicht ist hierbei grundsätzlich optional. Einfache neuronale Netze weisen lediglich eine Eingabe- und Ausgabeschicht auf (sog. singlelayer Netze); komplexere Systeme hingegen können aus einer unbeschränkten Zahl verborgener Schichten (sog. multilayer Netze) aufgebaut sein.66 Wie in Abbildung 10 verdeutlicht, treffen auf ein Neuron mehrere Eingabewerte mit unterschiedlichen Parametern ein. Diese Werte werden, ähnlich des Aktionspotentials menschlicher Neuronen, aufsummiert und durch Anwendung einer Aktivierungsfunktion wird bestimmt, ab welchem Summenwert der eintreffenden Informationen eine Weiterleitung an die nächste Schicht stattfindet. Dieser Vorgang wiederholt sich durch alle Netzschichten hindurch, wobei das Ergebnis der Aktivierungsfunktion der vorausgehenden Schicht den Eingabewert der nachfolgenden Schicht darstellt.67 Als grafische Veranschaulichung vgl. Abbildung 11.

Abbildung 11: Verarbeitung von Informationen in Künstlichen Neuronalen Netzen68

Um zu sinnvollen Ergebnissen zu kommen ist es essentiell, dass die Gewichtung der verschiedenen Parameter in einem KNN richtig gesetzt wird. Erst dann ist es einer KI möglich, einen bestimmten Input – z. B. das Foto eines Hundes – einem entsprechenden Output zuzuordnen, z. B. Tier: Hund. Ein KNN kann diesbezüglich mit einem menschlichen Hirn verglichen werden: Zu Beginn versteht es einige Grundfunktionalitäten, ist ablauffähig, die gewünschte Ergebnisse lassen sich jedoch noch nicht produzieren bzw. reproduzieren. Hierfür ist es nötig, dass 66

Mursina, Medizintechnik 2010, 96 (98). Hartmann / Prinz, WRP 2018, 1431 (1432). 68 Mursina, Medizintechnik 2010, 96 (100). 67

52

Kap. 4: Künstliche Intelligenz

das Netzwerk, ähnliche wie Kleinkinder, mit Informationen und Rückkopplungsmechanismen angelernt werden.

II. Lernmethoden Um Künstliche Neuronale Netzwerke zu trainieren stehen drei Hauptmethoden im Vordergrund. Hierbei handelt es sich um das überwachte Lernen (Supervised Learning), das unüberwachte Lernen (Unsupervised Learning) sowie das bestärkende Lernen (Reinforcment Learning). Für Sprachassistenten wesentlich sind starke KNNs im Bereich der Text- und Sprachverwaltung (sog. Natural Language Processing), welche natürliche Sprache sowohl in Wort als auch Bild sinnvoll auswerten und verarbeiten können.69 1. Deep Learning Deep Learning ist eine Unterkategorie des Maschinellen Lernens und darauf spezialisiert, aus großen Datenmengen Inhalte zu spezifizieren. Oftmals herrscht in der Literatur ein Gleichklang zwischen Künstlicher Intelligenz, Maschinellem Lernen und Deep Learning. Dies ist nicht ganz exakt, da sowohl Machine Learning als auch Deep Learning nur einen Teilbereich des Feldes der Künstlichen Intelligenz darstellen (vgl. Abbildung 12).70 Künstliche Intelligenz

Machine Learning

Deep Learning

Abbildung 12: Bestandteile Künstlicher Intelligenz71 69 Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 13. 70 Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (521 f.). 71 Grafik angelehnt an Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (522).

E. Machine Learning

53

Der Einsatz Neuronaler Netzwerke ist in dieser Lernmethode einer der populärsten Ansätze.72 Die Erschaffung Neuronaler Netzwerke hat die KI-Welt revolutioniert, erlauben sie doch erstmals eine vergleichsweise aufwandsarme Verarbeitung von Datensätzen.73 Deep Learning soll es Maschinen ermöglichen, eigenständig neue Strategien zu erlernen und nach neuen auswertbaren Informationen zu suchen74 – mithin Sprachassistenten das Sehen und Verstehen beibringen.75 Hauptanwendungsbereiche des Deep Learning sind neben der Bildverarbeitung zur Klassifikation und Segmentierung das Transkribieren und Verstehen gesprochener Texte sowie die Erkennung geschriebener Inhalte.76 2. Überwachtes Lernen (Supervised Learning) Ziel des überwachten Lernens ist die Vorhersage eines bestimmten Ergebnisses für ein neues Beispiel anhand einer Anzahl bereits vorhandener Daten, für welche diese Eigenschaft bereits bekannt ist.77 Ein Lernerfolg ist davon abhängig, dass dem KNN wiederholt Beispiele präsentiert werden, deren Sollausgabe bereits vorhanden ist.78 Das überwachte Lernen stellt hierbei die einfachste Variante des maschinellen Lernens dar. Der verantwortliche „Trainer“ gleicht die gegebenen Antworten mit den gewünschten Ergebnissen ab. Hat das KNN eine fehlerhafte Aussage getroffen, erhält es eine negative Rückmeldung die sich auf die Justierung der einzelnen Neuronen in den jeweiligen Schichten auswirkt.79 Ein Sprachassistent wird beispielsweise mit einer bestimmten Anzahl des gesprochenen Wortes „Alexa“ trainiert. Das KNN weiß, dass eine bestimmte bekannte Stimmmodulation des Wortes mit dem Begriff „Alexa“ zu verbinden ist. Sodann wird das System anderen Ausspruchvarianten, Dialekten etc. gegenübergestellt. Erkennt das KNN den Begriff nicht richtig, bewirkt eine Fehlermeldung (sog. Backpropagation-Netze80), dass die Bestimmungskriterien verändert werden und bei einem erneuten Durchlauf eine korrekte Zuordnung erfolgt. Die besten Ergebnisse lassen sich erzielen, wenn die ursprünglichen „Training Sets“ eine zufällige Auswahl darstellen, um nicht unbewusst eine falsche Determination – z. B. nur Audiodateien 72

Burgard, Künstliche Intelligenz, Expertise für das WBGU-Hauptgutachten „Unsere gemeinsame digitale Zukunft“, 2018, S. 8. 73 Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Künstliche Intelligenz für Europa, 2018, S. 12. 74 Europäische Gruppe für Ethik der Naturwissenschaften und der Neuen Technologien, Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen, 2018, S. 6. 75 Keßler, MMR 2017, 589 (590). 76 Wick, Informatik Spektrum 40 (2017), 103 (106). 77 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 96. 78 Schael, DuD 2018, 547 (548). 79 Mursina, Medizintechnik 2010, 96 (101). 80 Kickuth, CLB 54 (2003), 333 (337).

54

Kap. 4: Künstliche Intelligenz

von Sprechern eines bestimmten Gebietes in Deutschland – zu erhalten.81 Dies liegt daran, dass KNNs auch nach erfolgtem Training immer nur eine Annäherung an Wahrscheinlichkeitsverteilungen darstellen; je näher die Trainingsdaten an den „richtigen“ liegen, desto verlässlicher sind die Ergebnisse.82 3. Unüberwachtes Lernen (Unsupervised Learning) Zunehmend lernen KNNs jedoch auch komplett selbstständig und unüberwacht.83 Bei dieser Art des Lernens gibt es keine externen Lehrer, welche Einfluss auf den Vorgang nehmen. Das System versucht, ohne konkrete Vorgaben von außen, die vorgelegten Daten in Ähnlichkeitsklassen einzuordnen.84 Beispiele enthalten keine Labels mit der richtigen Antwort, diese werden seitens des KNNs selbst entdeckt.85 Ein großer Vorteil gegenüber dem überwachten Lernen liegt darin, dass es keines großen Datensatzes für die Optimierung im Vorfeld bedarf; das KNN passt automatisch seine Synapsen an, sodass sich Muster mit fortschreitender Verfeinerung in die Gewichtung einprägen, wodurch auch Muster aus unbekannten Datenflüssen verwertet werden können.86 4. Bestärkendes Lernen (Reinforcement Learning) Bestärkendes Lernen stellt einen Mittelweg zwischen den beiden vorgenannten Lernmethoden dar: Dem KNN wird ein bestimmtes Ziel vorgegeben, das es zu erreichen gilt („überwachtes Lernen“) jedoch gerade nicht, wie dieses zu realisieren ist („unüberwachtes Lernen“).87 Die Künstliche Intelligenz geht bei der Findung des besten Weges in einer dynamischen Umgebung nach dem „trial-and-error“Prinzip vor.88 Bei der Verwirklichung des Ziels erfolgt eine schrittweise Bewertung dadurch, dass die dynamische Umgebung eine Rückmeldung gibt, ob das Vorgehen positiv oder negativ zu bewerten ist, wobei die KI darauf programmiert ist, immer die bestmögliche Rückmeldung zu erhalten.89 Für das Netzwerk stellt sich ein negatives Ergebnis hierbei als Verkleinerung des internen Gewichtungswertes, ein positives als Erhöhung des Wertes dar.90 81

van der Heijden / L ei / Ridder u. a., Classification, parameter estimation, and state estimation, S. 208. 82 Dullien, DuD 2018, 618 (620). 83 Ramge, Mensch und Maschine, S. 48. 84 Kickuth, CLB 54 (2003), 333 (338). 85 Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 8. 86 Feldmann / Pernice, Physik in unserer Zeit 50 (2019), 282 (287). 87 Mainzer, Künstliche Intelligenz – Wann übernehmen die Maschinen?, S. 119. 88 Kaelbling / Littman / Moore, Journal of Artificial Intelligence Research 4 (1996), 237. 89 Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderung, Hauptgutachten, Unsere gemeinsame digitale Zukunft, 2019, S. 77. 90 Mursina, Medizintechnik 2010, 96 (102).

F. Fazit

55

F. Fazit Es zeigt sich, dass das System der Künstlichen Intelligenz grundsätzlich mit der menschlichen Intelligenz vergleichbar ist. Anders als herkömmliche Softwareapplikationen können Künstliche Intelligenzen nicht in Ihrer Gänze vollständig programmiert werden. Ausgangspunkt ist vielmehr ein System, das, je nach verwendeter Lernmethode, die grundsätzliche Möglichkeit besitzt, sich in bestimmten Bahnen selbst weiter zu entwickeln. Die weitere Ausformung der Künstlichen Intelligenz ist in starkem Maße, ähnlich der Entwicklung eines Menschen, davon abhängig, mit welchen Daten das System konfrontiert wird. Jeder eingegebene Datensatz hat die Möglichkeit, die Künstliche Intelligenz granular zu verändern. Dies unterscheidet eine Künstliche Intelligenz beispielsweise von einem reinen Textverarbeitungsprogramm, dessen Funktionalitäten unveränderlich sind, unabhängig davon, welche Daten der Nutzer eingibt. Der Angleich an die grundsätzliche Ungewissheit der Entwicklung und der Gedanken eines einzelnen Menschen steigt mit zusätzlicher Autonomisierung der Künstlichen Intelligenz. Befinden sich die der Öffentlichkeit zugänglichen Systeme Künstlicher Intelligenzen derzeit noch auf dem technischen Entwicklungsstand einer „schwachen“ Künstlichen Intelligenz, kann davon ausgegangen werden, dass die fortschreitende technische Entwicklung den Übergang zu wahren „starken“ Künstlichen Intelligenzen absehbar werden lässt. Je nach verwendeten Datensätzen, Einsatzbereichen und Nutzern besteht die grundsätzliche Möglichkeit, dass sich Funktionalitäten eines Sprachassistenten im Rahmen der Verwendung stark von ihrer ursprünglichen Konzeptionierung abwandeln können. Aus rechtlicher Perspektive stellt diese Veränderlichkeit eine große Herausforderung dar. Es gilt vor allem zu klären, wem die wirtschaftliche Verwertbarkeit der Inhalte zuzurechnen ist und wer die Verantwortung für das Handel der Künstlichen Intelligenz trägt.

Kapitel 5

Rechtliche Problemstellungen A. Immaterialgüterrechtliche Einordnung von Sprachassistenten und der von ihnen generierten Inhalte Sowohl bei dem einem Sprachassistenten zugrundeliegendem Quellcode1 als auch der von diesem ausgegebenen Daten steht aus rechtlicher Perspektive nicht der Schutz des Datenspeichermediums, sondern vielmehr der Schutz des Immaterialgutes im Vordergrund. Dieser Rechtsschutz betrifft gerade nicht einen körperlichen Gegenstand, beispielsweise das Hardwaregerät, in welchem der Sprachassistent verbaut wurde, sondern die unkörperlichen geistigen Erzeugnisse in Gestalt der Datenfolge.2 Im Fokus liegen hierbei insbesondere die gesetzlichen Regelungen des Urheberrechts (inklusive der mit dem Urheberrecht verwandten Leistungsschutzrechte) sowie des Patentrechts.

I. Schutz der Künstlichen Intelligenz 1. Urheberrecht Die wichtigste Rechtsquelle des nationalen Urheberrechts ist das Gesetz über Urheberrecht und verwandte Schutzrechte (Urheberrechtsgesetz) aus dem Jahr 1965.3 Neben internationalen Übereinkommen wie beispielsweise der Revidierten Übereinkunft zum Schutz von Werken der Literatur und Kunst (RBÜ)4 und dem 1

Hierbei handelt es sich um in einer Programmiersprache verasste Programmanweisungen, die erst durch eine elektronische Übersetzung durch einen Computer zur gewünschten Funktionalität führen Duden, Quellcode, https://www.duden.de/rechtschreibung/Quellcode (Stand: 27. 09. 2020). 2 Bisges, in: Bisges (Hrsg.), Handbuch Urheberrecht, 1 (7). 3 Gesetz über Urheberrecht und verwandte Schutzrechte (Urheberrechtsgesetz) (UrhG) v. 09. 09. 1965 1965, zuletzt geändert durch Art. 1 G zur Umsetzung der Marrakesch-RL über einen verbesserten Zugang zu urheberrechtlich geschützten Werken zugunsten von Menschen mit einer Seh- oder Lesebehinderung vom 28. 11. 2018 (BGBl. I S. 2014). 4 Das RBÜ schützt insbesondere Werke der Literatur und Kunst und statuiert den Grundsatz der Inländerbehandlung welche besagt, dass ausländische und inländische Anbieter grundsätzlich gleichbehandelt werden müssen, mithin sich auch ausländische Werkschaffende die deutschen Urheberrechte im Inland in Anspruch nehmen dürfen. Die Pariser Fassung des RBÜ ist abgedruckt in Urheber- und Verlagsrecht: UrhR.

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

57

Trips-Übereinkommen (TRIPS)5 wird die nationale Gesetzgebung maßgeblich durch europarechtliche Einflüsse geprägt.6 Im Zuge der Harmonisierung der mitgliedsstaatlichen Urheberrechte strebt die EU neben der gesamtheitlichen Angleichung des Immaterialgüterrechts auch eine rechtliche Reaktion auf die neuartigen Kommunikationsformen an.7 Stellte das Immaterialgüterrecht in der Vergangenheit noch einen Schutzrahmen überwiegend für Werke der schönen Künste dar, bewirkte insbesondere die Digitalisierung der Kommunikations- und Informationsgeschehnisse einen starken Wandel des Rechtsgebiets. In seiner Wichtigkeit sehen es Schmid / Wirth sogar gleichwertig dem Bürgerlichen Gesetzbuch (BGB) an und prognostizieren den Wert des Geistigen Eigentums als „Öl des 21. Jahrhunderts“.8 a) Grundzüge des Urheberrechts Das Urheberrecht schützt den Urheber in seinen geistigen und persönlichen Beziehungen zum Werk und in der Nutzung des Werkes, § 11 S. 1 UrhG. Diese sehr allgemeine Umschreibung des Urheberrechts zeigt dennoch bereits den Schutzrahmen auf. Das Urheberrecht dient sowohl dem Schutz der ideellen (Urheberpersönlichkeitsrechte) als auch den materiellen (Urheberverwertungsrechte) Interessen des Urhebers.9 Das Urheberpersönlichkeitsrecht des Werkschöpfers stellt eine besondere Erscheinungsform des allgemeinen Persönlichkeitsrechts aus Art. 1 i.V.m Art. 2 GG dar10 und verdrängt dieses, jedoch nur in den Bereichen, in welchen das Urheberrecht explizite Regelungen trifft oder diese bewusst unterlässt11, im Wege der Spezialregelung.12 Das Urheberpersönlichkeitsrecht strahlt in zahlreiche Regelungen des UrhG aus und ermächtigt den Urheber beispielsweise über die (Erst-) Veröffentlichung seines Werkes zu befinden, Anerkennung seiner Urheberschaft zu verlangen und Entstellungen des Werkes zu unterbinden.13 5 Wie der Name des Übereinkommens „Trade Related Aspects of Intellectual Property Rights (TRIPS)“ bereits veranschaulicht, handelt es sich bei diesem Übereinkommen insbesondere um eine Regelung der handelsbezogenen Aspekte des Immaterialgüterrechts. Neben der bereits im RBÜ enthaltenen Inländerbehandlung sieht TRIPS in Art. 4 nun auch das Prinzip der Meistbegünstigung vor, welches darauf gerichtet ist, eine Benachteiligung von Ausländern gegenüber anderen Ausländern, mit deren Staaten die Bundesrepublik eventuell weitergehende Verträge geschlossen hat, zu verhindern, Vgl. weiterführend Schricker / Loewenheim /  Katzenberger / Metzger, Vor §§ 120 ff. UrhG Rn. 20. 6 In diesem Zusammenhang sind für den Bereich der Künstlichen Intelligenz bzw. die folgenden Ausführungen die Software-RL (RL 2009/24/EG) sowie die Datenbank-RL (RL 96/9/ EG) von Relevanz. 7 Lühring, in: Ensthaler / Weidert (Hrsg.), Urheberrecht und Internet, 1 (15). 8 M. Schmid / Wirth / Seifert / M. Schmid / Wirth, Einleitung Rn. 1. 9 Möhring / Nicolini / Ahlberg, Einführung zum UrhG Rn. 12. 10 BGH Urt. v. 25. 5. 1954 – I ZR 211/53, NJW 1954, 1404 (1405) – Schacht-Briefe. 11 Dreyer / Kotthoff / Meckel / Hentsch / Dreyer, Vor §§ 12 ff. UrhG Rn. 43. 12 Möhring / Nicolini / Ahlberg, Einführung zum UrhG Rn. 14. 13 Möhring / Nicolini / Kroitzsch / Horst-Peter, § 11 UrhG Rn. 6.

58

Kap. 5: Rechtliche Problemstellungen

Für den Bereich des dem Sprachassistenten zu Grunde liegenden Quellcodes sind jedoch vielmehr die Urheberverwertungsrechte, allgemein geregelt in §§ 15–22 UrhG, von großem praktischem Interesse. Diese verleihen dem Rechteinhaber das absolute und ausschließliche Recht, darüber zu entscheiden, ob und in welcher Weise das Werk verwertet werden kann (positives Benutzungsrecht), sowie die Möglichkeit, andere von einer unerlaubten Nutzung auszuschließen (negatives Nutzungsrecht); hierbei handelt es sich um, für eine sinnvolle wirtschaftliche Verwertbarkeit nötige, Grundvoraussetzungen.14 Im Bereich von Computerprogrammen (§ 69a ff. UrhG) hat der nationale Gesetzgeber jedoch bereichsspezifische und abschließende Regelungen getroffen, weswegen die §§ 15 UrhG nur insofern direkte Geltung erlangen, soweit Lücken vorhanden sind (hierzu ausführlicher vgl. S. 59 ff.).15 b) Der urheberrechtliche Werkbegriff Der urheberrechtliche Werkbegriff ist der zentrale Anknüpfungspunkt urheberrechtlicher Ansprüche und Rechte. § 2 Abs. 1 UrhG bietet hierbei einen ersten Ansatzpunkt und zählt in Abs. 1 nicht abschließend einige der geschützten Werkarten auf, wonach gem. § 2 Abs. 1 Nr. 1 UrhG insbesondere „Sprachwerke, wie Schriftwerke, Reden und Computerprogramme“ schutzfähig sind. Weiterhin muss es sich bei den geschaffenen Werken nach § 2 Abs. 2 um „persönliche geistige Schöpfungen“ handeln. Der Werkbegriff wurde auf europäischer Ebene zwar bisher nur in den Bereichen der Computerprogramme, Datenbanken und Fotografien harmonisiert, der EuGH nimmt jedoch selbst einen europäischen Werkbegriff an, welcher den Vorgaben das nationalen § 2 Abs. 2 UrhG entspricht und eine „eigene geistige Schöpfung“ erfordert.16 Aus dieser gesetzlichen Vorgabe sind weithin vier Elemente zu unterscheiden, die für eine Schutzfähigkeit vorliegen müssen: (1) es muss sich um eine persönliche Schöpfung handeln, (2) diese Schöpfung hat einen geistigen Gehalt aufzuweisen, (3) die Schöpfung muss sich in einer Formgestaltung niederschlagen und (4) die Individualität des Urhebers muss erkenntlich sein.17 Da es sich in Bezug auf den Werkbegriff um einen unbestimmten Rechtsbegriff handelt und die gesetzliche Definition an sich wenig greifbar ist, bedarf es auch im Rahmen von Quellcodes bzw. Sprachassistenten einer Ausfüllung und Konkretisierung.18 Ursprünglich erwuchs das Urheberrecht aus einem individuell-schöpferischen Tätigwerden des Schaffenden und knüpft an das Genieverständnis an.19 Nach diesem Verständnis steht der Urheber und „sein“ Werk im Fokus des Urheberrechts, eine nachfolgende Verwerterindustrie war dem Grundgedanken des 14

Fromm / J. Nordemann / Dustmann, § 15 UrhG Rn. 1. Dreier, GRUR 1993, 781 (783 ff.). 16 EuGH Urt. v. 22. 12. 2010 – C-393/09, GRUR Int. 2011, 148 (151) – Benutzeroberfläche Rz. 45 ff.; EuGH Urt. v. 16. 7. 2009 – C-5/08, GRUR Int. 2010, 35 (39) – Infopaq Rz. 35 ff. 17 Schricker / Loewenheim / L oewenheim, § 2 UrhG Rn. 32. 18 Fromm / J. Nordemann / A . Nordemann, § 2 UrhG Rn. 12. 19 Hetmank / L auber-Rönsberg, GRUR 2018, 574 (576). 15

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

59

Rechts im 19. Jahrhundert eher fernliegend. In der digitalisierten Welt hingegen vollzieht das Urheberrecht einen Funktionswandel; der ursprüngliche Gedanke eines Kulturrechts wandelt sich zunehmend zu einem Recht der Verwerterindustrie in welchem naturrechtlich-personalisierte Ansätze einem pragmatischen Utilitarismus weichen müssen.20 Daher wird der Werkbegriff in der derzeitigen Literatur und Rechtsprechung auch zweck-, qualitäts- und aufwandsneutral verstanden.21 c) Unterscheidung Computerprogramme und Benutzeroberfläche Bereits relativ frühzeitig hatte der europäische Gesetzgeber die zunehmende Wichtigkeit von Computerprogrammen für die industrielle Entwicklung der Gemeinschaft erkannt und sah sich dazu bewegt, harmonisierende Regelungen zu treffen. Die erlassene Software-RL 199122 wurde im Jahr 2009 durch die derzeit geltende Software-RL23 inhaltlich geändert und kodifiziert. Interessant ist, dass Anknüpfungspunkt der Regelung nicht nur die schöpferische Leistung ist, sondern insbesondere der, bisher beispielsweise dem Leistungsschutzrecht der Datenbankersteller zu Grunde liegende, Investitionsschutz im Fokus der Regelung steht und der Gesetzgeber auf die Möglichkeit einer kostengünstigen („Raub“)- Kopie im Gegensatz zu sehr investitionsintensiven Entwicklungskosten verweist.24 Der nationale Gesetzgeber hat diese Vorgaben in den §§  69a ff. UrhG im nationalen Recht umgesetzt. Grundsätzlich hätte es einer dezidierten Regelung nur bedingt bedurft, da Computerprogramme als Sprachwerke bereits vor der Novellierung gem. § 2 Abs. 1 Nr. 1 UrhG schutzfähig waren bzw. dies in der Rechtsprechung anerkannt war.25 Rechtlich unscharf ist, dass sowohl der europäische als auch der nationale Gesetzgeber von einer konkreten Definition des Begriffs „Computerprogramm“ abgesehen hat. Der Wortlaut des § 69a Abs. 1 UrhG „Computerprogramme im Sinne dieses Gesetzes sind Programme in jeder Gestalt, einschließlich des Entwurfsmaterials“

ist (beabsichtigter Weise) wenig aussagekräftig. Der deutsche Gesetzgeber hielt eine Begriffsdefinition nicht für ratsam, „da zu befürchten wäre, daß sie alsbald durch die Entwicklung überholt würde.“26 Dies kritisiert Marly bereits 2012 (bis 2020 weiterhin zutreffend) zurecht, da in der Literatur und Rechtsprechung noch heute auf Definitionen für Computerprogramme zurückgegriffen werden, die sich in den WIPO-Mustervorschriften von 1977 und der DIN-Norm 44300 aus dem Jahr 1988 befinden.27 20

Leistner / G. Hansen, GRUR 2008, 479. Fromm / J. Nordemann / A . Nordemann, § 2 UrhG Rn. 13. 22 RL 91/250/EWG. 23 RL 2009/24/EG. 24 Erwg. 2 der RL 2009/24/EG. 25 BGH Urt. v. 9. 5. 1985 – I ZR 52/83, NJW 1986, 192 (195) – Inkasso-Programm. 26 BT-Drs. 12/4022, 1 (9). 27 Marly, GRUR 2012, 773. 21

60

Kap. 5: Rechtliche Problemstellungen

Der BGH orientierte sich in seiner Inkasso-Programm Entscheidung ebenfalls an den Vorgaben der DIN 44300 sowie an § 1 Abs. 1 der WIPO-Mustervorschriften28 und definiert das Computerprogramm „als eine Folge von Befehlen […], die nach Aufnahme in einen maschinenlesbaren Träger fähig sind zu bewirken, daß eine Maschine mit informationsverarbeitenden Fähigkeiten eine bestimmte Funktion oder Aufgabe oder ein bestimmtes Ergebnis anzeigt, ausführt oder erzielt“.29 Die Bezeichnung „Software“ für Computerprogramme im Sinne der §§ 69a ff. UrhG ist hingegen unzureichend, da unter dieser Bezeichnung ein Potpourri unterschiedlicher Inhalte zu fassen ist und neben dem eigentlichen Computerprogramm auch andere Inhalte wie beispielsweise Dokumentationen des Computercodes umfasst, welche allenfalls nach § 2 UrhG Schutz erlangen können, nicht hingegen nach § 69a UrhG.30 Auch Benutzeroberflächen (sog. Graphic User Interfaces) – mithin Oberflächen, die der Mensch-Maschine-Interaktion dienen und es dem Anwender erlauben, nicht auf der komplexen Ebene des Programmcodes zu arbeiten31 – zählen nicht zu den geschützten Computerprogrammen, da diese dem Benutzer nur ermöglichen, mit dem eigentlichen Computerprogramm zu interagieren.

Abbildung 13: Screenshot der Benutzeroberfläche der Amazon Alexa Applikation32 28

Mustervorschriften abgedruckt in GRUR Int. 1978, 286. BGH Urt. v. 9. 5. 1985 – I ZR 52/83, NJW 1986, 192 (196) – Inkasso-Programm. 30 Dreyer / Kotthoff / Meckel / Hentsch / Kotthoff, § 69a UrhG Rn. 6. 31 Koch, GRUR 1991, 180. 32 Amazon Mobile LLC, Amazon Alexa App, https://lh3.googleusercontent.com/3zby03M5 XrwUWTlLme5Ckj4lBbNqMxo6iTacq50FFqr4ck007MWXcyRhF77-RRQyGQ=w1920-h9 37-rw (Stand: 27. 09. 2020). 29

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

61

Es handelt sich mithin um ein Teilelement des Programms, welches eine reine Interaktionsschnittstelle darstellt und nicht geeignet ist, das Computerprogramm zu vervielfältigen33 – folglich nicht um dessen originäre Ausdrucksform.34 Dies zeigt sich auch daran, dass eine identische Bildschirmoberfläche durch unterschiedliche Programme erzeugt werden kann.35 Gestalterische Benutzeroberflächen können jedoch selbst, sofern sie die nötige Schöpfungshöhe aufweisen, gem. § 2 Abs. 1 Nr. 1 UrhG als Sprachwerk, als wissenschaftlich-technische Darstellung gem. § 2 Abs. 1 Nr. 7 UrhG sowie als Werke der bildenden Kunst nach § 2 Abs. 1 Nr. 4 UrhG geschützt sein.36 Dies führt zu einer Zweiteilung des Urheberrechts mit den Rechten des Computerprogramms auf der einen und gesonderten Urheberrechten für die grafische Benutzeroberfläche auf der anderen Seite.37 Diese Unterscheidung ist nicht nur dem europäischen Recht bekannt, sondern findet sich insbesondere auch im angloamerikanischen EDV Recht.38 Bezüglich der einem Sprachassistenten oftmals verliehenen menschlich klingenden Stimme, welche der Vereinfachung der Mensch-Maschine-Kommunikation dient und den Einsatz textgebundener Befehle oftmals überflüssig macht, muss unterschieden werden. Schutzfähig nach § 69a UrhG ist hierbei nur der Teil des Assistenten, der die einzelnen Audiofragmente zu einer sinnvollen Einheit zusammensetzt. Das jeweilige Audiofragment an sich kann allenfalls als Werk nach §§ 2, 4 UrhG Schutz genießen.39 d) Schutz der Ausdrucksform Sprachassistent Sowohl die Software-RL als auch das nationale Urheberrecht sehen eine strikte Unterscheidung zwischen den Ideen und Grundsätzen, die einem Computerprogramm zu Grunde liegen und den konkreten Ausdrucksformen des Programmcodes vor, § 69a Abs. 2 UrhG. Dies hat zur Folge, dass es auch im Rahmen von Computerprogrammen eine Trennung zwischen der Lehre der Informatik (d. h. die theoretischen technischen Funktionalitäten eines Sprachassistenten) und der konkreten Anwendung dieser Lehre gibt.40 Die einem Programm zugrunde liegenden Funktionalitäten können an sich nach dem Willen des Gesetzgebers keinen urheberrechtlichen Schutz erlangen, da sie der Allgemeinheit als Allgemeingut für 33

EuGH Urt. v. 22. 12. 2010 – C-393/09, GRUR 2011, 220 (222) – BSA / Kulturministerium Rz. 40 ff. 34 Schricker / Loewenheim / L oewenheim / Spindler, § 69a UrhG Rn. 7. 35 OLG Karlsruhe Urt. v. 14. 4. 2010 – 6 U 46/09, ZUM 2010, 980 (983). 36 Schricker / Loewenheim / L oewenheim / Spindler, § 69a UrhG Rn. 7; Hoeren, CR 1990, 22 (24). 37 Marly, GRUR 2011, 204 (206). 38 Digital Communications Associates, Inc., v. Softklone Distributing Corp., 659 F. Supp. 449 (N. D.Ga. 1987) auszugsweise abgedr. in IuR 1987, 376. 39 Wandtke / Bullinger / Grützmacher, § 69 a UrhG Rn. 22. 40 Ensthaler, in: Ensthaler / Weidert (Hrsg.), Urheberrecht und Internet, 1–359 (73).

62

Kap. 5: Rechtliche Problemstellungen

weitere Entwicklungen zur Verfügung stehen sollen und das Urheberrecht mithin kein Mittel der Innovationshemmung darstellen darf. Allgemeingut verdient auch als solches keinen Schutz, weil diesem gerade keine individuelle Schöpfung innewohnt.41 Auch Ensthaler geht darauf ein, dass das nationale Recht nicht dahin zu verstehen ist, dass zwar die Lehre als solche nicht schutzfähig ist, sie im Zuge der konkreten Ausgestaltung dann doch über eine Hintertüre Schutz erfahren kann.42 Hierzu äußerte sich der BGH anfangs etwas unglücklich, welcher zwar (unter Verweis auf die Rechtsprechung Inkasso-Programm43) feststellt, dass Algorithmen an sich dem Urheberrecht nicht zugänglich sind, wohl aber „in der Art und Weise der Implementierung und Zuordnung zueinander urheberrechtsschutzfähig sein können“44. Dies ist jedoch so zu verstehen, dass nicht der einzelne Algorithmus dann doch nach der Implementierung schutzfähig ist, sondern gerade die geschickte „Verwebung“ als solche Schutzgut des § 69a UrhG ist. Der konkrete Quellcode des Sprachassistenten hingegen unterfällt dem Schutz des Urheberrechts gem. § 69a Abs. 1 S. 1 UrhG in all seinen Ausdrucksformen. Es ist folglich unerheblich, ob das Programm auf einem Datenträger (z. B. USBStick), direkt in einer – wie beispielsweise einem Smartphone – Hardware integriert wurde, oder in ausgedruckter Papierform vorliegt. e) Schutzvoraussetzungen des Programmcodes von Sprachassistenten In ihrer früheren Rechtsprechung setzten deutsche Gerichte und insbesondere der BGH strenge Anforderungen an die Schutzfähigkeit von Computerprogrammen. Danach waren bei der Bestimmung des nötigen Eigentümlichkeitsgrades alle bereits bestehenden Programme mit ihren jeweils bekannten und üblichen Anordnungen, Systemen, Aufbau und Einteilungsprinzipien heranzuziehen. Blieb das neue Programm in der Nähe der bekannten Gestaltungsformen, sah der BGH hierin keinen hinreichenden schöpferischen Eigentümlichkeitsgrad, selbst wenn die Neuentwicklung eine mechanisch-technische Fortführung und Entwicklung des Vorbekannten darstellt.45 Insbesondere der Investitionsschutz und die für die Entwicklung aufgewendeten Kosten wurden bei der Bewertung der Werkqualität als unwesentlich angesehen.46 Diese strikte Rechtsprechung hätte den möglichen Schutzbereich für Programme übermäßig beschränkt und bei fortschreitender Zahl existierender Programme eine erhebliche Investitionsbremse aus Sorge vor 41

Dreier / G. Schulze / Dreier, § 69a UrhG Rn. 20. Ensthaler, in: Ensthaler / Weidert (Hrsg.), Urheberrecht und Internet, 1–359 (74). 43 BGH Urt. v. 9. 5. 1985 – I ZR 52/83, NJW 1986, 192 – Inkasso-Programm. 44 BGH Urt. v. 4. 10. 1990 – I ZR 139/89, GRUR 1991, 449 (453) – Betriebssystem. 45 BGH Urt. v. 9. 5. 1985 – I ZR 52/83, NJW 1986, 192 (196) – Inkasso-Programm. 46 BGH Urt. v. 9. 5. 1985 – I ZR 52/83, NJW 1986, 192 (196) – Inkasso-Programm; BGH Urt. v. 4. 10. 1990 – I ZR 139/89, GRUR 1991, 449 (452) – Betriebssystem; OLG Frankfurt am Main Beschl. v. 13. 6. 1983, GRUR 1983, 753 – Pengo. 42

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

63

fehlenden Schutzmöglichkeiten nach sich gezogen. Die neuere Rechtsprechung und insbesondere Gesetzgebung sind von diesen strengen Anforderungen erfreulicherweise abgerückt. § 69a Abs. 3 UrhG sieht vor, dass Computerprogramme geschützt werden, wenn sie individuelle Werke in dem Sinne darstellen, dass sie das Ergebnis der eigenen geistigen Schöpfung ihres Urhebers sind. Zur Bestimmung ihrer Schutzfähigkeit sind keine anderen Kriterien, insbesondere nicht qualitative oder ästhetische, anzuwenden. Dies berücksichtigend stellt der BGH zutreffend fest, dass es zwar keine generelle gesetzliche Vermutung für die Schutzfähigkeit eines jeden Computerprogramms gibt, für die Schutzfähigkeit eines Programms jedoch keine besondere schöpferische Gestaltungshöhe vorausgesetzt wird. Vielmehr stellt das Urheberrecht darauf ab, ob es sich um eine individuelle geistige Leistung handelt und auch die dem allgemeinen Urheberrecht bekannte „kleine Münze“ schutzfähig ist. Lediglich einfache, routinemäßige Programmierleistungen schließt der BGH aus dem Schutzbereich aus47 und statuiert hingegen für komplexe Programmstrukturen, um solche wird es sich bei Sprachassistenten zumeist handeln, eine tatsächliche Vermutung für eine hinreichende Individualität der Programmgestaltung.48 Ensthaler kritisiert, dass diese Vermutungsregel nichts an der konkreten materiell-recht­lichen Zuordnungsproblematik ändert, und insbesondere im Bereich der „kleinen Münze“ wenig Raum für Computerprogramme verbleiben wird, da es sich in diesem Fall zumeist um eine zweckbedingte Gestaltung handelt, welche dem urheberrechtlichen Schutz gerade nicht zugänglich ist.49 Wie so oft lassen sich zu dieser Problematik keine endgültigen und allumfassenden Lösungsschemata entwerfen, es verbleibt viel mehr eine Entscheidung im Einzelfall. Für die Bestimmung der Individualität können hierbei maßgeblich der Grad der eigenpersönlichen Ausnutzung des bestehenden Gestaltungsspielraums, insbesondere hinsichtlich Form und Art der Sammlung, Einteilung und Anordnung des Materials bei der Problemanalyse, herangezogen werden.50 Da folglich nur völlig triviale Computerprogramme ohne jedwede eigene individuelle Prägung aus dem urheberrechtlichen Schutzbereich herausfallen51, wird zumindest der grundlegende Quellcode eines Sprachassistenten in der Regel – bereits auf Grund seiner Komplexität – nach § 69a Abs. 3 UrhG schutzfähig sein.

47

BGH Urt. v. 3. 3. 2005 – I ZR 111/02, MMR 845–846 – Flash 2000. BGH Urt. v. 3. 3. 2005 – I ZR 111/02, MMR 845–846 (846) – Flash 2000. 49 Ensthaler, in: Ensthaler / Weidert (Hrsg.), Urheberrecht und Internet, 1–359 (78). 50 KG Urt. v. 6. 9. 2010 – 24 U 71/10, ZUM-RD 2011, 544 (547); Dreier / G. Schulze / Dreier, § 69a UrhG Rn. 26. 51 M. Schmid / Wirth / Seifert / M. Schmid / Wirth, § 69a UrhG Rn. 4. 48

64

Kap. 5: Rechtliche Problemstellungen

f) Urheberrechte im Unternehmen Da der urheberrechtliche Werkbegriff auf eine persönliche Schöpfung (s. o.) abstellt, ist Voraussetzung der urheberrechtlichen Schutzfähigkeit, dass das Werk von einem Menschen als natürliche Person geschaffen worden ist. Juristische Personen können folglich selbst keine geschützten Werke hervorbringen bzw. originäre Inhaber eines Urheberrechts sein.52 Da Sprachassistenten als umfangreiche Computerprogramme jedoch zumeist im Rahmen von Unternehmen von zahlreichen Arbeitnehmern bzw. Dienstleistern entwickelt werden, hat der Gesetzgeber dies in § 69b UrhG gesondert geregelt. Nach § 69b Abs. 1 UrhG ist ausschließlich der Arbeitgeber zur Ausübung aller vermögensrechtlichen Befugnisse an dem Computerprogramm berechtigt, sofern nichts anderes vereinbart ist. Wichtig ist, dass das eigentliche Urheberrecht des Arbeitnehmers auf Grund der engen persönlichkeitsrechtlichen Bindung an den Schöpfer des Computerprogramms nach § 29 Abs. 1 UrhG grundsätzlich nicht übertragbar ist.53 Diese Regelung ist dem nationalen Urheberrecht, welchem das Schöpferprinzip immanent ist, eher fremd und dient dazu, dem Arbeitgeber in Bezug auf seine doch meist erheblichen finanziellen Investitionen abzusichern.54 Dreier stellt daher richtig fest, dass die Norm selbst keinen urheberschützenden Charakter aufweist und folglich alle urheberschützenden Vorschriften des Urhebervertragsrechts heranzuziehen sind.55 2. Leistungsschutzrechte Neben den klassischen Urheberrechten hält das UrhG in den §§ 70 ff. noch „Verwandte Schutzrechte“ vor. Diese sind, anders als die Werke nach § 2 UrhG, zwar nicht als schöpferisch anzusehen, werden vom Gesetzgeber jedoch als schützenswert betrachtet, da sie der schöpferischen Leistung des Urhebers ähnlich sind oder im Zusammenhang mit den Werken der Urheber erbracht werden.56 Der Begriff der verwandten Schutzrechte leitet sich daraus ab, dass diese Rechte mit dem Urheberrecht verwandt sind; weithin ist auch der Begriff der Leistungsschutzrechte gebräuchlich.57 Letzterer verdeutlicht auch, dass Schutzgut dieser Rechte nicht das der persönlichen geistigen Schöpfung ist, sondern vielmehr eine persönliche oder organisatorisch-wirtschaftliche Leistung.58

52

Fromm / J. Nordemann / A . Nordemann, § 2 UrhG Rn. 21. Fromm / J. Nordemann / J. Nordemann, § 29 UrhG Rn. 7. 54 Fromm / J. Nordemann / Czychowski, § 69b UrhG Rn. 1. 55 Dreier, GRUR 1993, 781 (785). 56 BT-Drs. IV/270 1962, 1 (86). 57 Dreier / G. Schulze / Dreier, Vorbemerkung zu §§ 70 ff. Rn. 1. 58 Jani, in: P. Raue / Hegemann (Hrsg.), Münchener Anwalts-Handbuch Urheber- und Medienrecht, 1–43 (1). 53

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

65

Im Bereich der Sprachassistenten kommt insbesondere das Recht der Datenbankenhersteller gem. §§ 87a ff. UrhG in Betracht. Zum einen benötigt ein Sprachassistent im Rahmen des Maschinellen Lernens Zugriff auf Datenbanken, um die Algorithmen zu verfeinern, auf der anderen Seite wird das gefundene Arbeitsergebnis bzw. der verfeinerte Algorithmus selbst wieder in einer Datenbank abgespeichert.59 Das auf der EU-Datenbankrichtlinie60 beruhende ausschließliche Schutzrecht setzt einen Schwerpunkt auf den Schutz der wirtschaftlichen Bedeutung elektronischer Datenbanken.61 Regelungszweck der §§ 87a ff. UrhG ist der harmonisierte Schutz nicht-schöpferischer Datenbanken und soll hierbei zum einen Investitionsschutz zum anderen auch Investitionsanreiz darstellen.62 Datenbank im Sinne des Leistungsschutzrechts ist „eine Sammlung von Werken, Daten oder anderen unabhängigen Elementen, die systematisch oder methodisch angeordnet und einzeln mit Hilfe elektronischer Mittel oder auf andere Weise zugänglich sind und deren Beschaffung, Überprüfung oder Darstellung eine nach Art oder Umfang wesentliche Investition erfordert“, § 87a Abs. 1 S. 1 UrhG. Abzugrenzen ist der Schutz des Datenbankherstellers von einem möglichen Urheberrechtsschutz für Datenbankwerke nach § 4 Abs. 2 UrhG. Im Gegensatz zu Datenbankwerken, welche für eine Schutzfähigkeit eine, für alle Urheberrechte typische, geistige Schöpfung verlangen und mithin einen eigenständigen Ausdruck der schöpferischen Freiheiten ihres Urhebers darstellen63, steht bei diesem Leistungsschutzrecht der Erstellungsaufwand im Vordergrund. Sowohl das Urheberrecht an einem Datenbankwerk als auch die Leistungsschutzrechte des Datenbankherstellers existieren unabhängig nebeneinander und können mithin auch gleichzeitig vorliegen.64 Das Maschinelle Lernen bedarf für die optimale Funktionsfähigkeit einer großen Anzahl an Daten, mit welchen der Algorithmus angelernt werden soll, um optimale Ergebnisse zu erzielen. Neben den von Sprachassistenten generierten Nutzer- und Betriebsdaten ist es insbesondere im Vorfeld nötig, Informationen auch aus anderen Quellen auszuwerten. Inwieweit der Entwickler eines Sprachassistenten hierzu auch auf betriebsfremde Datenbanken zugreifen darf, soll im Folgenden dargestellt werden. Der Datenbankhersteller, hierunter versteht das UrhG denjenigen, der die Investitionen für die Datenbank getätigt hat (§ 87a Abs. 2 UrhG), hat das ausschließliche Recht, die Datenbank insgesamt oder einen nach Art oder Umfang wesentlichen Teil der Datenbank zu vervielfältigen, zu verbreiten und öffentlich wiederzugeben, 59

Ory / Sorge, NJW 2019, 710 (712). RL 96/9/EG des Europäischen Parlaments und des Rates vom 11. März 1996 über den rechtlichen Schutz von Datenbanken. 61 Möhring / Nicolini / Vohwinkel, § 87a UrhG 1 ff. 62 Wandtke / Bullinger / Hermes, Vor §§ 87a ff. UrhG Rn. 1. 63 EuGH Urt. v. 1. 3. 2012 – C-604/10, GRUR, 386 – Football Dacato / Yahoo. 64 Rz. 27BGH Urt. v. 24. 5. 2007 – I ZR 130/04, GRUR 2007, 685 (687) – Gedichttitelliste I; Dreier / G. Schulze / Dreier, Vorbemerkung zu §§ 87a ff. UrhG Rn. 8. 60

66

Kap. 5: Rechtliche Problemstellungen

§ 87b Abs. 1 S. 1 UrhG. Im Gegensatz zur Datenbank-RL, welche in Art. 7 Abs. 1 die Nomenklatur „Entnahme“ und „Weiterverwendung“ wählt, bleibt der deutsche Gesetzgeber der Terminologe der §§ 15 ff. UrhG treu. In richtlinienkonformer Auslegung ist jedoch der Schutzumfang als identisch anzusehen.65 Gerade der Begriff der Entnahme bedarf im Rahmen des Machine Learning einer Konkretisierung, insbesondere dann, wenn auf die Datenbank zum Zwecke des Lernvorgangs lediglich zugegriffen wird und keine direkte Kopie angefertigt wird. Der EuGH versteht den Begriff der Entnahme dahingehend, dass jede unerlaubte Aneignung der Gesamtheit oder eines Teils des Inhalts einer Datenbank erfasst wird.66 Danach ist die Entnahme von formalen, technischen oder physischen Kriterien unabhängig; insbesondere ist für den vorgesehenen Schutz keine gesonderte physische Speicherung in geordneter Weise auf den technischen Gerätschaften des Betreibers des Sprachassistenten erforderlich.67 Auch eine bloße Vervielfältigung im Arbeitsspeicher des Betreibercomputers erfüllt bereits den Begriff der Entnahme68, wobei unerheblich ist, ob der Lernvorgang selbst auf die Erstellung einer anderen Datenbank abzielt, die mit der Ursprungsdatenbank im Wettbewerb steht oder nicht, oder ob Ziel der Auswertung die Verbesserung der eigenen Algorithmen ist.69 Anzumerken ist jedoch, dass sich das ausschließliche Recht des Datenbankherstellers diesbezüglich grundsätzlich nur auf die Entnahme der Gesamtheit oder eines in qualitativer oder quantitativer Hinsicht wesentlichen Teils des Inhalts der Datenbank bezieht, Art. 7 Abs. 1 Datenbank-RL. Hierbei kann keine letztverbindliche Aussage getroffen werden, ab wann ein solcher Umfang anzunehmen ist. Auf Grund der Unterschiedlichkeit der Datenbanken wird es in jedem Fall auf eine Betrachtung des Einzelfalls ankommen. Czychowski stellt diesbezüglich auf die „Wechselwirkung zwischen der Art und dem Umfang des [entnommenen] Teils und der Höhe der Investition“ ab.70 Für den EuGH stellt der Wert des entnommenen Teils an sich kein erhebliches Kriterium für die Beurteilung der Wesentlichkeit dar71, es ist vielmehr auf das Verhältnis des entnommenen Teilvolumens in Bezug auf das Gesamtvolumen der Datenbank abzustellen.72 Sowohl Literatur als auch Rechtsprechung sind sich über eine darüber hinausgehende Konkretisierung uneins. Czychowski sieht davon ab, konkrete Prozentwerte für die Bestimmung der Wesentlichkeit heranzuziehen.73 Andere Stimmen in der Literatur wiederum sehen bei einer Entnahme von mehr als 50 % den Schwellenwert grundsätzlich als überschritten an.74 Nach 65

Dreier / G. Schulze / Dreier, § 87b UrhG Rn. 2. EuGH Urt. v. 9. 10. 2008 – C-304/07, MMR 2008, 807 (808) – Gedichttitelliste Rz. 34. 67 EuGH Urt. v. 9. 10. 2008 – C-304/07, MMR 2008, 807 (808) – Gedichttitelliste Rz. 38. 68 BGH Urt. v. 22. 6. 2011 – I ZR 159/10, GRUR 2011, 1018 (1021) – Automobil-Onlinebörse Rz. 39. 69 EuGH Urt. v. 5. 3. 2009 – C-545/07, GRUR 2009, 572 (575) – Apis / Lakorda Rz. 46. 70 Fromm / J. Nordemann / Czychowski, § 87b UrhG Rn. 8. 71 EuGH Urt. v. 9. 11. 2004 – C-203/02, GRUR 2005, 244 (250) – BHB-Pferdewetten Rz. 72. 72 EuGH Urt. v. 9. 11. 2004 – C-203/02, GRUR 2005, 244 (251) – BHB-Pferdewetten Rz. 82. 73 Fromm / J. Nordemann / Czychowski, § 87b UrhG Rn. 10. 74 Wandtke / Bullinger / Hermes, § 87b UrhG Rn. 15; P.  Raue / Bensinger, MMR 1998, 507 (511). 66

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

67

der Rechtsprechung des BGH erfüllt zumindest ein Anteil von zehn Prozent des Datenvolumens der gesamten Datenbank nicht die Voraussetzungen, die an einen quantitativ wesentlichen Teil zu stellen sind.75 Eine letztverbindliche Klärung des genauen Umfangs kann an dieser Stelle nicht erfolgen. Es ist jedoch darauf hinzuweisen, dass dem Merkmal des Investitionsschutzes ein wichtiger Gesichtspunkt zukommen muss. Warum der EuGH hier insbesondere auf eine volumenmäßige Berechnung abstellt und der Wert des entnommenen Teils nur sekundär Berücksichtigung findet, mag im digitalen Zeitalter wenig zu verfangen. Einem kleinen Teil der Daten kann ein derartiges Gewicht zukommen, sodass möglicherweise bereits 20 % der Daten 90 % des Investitionswertes darstellen. Der Entnahme eines wesentlichen Teils hat der Gesetzgeber die wiederholte und systematische Vervielfältigung, Verbreitung oder öffentliche Wiedergabe eines unwesentlichen Teils gleichgestellt, sofern diese Handlungen einer normalen Auswertung der Datenbank zuwiderlaufen oder die berechtigten Interessen des Datenbankherstellers unzumutbar beeinträchtigen, § 87b Abs. 1 S. 2 UrhG. Ziel der Norm ist die Verhinderung der Umgehung des Abs. 1 S. 1 durch mehrmalige Entnahme kleiner unwesentlicher Teile, welche sich in einer Gesamtschau aber investitionsschädigend auswirkt.76 Ein wiederholtes Nutzen der Datenbank ohne systematisches Vorgehen mit der Zielsetzung, die Wesentlichkeitsgrenze zu überschreiten, reicht jedoch nicht aus.77 Die mehrmalige Nutzung muss laut BGH gerade darauf gerichtet sein, durch die kumulative Wirkung die Gesamtheit oder einen wesentlichen Teil des Inhalts der geschützten Datenbank wieder zu erstellen.78 Diese Einschränkung führt gerade bei Text und Data Mining, um welches es sich beim Lernvorgang von Sprachassistenten in der Regel handeln wird, zur Uneinschlägigkeit, da dieses Mining im wesentlichen neue Strukturen und Zusammenhänge aus der Datenbank extrahieren soll, die ursprüngliche Datenbank hierbei jedoch nicht wiederhergestellt wird.79 Die Rechte des Datenbankherstellers werden jedoch, dem Urheber- und Leistungsschutzrecht typisch, nicht uneingeschränkt gewährt, sondern vielmehr durch die Schrankenregelung des § 87c UrhG – abschließend – eingegrenzt. Eine Ausdehnung der Schrankenregelung auf die §§ 44a ff. UrhG ist, sofern es die Datenbank-RL nicht vorsieht, ausgeschlossen.80 Das derzeit geltende Recht hält jedoch Schranken in § 87c Abs. 1 UrhG nur für den privaten, nichtkommerziellen wissenschaftlichen Bereich, für Unterrichtszwecke sowie zum Gebrauch vor Gerichten, Behörden und Zwecken der öffentlichen Sicherheit, § 87 Abs. 2 UrhG, vor. Für die 75

BGH Urt. v. 1. 12. 2010 – I ZR 196/08, GRUR 2011, 724 (726) – Zweite Zahnarztmeinung II Rz. 24. 76 Leistner, GRUR Int. 1999, 819 (833). 77 Schricker / Loewenheim / Vogel, § 87b UrhG Rn. 62. 78 BGH Urt. v. 22. 6. 2011 – I ZR 159/10, GRUR 2011, 1018 (1023) – Automobil-Onlinebörse Rz. 61. 79 Spindler, GRUR 2016, 1112 (1114). 80 Schricker / Loewenheim / Vogel, § 87c UrhG Rn. 1.

68

Kap. 5: Rechtliche Problemstellungen

Entwicklung von Sprachassistenten werden die genannten Schranken überwiegend nicht einschlägig sein. Allenfalls kann eine Erlaubnis im Bereich der wissenschaftlichen Forschung nach §§ 60c und 60d UrhG i. V. m. § 87c Abs. 1 S. 2 Nr. 2 UrhG in Betracht kommen. Gem. § 60c Abs. 1 UrhG dürfen zum Zweck der nicht kommerziellen wissenschaftlichen Forschung bis zu 15 Prozent eines Werkes für einen bestimmt abgegrenzten Kreis von Personen für deren eigene wissenschaftliche Forschung (Nr. 1), sowie für einzelne Dritte, soweit dies der Überprüfung der Qualität wissenschaftlicher Forschung dient, vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden. Für die eigene wissenschaftliche Forschung dürfen bis zu 75 Prozent eines Werkes vervielfältigt werden, § 60c Abs. 2 UrhG. Ein kommerzieller Zweck ist dann abzulehnen, wenn keine Gewinnerzielungsabsicht vorliegt.81 Sofern diese Wissenschafts- und Forschungsschranke auf den Umfang eines „Werkes“ abstellt, ist damit grundsätzlich die gesamte Datenbank umfasst.82 Sofern die Datenbank ihrerseits aus einzelnen Untergruppen besteht, welche selbst ihrerseits Datenbanken darstellen, bemisst sich der Umfang prozentual zu diesen einzelnen Untergruppen.83 Als nationale Neuheit wurde durch das UrhWissG84 eine Text und Data Mining Schranke aufgenommen die es der nicht-kommerziellen wissenschaftlichen Forschung erlaubt, eine Vielzahl von Werken (sog. Ursprungsmaterial) automatisiert auszuwerten, § 60d Abs. 1 UrhG. Wird auf Datenbanken im Zuge des Minings zugegriffen, so fingiert § 60d Abs. 2 S. 2 UrhG, dass die Verwendung von unwesentlichen Teilen mit der normalen Auswertung der Datenbank sowie mit den berechtigten Interessen des Datenbankherstellers als vereinbar gilt. Nach den Vorstellungen des Gesetzgebers stellt die Vorschrift durch diese Fiktion sicher, dass die Rechtsinhaber den automatisierten Abruf von Inhalten aus der Datenbank nicht vertraglich untersagen können.85 Allerdings schließt auch hier das Merkmal der Nicht-Gewerblichkeit eine Anwendbarkeit für kommerzielle Unternehmen aus. Für Forschungseinrichtungen hingegen bietet sich die Möglichkeit, Sprachassistenten auch an größeren Korpora zu trainieren. Unerheblich ist hierbei, ob die wissenschaftliche Forschung durch Drittmittel finanziert wird, da die organisatorische Struktur und die Finanzierung der Forschungseinrichtung selbst keine Bewertungsfaktoren darstellen.86 Allerdings stehen für die Zukunft insbesondere im Bereich des Text und Data Mining einige gesetzliche Änderungen an. Im Jahr 2019 hat das Europäische Par 81

Heckmann / Heckmann / Paschke, Kapitel 3.1 Rn. 382. Dreier / G. Schulze / Dreier, § 87 c UrhG Rn. 10; BGH Urt. v. 28. 11. 2013 – I ZR 76/12, MMR 2014, 616 (620) – Meilensteine der Psychologie Rz. 42. 83 EuGH Urt. v. 5. 3. 2009 – C-545/07, EuZW 2009, 345 (350) – Apis-Hristovich EOOD / Lakorda AD Rz. 74. 84 Gesetz zur Angleichung des Urheberrechts an die aktuellen Erfordernisse der Wissensgesellschaft – Urheberrechts-Wissensgesellschafts-Gesetz – UrhWissG (BGBl. I S. 3346). 85 BT-Drs. 18/12329 (41). 86 Heckmann / Heckmann / Paschke, Kapitel 3.1 Rn. 385. 82

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

69

lament und der Rat der Europäischen Union nach langem Ringen die Richtlinie über das Urheberrecht im Digitalen Binnenmarkt (DSM-RL)87 verabschiedet, welche bis zum 07. 06. 2021 in nationales Recht umgesetzt werden muss und sowohl die InfoSoc-RL auch die Datenbanken-RL anpasst. Art. 3 und 4 DSM-RL sehen dabei auf europäischer Ebene Maßnahmen für das Text und Data Mining vor. Ein erster Diskussionsentwurf seitens des Bundesministeriums der Justiz und für Verbraucherschutz für eine Teilumsetzung liegt bereits vor.88 Die im Bereich des Trainings von Sprachassistenten wesentlichste geplante Neuerung ist die Ersetzung der Text und Data-Mining-Schranke für die wissenschaftliche Forschung aus § 60d UrhG durch eine nicht zweckgebundene Text und Data-Mining-Schranke in § 44b UrhG-E. Nach § 44b Abs. 1 UrhG-E ist unter Text und Data Mining die automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen, zu verstehen. Zukünftig sind derartige automatische Analysen ohne Bezug auf eine wissenschaftliche Forschung, mithin auch für die Verbesserung von Sprachassistenten, grundsätzlich zulässig. Erlaubt sein soll insbesondere die Vervielfältigung von rechtmäßig zugänglichen Werken, sofern sie für das Text und Data Mining erforderlich sind, wobei eine Löschpflicht dieser Vervielfältigungen nach Wegfall der Erforderlichkeit statuiert wird, § 44b Abs. 2 UrhG. Ziel des Gesetzgebers ist, neben der Gewährung von Rechtssicherheit, die Anregung von Innovationen der Privatwirtschaft.89 Das Merkmal der „rechtmäßigen Zugänglichkeit“ legt das Ministerium weit aus. Neben lizenzierten Werken betrifft dies alle im Internet frei zugänglichen Werke und wird von dem Grundsatz „The right to read is the right to mine“ inspiriert.90 Gegen diese sehr weitreichende Erlaubnisvorschrift kann sich der Rechteinhaber nur wehren, wenn er diese Nutzungsarten ausdrücklich untersagt, wobei bei digitalen Werken eine maschinenlesbare Untersagung hinterlegt werden muss, § 44b Abs. 3 UrhG-E. Dies ist sinnvoll, da es mit großen Rechtsunsicherheiten verbunden wäre, wenn sich der durch die Schrankenregelung zur Nutzung grundsätzlich Berechtigte auch im Rahmen automatisierter digitaler Auswertungen bei jedem Werk einzeln manuell rückversichern müsste. Die maschinenlesbare Form ermöglicht es Algorithmen selbstständig die Recht 87

Richtlinie (EU) 2019/790 des Europäischen Parlaments und des Rates vom 17. April 2019 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG (RL (EU) 2019/790) v. 17. 04. 2019, ABl. 2019, 92. 88 Bundesministerium der Justiz und für Verbraucherschutz, Entwurf eines Ersten Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts, 2020. 89 Bundesministerium der Justiz und für Verbraucherschutz, Entwurf eines Ersten Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts, 2020, S. 17. 90 Bundesministerium der Justiz und für Verbraucherschutz, Entwurf eines Ersten Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts, 2020, S. 18.

70

Kap. 5: Rechtliche Problemstellungen

mäßigkeit des Minings zu überprüfen. Eine Vergütungspflicht für die Nutzungen sieht der Diskussionsentwurf nicht vor, da es nach Auffassung des Ministeriums hierfür an einer Ermächtigung seitens der DSM-RL mangelt.91 Die bisherige Schrankenregelung des § 87c UrhG soll dahingehend abgeändert werden, dass die neue Schrankenregelung auch für das sui generis Datenbankenherstellerrecht anwendbar ist. Auf Grund dessen könnten in Zukunft auch Vervielfältigungen eines nach Art oder Umfang wesentlichen Teils einer Datenbank zu Zwecken des Text und Data Mining nach § 44b UrhG-E zulässig sein, § 87c Abs. 1 S. 1 Nr. 4 UrhG-E.92 Hervorzuheben ist, dass der Diskussionsentwurf keine Erstreckung des Verweises in § 87c Abs. 6 UrhG-E auf § 60g Abs. 1 UrhG in Bezug auf § 87c Abs. 1 S. 1 Nr. 4 UrhG-E trifft, da Art. 4 DSM-RL in Art. 7 Abs. 1 DSMRL nicht genannt wird. Folglich können im Bereich des Text und Data Mining gem. § 44b UrhG-E von den gesetzlichen Schranken abweichende Bestimmungen zwischen den Rechteinhabern und den Verwendern getroffen werden, welche insbesondere auch die gesetzlichen Nutzungsberechtigungen beschränken oder untersagen können. 3. Patentrecht Das Patentrecht verfolgt das Ziel, dem Patentinhaber ein ausschließliches Recht am patentierten Gegenstand zu verschaffen und dies in der Regel für einen Zeitraum von maximal 20 Jahren.93 Um ein derart einschneidendes Verwertungsrecht zu rechtfertigen, sind nur tatsächlich der Bereicherung der Technik und dem technischen Fortschritt dienende Erfindungen dem Patentschutz zugänglich. Der Erfinder soll durch diesen zeitlichen Verwertungsrahmen durch staatliches Wirken gefördert werden.94 Die sachliche Rechtfertigung dieses Rechts folgt hiernach verschiedenen Ansätzen, deren Kerngehalt allerdings wenig differiert. Weithin vertretene Theorien sind die Belohnungs-, Anspornungs-, Vertrags-, Eigentumsund Investitionsschutztheorie.95

91

Bundesministerium der Justiz und für Verbraucherschutz, Entwurf eines Ersten Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts, 2020, S. 17. 92 Bundesministerium der Justiz und für Verbraucherschutz, Entwurf eines Ersten Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts, 2020, S. 31. 93 BeckOK Patentrecht / Fitzner, Vor §§ 1–25 PatG Rn. 4. 94 BeckOK Patentrecht / Fitzner, Vor §§ 1–25 PatG Rn. 5. 95 Benkard / Bacher, § 1 PatG 1a ff.

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

71

a) Patentschutztheorien Nach der Belohnungstheorie gebührt dem Erfinder ein ausreichender Schutz für das, was er als seine Erfindung der Allgemeinheit in seinem Patent offenbart und der Allgemeinheit somit einen Dienst erbringt.96 Die Anspornungstheorie hingegen ist utilitaristisch geprägt und sieht die monetären Kompensations- und Verwertungsmöglichkeiten als Förderung der Erfindungstätigkeit und damit einhergehend des technischen Fortschritts.97 Die Vertragstheorie, auch Offenbarungstheorie genannt, möchte den Erfinder durch die Einräumung von Rechten dafür belohnen, dass er die Neuerung nicht für sich behält, sondern für die Allgemeinheit zugänglich macht.98 Die Eigentumstheorie sieht im Patentrecht ein technisches Urheberrecht und bewertet die erfinderische Leistung als Eigentum i. S. d. Art. 14 Abs. 1 S. 1 GG, aus welchem eine verfassungsrechtliche Gewährleistung erwächst, dieses „geistige“ Eigentum wirtschaftlich zu nutzen.99 Einen eher wirtschaftlichen Ansatz verfolgt die Innovationsschutztheorie welche, wie bereits dem Namen zu entnehmen ist, die teils beträchtliche Investition des Erfinders in den Fokus rückt und es ihm ermöglichen soll, durch Verwertung der Innovation seine Stellung auf dem freien Markt zu verbessern.100 Welcher der aufgezählten Theorien man letztendlich den Vorzug einräumt, kann oftmals ein rein akademischer Streit verbleiben, da in der Praxis ein Spannungsverhältnis zwischen Wettbewerbsrecht und Patentrecht bestehen bleibt und das Patentrecht inzwischen weniger auf dem Kriterium der erfinderischen Leistung beruht, sondern vielmehr ein Wettbewerbsinstrument darstellt.101 b) Erteilungsvoraussetzungen Wesentliche materielle Voraussetzungen, die es bei der Erteilung eines Patents zu beachten gibt, sind in § 1 PatG geregelt. Gemäß § 1 Abs. 1 PatG muss sich eine Erfindung (1) auf dem Gebiet der Technik befinden, (2) neu sein, (3) auf einer erfinderischen Tätigkeit beruhen und (4) gewerblich anwendbar sein. Könnten diese Voraussetzungen noch unschwer von Computerprogrammen und somit Sprachassistenten erfüllt werden, sieht § 1 Abs. 3 PatG eine nicht abschließende – erkennbar an der Begrifflichkeit „insbesondere“ – Liste schutzunfähiger „Erfindungen“ 96

BGH Urt. v. 24. 4. 1969 – X ZR 54/66, GRUR 1969, 534 (535) – Skistiefelverschluss. Beyer, GRUR 1994, 541. 98 BeckOK Patentrecht / Fitzner, Vor §§ 1–25 PatG Rn. 9; BGH Urt. v. 17. 1. 2017  – XZR 11/15, GRUR 2017, 493 (496) – Borrelioseassay. 99 Mes / Mes, § 1 PatG Rn. 2; BVerfG Beschl. v. 10. 5. 2000 – 1 BvR 1864/95, GRUR 2001, 43. 100 Kirchner, GRUR Int. 2004, 603 (604). 101 BeckOK Patentrecht / Fitzner, Vor §§ 1–25 PatG Rn. 10. 97

72

Kap. 5: Rechtliche Problemstellungen

vor. Hiernach sind insbesondere Entdeckungen sowie wissenschaftliche Theorien und mathematische Methoden (Nr. 1), ästhetische Formschöpfungen (Nr. 2), Pläne, Regeln und Verfahren für gedankliche Tätigkeiten, Spiele oder geschäftliche Tätigkeiten sowie Programme für Datenverarbeitungsanlagen (Nr. 3) und die Wiedergabe von Informationen (Nr. 4) nicht schutzfähig, soweit für die genannten „Erfindungen“ nicht Schutz als solches begehrt wird, § 1 Abs. 4 PatG. Eine wortgleiche Regelung hält auch das Europäische Patentübereinkommen in Art. 52 Abs. 2 EPÜ vor, nach dessen Vorbild der deutsche Gesetzgeber das nationale Patentrecht gestaltet hat. Dies ist keine Selbstverständlichkeit, da, anders als europäische Richtlinien, das Patentübereinkommen ein reines Vertragswerk darstellt, welches eine Umsetzung und Harmonisierung der Mitgliedsstaaten nicht erfordert und grundsätzlich auch neben dem nationalen Patentrecht als eigenständige Regelung Bestand hätte.102 Auch wenn Ballreich / Haertel die Schaffung zweier koexistierender und unterschiedlicher Rechtssysteme für vorteilhaft hält, da es den Benutzern die Wahl offen lässt, für welches Recht er sich entscheidet103, hat Deutschland das PatG an das EPÜ angeglichen und harmonisiert. Sowohl das PatG als auch das EPÜ wurden an Art. 27 Abs. 1 des TRIPS-Übereinkommens104 angepasst, wonach Patente für „Erfindungen auf allen Gebieten der Technik“ erhältlich sind. Dies bedeutet, dass zwar der zentrale Begriff der der Technik ist, ansonsten jedoch nicht zwischen verschiedenen Gebieten der Technik diskriminiert wird105, ein patentrechtlicher Schutz für KI-gestützte Anwendung also prinzipiell denkbar ist. aa) Die Erfindung Ein Patent kann nur erteilt werden, wenn eine Erfindung vorliegt. Anzumerken ist, dass keine gesetzliche Definition des Erfindungsbegriffs gegeben wurde. Insbesondere darf bei der Bestimmung, ob es sich um eine Erfindung handelt, nicht eine einfache Unterscheidung zwischen „neuen Merkmalen“ und Merkmalen der Erfindung, die aus dem Stand der Technik bekannt sind, vorgenommen werden.106 Wichtigstes rechtliches Merkmal der Erfindung ist dies der Technik. Auch der Technikbegriff im patentrechtlichen Sinne ist seinerseits nicht gesetzlich definiert und entzieht sich nach gefestigter Rechtsprechung des BGH einer eindeutigen und abschließenden Feststellung.107 Dem Begriff ist vielmehr eine Wertung immanent, 102

Benkard / Ehlers / K inkeldey / Kolle, Art. 1 EPÜ Rn. 4. Ballreich / Haertl, RabelsZ 1989, 331 (339). 104 Übereinkommen über handelsbezogene Aspekte der Rechte des geistigen Eigentums, BGBl. II S. 1730. 105 Gruber / Z umbusch / Haberl u. a., Europäisches und internationales Patentrecht, 12.02. 106 EPA Entsch. v. 8. 9. 2000 – Ta 931/95 – 3. 5. 1, GRUR Int. 2002, 87 (90) – Steuerung eines Pensionssystems / PBS PARTNERSHIP. 107 BGH Beschl. v. 11. 5. 2000 – X ZB 15/98, GRUR 2000, 1007 (1008) – Sprachanalyseeinrichtung. 103

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

73

was genau technisch und daher dem Patentschutz zugänglich sein soll und knüpft daher an dem Verständnis an, was Technik herkömmlich ausmacht.108 Hierzu zählen laut BGH beispielsweise die Ingenieurswissenschaften, Physik und Chemie.109 Diese weitreichende Definition ist durchaus gewünscht. Vornehmliche Aufgabe der Erfindung und des Patentrechts ist es nach BGH, die nach dem jeweils neuesten Stand der Wissenschaft und Forschung patentwürdigen Ergebnisse zu erfassen. Es ist daher gerade gewollt, dass der Begriff der Erfindung unscharf ist, um den jeweiligen Stand der naturwissenschaftlichen Erkenntnisse in die Abwägung mit einzustellen.110 Die für die Entwicklung von Sprachassistenten relevanten Forschungsgebiete der Informatik und Mathematik können grundsätzlich unter den Begriff der Technik nach dem Verständnis des BGH gezählt werden. Grundsätzlich bedarf eine Erfindung zweier wesentlicher Eigenschaften: Sie muss einerseits einen schöpferischen Charakter aufweisen und andererseits muss das schöpferisch Neue Gegenstand einer technischen Lehre sein.111 Das Merkmal des schöpferischen Charakters ist nicht mit dem Genieverständnis des Urheberrechts vergleichbar. Voraussetzung ist, dass die Erfindung etwas neues Schaffen muss, mag es auch durch Zufall oder durch Einsatz auch geringsten Aufwands sein.112 Ein erfinderischer Überschuss über den des neuen Zwecks hinausgehend wird nicht gefordert.113 Die neu gefundene technische Lehre wiederum muss einem geeigneten Vergleichspublikum die Möglichkeit geben, die bisher ungelöste Aufgabe mit den in der Erfindung genannten Mitteln replizieren zu können.114 bb) Patentschutz von Systemen Künstlicher Intelligenz (1) Nationales Patentrecht Ob Computerprogramme unter den patentrechtlichen Technizitätsbegriff fallen, ist Ausgangspunkt eines langandauernden und unübersichtlichen Streits. Der Wunsch, Computerprogramme patentrechtlich schützen zu können, entspringt der Natur des Urheberrechts, nach dessen Regelungen Computerprogramme gem. den §§ 69a  ff. UrhG (vgl. vertiefend S. 59 ff.) zwar gegen eine unerlaubte Vervielfältigung geschützt werden115, die einer Software zugrunde liegende Grundfunktionalität hingegen nicht schutzfähig ist. Mit Inkrafttreten der EPÜ und der 108

BGH Beschl. v. 11. 5. 2000 – X ZB 15/98, GRUR 2000, 1007 (1008) – Sprachanalyseeinrichtung. 109 BGH Beschl. v. 17. 10. 2001 – X ZB 16/00, GRUR 2002, 143 (144) – Suche fehlerhafter Zeichenketten. 110 BGH Beschl. v. 27. 3. 1969 – X ZB 15/67, GRUR 1969, 672 – Rote Taube. 111 BeckOK Patentrecht / Einsele, § 1 PatG Rn. 27. 112 BeckOK Patentrecht / Einsele, § 1 PatG Rn. 27. 113 BGH Urt. v. 19. 1. 2016 – X ZR 141/13, GRUR 2016, 475 (481) – Rezeptortyrosinkinase. 114 BeckOK Patentrecht / Einsele, § 1 PatG Rn. 27. 115 Lehmann, NJW 1991, 2112 (2114).

74

Kap. 5: Rechtliche Problemstellungen

Anpassung des PatG und Einführung des § 1 Abs. 3 Nr. 3, welcher Programme für Datenverarbeitungsanlagen zu nicht schützbaren Erkenntnissen erklärt, wurde der Streit nicht schlechterdings beendet, da gem. § 1 Abs. 4 PatG Computerprogramme nicht im Ganzen, sondern nur „als solche“ von einem möglichen Patentschutz ausgenommen wurden.116 Unerheblich für die Lösung der Problematik ist es, ob die der Künstlichen Intelligenz zu Grunde liegende „Erfindung“ neben technischen auch nichttechnische Komponenten enthält. Wurde in früherer Rechtsprechung des BGH noch zwischen technischen und nicht-technischen Faktoren differenziert und eine Patentierbarkeit bei Vorliegen überwiegend nicht-technischer Faktoren abgelehnt117, ist diese Rechtsprechung in späteren Entscheidungen fallen gelassen worden. Nach neuerer Auffassung ist bei der Prüfung auf eine erfinderische Tätigkeit nunmehr der gesamte Erfindungsgegenstand – sowohl technische als nichttechnische Merkmale – unter Einschluss einer etwaigen Rechenregel zu berücksichtigen.118 Schutzfähig ist ein Computerprogramm nach BGH vielmehr erst dann, wenn es, über die für die Patentfähigkeit notwendige grundsätzliche Technizität hinaus, verfahrensbestimmende Codeelemente enthält, welche die Lösung eines konkreten technischen Problems mit technischen Mitteln zum Gegenstand haben.119 Wesentliches Element der Rechtsprechung des BGH ist folglich, ob der Sprachassistent lediglich die technischen Gegebenheiten, z. B. die eines Smartphones bzw. der Datenserver des Betreibers, ausnutzt oder selbst auf technische Gegebenheiten außerhalb der Geräte, in welchen er verbaut wurde, vornimmt.120 Handelt es sich hingegen um „bloße“ Software, welche im Rahmen ihrer Funktionalität lediglich die Funktionalitäten des Computers nutzt, unterfällt das Programm in der Regel dem Ausschlusstat­ bestand des § 1 Abs. 3 Nr. 3 i. V. m. Abs. 4 PatG und ist nicht schutzfähig.121 Diese Gesetzeslage gilt es nun auf Sprachassistenten konkret umzusetzen. Zwar gibt es zum jetzigen Zeitpunkt keine dezidierte Rechtsprechung zu diesem Thema, es kann jedoch versucht werden, ähnlich gelagerte Fälle heranzuziehen. Bereits im Jahr 2001 wurde ein Patent für einen Kommunikationsassistenten beantragt. Dieser sollte im gewerblichen Umfeld das Klick-Verhalten eines Kunden in einem Online-Shop beobachten und auswerten. Kommt der Computer zum Ergebnis, dass der Kunde zögerlich handelt und ein Kaufabschluss unwahrscheinlich wird, sollte der Assistent ein Chatfenster mit Hilfeoptionen starten. Ein solcher Chat-Bot ist in seinen rudimentärsten Funktionen durchaus mit einem Sprachassistenten vergleichbar. Ähnlich einem Sprachassistenten werden Eingaben auf Seiten des Nutzers protokolliert, computergestützt auf den Rechnern des Betreibers ausgewertet 116

Benkard / Bacher, § 1 PatG Rn. 105. BGH Urt. v. 11. 3. 1986, GRUR 1986, 531 – Flugkostenminimierung. 118 BGH Urt. v. 4. 2. 1992 – X ZR 43/91, GRUR 1992, 430 – Tauchcomputer. 119 BGH Beschl. v. 20. 1. 2009 – X ZB 22/07, GRUR 2009, 479 (480) – Steuerungseinrichtung für Untersuchungsmodalitäten. 120 Hetmank / L auber-Rönsberg, GRUR 2018, 574 (575). 121 BPatG Beschl. v. 10. 1. 2012 – 17 W (pat) 74/07, BeckRS 2012, 6199. 117

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

75

und eine Antwort (hier: Start des Kommunikationsvorgangs) ausgegeben. Interessant ist insbesondere, dass die Antragstellerin im Laufe des Verfahrens auch vorgebracht hat, dass die Entscheidungsfindung durch Implementierung einer lernenden Struktur unterstützt wird. Insofern das BPatG als Vorinstanz noch angenommen hat, bei der genannten Funktionalität handle es sich bereits nicht um eine technische Lehre, da das Verfahren durch eine (verkaufs-) psychologische Auswertung des Verhaltens von Kunden bei der Abwicklung von Geschäften und nicht durch technische Überlegungen geprägt sei122, erteilt der BGH dieser Rechtsauffassung erfreulicherweise eine Absage. Das beabsichtigte Endziel sieht der BGH nicht als wesentlich an und nimmt den technischen Charakter der verwendeten Rechner­ systeme als unproblematisch gegeben an. Allerdings genügt die technische Prägung des Kommunikationsassistenten laut BGH nicht, um die beanspruchte Lehre dem Patentschutz zugänglich zu machen, da sich das zu Grunde liegende Problem auf die Informationserfassung und -übermittlung mit Hilfe der elektronischen Datenverarbeitung beschränkt.123 Auch die Implementierung eines lernenden Systems wird als unzureichend betrachtet, da dieser eine Eigentümlichkeit fehle und sich der Fachmann laut BGH in der Regel bereits marktbekannter – auch komplexerer – Algorithmen bediene, welche nicht dem Patentschutz zugänglich seien.124 Über ein weiteres thematisch naheliegendes Verfahren hatte des BPatG zu entscheiden. Der Anmelder begehrte Schutz für ein System Künstlicher Intelligenz, welchem ein menschlicher bzw. tierischer Lernprozess zu Grunde gelegt wurde. Das System sollte mittels Programmiersprachen in der Lage sein, alle Beschreibungen zu einem Objekt zu vernetzen und könnte in diversen Anwendungsbereichen, z. B. Technik, Elektronik, Medizin und Raumfahrt Verwendung finden. Hervorzuheben ist, dass das Vorbringen der Beschwerdeführer für die Entscheidung des Gerichts nicht berücksichtigt werden konnte, da die weiteren Ausführungen zur Funktionsweise der Künstlichen Intelligenz verspätet erfolgten, den Rahmen der ursprünglichen Offenbarung überstieg und die Patentanmeldung unzulässig erweiterte.125 Soweit ursprünglich beantragt wurde, dass eine Künstliche Intelligenz mittels IT-Programmierung mit damalig gängigen Programmiersprachen erstellt wird, wurde dies absehbar seitens des BPatG mit den oben bereits genannten Grundsätzen abgelehnt.126 Das Bemerkenswerte an der Entscheidung ist jedoch, dass das BPatG auch Stellung dazu bezogen hat, dass das beanspruchte System in der Lage sein wird, eigene Entscheidungen zu treffen und insbesondere auch eigenständig neue Prozesse zu erzeugen und in der Praxis umzusetzen. Hier ver 122

BPatG Beschl. v. 20. 5. 2003 – 17 W (pat) 44/02, CR 2004, 412 (413) – Bedienhandlungen. BGH Beschl. v. 19. 4. 2004 – X ZB 33/03, GRUR 2005, 141 (142) – Anbieten interaktiver Hilfe. 124 BGH Beschl. v. 19. 4. 2004 – X ZB 33/03, GRUR 2005, 141 (143) – Anbieten interaktiver Hilfe. 125 BPatG Beschl. v. 9. 6. 2015 – 17 W (pat) 37/12, BeckRS 2015, 13810 – Keine Patenterteilung für künstliche Intelligenz. 126 BPatG Beschl. v. 9. 6. 2015 – 17 W (pat) 37/12, BeckRS 2015, 13810 – Keine Patenterteilung für künstliche Intelligenz. 123

76

Kap. 5: Rechtliche Problemstellungen

kennt das BPatG das Wesen und die schützenswerten Vorteile einer KI und stellt bei der Bewertung auf die Rechtsprechung des BGH in seiner Entscheidung „Webseitenanzeige“ ab. In diesem Zusammenhang hat der BGH die Zeitersparnis des Nutzers bei schnellerem Auffinden einer Webseite und die damit einhergehende Entlastung des Internets lediglich als mittelbare Folge und nicht als Gegenstand der patentmäßigen Anweisungen angesehen.127 Dies heranziehend, geben die anmeldungsgemäßen Anweisungen laut BPatG „keine konkrete technische Problemlösung, sondern definieren im günstigen Fall ein Umfeld, das erst durch weitere […] Maßnahmen zu einer technischen Problemlösung in der Lage sein könnte.“128 Dem muss entgegengehalten werden, dass beide Sachverhalte nicht gleichgelagert waren. Sorgte das in Frage stehende Patent, über welches der BGH zu entscheiden hatte, lediglich zu einem schnelleren Auffinden von Webseiten und bedurfte die beschriebene mittelbare Folge denklogisch ein Dazutreten eines Nutzers, ist es einer Künstlichen Intelligenz bei entsprechender Programmierung durchaus möglich, eigene Kreationen und Lösungen zu entwickeln. Mag auch die Natur der seitens der KI kreierten Entwicklung zum Zeitpunkt der Patentanmeldung noch unbekannt sein, so sind die notwendigen Faktoren bereits im Quellcode angelegt und nicht davon abhängig, ob ein Nutzer nun tatsächlich die Vorteile in Anspruch nimmt und dadurch eine denkbare Folge – wie beispielsweise Entlastung des Netzes durch geringere Suchzeiten – hervorruft. (2) Europäisches Patenrecht Bestrebungen auf europäischer Ebene eine harmonisierende Richtlinie in Bezug auf computergestützte Erfindungen zu verwirklichen, sind in mehreren Anläufen gescheitert.129 Auch eine Änderung des Europäischen Patentübereinkommens in Art. 52 EPÜ ist im Jahr 2001 gescheitert130. Bezüglich der Möglichkeit eines europäischen Patentschutzes – diese Unterscheidung zwischen nationalem und europäischen Patentrecht ist nötig, da, wie bereits oben aufgeführt, PatG und EPÜ unabhängig nebeneinander stehen – hat sich in jüngerer Zeit die Große Beschwerdekammer des Europäischen Patentamts (EPA) geäußert, leider jedoch auch keine endgültige Klarheit geschaffen, sondern sich weitgehend auf die Feststellung der Unzulässigkeit der Fragestellungen beschränkt.131 Das Vorliegen der nach Art. 52 Abs. 1 EPÜ zu fordernden Technizität ist im Rahmen von Computerprogrammen inzwischen vergleichsweise einfach zu erreichen. Nachdem die Spruchpraxis des Europäischen Patentamts (EPA) in frühe 127

BGH Urt. v. 24. 2. 2011 – X ZR 121/09, GRUR 2011, 610 (613) – Webseitenanzeige Rz. 30. BPatG Beschl. v. 9. 6. 2015 – 17 W (pat) 37/12, BeckRS 2015, 13810 – Keine Patenterteilung für künstliche Intelligenz. 129 Benkard / Bacher, § 1 PatG Rn. 106. 130 Gruber / Z umbusch / Haberl u. a., Europäisches und internationales Patentrecht, 12.04. 131 EPA Stellungnahme v. 12. 5. 2010 – G 0003/08, 1 – Computerprogramme. 128

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

77

ren Entscheidungen diesbezüglich noch restriktiv war – beispielsweise wurde ein Patentschutz abgelehnt, wenn das Programm lediglich Schriftzeichen auf einem Datensichtgerät darstellt und mit einer Anzeigeeinrichtung verbunden ist132 – hat das EPA zwischenzeitlich eingelenkt. Nach neuer Rechtsprechung genügt bereits der Einsatz technischer Mittel in einem Verfahren, um zu einem technischen Vorgang oder Verfahren zu werden und im Hinblick auf Art. 52 Abs. 1 EPÜ patentierbar zu sein.133 Folglich ist die Technizität sprichwörtlich zur „kleinen Münze“ im Rahmen der Erteilung eines europäischen Patents verkommen und liegt bereits vor, wenn ein computerimplementiertes Verfahren – insbesondere auch, wenn das Verfahren ansonsten grundsätzlich keinen technischen Charakter aufweist – Verwendung findet.134 Im Rahmen der Vergabe eines Patentes unterscheidet das EPA jedoch ebenfalls und weiterhin strikt zwischen schutzunfähiger Software und schutzfähigen computerimplementierten Erfindungen.135 So hat das EPA im Zuge der Clipboard formats I / MICROSOFT-Entscheidung geurteilt, dass „a method implemented in a computer system represents a sequence of steps actually performed and achieving an effect, and not a sequence of computer-executable instructions (i. e. a computer program) which just have the potential of achieving such an effect when loaded into, and run on, a computer. Thus, the Board holds that the claim category of a computer-implemented method is distinguished from that of a computer program. Even though a method, in particular a method of operating a computer, may be put into practice with the help of a computer program, a claim relating to such a method does not claim a computer program in the category of a computer program.“136 Folge dessen ist, dass ein Computerprogramm auch auf europäischer Ebene nur patentrechtlichen Schutz erhalten kann, wenn das Programm noch einen über die bloße Ausführung auf einem Computer hinausgehenden Effekt bzw. Auswirkungen auf die technische Umgebung haben muss. (3) Kurzfazit Nach der derzeit vertretenen Auffassung sowohl des nationalen als auch europä­ ischen Patentrechts ist ein patentrechtlicher Schutz von Sprachassistenten schwerlich denkbar. Hierfür müssten Sprachassistenten derart konzipiert werden, dass sie entweder auf die spezifischen technischen Gegebenheiten der Datenverarbeitungsanlage Rücksicht nehmen oder technische Gegebenheiten außerhalb der Daten 132

EPA Entsch. v. 12. 12. 1989  – T 0158/88, BeckRS 1989, 30529534  – Schriftzeichenform / SIEMENS. 133 EPA Entsch. v. 21. 4. 2004 – T 258/03 – 3. 5. 1, EPA ABl. 2004, 575 (582) – Auktionsverfahren / H ITACHI. 134 Benkard / Ehlers / K inkeldey / Melullis, Art. 52 EPÜ Rn. 277. 135 Benkard / Ehlers / K inkeldey / Melullis, Art. 52 EPÜ Rn. 277. 136 EPA Entsch. v. 23. 2. 2006 – T 0424/03 – Clipboard formats I / MICROSOFT.

78

Kap. 5: Rechtliche Problemstellungen

verarbeitungsanlage bestimmen. Beides wird sich jedoch kaum verwirklichen lassen, da sich die Programmierung von Sprachassistenten in der Mehrheit darauf konzentrieren wird, möglichst ausgefeilte Programmstrukturen zu erschaffen137, welche die Rechenleistung der Betreiberserver zwar in Anspruch nehmen, jedoch keine geforderten spezifischen Auswirkungen auf diese haben.

II. Schutz der von Künstlicher Intelligenz generierten Daten Bedeutsamer sind die Herausforderungen, welche durch eine fortwährende Verbesserung der Künstlichen Intelligenzen und zunehmende Digitalisierung auch im Bereich des Immaterialgüterrechts zu erwarten sind. War es bisher undenkbar, dass eine Maschine kreative oder erfinderische Tätigkeiten wahrnimmt, werden in Zukunft Maschinen zunehmend auch auf diesen Sektoren eigenständige Ergebnisse ohne Anleitung produzieren, für welche es vormals der menschlichen Einflussnahme bedurft hätte.138 Als Beispiele seien etwa die KI und Big Data unterstützte Findung personalisierter Behandlungstherapien139 sowie die autonome Komposition von Musikwerken genannt.140 Die Übernahme dieser Tätigkeiten wird durch komplexere Algorithmen, welche mittels Machine Learning darauf spezialisiert werden, Muster zu erkennen und vorherzusagen, ermöglicht.141 In Zukunft ist es nicht auszuschließen, dass derartige Spezialisten-Systeme auf Grund technischen Fortschritts zum gebräuchlichen Repertoire eines Sprachassistenten für Endverbraucher gehören. 1. Urheberrecht Ausgangspunkt, welchem Rechtssubjekt Urheberrechte rechtlich zuzuordnen sind, ist § 7 UrhG. Nach diesem ist Urheber, und damit grundsätzlich originär Berechtigter, derjenige, der Schöpfer des gegenständlichen Werkes ist. Diesem Prinzip folgend beruht das nationale Urheberrecht auf dem Schöpferprinzip, nach welchem der Urheber diejenige natürliche Person ist, die das Werk im Wege einer persönlichen geistigen Leistung i. S. d. § 2 Abs. 2 UrhG geschaffen hat.142 137

Hetmank / L auber-Rönsberg, GRUR 2018, 574 (575). Manyika / Chui / Bughin u. a., Disruptive technologies: Advances that will transform life, business, and the global economy, 2013, S. 40. 139 Rauner, Zum Arzt? Ihr Doppelgänger geht schon!, https://www.zeit.de/zeit-wissen/ 2017/05/medizin-genomanalyse-digital-zwilling-zukunft-arzt-dna/komplettansicht (Stand: 27. 09. 2020). 140 Zakharyan, AIVA: Die Künstliche Intelligenz komponiert die Musik der Zukunft, https://www.pcwelt.de/a/aiva-die-kuenstliche-intelligenz-komponiert-die-musik-der-zukunft, 3450745 (Stand: 27. 09. 2020). 141 Hetmank / L auber-Rönsberg, GRUR 2018, 574 (574). 142 Wandtke / Bullinger / T hum, § 7 UrhG Rn. 1. 138

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

79

a) Sprachassistenten als Schöpfer Maschinen und Apparate, somit folglich auch Sprachassistenten, können nach dem europäischen und nationalen Urheberrecht prinzipiell nicht Schöpfer eines Werkes sein, da es ihnen an der menschlich gestalterischen Tätigkeit fehlt.143 Anerkannt ist, dass die Verwendung von Hilfsmitteln einem Urheberrecht des Verwenders nicht entgegensteht, sofern der Mensch den Computer als reines Hilfsmittel einsetzt.144 Voraussetzung ist, dass die wesentlichen Schritte durch den menschlichen Schöpfer eindeutig geplant und festgelegt werden.145 Dies gilt auch für Werke, die durch den Einsatz von Computerprogrammen erstellt worden sind und welche nur durch den Einsatz weiterer Programme – beispielsweise eine Grafikdatei – wahrnehmbar sind.146 Schwache Formen der Künstlichen Intelligenz lassen sich bereits heute auf zwei Arten nutzen. Zum einen kann das System zur reinen Unterstützung verwendet werden, ohne jeglichen Einfluss des Systems auf die gestalterische Ausprägung. Diktiert der Verwender beispielsweise seinen neuen Roman, formuliert der Sprachassistent keine Inhalte selbst. Die Schöpfung verbleibt rein bei seinem menschlichen Nutzer. Diese computer-aided works unterscheiden sich nicht von der herkömmlichen Schöpfungsart147, da es urheberrechtlich keinen Unterschied darstellt, ob ein Schriftstück handschriftlich, durch Verwendung eines Textbearbeitungsprogramms oder durch Verwendung einer Diktierfunktion niedergeschrieben wird. Zum anderen kann es sich auch beim Einsatz schwacher Künstlicher Intelligenz um reine computer-generated works handeln. Bei diesen spielt der Schaffende dem Programm zwar mitunter noch beispielhafte Werke ein, welche der Assistent jedoch eigenständig zu neuartigen Werken umwandelt. Diese sind dem Urheberrecht insoweit nicht zugänglich, da kein Mensch bei der Schöpfung vorausschauend mitgewirkt hat.148 Eine letztverbindliche Aussage bezüglich des Schöpfungsaktes kann an dieser Stelle somit nicht gegeben werden, da es maßgeblich auf den Grad der Autonomie des Sprachassistenten ankommt.149 Entwickelt sich der Sprachassistent selbst weiter und verfeinert seine eigenen Algorithmen über die ursprünglich geschaffenen Inhalte hinaus, so kann es sich hierbei zwar um eigenständiges Werk handeln, an welchem jedoch nach derzeitigem Recht keine Urheberrechte – mangels einer eigenen geistigen Schöpfung – entstehen können.150

143

Schricker / Loewenheim / L oewenheim, § 2 UrhG Rn. 39. Dreier / G. Schulze / G. Schulze, § 2 UrhG Rn. 8; Wandtke / Bullinger / Bullinger, § 2 UrhG Rn. 16. 145 Schricker / Loewenheim / L oewenheim, § 2 UrhG Rn. 40. 146 Wandtke / Bullinger / Bullinger, § 2 UrhG Rn. 16. 147 Dreier, in: Leser / Tamotso Isomura / Tamotsu Isomura u. a. (Hrsg.), Wege zum japanischen Recht, 869 (884). 148 Fierdag, Die Aleatorik in der Kunst und das Urheberrecht, S. 75. 149 Ory / Sorge, NJW 2019, 710 (711). 150 Schaub, JZ 2017, 342 (347). 144

80

Kap. 5: Rechtliche Problemstellungen

b) Ersteller oder Nutzer des Sprachassistenten als Rechtsinhaber Eine weitere, nach dem derzeitigen Recht jedoch hypothetische, Frage drängt sich auf: Wem würde das Urheberrecht an maschinengenerierten Daten zustehen? Denkbar wäre, das Recht entweder dem Rechteinhaber des Sprachassistenten oder dem jeweiligen Nutzer zuzusprechen.151 Unproblematisch kann dann eine klare Aussage getroffen werden, wenn es sich um einen sehr schwachen Grad der Automatisierung des Sprachassistenten handelt. In diesem Fall steht das Urheberrecht, wie zuvor ausgeführt, demjenigen zu, der sich des Sprachassistenten als Hilfsmittel bedient hätte. Zu vergleichen ist diese Konstellation mit einem Texterstellungs-­ Programm. Das Urheberrecht an einem literarischen Werk steht dem Verwender des Programms zu, auch wenn er das Programm selbst nicht entwickelt hat, sondern nur durch eingeräumte Nutzungsrechte verwenden darf. Nach Dornis könnte sich die Bestimmung nach dem Grad der jeweiligen Mitwirkung bestimmen. Hat der Programmierer des Sprachassistenten damit die wesentlichen Parameter des neu entstandenen Gutes vorgegeben, so steht ihm auch das Recht an dem neuen emergenten Werk zu, bei einer rein autonomen Erfindung der KI hingegen nicht.152 Bridy stellt ihrerseits darauf ab, ob das prozedural generierte Werk auf dem ursprünglichen Programmcode beruht und somit von diesem ableitbar ist. Dafür müsste das neue Werk jedoch Teile des alten Codes enthalten. Dies ist bei „Schöpfungen“ der KI jedoch gerade nicht der Fall, da diese nicht den Programm-Code des Sprachassistenten kopieren, sondern neue kreative Inhalte erschaffen.153 Yanisky-Ravid kristallisiert vier Parteien heraus, welche mögliche Ansprüche an den Erzeugnissen einer Künstlichen Intelligenz haben könnten: Erstens die Programmierer, zweitens die für die Neuronalen Netze zuständigen Trainer, drittens die „feedback provider“, die dafür verantwortlich sind, der KI mitzuteilen, ob ihre Aussage richtig oder falsch war und als letztes der Verwender der KI selbst.154 Diese Vielzahl an beteiligten Personen sowie die autonome und unberechenbare Natur der KI selbst führt nach Yanisky-Ravid zu einer Unmöglichkeit der eindeutigen Zuteilung der Rechte und der Verantwortlichkeit. Am ehesten sieht er den Programmierer als maßgeblichen Faktor an, welchem die Rechte an emergenten Werken zufallen könnten.155 All diese Überlegungen können jedoch, seien sie auch interessante Konzepte, den Anforderungen in der Praxis nicht gerecht werden. Das Rechtsystem steht hier vor einem Dilemma. Nicht nur ist es nach nationalem und europäischen Recht nicht möglich, für autonome Erzeugnisse ein Urheberrecht einzuräumen, es ist überdies vollkommen ungeklärt, wem Verwertungsrechte zustehen könnten. Dieser Zustand ist jedoch nicht förderlich. Zum einen muss das Recht Anreize, bieten neue Techniken zu entwickeln und de 151

Butler, Hastings Communications and Entertainment Law Journal 4 (1982), 708 (742). Dornis, GRUR 2019, 1252 (1261). 153 Bridy, Stanford Technology Law Review 5 (2012), 1 (25) Rn. 64. 154 Yanisky-Ravid, Michigan State Law Review 2017, 659 (692). 155 Yanisky-Ravid, Michigan State Law Review 2017, 659 (693). 152

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

81

ren Ergebnisse nicht nur rechtsicher verwerten zu können, sondern zum anderen auch gegen Dritte abzusichern. Auf der anderen Seite scheint es nicht sachgerecht, dem Programmierer der KI als alleinigen Rechteinhaber anzusehen. Es sollte nicht dem Vertragsrecht überlassen werden, bei der Vergabe von Nutzungslizenzen die Rechte an entstanden Produkten regeln zu müssen. Undenkbar wäre es, Rechte an musikalischen Werken dem Entwickler der Aufnahmesoftware zuzuschreiben und nicht dem jeweiligen Künstler, welcher sich der Software im Rahmen eines Nutzungsvertrages bedient. Der Gesetzgeber steht hier vor der Aufgabe, sich an die veränderten Schöpfungswirklichkeiten anzupassen. Diese Arbeit propagiert die Ausgestaltung eines Urheberrechts für ePersonen, um zum einen ein Entstehen von Rechten zu ermöglichen und zum anderen, diese interessengerecht zuzuteilen. Vergleiche hierzu die Ausführungen auf den S. 248 f. c) Exkurs: Schutz der vorbestehenden Werke Im Zuge des Machine Learnings werden die Algorithmen neuronaler Netzwerke durch die Eingabe von Daten trainiert. Um hinreichende Ergebnisse zu erhalten ist es notwendig, genügend Daten für die unterschiedlichen Funktionsbereiche zur Verfügung zu haben.156 Die Ausprägung der künstlerischen Fähigkeiten bedarf eines Zugriffs auf eine beträchtliche Anzahl bereits bestehender Werke, die ihrerseits dem Urheberrecht unterliegen können. Aber auch während des Betriebes eines Sprachassistenten ist nicht ausgeschlossen, dass bei der Generierung von Antworten auf Werke Dritter, ob in Anlehnung oder Entnahme, zurückgegriffen wird. Unproblematisch ist dies bei Werken, deren urheberrechtlicher Schutz bereits beendet ist. Nach § 64 UrhG erlischt das Urheberrecht 70 Jahre nach dem Tod des Urhebers. Die Frist beginnt, abweichend von § 187 BGB, nicht mit dem Todestag des Urhebers oder dem darauffolgenden Tag157, sondern mit Ablauf des Kalenderjahres, in dem der Tod des Urhebers eingetreten ist, § 69 UrhG. Diese Werke dürfen seitens des Sprachassistenten zu Lernzwecken ohne Einschränkungen durch Verwertungs- oder Persönlichkeitsrechte verwendet werden. Bei geschützten Werken kommt insbesondere ein Eingriff in das Recht auf Vervielfältigung, § 16 UrhG, sowie das Verbot der Bearbeitung und Umgestaltung, § 23 UrhG, in Betracht.158 Diese beiden Rechte sind nicht trennscharf gegeneinander abzugrenzen, da insofern jede Bearbeitung oder andere Umgestaltung i. S. d. § 23 S. 1 UrhG – sofern sie körperlich festgelegt ist – zugleich eine Vervielfältigung nach § 16 UrhG darstellt.159 156 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 13. 157 Dreier / G. Schulze / Dreier, § 64 UrhG Rn. 4. 158 Ory / Sorge, NJW 2019, 710 (712). 159 BGH Urt. v. 16. 5. 2013 – I ZR 28/12, NJW 2013, 3789 (3791) – Beuys-Aktion Rz. 36.

82

Kap. 5: Rechtliche Problemstellungen

Das Vervielfältigungsrecht gewährt dem Rechteinhaber das ausschließliche Recht, Vervielfältigungsstücke des Werkes herzustellen, gleichwohl ob vorübergehend oder dauerhaft, § 16 Abs. 1 UrhG. Eine Vervielfältigung stellt jede körperliche Festlegung eines Werkes, die geeignet ist, das Werk den menschlichen Sinnen auf irgendeine Art mittelbar oder unmittelbar wahrnehmbar zu machen, dar.160 Es macht keinen Unterschied, dass die Werke in digitaler Form abgespeichert werden, da eine digitale Speicherung dazu geeignet ist, ein Werk den menschlichen Sinnen durch Einsatz der Peripherie wahrnehmbar zu machen.161 Die zeitliche Dauer der Festlegung ist unerheblich. So urteilte der EuGH, dass Art. 2 lit. a der InfoSocRL, auf welcher das nationale Urheberrecht beruht, dahingehend auszulegen ist, dass sich das Vervielfältigungsrecht auch auf flüchtige Fragmente von Werken im Speicher eines Gerätes erstreckt, sofern diese Fragmente Elemente enthalten, die die eigene geistige Schöpfung der betreffenden Urheber zum Ausdruck bringen.162 Die Rechtfertigung einer flüchtigen Kopie oder Zwischenspeicherung nach § 44a UrhG wird in der Regel daran scheitern, dass die Benutzung seitens eines Sprachassistenten eine eigene wirtschaftliche Bedeutung hat. Anders als das bloße Betrachten einer öffentlich zugänglichen Webseite163, unterscheidet sich der Vorteil einer Verwendung eines Werkes durch einen Sprachassistenten – zum Zwecke der Anlernung oder Schaffung eines eigenen Werkes – von dem Vorteil einer rechtmäßigen Nutzung des Werkes und erzeugt einen zusätzlichen wirtschaftlichen Vorteil.164 Anders als ein menschlicher Werkschaffender konsumiert eine KI ein Werk nicht nur zur Inspiration und Ideensammlung  – welche urheberrechtsfrei wäre – sondern analysiert das Werk vielmehr tiefgehend, speichert die gewonnen Informationen ab und kann diese in ein neues Werk, ohne Rücksicht auf Plagiate, einfügen.165 Zu den Möglichkeiten einer kommenden Text und Data-MiningSchranke vgl. die Ausführungen auf S. 54. Fertigt ein Sprachassistent eine Übersetzung eines Textes an oder ändert beispielsweise ein zeitgenössisches Bildwerk ab, so kann dieser Handlung § 23 UrhG entgegenstehen. Hiernach bedürfen Bearbeitungen und andere Umgestaltungen der Einwilligung des Urhebers des bearbeiteten oder umgestalteten Werkes, § 23 S. 1 UrhG. Ob es sich bei § 23 UrhG um ein eigenes Verwertungsrecht166 oder – mangels Aufführung in § 15 UrhG – nicht167 handelt, kann als akademischer Meinungsstreit dahinstehen und hat keine praktischen Auswirkungen.168 Eine Ausnahme von § 23 160

BGH Urt. v. 4. 5. 2000 – I ZR 256/97, NJW 2000, 3783 (3784) – Parfumflakon. Nennen, in: Bisges (Hrsg.), Handbuch Urheberrecht, 133 (178). 162 EuGH Urt. v. 4. 10. 2011  – C-403/08 und C-429/08, ZUM 2011, 803 (817)  – Premier League Rz. 159. 163 EuGH Urt. v. 5. 6. 2014 – C-360/13, GRUR Int. 2014, 694 (697) – Public Relations Consultants Association / Newspaper Licensing Agency Rz. 60 ff. 164 Dreyer / Kotthoff / Meckel / Hentsch / Dreyer, § 44a UrhG Rn. 16. 165 Ory / Sorge, NJW 2019, 710 (712). 166 Fromm / J. Nordemann / A . Nordemann, § 24 UrhG Rn. 2. 167 Möhring / Nicolini / Ahlberg, § 23 UrhG Rn. 2. 168 Heckmann / Heckmann / Paschke, Kapitel 3.1 Rn. 227. 161

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

83

UrhG – an welche im Rahmen von Sprachassistenten sogleich zu denken ist – stellt § 24 UrhG dar. Mit dieser Vorschrift soll ein Ausgleich zwischen den monopolistischen Interessen der Rechteinhaber auf der einen und den kulturellen Interessen auf der anderen Seite geschaffen werden.169 Um die Vorzüge dieser freien Benutzung zu genießen, müssen zwei wesentliche Kriterien erfüllt werden: Es hat sich zum einen um ein selbstständiges Werk zu handeln, welches zum anderen unter freier Benutzung des Werkes eines anderen entstanden ist, § 24 Abs. 1 UrhG. Nach Rechtsprechung des BGH170 ist bezüglich des „selbstständigen Werkes“ zu fordern, dass der Urheber lediglich eine fremde Idee nutzt, ausgestaltet und verarbeitet, gleichzeitig jedoch auch ein auf eigener schaffender Tätigkeit beruhendes neues Werk geschaffen wird, in welchem die eigenpersönlichen Züge des geschützten älteren Werkes verblassen.171 Diese auf früherem Recht beruhende Rechtsprechung ist auch auf geltendes Urheberrecht übertragbar und hat zur Folge, dass das neue Werk eine persönliche geistige Schöpfung i. S. d. § 2 Abs. 2 UrhG darstellen muss.172 Dieses Erfordernis schränkt den Anwendungsbereich bei Ergebnissen Künstlicher Intelligenz stark ein. Allenfalls im Bereich von Sprachassistenten, deren Autonomie so gering ist, dass das entstandene Werk einer natürlichen Person zugerechnet werden kann und die Tätigkeit des Sprachassistenten als die eines reinen Hilfsmittels verblasst, ist die Anwendbarkeit des § 24 UrhG denkbar. Für alle anderen Fälle, obwohl sie von den faktischen Ergebnissen gleichbedeutend sind, ist die Rechtslage nach geltendem Urheberrecht ungeklärt. Eine weitere Einschränkung ergibt sich auf Grund des § 24 Abs. 2 UrhG. Hiernach gelten die Ausnahmen der freien Benutzung nicht für Werke der Musik, durch welche eine Melodie erkennbar dem Werk entnommen und einem neuen Werk zu Grunde gelegt wird. An dieser Regelung kann kritisiert werden, dass ein starrer Melodieschutz im Gegensatz zu anderen Werkarten keiner eigenen Regelung bedurft hätte und die bestehenden Verwertungsrechte durchaus zu einem angemessenen Schutz führen würden.173 Der umfassende Schutz von Musikwerken zeigt sich besonders in der Thematik des Sampling. Unter einem Sample versteht die Rechtsprechung ein kurzes Tonfragment, welches einem existierenden Musikwerk entnommen wurde und einem neuen Song zu Grunde gelegt wird.174 Nach einem jahrelangen Streit vor den nationalen Gerichten hatte der EuGH in dieser Thematik zu entscheiden. Unter Einbeziehung der widerstreitenden Interessen, somit auch der Kunstfreiheit dessen, der mittels Sampling ein eigenes Werk schaffen möchte, hat der EuGH entschieden, dass selbst die Nutzung eines sehr kurzen Audiofragments eines Dritten eine urheberrechtlich relevante Handlung ist. Lediglich wenn 169

Dreier / G. Schulze / G. Schulze, § 24 UrhG Rn. 1. Diese erging noch bezüglich § 13 LUG nach welchem eine freie Benutzung zulässig war, wenn „dadurch eine eigenthümliche Schöpfung hervorgebracht wird“. 171 BGH Urt. v. 23. 6. 1961 – I ZR 105/59 1961, 631 (633) – Fernsprechbuch. 172 Möhring / Nicolini / Ahlberg, § 24 UrhG Rn. 2. 173 Kleine, JZ 1966, 289 (292). 174 Homar, ZUM 2019, 731. 170

84

Kap. 5: Rechtliche Problemstellungen

das entnommene Fragment in nicht wiedererkennbarer Form eingefügt wird, liegt somit eine erlaubnisfreie Handlung vor.175 Die Schutzhöhe der „kleinen Münze“ ist folglich im Bereich der Musikwerke bereits bei einem nur wenige Sekunden langem Stück erreicht. Auf Grund des Ausscheidens einer freien Benutzung im Rahmen von Musikwerken ist der Einsatz selbst schwach automatisierter Sprachassistenten wenig geeignet, ein rechtmäßiges neues Werk zu kreieren. 2. Leistungsschutzrecht Für von Sprachassistenten generierte Inhalte kommt hier insbesondere das Leistungsschutzrecht für Lichtbilder nach § 72 UrhG und des Datenbankherstellers gem. §§ 87a ff. UrhG in Betracht. Hierbei wird zu Grunde gelegt, dass der Sprachassistent neben der Bewältigung von administrativen Unterstützungshandlungen auch fähig ist, selbst Inhalte zu schaffen. Diese könnten beispielsweise in der Komposition eigener Musikstücke, der Erstellung von Bildern oder der Übersetzung von Texten liegen. Mithin handelt es sich um Fragen, wie sie sich insbesondere bei einem technisch hochentwickelten Sprachassistenten stellen, welche über die derzeitige – und aus Verbrauchersicht oftmals noch rudimentäre – Implementierung hinausgeht und vielmehr als Ersatz eines menschlichen Assistenten fungiert. a) Kreationen von Sprachassistenten als Lichtbilder 2018 versteigerte das Auktionshaus Christie’s in New York erstmals ein Kunstwerk einer Künstlichen Intelligenz mit dem Titel „Edmond de Belamy“ und erzielte einen Verkaufspreis von 400.000 $. Das brisante an der Thematik ist, dass die das Bild zum Verkauf anbietende Künstlergruppe „Obvious“ sich hierbei den unter Open-Source-Lizenz stehenden Algorithmus eines Dritten zu Nutze gemacht hatte176. Dies wirft die juristische Frage auf, welchem Rechtssubjekt etwaige Verwertungs- und Persönlichkeitsrechte an dem hierdurch geschaffenen Bildes zuzuweisen sind. Bevor allerdings die Frage aufgeworfen werden kann, ob nun der Erschaffer des Algorithmus oder die einsetzende Künstlergruppe Inhaber eines Rechtes ist, muss zuvorderst die Frage geklärt werden, ob überhaupt ein schutzfähiges Recht entstanden ist. Ein Schutz des Werkes als Lichtbildwerk i. S. d. § 2 Abs. 1 Nr. 5 UrhG scheidet mangels einer persönlichen geistigen Schöpfung aus, da sich die Künstler­ gruppe der KI nicht nur als Hilfsmittel bedient hat (vgl. S. 79) sondern die KI selbstständige und ohne weitere Instruktion handelte. Als Ansatzpunkt bietet es sich an, das Leistungsschutzrecht der Lichtbilder aus § 72 UrhG heranzuziehen. 175

EuGH Urt. v. 29. 7. 2019 – C-476/17, MMR 2019, 596 (598) – Metall auf Metall Rz. 39. Graff, Künstliche Intelligenz und Kunst – Urheberrecht 2.0, https://www.sueddeutsche. de/kultur/kuenstliche-intelligenz-kunst-urheberrecht-1.4269906 (Stand: 27. 09. 2020). 176

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

85

Hiernach werden Lichtbilder und Erzeugnisse, die ähnlich wie Lichtbilder hergestellt werden, in entsprechender Anwendung der Urheberverwertungs- und -persönlichkeitsrechte geschützt, § 72 Abs. 1 UrhG. Das Immaterialgüterrecht schützt hiernach Lichtbilder ähnlich der Lichtwerke, obwohl diese nicht die erforder­liche Schöpfungshöhe des eigentlichen Urheberrechts aufweisen.177 Problematisch ist jedoch, ob es sich bei der KI-Kreation überhaupt um ein Lichtbildwerk bzw. ein diesem ähnliches Erzeugnis handelt. Laut BGH zählt hierzu jedes technische Verfahren, bei dem ein Bild unter Benutzung strahlender Energie erzeugt wird.178 Danach handelt es sich nach überwiegender Auffassung nur dann um einen schutzfähigen Gegenstand, wenn Lichtreize, oder andere Strahlungsquellen, so auf die Rezeptoren des Aufnahmegeräts treffen, dass ein Abbild geschaffen wird.179 Nach dieser Definition ist die Kreation einer Künstlichen Intelligenz, welche sich nicht beispielsweise einer eigenen Kamera bedient sondern mittels Einsatz von Rechenleistung virtuelle Designelemente erstellt und die Grafik selbstständig hervorbringt, nicht um ein Lichtbild oder ein damit zu vergleichendes Erzeugnis.180 Diese Einschätzung wird jedoch der Wirklichkeit nicht gerecht. Schon heute ist der Einsatz von Bildbearbeitungsprogrammen bei der Verfeinerung eines Werkes nicht mehr wegzudenken. Professionelle Bilder sind wohl selten das Werk einer einzelnen, die Wirklichkeit abbildenden, Darstellung, sondern vielmehr eine Kollage mehrerer Bilder, welche digital nachbearbeitet und neu zusammengestellt werden (sog. Fotocomposing181). Warum folglich an einer Rechtslage, welche ihre Begründung zu einer Zeit fand, als diese technischen Möglichkeiten höchstens den Fantasien einiger Autoren entsprangen, festgehalten werden und von der Bildbearbeitung den nächsten Schritt zur digitalen Bilderstellung verbieten sollte, erschließt sich nicht. Sowohl Stimmen in der Literatur als auch Rechtsprechung182 sehen diese strikte Abgrenzung zumindest strittig183 und fordern teilweise, dass ein Einsatz von strahlender Energie für das Leistungsschutzrecht aus § 72 UrhG nicht erforderlich ist und somit auch Computerbilder erfasst werden.184 Von einer richterlichen Rechtsfortbildung hat jüngst das Kammergericht Berlin Abstand genommen, da eine Ausdehnung des Rechtschutzes auf computergenerierte Inhalte sich vom Wortlaut des Gesetzes zu weit entferne und die gesetzgeberische Grundentscheidung zu berücksichtigen sei.185 177

Dreyer / Kotthoff / Meckel / Hentsch / Meckel, § 72 UrhG Rn. 1. BGH Urt. v. 8. 11. 1989 – I ZR 14/88, NJW-RR, 1061 (1064) – Bibelreproduktion. 179 BGH Beschl. v. 27. 2. 1962  – I ZR 118/60, GRUR 1962, 470 (472)  – AKI; Dreyer /  Kotthoff / Meckel / Hentsch / Meckel, § 72 UrhG Rn. 6; Fromm / J. Nordemann / A . Nordemann, § 72 UrhG Rn. 8. 180 KG Urt. v. 16. 1. 2020 – 2 U 12/16.Kart, GRUR-RS 2019, 34882 Rz. 58; OLG Köln Urt. v. 20. 3. 2009 – 6 U 183/08, GRUR-RR 2010, 141 (142) – 3D-Messestände; OLG Hamm Urt. v. 24. 8. 2004 – 4 U 51/04, GRUR-RR 2005, 73 (74) – Web-Grafiken; Schricker / Loewenheim /  Vogel, § 72 UrhG Rn. 25. 181 Dreier / G. Schulze / G. Schulze, § 72 UrhG Rn. 8. 182 LG Berlin Urt. v. 20. 6. 2017 – 16 O 59/16, ZUM 2017, 955 (957). 183 Dreier / G. Schulze / G. Schulze, § 72 UrhG Rn. 7. 184 Büchner, ZUM 2011, 549 (552). 185 KG Urt. v. 16. 1. 2020 – 2 U 12/16.Kart, GRUR-RS 2019, 34882 Rz. 59. 178

86

Kap. 5: Rechtliche Problemstellungen

Könnte man das Erfordernis des Vorliegens einer Strahlungsquelle noch überwinden, verlangt die Rechtsprechung überdies, dass für den Lichtbildschutz zwar kein eigenschöpferisches Schaffen i. S. d. § 2 Abs. 2 UrhG erforderlich ist, jedoch ein Mindestmaß an persönlicher geistiger Leistung des Schaffenden Voraussetzung ist.186 Diese persönliche Leistung muss durch eine natürliche Person187 erbracht werden, wobei eine Automatisierung des reinen Aufnahmevorgangs unerheblich ist.188 Voraussetzung ist jedoch, dass bei der Erschaffung der Computer nur als Hilfsmittel eingesetzt wird, der Mensch hingegen die Maschine lenkt und dirigiert und somit gestalterisch tätig ist.189 Hält man an der Anforderung fest, dass eine natürliche Person die „Zügel in der Hand“ halten muss, so kommt ein Schutz maschineller Kreativität nur insofern in Betracht, als der Mensch dem Computer beispielsweise verschiedene Bilder vorgegeben hat, welche der Algorithmus neu zusammensetzt und sich an der vorgegeben Stilrichtung und Komposition orientiert. Werke tatsächlicher Künstlicher Intelligenz, welche nach einer Lernphase eigenständige Kreationen erschafft, wären nicht schutzfähig. b) Schutz des Datenbankherstellers Wie im Rahmen der Darstellung von Urheberrechten an der Künstlichen Intelligenz selbst bereits ausgeführt, regeln die §§ 87 ff. UrhG die ausschließlichen Rechte des Datenbankherstellers. Es gilt zu klären, welche Bestandteile des Sprachassistenten bzw. der möglicherweise generierten Daten dem Investitionsschutz des Datenbankherstellerrechts unterfällt. aa) Systematische und methodische Anordnung unabhängiger Elemente Erwägungsgrund 10 der Datenbank-RL ist zu entnehmen, dass Ziel der Errichtung des sui generis Schutzes die Schaffung von fortschrittlichen Informationsmanagementsystemen war, um die exponentielle Zunahme von Daten, die innerhalb der EU und weltweit jedes Jahr erzeugt und verarbeitet werden, zu bewältigen. Erwägungsgrund 17 präzisiert weiterhin, dass es sich bei Datenbanken um Sammlungen von Werken, Daten oder anderen unabhängigen Elementen handelt, die systematisch oder methodisch angeordnet und einzeln zugänglich sind. Nach Rechtsprechung des EuGH müssen sich die Elemente einer Datenbank voneinander trennen lassen, ohne dass der Wert ihres informativen, literarischen, künstlerischen, musikalischen oder sonstigen Inhalts beeinträchtigt 186

BGH Urt. v. 3. 11. 1999 – I ZR 55/97, ZUM 2000, 233 (234) – Werbefotos. LG Berlin Urt. v. 30. 5. 1989 – 16 O 33/89, GRUR 1990, 270 – Satellitenfoto. 188 Möhring / Nicolini / L auber-Rönsberg, § 72 UrhG Rn. 16. 189 OGH Urt. v. 1. 2. 2000 – 4 Ob 15/00k, ZUM-RD 2001, 224 (227) – Standbilder von Gebirgsaufnahmen. 187

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

87

wird.190 Legner kritisiert, dass sich KI Erzeugnisse, sofern sie menschlichen Werken der Kunst oder Literatur gleichen, meist aus kumulierten Bestandteilen bestehen und daher die Anforderungen an die Unabhängigkeit nicht erfüllen würden.191 Hierbei wird jedoch verkannt, dass der EuGH selbst bereits eine drastische Abschwächung der Heraustrennbarkeit vornimmt. Wird nach EuGH der Wert eines Elements der Sammlung zwar durch dessen Anordnung in der Sammlung erhöht und führt die Herauslösung aus diesem Gefüge zu einer Verringerung des Wertes, berührt dies nicht die Qualifizierung des Elements als unabhängig, sofern diesem noch ein selbstständiger Informationswert innewohnt.192 Bezüglich des Informationswertes ist gem. EuGH nicht auf den typischen Nutzer der betreffenden Sammlung, sondern auf jeden Dritten, der sich für das herausgelöste Element interessiert, abzustellen.193 Durch diese Lockerung erfährt die Schutzfähigkeit von Datenbanken insbesondere im Hinblick auf Big-Data-Anwendungen eine enorme Ausweitung. Durch die unüberschaubare Menge an Daten und die vielfältigen Verknüpfungsmöglichkeiten stellen bereits die unbedeutendsten Daten Güter dar, die im Wege einer nachfolgenden Auswertung genutzt werden können und eine eigene Wertigkeit aufweisen.194 Die Anforderung der Heraustrennbarkeit wandelt sich im übertragenen Sinne zur „kleinen Münze“ und steht dem Schutz von durch Sprachassistenten kreierten Werken grundsätzlich nicht entgegen. bb) Investitionsgegenstand Grundsätzlich kann eine Investition im Einsatz von menschlichen, finanziellen oder technischen Ressourcen oder Mitteln bestehen.195 Kann der Entwicklungsaufwand des Sprachassistenten zwar als Investition Berücksichtigung finden196, ist der Begriff der mit der Beschaffung des Inhalts einer Datenbank verbundenen Investition i. S. v. Art. 7 Abs. 1 Datenbank-RL dahin zu verstehen, dass er die Mittel bezeichnet, die der Ermittlung von vorhandenen Elementen und deren Zusam 190

EuGH Urt. v. 29. 10. 2015  – C-490/14, GRUR 2015, 1187 (1188)  – Freistaat Bayern /  Verlag Esterbauer GmbH Rz. 17; EuGH Urt. v. 9. 11. 2004 – C-444/02, GRUR 2005, 254 (255) – Fixtures-Fußballspielpläne II Rz. 29. 191 Legner, ZUM 2019, 807 (809). 192 EuGH Urt. v. 29. 10. 2015 – C-490/14, GRUR 2015, 1187 (1188) – Freistaat Bayern / Verlag Esterbauer GmbH Rz. 23; vgl. hierzu Leistner, GRUR 2016, 42; sowie kritisch Czychowski, der befürchtete, dass die Grenzen durch das urteil des EuGH verschwimmen und Daten, die für sich wertlos wären, durch die Hintertüre des Datenbankschutzes doch schützenswert werden Czychowski, GRUR-Prax 2016, 333. 193 EuGH Urt. v. 29. 10. 2015 – C-490/14, GRUR 2015, 1187 (1189) – Freistaat Bayern / Verlag Esterbauer GmbH Rz. 27. 194 Zech, GRUR 2015, 1151 (1157). 195 EuGH Urt. v. 9. 11. 2004 – C-444/02, GRUR 2005, 254 (256) – Fixtures-Fußballspielpläne II Rz. 44. 196 BGH Urt. v. 1. 12. 2010 – I ZR 196/08, GRUR 2011, 724 (725) – Zweite Zahnarztmeinung II Rz. 16.

88

Kap. 5: Rechtliche Problemstellungen

menstellung in dieser Datenbank gewidmet werden. Er umfasst nicht die Mittel, die eingesetzt werden, um die Elemente zu erzeugen, aus denen der Inhalt einer Datenbank besteht.197 Der Investitionsaufwand für den Sprachassistenten ist folglich grundsätzlich nicht vom Schutzbereich umfasst, da es sich bei diesem, in der Regel, um eine universelle KI handelt, deren Aufgabenbereich nicht das Erstellen von Datenbanken ist, sondern die Kreation von Inhalten nur einen Anwendungsbereich unter vielen darstellt.198 Es lässt sich kritisieren, dass durch diese Einschränkung des sui generis Rechtsschutzes, eine Anwendbarkeit auf KI und BigData-Anwendungen so gut wie ausgeschlossen wird, obwohl das Erzeugen von Daten selbst unproblematisch unter den Wortlaut des „Beschaffens“ gefasst werden könnte.199 Hintergrund dieser Einschränkung ist, dass das Datenbankherstellerrecht einen Anreiz darstellen soll, neue Wege und technische Möglichkeiten zu entwickeln, bereits bestehende Daten intelligent und praktikabel zu speichern und zu verarbeiten.200 Vermieden werden soll hingegen, dass sog. „sole-source“ Daten, mithin Daten, die erst seitens des Datenbankbetreibers eigens generiert werden und durch Dritte nicht mit vertretbarem wirtschaftlichen Aufwand geschaffen werden können, durch das Datenbankherstellerrecht geschützt werden, um monopolartige Strukturen zu vermeiden.201 3. Patentrecht a) Unmittelbarer Schutz Das europäische Patentrecht exkludiert Erfindungen, die unter Einsatz Künstlicher Intelligenzen geschaffen wurden, nicht automatisch von der Möglichkeit der Erlangung originären Patentrechtsschutzes, sofern das intelligente System als Hilfsmittel eingesetzt wird.202 Hierbei ist nicht die Computererfindung als solche dem Patentrechtschutz zugänglich, da es einer menschlichen schöpferischen Tätigkeit bedarf und die Erfindung des Computers als solche noch keinen Bezug zum Menschen aufweist.203 Die Erfinderqualität erlangt vielmehr derjenige, der mit Hilfe der Computererfindung die Lösung der technischen Problemstellung erkennt, unabhängig davon, ob er den Computer initial konstruiert hat oder in sonstiger Rechtsbeziehung (Eigentümer / Besitzer) zu diesem steht.204 Schickedanz lehnt die Anerkennung einer Patentfähigkeit der Computererfindung als solche mit dem Argument überdies ab, dass jede Erfindung zwangsläufig von einem 197

EuGH Urt. v. 9. 11. 2004 – C-203/02, GRUR 2005, 244 (247 f.) – BHB-Pferdewetten Rz. 42. Hetmank / L auber-Rönsberg, GRUR 2018, 574 (578). 199 K. Schmidt / Z ech, CR 2017, 417 (421). 200 Wandtke / Bullinger / Hermes, § 87a UrhG Rn. 36. 201 Leistner, K&R 2007, 457 (458); vgl. auch EuGH Urt. v. 0604.1995  – C-241/91 P u. C-242/91 P, GRUR Int. 1995, 490 – Magill. 202 Vgl. Blok, E. I.P. R. 39 (2017), 69 unter „Patentability“. 203 Benkard / Melullis, § 6 PatG Rn. 31. 204 Benkard / Melullis, § 6 PatG Rn. 32. 198

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

89

Menschen stammen muss, da die Erkenntnis einer neuartigen Erfindung das Vorliegen einer Bedürfnis- und Problemkenntnis erfordert, welche einem Computer schlechterdings fehlt. Mag diese Argumentation noch auf den derzeitigen Stand intelligenter Systeme zutreffen, ist fraglich, ob sich die bisherige Auffassung noch auf Systeme starker Künstlicher Intelligenz übertragen lässt. Wird ein derartiger Stand der Technik erreicht, ist es zumindest zweifelhaft, ob die Einordnung als bloßes Werkzeug weiterhin interessengerecht scheint.205 Überdies lässt sich anführen, dass es grundsätzlich irrelevant ist, auf welche Art und Weise ein Patent zu Stande gekommen ist; das nationale und europäische Patentrecht stellt diesbezüglich auf das geschaffene Ergebnis, nicht den Werdegang ab.206 Daher können auch Erfindungen Künstlicher Intelligenzen durchaus schutzfähig sein, sofern sie neu sind und nach dem Stand der Technik bisher keine Notwendigkeit bestand, eine solche Erfindung vorzuhalten.207 Der Stand der Technik umfasst alle Kenntnisse, die vor dem für den Zeitrang der Anmeldung maßgeb­ lichen Tag durch schriftliche oder mündliche Beschreibung, durch Benutzung oder in sonstiger Weise der Öffentlichkeit zugänglich gemacht worden sind, § 3 Abs. 1 PatG. Dabei ist es nach dem BGH im Rahmen der Bestimmung des Standes der Technik unerheblich, ob der Fachmann bereits bewusste Kenntnis von einem Verfahren hat, sofern sich das Ergebnis der beantragten Erfindung auch automatisch auf natürliche Weise ergibt; ein Patentschutz ist unter diesen Bedingungen ausgeschlossen.208 Übertragen auf Systeme Künstlicher Intelligenz bedeutet dies, dass ein Patentschutz spätestens dann ausgeschlossen sein dürfte, wenn der Grad der verwendeten Autonomisierung im relevanten Erfindungsfeld als „herkömmlich“ zu bewerten ist209 und das gefundene Ergebnis folglich zwangsläufig erhältlich ist.210 b) Derivativer Schutz § 9 S. 2 Nr. 3 PatG (so auch Art. 64 Abs. 2 EPÜ) statuiert einen sog. derivativen Erzeugnisschutz für Erzeugnisse, die unmittelbar durch ein patentrechtlich geschütztes Verfahren hergestellt worden sind.211 Danach ist es jedem Dritten verboten, ohne Zustimmung des Patentinhabers, das durch ein Verfahren, das Gegen 205

Hetmank / L auber-Rönsberg, GRUR 2018, 574 (576). Vgl. Blok, E. I.P. R. 39 (2017), 69 unter „Patentability“. 207 Hetmank / L auber-Rönsberg, GRUR 2018, 574 (576). 208 Im streitgegenständlichen Verfahren ging es um die Patentierung der Herstellung eines chemischen Stoffes, welcher sich bei normaler Lagerung des Ausgangsprodukt automatisch und ohne spezielle Behandlung bildet. Ein derartiger Gegenstand, mag ihn zur Vfg. zu stellen auch als solches nicht nahegelegt gewesen sein, ist nach dem BGH das Ergebnis naheliegenden fachmännischen Handels und kann mithin hervorgebracht werden, ohne dass es hierzu eines erfinderischen Bemühens bedürfte, vgl. BGH Urt. v. 24. 7. 2012 – X ZR 126/09, GRUR 2012, 1130 – Leflunomid. 209 Blok, E. I.P. R. 39 (2017), 69 unter „Inventive step“. 210 Hetmank / L auber-Rönsberg, GRUR 2018, 574 (576). 211 Mes / Mes, § 9 PatG Rn. 68. 206

90

Kap. 5: Rechtliche Problemstellungen

stand des Patents ist, unmittelbar hergestellte Erzeugnis anzubieten, in Verkehr zu bringen oder zu gebrauchen oder zu den genannten Zwecken entweder einzuführen oder zu besitzen. In der Fachliteratur wird ein Erzeugnisschutz nach § 9 S. 2 Nr. 3 PatG für unkörperliche Verfahrensergebnisse wie Licht, Wärme, elektrische Energie oder Schall durchweg abgelehnt.212 Eine seitens eines intelligenten Systems generierte Datenfolge kann nach BGH unter diesen Gesichtspunkten nur dann patentrechtlichen Schutz erlangen, wenn die Daten ausgelesen und wahrnehmbar gemacht und auf diese Weise wie körperliche Gegenstände beliebig oft bestimmungsgemäß genutzt werden können.213 Zum anderen muss auch in diesem Fall die das Verfahrensergebnis verkörpernde Datenfolge ihrer Art nach als tauglicher Gegenstand eines Sachpatents in Betracht kommen. Dies ist indessen nur dann der Fall, wenn sie sachlich-technische Eigenschaften aufweist, die ihr durch das Verfahren aufgeprägt worden sind.214 Liegen diese Voraussetzungen vor, so umfasst der Schutz der Erfindung einer Künstlichen Intelligenz in der Regel alle Funktionen, Wirkungen, Zwecke, Brauchbarkeiten und Vorteile dieser neuen Erfindung, und zwar auch dann, wenn sie vom Erfinder selbst nicht erkannt oder nicht offenbart sind.215 Problematisch und den Schutzbereich nicht unerheblich verringernd ist jedoch das Merkmal der Unmittelbarkeit zwischen dem neuen Erzeugnis und dem eingesetzten geschützten Verfahren (vorliegend z. B. ein patentierter Sprachassistent). Eine „Unmittelbarkeit“ zwischen Verfahren und Erzeugnis i. S. d. § 9 S. 2 Nr. 3 PatG ist dann zu bejahen, wenn es sich bei dem angegriffenen Produkt um einen Gegenstand handelt, der mit Abschluss des allerletzten Schritts des geschützten Verfahrens erhalten wird.216 Das patentierte Verfahren muss allerdings nicht in jedem Fall der allerletzte Schritt in der zum angegriffenen Produkt führenden Herstellungskette sein. Losgelöst von der vorstehenden, rein zeitlich chronologischen Betrachtung ist eine „Unmittelbarkeit“ nach Auffassung des OLG Düsseldorf richtigerweise vielmehr auch dann gegeben, wenn sich das angegriffene Erzeugnis zwar nicht als Resultat des zeitlich letzten Verfahrensschritts darstellt, sondern als ein Zwischenprodukt, das im Anschluss an das patentgeschützte Verfahren weiteren Behandlungsmaßnahmen unterzogen worden ist, sofern das patentierte Verfahren zur Hervorbringung des Erzeugnisses bestimmungsgemäß und nach der Verkehrsanschauung wesentlich beigetragen hat und das durch die Erfindung geschaffene Erzeugnis seine charakteristischen Eigenschaften und seine Selbstständigkeit durch die weiteren Behandlungsschritte nicht eingebüßt hat.217 Das 212

Benkard / Scharen, § 9 PatG Rn. 53. BGH Urt. v. 21. 8. 2012 – X ZR 33/10, GRUR 2012, 1230 (1234) – MPEG-2-Videosignalcodierung Rz. 23. 214 BGH Urt. v. 27. 9. 2016 – X ZR 124/15, GRUR 2017, 261 (263) – Rezeptortyrosinkinase II Rz. 21. 215 BGH Urt. v. 15. 11. 1955 – I ZR 169/54, GRUR 1956, 77 (78). 216 OLG Düsseldorf Urt. v. 28. 1. 2010 – 2 U 131/08, NJOZ 2010, 1781 (1784) – Testkauf patentverletzender DVDs – interframe dropping. 217 OLG Düsseldorf Urt. v. 28. 1. 2010 – 2 U 131/08, NJOZ 2010, 1781 (1784) – Testkauf patentverletzender DVDs – interframe dropping; so auch Mes / Mes, § 9 PatG Rn. 71. 213

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

91

bedeutet letztendlich, dass ein seitens des geschützten Sprachassistenten – oder anderer Künstlicher Intelligenz – geschaffenes Erzeugnis nur insofern Schutz genießt, als es auf den Programmroutinen des Assistenten zurückzuführen ist. Sofern eine Reproduktion auf anderem Wege erfolgt, besteht keine Schutzfähigkeit; ein vollumfänglicher derivativer Rechtsschutz für alle Folgeerfindungen des Sprachassistenten kann rechtlich de lege lata daher nicht angenommen werden.218 4. Lauterkeitsrecht Die Programmnorm des § 1 UWG und folglich erklärtes Schutzziel des Lauterkeitsrechts ist der Schutz aller Marktteilnehmer vor unlauteren geschäftlichen Handlungen (§ 1 S. 1 UWG) sowie der Schutz des Interesses der Allgemeinheit an einem unverfälschten Wettbewerb (§ 1 S. 2 UWG), wobei das Interesse der Allgemeinheit und das der Marktbeteiligten sich nicht zwangsläufig decken muss.219 Der Rückgriff auf lauterkeitsrechtliche Bestimmungen zum Schutz der Werke von Künstlichen Intelligenzen ist in der nationalen Literatur bisher nur sporadisch thematisiert worden.220 In der amerikanischen Literatur betreffend Copyright-Rechte spielt Yu mit dem Gedanken, für Erzeugnisse einer Künstlichen Intelligenz einen Quasi-Rechtschutz zu vergeben, welcher den Inhaber gegenüber Beeinträchtigungen der anderen Marktteilnehmer schützt, nicht hingegen jedoch gegenüber den Interessen der Allgemeinheit.221 Wird dem Programmierer hingegen ein richtiges Copyright zugesprochen, so soll dieses nach Yu nur gegen Eins-zu-Eins Kopien Schutz verleihen.222 Ein Schutz der von einem Sprachassistenten generierten Inhalte könnte grundsätzlich nach § 4 Nr. 3 UWG in Betracht kommen. Hiernach handelt unlauter, wer Waren oder Dienstleistungen anbietet, die eine Nachahmung der Waren oder Dienstleistungen eines Mitbewerbers sind, sofern er vermeidbar über die Herkunft täuscht (lit. a), die Wertschätzung der Produkte unangemessen ausnutzt oder beeinträchtigt (lit. b) oder die für die Nachahmung erforderlichen Kenntnisse oder Unterlagen unredlich erlangt hat (lit. c). Schutzzweck der Vorschrift ist unter anderem der Investitionsschutz und knüpft damit direkt an das geschaffene Leistungsergebnis an.223 Zuvorderst gilt es die Frage zu klären, ob das Lauterkeitsrecht neben den existierenden Immaterialgüterrechten als Sonderrecht zurücktreten muss oder einen eigenen Anwendungsbereich aufweist. Nach Rechtsprechung des BGH (hier zum 218

Hetmank / L auber-Rönsberg, GRUR 2018, 574 (577). Harte-Bavendamm / Henning-Bodewig / Keller, Einleitung – A. Entwicklung und gegenwärtiger Stand des deutschen Lauterkeitsrechts Rn. 29. 220 Dornis, GRUR 2019, 1252 (1256). 221 R. Yu, University of Pennsylvania Law Review 165 (2017), 1245 (1266). 222 R. Yu, University of Pennsylvania Law Review 165 (2017), 1245 (1268). 223 MüKoUWG / A . Wiebe, § 4 Nr. 3 UWG Rn. 5. 219

92

Kap. 5: Rechtliche Problemstellungen

Geschmacksmusterrecht) bestehen Ansprüche aus ergänzendem wettbewerbsrechtlichem Leistungsschutz gegen die Verwertung eines fremden Leistungsergebnisses grundsätzlich unabhängig vom Bestehen eines immaterialgüterrechtlichen Schutzes, wenn besondere Begleitumstände vorliegen, die außerhalb des sondergesetzlichen Tatbestandes liegen.224 Das Lauterkeitsrecht selbst stellt nicht auf die sachlichen Voraussetzungen des Sonderschutzrechtes ab und es darf auch keine Parallelwertung vorgenommen werden.225 Der Schutzbereich des Erfolgsunrechts ist von dem Schutzzweck des Immaterialgüterrechts unabhängig.226 Allerdings besteht nach BGH zumindest eine gewisse Relation zu den gewerblichen Schutzrechten, eine schrankenlose Zubilligung wird nicht gewährt. Das Lauterkeitsrecht verlangt zumindest, dass eine wettbewerbliche Eigenart nicht verlorengegangen ist und die besonderen Unlauterkeitsumstände vorliegen.227 Für den Bereich der Computerprogramme ergibt sich bereits aus § 69g Abs. 1 UrhG, dass eine Anwendbarkeit des Lauterkeitsrecht nicht ausgeschlossen wird, die Rechtsprechung hat dies auch im Zuge der Bewertung von Kopierschutzumgehungs-Programmen bestätigt.228 Es stellt sich jedoch die Frage, ob das Lauterkeitsrecht dazu berufen ist, die Leistungsschutzlücken zu schließen, die der Gesetzgeber bisher nicht im Auge hatte. Nach Ohly steht der unmittelbare lauterkeitsrechtliche Leistungsschutz in einer Schnittmenge zwischen dem geistigen Eigentum und dem Lauterkeitsrecht und hat deswegen den Wertungen beider Rechtsgebiete Rechnung zu tragen; er plädiert jedoch für eine grundsätzliche Zulassung eines lauterkeitsrechtlichen Leistungsschutzes im Rahmen einer – in Ermangelung einer gesetzlichen Regelung – richterlichen Rechtsfortbildung, um einen gerechten Schutz zu erhalten.229 Dieser Auffassung ist beizupflichten. Der Gesetzgeber hat die Möglichkeit einer nicht menschlichen Entdeckung bisher nicht thematisiert und sich ausdrücklich gegen einen Schutz nicht-menschlicher Erzeugnisse positioniert. Eine Künstliche Intelligenz ist insoweit nicht mit dem bewussten Fehlen eines Urheberrechts für juristische Personen vergleichbar, da es juristischen Personen immanent ist, dass Schöpfungen von den hinter diesen stehenden Personen geschaffen werden. Eine Schutzlücke war nicht gegeben. Dies liegt nun anders. Eine Zurechnung der Handlungen und Schöpfungen autonomer Maschinen zu natürlichen Personen kann nicht in diesem Umfang erfolgen. Liegen die Tatbestandsvoraussetzungen des § 4 Nr. 3 UWG nicht vor, so kann an einen Rückgriff auf die Generalklausel des § 3 Abs. 1 UWG gedacht werden, der allgemein unlautere geschäftliche Handlungen für unzulässig erklärt. Zu beachten ist jedoch, dass die Generalklausel des § 3 UWG subsidiär gegenüber den spezielleren Regelungen ausgestaltet ist und ein Rückgriff ohne besondere Begründung 224

BGH Urt. v. 21. 2. 2002 – I ZR 265/99, GRUR 2002, 629 (631) – Blendsegel. K.-H. Fezer / Büscher / Obergfell / Götting / Hetmank, § 4 Nr. 3 UWG Rn. 38. 226 K.-H. Fezer / Büscher / Obergfell / Götting / Hetmank, § 4 Nr. 3 UWG Rn. 37. 227 BGH Urt. v. 14. 1. 1999 – I ZR 203/96, GRUR 1999, 751 (754) – Güllepumpe. 228 BGH Beschl. v. 9. 11. 1995 – I ZR 220/95, GRUR 1996, 78 – Umgehungsprogramm. 229 Ohly, GRUR 2010, 487 (494). 225

A. Immaterialgüterrechtliche Einordnung von Sprachassistenten 

93

nicht möglich ist.230 Keinesfalls kann unter Rückgriff auf die Generalklausel eine bewusste Tatbestandsbegrenzung der §§ 3a ff. UWG umgangen werden.231

III. Fazit Für eine Bewertung der Zukunftsfähigkeit des europäischen und nationalen Immaterialgüterrechts bedarf es einer strikten Trennung zwischen dem ursprüng­ lichen, d. h. der grundlegenden Programmierung, zu Grunde liegenden Algorithmus und den Schöpfungen bzw. Veränderungen die eine Künstliche Intelligenz bzw. der Sprachassistent im Zuge des operativen Betriebes vollzieht. Sofern die gesetzlichen Anforderungen der Schutzfähigkeit von Computerprogrammen erfüllt werden, ist eine Schutzfähigkeit des Grundalgorithmus nach § 69a Abs. 1 S. 1 UrhG geben. Dies mag für derzeitige Sprachassistenten, welche auf Systemen schwacher Künstlicher Intelligenzen beruhen, durchaus ausreichend sein. Sofern der Assistent jedoch durch eine zunehmende Autonomisierung befähigt wird, Veränderungen am eigenen Quellcode und seinen Funktionalitäten vorzunehmen, entfällt zunehmend die Schutzfähigkeit. Mit steigendem Grad der automatisierten Handlungsfähigkeit des Sprachassistenten wird die Rückführung der von § 69c Abs. 3 UrhG geforderten eigenen geistigen Schöpfung auf eine natürliche Person komplizierter. Dasselbe gilt für die von einem Sprachassistenten eigens kreierten Werke, sofern sie nicht direkter Ausfluss des ursprünglichen Quellcodes des Sprachassistenten sind oder dieser als reines Hilfsmittel des Verwenders gehandelt hat. Sowohl das nationale als auch europäische Recht ist auf das Erstarken digitaler Systeme nicht vorbereitet. Das Immaterialgüterrecht ist dem Grunde nach auf die natürliche Person als Schöpfer bezogen und, mit wenigen Ausnahmen, dem Schöpferprinzip unterworfen. Stellt das Dazwischentreten einer juristischen Person kein grundlegendes juristisches Problem dar, da eine Zurechnung an hinter der juristischen Person schöpferisch tätig werdende natürliche Personen bisher möglich war, muss der Gesetzgeber bezüglich Systemen starker Künstlicher Intelligenzen umdenken. Es bedarf einer klaren Zurechnung, wem die Erzeugnisse zukünftiger hochautonomer App­ likationen zuzurechnen sind und welche Verwertungsrechte an diesen entstehen. Die stark zunehmende Digitalisierung aller Lebensbereiche macht es erforderlich, dass der Gesetzgeber sich entweder von dem bisherigen droit dáuteur Grundsatz löst oder entsprechende Zurechnungskriterien schafft.

230 231

MüKoUWG / A . Wiebe, § 4 Nr. 3 UWG Rn. 7. Ohly / Sosnitza / Sosnitza, § 3 UWG Rn. 43.

94

Kap. 5: Rechtliche Problemstellungen

B. Haftung für Schäden durch Sprachassistenten Haftungsszenarien sind vielfach denkbar. Von Fehlinformationen des Sprachassistenten an den Nutzer bis hin zu Aussagen des Assistenten gegenüber Dritten ist ein weites Feld gegeben.232 Als Beispiel sei der Chat-Bot (seinem Wesen nach eine technisch vereinfachte Variante eines Sprachassistenten) „Tay“ des Entwicklers Microsoft anzuführen, der von den Eingaben der Nutzer lernte und sich innerhalb kürzester Zeit von einem der Unterhaltung dienenden Programm zu einer rassistischen und sexistischen Entität entwickelte.233 Die Schaffung autonom agierender Künstlicher Intelligenzen stellt das Haftungsrecht vor neue Probleme der Zurechnung. So stellt sich die Frage, ob das geltende Recht für diese Komplikationen ausreichende Mechanismen vorsieht. Stellt man sich auf den Standpunkt der Arbeitsgruppe Digitaler Neustart der Justizminister ist in der Inverkehrbringung autonomer Systeme keine besondere Gefahr zu erblicken, die eine über existierende Haftungsnormen hinausgehende Gefährdungshaftung erforderlich machen würde, zu erblicken.234 Das Europäische Parlament auf der anderen Seite scheint durchaus Handlungsbedarf zu sehen. So werfen die Abgeordneten in einer Entschließung mit Empfehlungen an die Kommission die Frage auf, ob normale Haftungsregelungen ausreichend sind, wenn Roboter (in diesem Zusammenhang auch übertragbar auf Sprachassistenten) weniger als simple Werkzeuge der beteiligten Akteure anzusehen sind, sondern als autonome Systeme mit möglicherweise eigener Rechtsnatur.235

I. Grundlagen Das deutsche Haftungsregime kennt grundsätzlich drei Prinzipen der Schadenszurechnung: Die verschuldensabhängige Haftung, die verschuldensunabhängige Gefährdungshaftung und die Vertrauenshaftung .236

232 Franck / Müller-Peltzer, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 241 (254). 233 Steiner, Zum Nazi und Sexisten in 24 Stunden, https://www.faz.net/aktuell/wirtschaft/ netzwirtschaft/microsofts-bot-tay-wird-durch-nutzer-zum-nazi-und-sexist-14144019.html (Stand: 27. 09. 2020). 234 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 133. 235 Rechtsausschuss des Europäischen Parlaments, Zivilrechtliche Regelungen im Bereich Robotik, Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)). 236 Horner / Kaulartz, CR 2016, 7 (7).

B. Haftung für Schäden durch Sprachassistenten

95

1. Verschuldensabhängige Haftung Ausgangspunkt der Verantwortlichkeit des Schuldners – vor allem bei vertraglichen Schuldverhältnissen jedoch auch bei einer deliktsrechtlichen Haftung – stellt § 276 BGB dar. Hiernach hat der Schuldner sowohl Vorsatz als auch Fahrlässigkeit zu vertreten, wenn eine strengere oder mildere Haftung weder bestimmt noch aus dem sonstigen Inhalt des Schuldverhältnisses zu entnehmen ist, § 276 Abs. 1 S. 1 BGB. Das Verschulden setzt somit drei Elemente voraus: Zurechnungsfähigkeit der Handlung, Nichteingreifen von Schuldausschließungs- und Entschuldigungsgründen sowie einer Schuldform.237 Problematisch im Bereich des Einsatzes autonomer Sprachassistenten ist, dass die Verschuldenshaftung regelmäßig an ein menschliches Verhalten anknüpft, an welchem es bei autonomen Systemen, je nach Grad der Automatisierung, fehlt.238 Je autonomer ein Sprachassistent handelt, also desto unangemessener scheint es, die unmittelbare Verletzungshandlung dem Nutzer zuzuweisen.239 2. Verschuldensunabhängige Gefährdungshaftung Grundlage der Gefährdungshaftung ist, dass derjenige, der eine übermäßige Gefahr für ein anderes Rechtsgut schafft, unterhält oder ausnützt dazu verpflichtet ist, den sich daraus ergebenden Schaden aufzufangen und zu begleichen.240 Die Gefährdungshaftung ergänzt die Verschuldenshaftung und führt auch in Fällen, die selbst durch pflichtgemäßes Verhalten (§ 276 Abs. 2 BGB) nicht abgewendet werden hätten können – oftmals mit der Ausnahme höherer Gewalt – zu einer Haftung des die Gefahr Schaffenden.241 Dies hat zur Konsequenz, dass vielfach eine Aufrechterhaltung der Gefahrenquelle – mag sie auch sozialadäquat sein wie etwa der Betrieb eines Kraftfahrzeuges – zu einem unkalkulierbaren Risiko werden und eine Weiterführung nur in Kombination mit weiteren Absicherungsinstituten – beispielsweise der Pflichtversicherung für ein Fahrzeug – sinnvoll ist.242 Neben dieser Kausalhaftung aus der Verantwortlichkeit für bestimmte Risikosphären kennt das Privatrecht jedoch auch Gefährdungshaftungen für Handlungspflichtverletzungen oder Produktfehler (vgl. § 1 Abs. 1 ProdHaftG).243

237

BeckOGK / Schaub, § 276 BGB Rn. 38. Riehm, ITRB 2014, 113 (114). 239 Horner / Kaulartz, CR 2016, 7 (8); Riehm, ITRB 2014, 113 (114). 240 Deutsch, NJW 1992, 73 (74). 241 BeckOGK / Walter, § 7 StVG Rn. 3. 242 Hirsch, NZV 2011, 16. 243 Borges, NJW 2018, 977 (980 f.). 238

96

Kap. 5: Rechtliche Problemstellungen

Exkurs: Vertrauenshaftung Dieser Haftungsform liegt die Konstellation zu Grunde, dass ein Dritter am Zustandekommen eines Vertrages beteiligt ist (z. B. als Vertreter) und sich derart geriert hat, dass ein Vertrauensverhältnis aufgebaut wurde.244 Da der Vertragsschluss mit Sprachassistenten in dieser Darstellung nicht betrachtet wird, kann eine weitere Ausführung der Vertrauenshaftung unterbleiben.

II. Produkthaftungsgesetz Das nationale Produkthaftungsrecht ist zweigliedrig aufgebaut. Neben die deliktische verschuldensabhängige Haftung aus § 823 Abs. 1 BGB tritt das auf der europäischen RL 85/374/EWG basierende, auf den Grundlagen der Gefährdungshaftung aufbauende, Produkthaftungsgesetz (ProdHaftG).245 Wird durch ein fehlerhaftes Produkt jemand getötet, sein Körper oder seine Gesundheit verletzt oder eine Sache beschädigt, so ist der Hersteller des Produkts grundsätzlich verschuldensunabhängig zum Schadensersatz verpflichtet, § 1 Abs. 1 S. 1 ProdHaftG. Diese Haftung wird jedoch zugleich wieder eingefangen. So ist der Schadensersatz für Sachen nur auf private Gegenstände beschränkt, gewerblich genutzte fallen hingegen aus dem Schutzbereich, § 1 Abs. 1 S. 2 ProdHaftG. Zudem hat der Geschädigte der Sachbeschädigung einen Selbstbehalt in Höhe von 500 € zu tragen, § 11 ProdHaftG. 1. Sprachassistenten als Produkt Problematisch erscheint bereits die Einordnung eines Sprachassistenten als Produkt i. S. d. § 2 ProdHaftG, welcher als Produkt eine bewegliche Sache sowie Elektrizität ansieht. Mangels genauerer Definition in den europäischen Gesetzesmaterialien wird überwiegend auf § 90 BGB als nationaler Anknüpfungspunkt der Sacheigenschaft abgestellt und eine Sache als körperlicher Gegenstand, der sinnlich wahrnehmbar und mechanisch beherrschbar ist, definiert.246 Unproblematisch fällt hierrunter die den Sprachassistenten beherbergende Hardware an sich. Da ein mögliches Schadpotential jedoch weniger von den Hardware-Bauteilen als mehr von der zu Grunde liegenden Software ausgehen wird, ist essenziell, ob auch diese seitens des Produkthaftungsrechts mitumfasst wird. Dies ist dem Wortlauft nicht unstreitig zu entnehmen. Soweit die Auffassung vertreten wird, dass Software dann nach § 2 ProdHaftG als Produkt anzusehen 244

Schubert / Schubert, § 179 BGB Rn. 7. G. Wagner, AcP 217 (2017), 707 (711). 246 BeckOK BGB / Förster, § 2 ProdHaftG Rn. 4; MüKoBGB / G.  Wagner, § 2 ProdHaftG Rn. 3. 245

B. Haftung für Schäden durch Sprachassistenten

97

ist, sofern sie auf einem Datenträger gespeichert ist, auch wenn der Fehler auf der Software und nicht auf den Bauteilen des Datenträgers beruht und dies mit einem Gleichlauf der kaufrechtlichen Wertung, nach der Standardsoftware247 als Kaufsache zu werten248 ist, begründet wird249, wurde dies zwischenzeitlich auch von der Europäischen Kommission bestätigt. Nach Anschauung der Kommission umfasst Art. 2 RL 85/374/EWG – welchen § 2 ProdHaftG umsetzt – unproblematisch Computer-Software.250 Dies ist auch sachgerecht, da der Erwerber einer Software weniger an deren immaterialgüterrechtlichen Charakter ein monetäres Interesse zeigt, sondern viel mehr den in der Software verkörperten werkzeugartigen Nutzen genießen möchte.251 Ob neben Standardsoftware auch Individualsoftware252, sofern sie auf einem Datenträger verkörpert ist, erfasst wird ist umstritten. Kritiker führen an, bei Individualsoftware überwiege der Dienstleistungscharakter der Software, weswegen diese nicht unter den Anwendungsbereich der Richtlinie und somit auch nicht § 2 ProdHaftG fallen würde.253 Dies ist jedoch nicht zielführend. Für die Bestimmung des Produktcharakters ist weder dem deutschen Gesetz noch der europäischen Richtlinie eine Unterscheidung zwischen industrieller Massenanfertigung und Individualprogrammierung zu entnehmen.254 Knüpft man an die Verkörperung des Programmes und nicht an die Unterscheidung Individual- oder Standardprogramm an, so muss es überdies unerheblich sein, ob das Programm auf einem herkömmlichen Datenträger (z. B. DVD bzw. USB-Speichermedium) gespeichert ist oder der Datenträger sich in einem anderen Gerätebauteil befindet; nach der hier vertretenen Auffassung unterfällt jegliche Software, welche in einem smarten Produkt Verwendung findet, dem Produkthaftungsgesetz.255 Begreift man in Abgrenzung zu einer unkörperlichen Dienstleistung die Körperlichkeit als maßgebliches Kriterium, um ein Produkt der verschärften Haftung 247 Hierunter sind Programme zu verstehen, die gleichförmig für den Massenmarkt hergestellt und vertrieben werden. 248 BGH Urt. v. 4. 11. 1987 – VIII ZR 314/86, CR 1988, 124; Foerste hingegen stellt im Zuge der Einbeziehung nicht auf kaufrechtliche Gesichtspunkte ab. Nach seiner Ansicht kann verkörperte Software nur dann als Produkt i. S. d. ProdHaftG aufgefasst werden, wenn sie nicht nur notwendiges Zubehör des Gegenstandes darstellt sondern auf Grund ihrer elektromagnetischen Beschaffenheit steuernden Einfluss auf die Hardware nimmt. Foerste, NJW 1991, 1433 (1438). 249 Herberger / Martinek / Rüßmann / Weth / Würdinger / Junker / Beckmann / Hamdan / G ünes, § 2 ProdHaftG Rn. 9. 250 ABl. 32 (1989), 1 (42). 251 J. Staudinger / Hager / Oechsler, § 2 ProdHaftG Rn. 68. 252 Individualsoftware wird im Gegensatz zu Standardsoftware dem jeweiligen Kundenwunsch entsprechend angefertigt. Rechtsgrundlage ist zumeist in Werkvertrag gem. §§ 632 ff. BGB. 253 Kort, CR 1990, 171 (175); Engel, CR 1986, 702 (706). 254 BeckOK BGB / Förster, § 2 ProdHaftG Rn. 22; J. Staudinger / Hager / Oechsler, § 2 ProdHaftG Rn. 69; BeckOGK / Rebin, § 2 ProdHaftG Rn. 55. 255 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 185.

98

Kap. 5: Rechtliche Problemstellungen

des Produkthaftungsrechts unterfallen zu lassen, so ist nicht geklärt, ob auch Software, die über das Internet „unkörperlich“ vertrieben wird, gleichbehandelt werden kann. Meyer versucht digitale Software unter den Begriff der Elektrizität des § 2 ProdHaftG zu fassen, da Informationen seiner Auffassung nach in einer Datenbank über das Internet als elektrischer Strom zum Empfänger versendet werden.256 Diese These ist jedoch abzulehnen, da Elektrizität nur das Medium des Transports, jedoch nicht das Wesen der Software darstellt.257 Cahn bejaht eine Anwendbarkeit auf online übertragene Software mit der Argumentation, bei einer solchen handle es sich um eine exakte Kopie des Programmes, das beim Anbieter auf einem körperlichen Datenträger vorhanden sei.258 Zumindest für Software, welche sowohl digital als auch auf „analogen“ Vertriebskanälen zur Verfügung steht, muss eine Gleichbehandlung erfolgen.259 Auch ein staff working document der EU Kommission hat sich jüngst – wenn auch nicht letztverbindlich – zu dieser Thematik geäußert. Hiernach schützt die dem ProdHaftG zu Grunde liegende Richtlinie ein heterogenes Feld an Produkten, deren Charakteristiken sich seit Inkrafttreten der Richtlinie im Jahr 1985 durch die technische Fortentwicklung verändert haben, jedoch weiterhin durch den Produktbegriff umfasst sein sollen.260 Insbesondere die schwierige Abgrenzung zwischen Produkten und Dienstleistungen macht es hiernach erforderlich, gerade in Bezug auf Software, den Produktbegriff der Richtlinie zu klären und den veränderten Begebenheiten anzupassen.261 Es wäre wünschenswert, wenn der Produktbegriff auch in Zukunft europäisch-autonom ausgelegt wird und nicht an § 90 BGB festgehalten wird,262 um einen weitreichenden Verbraucherschutz zu gewährleisten.263 2. Der Fehlerbegriff des Produkthaftungsgesetzes Nach § 3 Abs. 1 ProdHaftG hat ein Produkt einen Fehler, wenn es nicht die Sicherheit bietet, die unter Berücksichtigung aller Umstände erwartet werden kann. In Abgrenzung zum Kauf- und Werkvertragsrecht hält das Produkthaftungsrecht einen eigenen Fehlerbegriff vor, welcher an den Zeitpunkt des Inverkehrbringens anknüpft.264 Die nach § 3 Abs. 1 ProdHaftG maßgeblichen Sicherheitserwartungen 256

A. Meyer, ZUM 1997, 26 (33). Büsken, r+s 1991, 73 (75); BeckOGK / Rebin, § 2 ProdHaftG Rn. 57. 258 Cahn / Andreas, NJW 1996, 2899 (2904). 259 BeckOGK / Rebin, § 2 ProdHaftG Rn. 58. 260 Europäische Kommission, Evaluation of Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products, SWD(2018) 157 final, S. 23. 261 Europäische Kommission, Evaluation of Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products, SWD(2018) 157 final, S. 24. 262 Lehmann, NJW 1992, 1721 (1725). 263 BeckOGK / Rebin, § 2 ProdHaftG Rn. 59. 264 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 187. 257

B. Haftung für Schäden durch Sprachassistenten

99

beurteilen sich grundsätzlich nach denselben objektiven Maßstäben wie die Verkehrspflichten des Herstellers im Rahmen der deliktischen Haftung nach § 823 Abs. 1 BGB.265 Die vorherrschende Meinung stellt bezüglich des zu erwartenden Sicherheitsniveaus eines Produkts auf die Allgemeinheit ab, die durch eine fehlende Produktsicherheit betroffen sein kann.266 Auch nach BGH kommt es für die Bestimmung des Fehlerbegriffs nicht auf die subjektiven Sicherheitserwartungen des konkret Geschädigten an. Es sind in erster Linie die Sicherheitserwartungen des Personenkreises maßgeblich, an den sich der Hersteller mit seinem Produkt wendet.267 Da der Schutz des Produkthaftungsrechts nicht nur auf den Erwerber oder Nutzer eines Produkts beschränkt ist, sondern auch unbeteiligte Dritte einschließt, sind nicht nur die Sicherheitserwartungen des Adressatenkreises des vermarkteten Produkts zu berücksichtigen, sondern darüber hinaus auch das Schutzniveau, welches Dritte berechtigterweise erwarten können, sofern sie mit der Sache in Berührung kommen.268 Es ist derjenige Sicherheitsgrad zu erreichen, den die in dem entsprechenden Bereich herrschende Verkehrsauffassung für erforderlich erachtet.269 Das Produkthaftungsrecht kennt drei hauptsächliche Fehlerkategorien: Kon­ struktionsfehler, Fabrikationsfehler sowie Instruktionsfehler.270 a) Konstruktionsfehler Ein Konstruktionsfehler liegt nach der Rechtsprechung vor, wenn das Produkt schon seiner Konzeption nach unter den gebotenen Sicherheitsstandards bleibt. Zur Gewährleistung der erforderlichen Produktsicherheit hat der Hersteller bereits im Rahmen der Konzeption und Planung des Produkts diejenigen Maßnahmen zu treffen, die zur Vermeidung einer Gefahr objektiv erforderlich und nach objektiven Maßstäben zumutbar sind.271 Umgesetzt auf die Software eines Sprachassistenten handelt es sich bei allen Fehlern, die bei der Programmerstellung, Programmierung und Kompilierung entstanden sind, um Konstruktionsfehler.272 Meyer sieht einer Künstlichen Intelligenz eine „Unvorhersehbarkeit“ als immanent an. Er vergleicht – bezugnehmend auf autonomes Fahren – das Verhalten einer KI mit der eines Menschen; je nach Situation unterlaufen auch Menschen Fehlhandlungen, welche jedoch nicht sofort als Konstruktionsfehler angesehen würden. Eine Einzelfallreaktion, die für das System unvorhersehbar und unvermeidbar ist, soll 265

BGH Urt. v. 17. 3. 2009 – VI ZR 176/08, NJW 2009, 1669 (1670) – Kirschtaler. J. Staudinger / Hager / Oechsler, § 3 ProdHaftG Rn. 15; BeckOGK / Goehl, § 3 ProdHaftG Rn. 15. 267 BGH Urt. v. 17. 3. 2009 – VI ZR 176/08, NJW 2009, 1669 (1670) – Kirschtaler. 268 BGH Urt. v. 17. 3. 2009 – VI ZR 176/08, NJW 2009, 1669 (1670) – Kirschtaler. 269 BGH Urt. v. 16. 2. 1972 – VI ZR 111/70. 270 L. Lutz / Tang / Lienkamp, NZV 2013, 57 (61). 271 BGH Urt. v. 16. 6. 2009 – VI ZR 107/08, NJW 2009, 2952 (2953) Rz. 12. 272 Lehmann, NJW 1992, 1721 (1723). 266

100

Kap. 5: Rechtliche Problemstellungen

demnach, selbst wenn hieraus ein schädigendes Ereignis resultiert, nicht mit einem echten Konstruktionsfehler vergleichbar und nicht haftungsbegründend sein.273 Da ein Hersteller für verpflichtet gehalten wird, den Herstellungsprozess begleitende Qualitätssicherungsmaßnahmen zu ergreifen, um Konstruktionsfehler von vornherein oder zumindest rechtzeitig vor Inverkehrbringen des Produkts zu verhindern274 ist es essenziell, dass gerade bei der Anlernung eines Neuronalen Netzwerkes eine genaue Dokumentation der Arbeitsschritte stattfindet. Das Vorbringen des Herstellers, er könne ein eingesetztes System nicht oder nur schwer nachvollziehen, hat keine exkulpierende Wirkung.275 Allerdings ist genau dies bei Neuronalen Netzen schwer umsetzbar. Da ein komplexeres Netz in der Regel aus 10–20 Schichten und 100 Millionen programmierbaren Parametern besteht, wird die Gewichtung einzelner Entscheidungsfindungsprozesse auf tausende Perzeptren verteilt. Eine Nachvollziehung der genauen Abläufe in so einer sog. „Black Box“ ist kaum möglich.276 Diese Gefahr sieht auch die Europäische Kommission, welche in ihrem White Paper zu Künstlicher Intelligenz davor warnt, dass die spezifischen Merkmale vieler KI-Technologien, wozu insbesondere deren Undurchsichtigkeit und teilweise autonomes Verhalten zählt, es schwierig machen, die Einhaltung von Regeln des bestehenden Rechts zu überprüfen, und die praktische Anwendbarkeit behindern.277 Aus diesem Grund wird in der Literatur  – hier zwar bezüglich der Transparenzanforderungen des Datenschutzrechts, die Aussage lässt sich jedoch auch auf das Haftungsrecht übertragen – vertreten, dass der Hersteller eine weitere Künstliche Intelligenz betreiben sollte, die den Entscheidungsfindungsprozess anderer Neuronaler Netzwerke überwacht.278 Mit den Worten des römischen Poeten Juvenal „Quis custodiet ipsos custodes?“279 ausgedrückt, führt dies jedoch zu einer Folgeproblematik, wie sichergestellt werden kann, dass die überwachende Künstliche Intelligenz ihrerseits keine Fehler generiert. Rost schlägt vor, die Ergebnisse der Prüfautomatismen in automatisiert lesbarer Form auszuwerfen, um diese als Referenz nutzen zu können.280 Da Hersteller jedoch auch aus Gründen datenschutzrechtlicher Transparenz (vgl. S. 164) dazu angehalten sind, bezüglich Sprachassistenten sachdienliche, dem Kontext angemessene und dem neuesten Stand der Technik genügende Informationen bereitzuhalten,281 sollte bereits das Training und die Ausgestaltung der Neuronalen Netzwerke so nachvollziehbar sein, dass 273

S. Meyer, ZRP 2018, 233 (235). Littbarski, in: Kilian / Heussen (Hrsg.), Computerrechts-Handbuch, 1–177 (67). 275 Bilski / T. Schmid, NJOZ 2019, 657 (660). 276 Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (524). 277 Europäische Kommission, White Paper, On Artificial Intelligence – A European approach to excellence and trust, 2020, S. 12. 278 M. Rost, DuD 2018, 558 (561). 279 Zu Deutsch „Wer wird die Wächter selbst bewachen?“, Juvenal, Satire 6, 347 f. 280 M. Rost, DuD 2018, 558 (561). 281 OECD, Empfehlung des Rats zu künstlicher Intelligenz, 2019 Punkt 1.3. 274

B. Haftung für Schäden durch Sprachassistenten

101

sich die Überwachungsanforderungen des Produkthaftungsrechts ebenso erfüllen und dokumentieren lassen. b) Fabrikationsfehler Die in Bezug auf Sprachassistenten wohl seltene Kategorie der Fabrikationsfehler umfasst einzelne Ausreißer einer Produktion, die von den vorgesehenen Produktionsstandards abweichen und einen Schaden verursachen, selbst wenn der Hersteller alle zumutbaren Vorkehrungen getroffen hatte, um einen solchen Mangel bzw. Fehler zu vermeiden.282 Fabrikationsfehler in Verbindung mit Sprachassistenten werden in der Regel in Bezug auf die Hardware-Komponenten Relevanz erhalten und eher selten die Software an sich betreffen, da Fehler beim Überspielen der Daten zwar denkbar sind, jedoch eher eine Seltenheit darstellen dürften. Sie können denkbarer Weise dann vorkommen, wenn sich bei einer Übertragung von einem Datenträger auf einen anderen Fehler einschleichen oder Schadprogramme den Programmcode infizieren.283 Fabrikationsfehler bezüglich der Hardware-Komponenten weisen keine KI-spezifischen Besonderheiten auf, sondern sind nach herkömmlichen Haftungsrecht zu beurteilen. c) Instruktionsfehler Die zunehmende Komplexität digitaler Gerätschaften lässt auch die Anforderungen an eine nötige Instruktion des Verwenders steigen, dies auch gerade im Hinblick auf die Abstraktheit und Kompliziertheit von Softwareprodukten.284 Unter einem Instruktionsfehler ist die ungenügende Warnung vor gefährlichen Eigenschaften eines Produkts zu verstehen.285 Insbesondere wenn sich das Produkt an Verbraucher richtet, müssen die Warnhinweise inhaltlich so abgefasst werden, dass darin die bestehenden Gefahren für das Verständnis des Nutzers plausibel werden. Dies wird nach Auffassung des BGH nur erreicht, wenn die Art der drohenden Gefahr deutlich herausgestellt wird, damit der Produktverwender diese nicht erst durch eigenes Nachdenken, oder auf Grund eigener Rückschlüsse voll erfassen kann.286 Nur Umstände, die auf dem Gebiet des typischen Einsatzes des Produkts zum allgemeinen Erfahrungswissen der in Betracht kommenden Verwender liegt, braucht nicht Inhalt einer Gebrauchsanleitung oder Warnung sein.287

282

L. Lutz / Tang / Lienkamp, NZV 2013, 57 (61). Gomille, JZ 71 (2016), 76 (77 f.). 284 Reese, DStR 1994, 1121 (1123). 285 Littbarski, in: Kilian / Heussen (Hrsg.), Computerrechts-Handbuch, 1–177 (75). 286 BGH Urt. v. 12. 11. 1991 – VI ZR 7/91, NJW 1992, 560 (564) – Milupa. 287 BGH Urt. v. 4. 2. 1986 – VI ZR 179/84, NJW 1986, 1863 (1864). 283

102

Kap. 5: Rechtliche Problemstellungen

Der Hersteller von Sprachassistenten hat den Verwender insbesondere über den Einsatz und den Grad autonomer Programmroutinen zu informieren und sich zu vergewissern, dass er diese verstanden hat.288 Eine umfassende Aufklärung muss bezüglich der Schnittstelle Mensch-Maschine (sog. Human Machine Interface) gegeben werden. Dem Verwender muss deutlich sein, welchen Automatisierungsgrad der Sprachassistent aufweist und ab welchem Zeitpunkt eine Handlung bzw. Eingreifen des Menschen notwendig wird.289 d) Haftungsausschlusstatbestände Die aufgezeigte Haftung aus § 1 Abs. 1 S. 1 ProdHaftG ist ausgeschlossen, wenn einer der Ausschlussgründe des § 1 Abs. 2 und Abs. 3 ProdHaftG vorliegt. Im Rahmen von Sprachassistenten und Künstlicher Intelligenz im Allgemeinen sind insbesondere der Ausschluss mangels Fehlerhaftigkeit zum Zeitpunkt des Inverkehrbringens nach § 1 Abs. 2 Nr. 2 ProdHaftG und die nach dem Stand der Technik unmögliche Erkennbarkeit des Fehlers zum Zeitpunkt des Inverkehrbringens nach § 1 Abs. 2 Nr. 5 ProdHaftG von gesteigerter Relevanz. aa) Fehlerlosigkeit zum Zeitpunkt des Inverkehrbringens Nach dem Grundsatz des § 3 Abs. 2 Nr. 2 ProdHaftG muss der Hersteller nur für einen Fehler des Produkts haften, wenn dieser im Zeitpunkt des Inverkehrbringens bereits vorlag. Der in Umsetzung der Richtlinie geschaffene Ausschlussgrund soll klarstellen, dass der Hersteller Fehler, die nach dem Inverkehrbringen z. B. durch unsachgemäße Behandlung innerhalb der Vertriebskette oder durch den Geschädigten selbst versursacht werden, nicht zu vertreten hat.290 Das nationale Gesetz kennt keine Legaldefinition des Zeitpunkts des Inverkehrbringens, da der Gesetzgeber davon ausgegangen ist, dass sich der Zeitpunkt aus dem natürlichen Wortsinn ergibt.291 Zur Verdeutlichung wird jedoch teilweise auf die Gesetze anderer Mitgliedstaaten verwiesen, die sehr wohl eine Kodifizierung vorsehen.292 § 6 östProdHaftG bestimmt, dass ein Produkt dann in den Verkehr gebracht ist, sobald es der Unternehmer, gleich auf Grund welchen Titels, einem anderen in dessen Verfügungsmacht oder zu dessen Gebrauch übergeben hat. Die Versendung an den Abnehmer genügt.

288

Spindler, CR 2015, 766 (769). Bodungen / M. Hoffmann, NZV 2016, 503 (505). 290 BT-Drs. 11/2447 (14). 291 BT-Drs. 11/2447 (14). 292 BeckOGK / Seibl, § 1 ProdHaftG Rn. 75. 289

B. Haftung für Schäden durch Sprachassistenten

103

Das Produkthaftungsrecht kennt, anders als die deliktische Produkthaftung nach § 823 Abs. 1 BGB (vgl. S. 107) keine Pflicht zur Produktbeobachtung. Da § 3 Abs. 1 lit. c) ProdHaftG jedoch auf den Zeitpunkt, in dem das konkret schadensträchtige Einzelprodukt in den Verkehr gebracht wurde abstellt, ist die Entwicklung von Wissenschaft und Technik während der kompletten laufenden Produktion zu verfolgen.293 Im Falle eines auf KI basierenden Systems, wie z. B. bei Sprachassistenten, kann es jedoch schwierig sein, das Vorhandensein eines Fehlers im Produkt, den aufgetretenen Schaden und den Kausalzusammenhang zwischen beiden nachzuweisen.294 Intelligenten Systemen ist es auch nach Inverkehrbringen möglich, die ihnen seitens des Herstellers programmierten Regeln auch auf andere Situationen zu übertragen; die durch den Hersteller ursprünglich intendierte Funktionalität kann erweitert werden295 und letztendlich zu einem Fehler des Sprachassistenten führen. Dieser wäre zwar nach dem Zeitpunkt des Inverkehrbringens entstanden, jedoch bereits in einem zuvor nicht fehlerhaften Produkt angelegt. Riehm / Meier schlagen als Konsequenz vor, dass eine Reform des Produkthaftungsrechts zwingend den Zeitpunkt des Ausschlusses für selbstlernende Algorithmen anpassen sollte, da eine Haftung nach geltendem Recht ausgeschlossen sein kann.296 bb) Nichterkennbarkeit des Fehlers Aus Sorge um die Innovationsbereitschaft der Industrie hat der nationale Gesetzgeber die in Art. 15 Abs. 1 lit. b Produkthaftungs-RL (RL 85/374/EWG) überlassene Option, Entwicklungsrisiken nicht dem Produkthaftungsrecht zu unterstellen, wahrgenommen.297 § 1 Abs. 2 Nr. 5 ProdHaftG stellt den Hersteller nur dann von der Haftung frei, wenn der den Schaden verursachende Fehler des Produkts im Zeitpunkt seiner Inverkehrgabe nach dem damaligen Stand von Wissenschaft und Technik nicht erkennbar war (sog. Entwicklungsfehler). Dies ist nur dann anzunehmen, wenn die potenzielle Gefährlichkeit des Produkts im Zeitpunkt seines Inverkehrbringens nach dem damaligen Stand von Wissenschaft und Technik nicht erkannt werden konnte, weil die Erkenntnismöglichkeiten (noch) nicht weit genug fortgeschritten waren.298 Die im Rahmen von Sprachassistenten grundsätzlich seltenen Fabrikationsfehler sind nach Rechtsprechung des BGH von dieser Freistellung jedoch grundsätzlich ausgenommen.299 Bemerkenswert ist, dass die 293

MüKoBGB / G. Wagner, § 1 ProdHaftG Rn. 59. Europäische Kommission, White Paper, On Artificial Intelligence – A European approach to excellence and trust, 2020, S. 13. 295 Brunotte, CR 2017, 583 (585). 296 Riehm / Meier, EuCML 2019, 161 (164 f.). 297 MüKoBGB / G. Wagner, § 1 ProdHaftG Rn. 49. 298 BGH Urt. v. 5. 2. 2013 – VI ZR 1/12, NJW 2013, 1302 – Heißwasser-Untertischgerät Rz. 9. 299 BGH Urt. v. 16. 6. 2009 – VI ZR 107/08, NJW 2009, 2952 (2955) Rz. 27. 294

104

Kap. 5: Rechtliche Problemstellungen

Grenze der Erkenntnis verhältnismäßig hoch angesetzt ist. Abgestellt werden darf nicht auf den Stand der Technik oder die Regeln der Technik, sondern vielmehr auf die Grenzen der (ganzen) menschlichen Erkenntnis.300 Die Gesetzesbegründung sieht hierzu vor: „Unter Stand von Wissenschaft und Technik ist dabei der Inbegriff der Sachkunde zu verstehen, die im wissenschaftlichen und technischen Bereich vorhanden ist, also die Summe an Wissen und Technik, die allgemein anerkannt ist und allgemein zur Verfügung steht. Es kommt demnach nicht auf die wissenschaftlichen oder technischen Erkenntnismöglichkeiten des einzelnen Herstellers, sondern objektiv auf den gegebenenfalls über Ländergrenzen hinausreichenden Stand von Wissenschaft und Technik an.“301

Der Generalanwalt des EuGH Tesauro versteht dies dahingehen, dass sobald auch nur eine einzige Stimme in wissenschaftlichen Kreisen laut wird, mit der auf eine potentielle Fehlerhaftigkeit oder Gefährlichkeit eines Produkts verwiesen wird, dieser Fehler für den Hersteller berechenbar wird und kein unvorhergesehenes Risiko mehr darstellen kann.302 Einigkeit besteht dahingehend, dass die wissenschaftliche Publikation für den Hersteller zugänglich ist und in einer üblichen Verkehrssprache publiziert wurde.303 Für eine chinesische Studie wurde ein Kennenmüssen eines europäischen Herstellers abgelehnt.304 Ob sich diese 1997 getroffene Aussage in der globalisierten Welt mit einer zunehmenden chinesischen Marktmacht auch heute noch treffen lässt, darf jedoch bezweifelt werden. Der von Tesauro vertretene absolute Ansatz, bereits bei nur einer Stimme in der Wissenschaft eine Berufung auf den Ausschlusstatbestand zu verneinen, ist jedoch zu restriktiv. Zwar ist es richtig, dass auch von der herrschenden Meinung abweichende Stimmen das Potential haben, in der Zukunft einen neuen Stand der Technik zu begründen, jedoch dürften sich auch zahlreiche Vorbringen im Nachhinein als unhaltbar und nicht reproduzierbar erweisen. Daher fordern sowohl Stimmen in der Rechtsprechung als auch Literatur berechtigterweise, dass es für eine Versagung der Entlastung nach § 1 Abs. 2 Nr. 5 ProdHaftG nicht darauf ankommen kann, dass sich auch nur ein einzelner Wissenschaftler finden lässt, der vor einer Gefahr gewarnt hat. Vielmehr ist zu verlangen, dass die abweichende Meinung gewissen Mindestanforderungen wissenschaftlichen Arbeitens genügt und folglich theoretisch plausibel und wissenschaftlich nachvollziehbar ist, wobei das Gefahrenpotential des Fehlers in die Abwägung mit eingestellt werden sollte.305 300

MüKoBGB / G. Wagner, § 1 ProdHaftG Rn. 50; Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 192. 301 BT-Drs. 11/2447 (15). 302 EuGH, Schlussanträge des Generalanwalts Tesauro v. 23. 1. 1997  – Slg. 1997 I-02649 Rz. 22. 303 BeckOGK / Seibl, § 1 ProdHaftG Rn. 124. 304 EuGH, Schlussanträge des Generalanwalts Tesauro v. 23. 1. 1997  – Slg. 1997 I-02649 Rz. 24. 305 LG Freiburg Urt. v. 24. 2. 2017 – 6 O 359/10, MPR 2017, 91 (104); MüKoBGB / G. Wagner, § 1 ProdHaftG Rn. 57; Pflüger, MPR 2017, 107 (108).

B. Haftung für Schäden durch Sprachassistenten

105

Umstritten ist, ob Risiken die in der Natur selbstlernender Sprachassistenten liegen und die damit einhergehende Möglichkeiten einer Schädigung durch sich selbst fortentwickelnde Algorithmen ein solches Entwicklungsrisiko darstellen. Wagner ist der Auffassung, dass zwar ein konkretes Verhalten eines autonomen Systems nicht im Detail vorausgesagt werden kann, für den Hersteller ist es jedoch ersichtlich, dass autonome Systeme Sicherheitsrisiken aufwerfen können; Entwicklungsrisiken sind für Wagner folglich nur solche, die nicht mit dem Automatisierungsrisiko in Zusammenhang stehen, er benennt jedoch keine Situation, die seiner Ansicht nach eine Freistellung von der Produkthaftung begründen könnte.306 Dem halten andere Stimmen entgegen, dass die sich zu einem späteren Zeitpunkt zeigenden Fehler auf der indeterminierten Verhaltensweise autonomer Produkte beruhen und das Entwicklungsrisiko auch für nachträglich auftretende Fehler einen Ausschluss der Haftung bewirken sollte.307 Eine eindeutige Lösung dieser Problematik lässt sich schwerlich finden. Wagners Auffassung einer generellen Verlagerung des Entwicklungsrisikos ohne die Möglichkeit einer Haftungsfreistellung birgt die Gefahr einer Innovationshemmung. Sie ist auch systematisch nicht stringent. Es ist nicht ersichtlich, warum der Produzent eines Sprachassistenten haftungsrechtlich schlechter gestellt werden sollte als der eines „herkömmlichen“ Produktes. Der Verweis, ein Produzent autonomer und intelligenter Systeme wisse über mögliche Gefahren zumindest abstrakt Bescheid, verfängt nicht. Diese Aussage lässt sich auf so gut wie jede Produktkategorien verlagern, da kein Gerät eine einhunderprozentige Sicherheit bieten kann. Der Gesetzgeber hat sich gerade dafür entschieden, ein abstraktes Wissen über die Möglichkeit einer Gefährdung nicht genügen zu lassen, sondern setzt auf konkrete, wenn auch im Wissen der Menschheit und nicht im jeweiligen Entwickler befindliche, Informationen zur Schädlichkeit eines Produkts. Die Argumentation, auch nachträglich auftretende Fehler der Freistellung des § 1 Abs. 2 Nr. 5 ProdHaftG zu unterstellen, ist ebenso abzulehnen. Es ist darauf hinzuweisen, dass das Produkt bereits im Zeitpunkt, in dem es in den Verkehr gebracht wurde, fehlerhaft gewesen sein muss.308 Dies hat zur Folge, dass Fehler bereits bei Inverkehrbringen des Sprachassistenten im Software-Code vorhanden sein müssen, welche sich zwar erst im Laufe des Einsatzes zeigen können, aber nicht nachträglich entstanden sind.

306

G. Wagner, AcP 217 (2017), 707 (750). Vgl. Darstellung in Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019. 308 BT-Drs. 11/2447 (16). 307

106

Kap. 5: Rechtliche Problemstellungen

III. Deliktische Haftung des Herstellers nach § 823 BGB Das in den §§ 823 ff. BGB kodifizierte Schuldrecht der unerlaubten Handlungen speist sich aus seinem allgemeinen rechtlichen Charakter der widerrechtlichen Verletzung der allgemeinen, zwischen allen Personen bestehenden Rechtsbeziehungen, die von Jedermann zu beachten sind, weil sie die Grundlage des Gemeinschaftslebens bilden (Grundsatz des „neminem laedere“).309 1. Produzentenhaftung nach § 823 Abs. 1 BGB Die deliktische Produzentenhaftung ist eine Sonderform der allgemeinen Verkehrssicherungspflicht als Ausfluss der modernen Industrieproduktion und knüpft an das Inverkehrbringen eines fehlerhaften Produkts und der Schaffung einer Gefahrenquelle an.310 Für den Begriff des Fehlers kann auf § 3 ProdHaftG Rückgriff genommen werden311 (vgl die Ausführungen auf den S. 98 ff.). Der Produzent einer Ware ist auch nach deliktsrechtlichen Vorgaben daran gehalten, in den Grenzen des technisch Möglichen und ihm wirtschaftlich Zumutbaren dafür zu sorgen, dass der Verwender durch die von ihm angebotenen Waren keine Verletzungen der in § 823 Abs. 1 BGB geschützten Rechtsgüter erfährt.312 Die rechtlich gebotene Verkehrssicherung umfasst diejenigen Maßnahmen, die ein umsichtiger und verständiger, in vernünftigen Grenzen vorsichtiger Mensch für notwendig und ausreichend hält, um andere vor Schäden zu bewahren.313 Ansprüche auf Schadensersatz aus deliktischer Haftung bestehen grundsätzlich in echter Anspruchskonkurrenz sowohl neben vertraglichen Ansprüchen – selbst wenn deren Durchsetzung gehindert sein sollte314  – als auch Ansprüchen nach dem Produkthaftungsgesetz, § 15 Abs. 2 ProdHaftG. Die Haftung unter der Voraussetzung des § 823 Abs. 1 BGB unterscheidet sich von der Gefährdungshaftung nach dem Produkthaftungsgesetz im Wesentlichen nur durch das Erfordernis eines Verschuldens des Produktherstellers; der Hersteller haftet aus unerlaubter Handlung mithin nur unter dem Aspekt der Verletzung der Verkehrssicherungspflichten, wenn er schuldhaft ein fehlerhaftes Produkt in Verkehr bringt.315 Allerdings ist der Anwendungsbereich weiter und beschränkt sich nicht nur auf bewegliche Sachen und Elektrizität, vgl § 2 ProdHaftG, sondern umfasst jegliche Verletzung von Herstellerpflichten. Eine Differenzierung, 309

BGH Urt. v. 20. 3. 1961 – III ZR 9/60, NJW 1961, 1157 (1160). BeckOK BGB / Förster, § 823 BGB Rn. 673. 311 OLG Schleswig Urt. v. 19. 10. 2007 – 17 U 43/07, NJW-RR 2008, 691. 312 BGH Urt. v. 31. 10. 2006  – VI ZR 223/05, NJW 2007, 762 (763)  – Limonadenflasche Rz. 11. 313 BGH Urt. v. 16. 5. 2006 – VI ZR 189/05, NJW 2006, 2326 (2326) – Zimmertür ohne Sicherheitsglas Rz. 6. 314 BGH Urt. v. 24. 11. 1976 – VIII ZR 137/75, NJW 1977, 379 (380). 315 OLG Koblenz Urt. v. 29. 8. 2005 – 12 U 538/04, NJW-RR 2006, 169 (170). 310

B. Haftung für Schäden durch Sprachassistenten

107

ob Sprachassistenten als Software unter den Begriff des § 2 ProdHaftG (vgl. oben auf den S. 96 ff.) zu fassen ist, kann unterbleiben.316 a) Produktbeobachtungspflicht Die Produktbeobachtungspflicht als Sonderform der Verkehrssicherungspflicht hat zur Folge, dass der Hersteller eines Produkts dieses auch nach Inverkehrbringen in der praktischen Verwendung überwachen muss. Der Hersteller darf sich nicht darauf verlassen, dass er mehr oder weniger zufällig von einer solchen Gefahr Kenntnis erlangt, sondern hat vielmehr Anstalten zu treffen, um von der praktischen Bewährung oder etwaigen Betriebsunfällen unterrichtet zu werden.317 Folglich weist die Produktbeobachtungspflicht zwei Dimensionen auf: Zum einen muss der Hersteller passiv Kundenbeschwerden entgegen nehmen, sammeln und analysieren, zum anderen aktiv nach fehlerhaften Produkten Ausschau halten.318 Wären alleine diese Vorgaben für eine Vielzahl von Herstellern schwer zu verwirklichen, erweitert der BGH den räumlichen Überwachungsbereich zusätzlich. Eine solche Beobachtungspflicht gilt demnach auch gegenüber den Produkten Dritter, um rechtzeitig Gefahren, die aus der Kombination des Produkts mit Produkten anderer Hersteller entstehen können, aufzudecken und diese zu steuern.319 Zurecht kritisiert Spindler, dass eine solch weitgehende Beobachtungspflicht zweifelhaft ist und auf Grund der Uferlosigkeit der daraus resultierenden Pflichten über das „Ziel hinaus schießt“.320 Für Sprachassistenten hätte das zur Folge, dass jedes smarte Produkt, das durch den Assistenten gesteuert werden kann, seitens des Herstellers beobachtet werden müsste. Nach einer Prognose aus dem Jahr 2019 werden alleine in Deutschland im Jahr 2023 11,6 Millionen Haushalte smarte Endgeräte im Einsatz haben.321 Erschwerend kommt hinzu, dass Sprachassistenten durch den Zugriff auf Internetquellen und der Struktur ihrer selbstlernenden Neuronalen Netze auch durch externe Datenquellen Veränderungen der Programmfunktionalitäten erfahren können. Eine Überwachung all dieser Szenarien seitens des Herstellers ist letztendlich schwerlich denkbar. Schmid kritisiert, dass die bestehende aktive und passive Produktbeobachtung mehr einer Marktbeobachtungspflicht gleich kommt, da sich selbst die aktive Produktbeobachtung auf die Auswertung öffentlich zugänglicher Quellen beschränkt.322 Um die bestehenden praktischen und tatsächlichen Umsetzungsdefizite zu beheben, plädiert Schmid für die Einführung einer „integrierten Produktbeobachtung“, im Zuge derer smarte Geräte ihre Funktionalität selbstüberwachen, 316

BeckOK BGB / Förster, § 823 BGB Rn. 682. BGH Urt. v. 17. 3. 1981 – VI ZR 286/78, NJW 1981, 1606 (1608) – Benomyl. 318 G. Wagner, AcP 217 (2017), 707 (751). 319 BGH Urt. v. 9. 12. 1986 – VI ZR 65/86, NJW 1987, 1009 (1010). 320 Spindler, in: Hilgendorf / S. Beck (Hrsg.), Robotik im Kontext von Recht und Moral, 63 (73). 321 statista, Smart Home Report 2019, Statista Digital Market Outlook, 2019, S. 36. 322 A. Schmid, CR 2019, 141 (143). 317

108

Kap. 5: Rechtliche Problemstellungen

atypische Systemzustände eigenständig erkennen und diese Informationen an den Hersteller übermitteln.323 Diese Erweiterung ist zu begrüßen, da sie weit über die Auswertung von Daten der Konkurrenzprodukte und der Verarbeitung von fachlich relevanter wissenschaftlicher Literatur hinaus geht.324 Dem Argument, eine derartige Pflicht zur Datenerhebung verwische die Grenzen zwischen Produkthaftung und Sachmängelrecht – welches alleine das kaufvertragliche Äquivalenzinteresse betrifft –, da die Daten nicht nur zur Abwendung der deliktsrechtlichen Haftung sondern vielmehr zur Erkennung drohender Verschlechterungen der Sache verwendet werden können325, muss entgegen gehalten werden, dass den Hersteller keine Pflicht treffen dürfte, auf gebrauchsüblichen Verschleiß bzw. Verschlechterung außerhalb des Produkthaftungsrechts aktiv hinzuweisen. b) Warn- und Updatepflicht Überdies gilt es die seitens des Herstellers zu ergreifenden Maßnahmen zu beleuchten. Die Sicherungspflichten sind nicht nur auf die Warnung vor etwaigen Gefahren beschränkt. Sie können nach Rechtsprechung des BGH dann weitergehen, wenn Grund zur Annahme besteht, dass die Warnung, selbst wenn sie hinreichend und deutlich detailliert erfolgt, den Benutzern des Produkts nicht ausreichend ermöglicht, die Gefahren einzuschätzen und ihr Verhalten darauf einzurichten.326 Eine solche mögliche Maßnahme kann auch die Verpflichtung zur Verfügungstellung eines Softwareupdates – zumindest für den Zeitraum des aktiven Vertriebs des Produkts – darstellen.327 Dies kann jedoch nicht grenzenlos gefordert werden. Softwareupdates können prinzipiell mit der Reparatur eines Produkts auf Kosten des Herstellers verglichen werden. Eine solche Maßnahme setzt nach BGH voraus, dass ein derartiges Update im konkreten Fall erforderlich ist, um Produktgefahren, die durch § 823 Abs. 1 BGB geschützten Rechtsgütern der Benutzer oder unbeteiligter Dritter drohen, effektiv abzuwehren.328 Wäre eine Updateverpflichtung seitens des Herstellers unter diesen Gesichtspunkten wohl in den überwiegenden Konstellationen abzulehnen, muss eine Abgrenzung zwischen herkömmlichen Reparaturen und Softwareaktualisierungen gezogen werden. Machen es Reparaturen an physischen Produkten notwendig, dass der Hersteller jedes einzelne kostenaufwändig in Stand setzt, genügt bei Softwareupdates eine einmalige Produktion, um alle Systeme zu umfassen, da ein Aufspielen bei smarten Geräten auf Grund der bestehenden Notwendigkeit eines Internetzugangs unproblematisch zu bewerkstelligen ist.329 Befindet sich das System noch im aktiven 323

A. Schmid, CR 2019, 141 (143). R. Schulze / A . Staudinger, § 823 BGB Rn. 176. 325 Grünvogel / Dörrenbächer, ZVertriebsR 2019, 87 (89). 326 BGH Urt. v. 16. 12. 2008 – VI ZR 170/07, NJW 2009, 1080 (1081) – Pflegebetten Rz. 11. 327 B. Raue, NJW 2017, 1841 (1844). 328 BGH Urt. v. 16. 12. 2008 – VI ZR 170/07, NJW 2009, 1080 (1081) – Pflegebetten Rz. 12. 329 G. Wagner, AcP 217 (2017), 707 (756). 324

B. Haftung für Schäden durch Sprachassistenten

109

Vertrieb seitens des Herstellers, so hat dieser für jene noch zu vertreibenden Geräte vor Inverkehrbringung ein entsprechendes Update zu programmieren, um kein fehlerhaftes Produkt auf den Markt zu bringen. Da der Investitionsaufwand somit bereits im Eigeninteresse des Herstellers steht, verursacht das Update bestehender Systeme keinen Mehraufwand im Vergleich zu Warnungen, die der Hersteller ansonsten versenden müsste. Im Falle eines Updates wird folglich in der Regel nicht nur die Verpflichtung zur Aktualisierung neu zu verkaufender Softwareprodukte bestehen, sondern viel mehr auch die Pflicht, für bereits im Verkehr befindliche Produkte Updates zur Verfügung zu stellen.330 Unterlässt der Verantwortliche hingegen die Erstellung und Verteilung eines Softwareupdates, stehen dem Einzelnen unter Umständen Durchsetzungsprobleme entgegen. Der Hersteller befindet sich zwar, folgt man der vorhergehenden Argumentation, in einem Zustand der Verkehrspflichtverletzung, es folgt aus dieser nach der oben dargestellten restriktiven Rechtsprechung des BGH jedoch kein individueller Anspruch auf Bereitstellung eines Updates aus §§ 823 Abs. 1, 1004 BGB.331 c) Rückrufpflicht Einschneidender als die Bereitstellung von Softwareupdates stellen sich für den Hersteller mögliche Rückrufpflichten dar. Nach der Rechtsprechung des BGH kommt ein solcher Rückruf nur in sehr engumgrenzten Fällen in Betracht. Auch in Fällen erheblicher Gefahr für die Rechtsgüter des § 823 Abs. 1 BGB kann es ausreichend sein, dass der Hersteller: (1) die betreffenden Abnehmer über die Notwendigkeit einer Nachrüstung oder Reparatur umfassend informiert und ihnen, soweit erforderlich, seine Hilfe anbietet, um sie in die Lage zu versetzen, die erforderlichen Maßnahmen in geeigneter Weise auf ihre Kosten durchzuführen, (2) dazu auffordert, die gefährlichen Produkte nicht zu benutzen oder stillzulegen und hierzu gegebenenfalls die zuständigen Behörden einschaltet bzw. öffentliche Warnungen ausgibt.332 Diese eher restriktive Rechtsprechung wird einen Rückruf in Bezug auf Sprachassistenten eher selten notwendig machen. Lediglich in zukünftigen Konstellationen, in welchen sich eine komplett autonome Künstliche Intelligenz soweit verselbstständigt hat, dass ein Zugriff des Herstellers mittels Softwareupdate scheitert und erhebliche Gefahren hervorgerufen werden, deren Abwehr auch nicht durch eine Nichtbenutzung des Verwenders möglich sein wird, könnte ein Rückruf notwendig werden. 330

Grünvogel / Dörrenbächer, ZVertriebsR 2019, 87 (89). B. Raue, NJW 2017, 1841 (1845). 332 BGH Urt. v. 16. 12. 2008 – VI ZR 170/07, NJW 2009, 1080 (1081) – Pflegebetten Rz. 13. 331

110

Kap. 5: Rechtliche Problemstellungen

2. Schutzgesetzverletzung § 823 Abs. 2 BGB Eine deliktische Produzentenhaftung kann sich neben § 823 Abs. 1 BGB auch aus Verletzung eines Schutzgesetzes i. S. d. § 823 Abs. 2 S. 1 BGB ergeben. Voraussetzung ist, dass die betroffene gesetzliche Regelung auch dem individuellen Schutz des Geschädigten dient.333 a) Haftung nach § 823 Abs. 2 BGB i. V. m. § 3 Abs. 2 und 3 ProdSG Für den Bereich der Künstlichen Intelligenz bzw. des Sprachassistenten ist insbesondere das Produktsicherheitsgesetz relevant. Gemäß § 3 Abs. 2 S. 1 ProdSG darf ein Produkt nur auf dem Markt bereitgestellt werden, wenn es bei bestimmungsgemäßer oder vorhersehbarer Verwendung die Sicherheit und Gesundheit von Personen nicht gefährdet. Unproblematisch ist das ProdSG als Schutzgesetz im Sinne des § 823 Abs. 2 BGB zu klassifizieren.334 Der Schutz des Verbrauchers ist der seitens des Gesetzgebers eindeutig intendierte Zweck, welcher im Besonderen durch die Begrifflichkeiten des Schutzes der „Sicherheit und Gesundheit“ sowohl beim „Verwender“ als auch bei „Dritten“ geprägt wird.335 Ähnlich der Argumentation bezüglich des Produkthaftungsrechts ist zu diskutieren, ob Software als Produkt anzuerkennen ist. Das ProdSG schließt nicht an das ProdHaftG an, sondern hat seinerseits einen eigenen Produktbegriff. Nach § 2 Nr. 22 sind Produkte Waren, Stoffe oder Zubereitungen, die durch einen Fertigungsprozess hergestellt worden sind. Relativ unstreitig dürfte Software dann dem ProdSG unterfallen, wenn sie in verkörperter Form vorliegt (etwa der in einem Gehäuse „verbaute“ Sprachassistent).336 Für einen Ausschluss von ohne Datenträger übertragene Software ziehen Klindt / Schucht die produktsicherheitsrechtliche Relevanz aus der Verkörperung des Produktes selbst, da es ihrer Meinung nach unerheblich ist, dass die verkörperte Software auch als mündliche Auskunft denkbar sei, da eine solche gerade nicht dem Anwendungsbereich des ProdSG unterfällt.337 Auch Wiebe sieht den Zweck des ProdSG in der bloßen Abwehr von Lebens- und Gesundheitsgefahren;338 reine Software hingegen ist seiner Meinung nach nur in der Lage, das Eigentum und Vermögen (z. B. durch Datenverlust) zu gefährden, wobei diese Rechtsgüter nicht vom Schutzbereich des ProdSG umfasst werden. 333

BeckOK BGB / Förster, § 823 BGB Rn. 675. Kullmann, NJW 2005, 1907 (1910). 335 Klindt / Klindt, § 3 ProdSG Rn. 55. 336 Hoeren / Ernstschneider, MMR 2004, 507 (508). 337 Klindt / Klindt / Schucht, § 2 ProdSG Rn. 166. 338 Weitere Rechtsgüter können seitens des ProdSG geschützt werden, wenn hierzu eine gesonderte Rechtsveordnung nach § 8 Abs. 1 ProdSG erlassen wird. Dies ist beispielsweise auf den Gebieten der Spielzeuge und Sportbooten bereits erfolgt. Für Software fehlt es derzeit an einer solchen Bereichsspezifischen Regelung, die neben Körperschäden auch Sachschäden erfasst. Vgl. hierzu BeckOK BGB / Förster, § 823 BGB Rn. 676. 334

B. Haftung für Schäden durch Sprachassistenten

111

Embedded Software (d. h. Software die fest in einem physischen Gerät „verbaut“ ist) hingegen unterfällt auch seiner Meinung nach § 2 Nr. 22 ProdSG.339 Ob diese Differenzierung noch haltbar ist, gestaltet sich fraglich. Es kann, wie im Produkthaftungsrecht, keinen wirklichen Unterschied darstellen, ob eine Software seitens des Herstellers in verkörperter Form auf den Markt gebracht wird oder erst durch den Verwender digital über das Internet erworben wird und die unkörperliche Form seitens des Verwenders durch Speicherung auf einem Medium verkörperlicht wird. Andere Schutzgesetze, wie beispielsweise das Medizinproduktegesetz, könnten für besondere Spezialisten-Systeme von Sprachassistenten340 relevant werden, sollen an dieser Stelle jedoch keine vertiefte Beachtung finden. b) Updateverpflichtung nach dem ProdSG Eine Updateverpflichtung des Herstellers lässt sich dem ProdSG nicht expressis verbis entnehmen. § 3 ProdSG ist als Anknüpfungspunkt ungeeignet, da der relevante Zeitpunkt des Vorliegens einer ungefährlichen Eigenschaft des Produkts – wie bereits vorgehend ausgeführt – das Bereitstellen des Produkts auf dem Markt ist. Softwareverbesserungen für nachträgliche Fehler sind hiernach nicht umfasst, da insofern immer auf das konkrete Einzelprodukt abzustellen ist und nicht auf die komplette, teilweise bereits auf dem Markt befindliche, Produktserie.341 Auch der weiterführende Handel darf diese einmal auf den Markt gebrachten Produkte im Nachgang grundsätzlich ohne Überprüfung vertreiben wobei er davon ausgehen darf, dass die Produkte bei der Inverkehrbringung den geltenden Rechtsvorschriften entsprochen haben; erst bei positiver Kenntnis, dass das Produkt nicht den Anforderungen des § 3 ProdSG genügt, darf dieses, sofern es sich um ein Verbraucherprodukt handelt, nicht abgegeben werden, § 6 Abs. 5 ProdSG.342 Auch die in § 6 Abs. 3 ProdSG in Bezug auf Verbraucherprodukte343 – um solche wird es sich bei gängigen Sprachassistenten oftmals handeln – statuierte öffentlichrechtliche Beobachtungspflicht,344 welche den Hersteller dazu verpflichtet, auch nach der Bereitstellung auf dem Markt Stichproben durchzuführen, Beschwerden 339

G. Wiebe, NJW 2019, 625 (626). Sprachassistenten können im Sinne des MPG dann als Medizinprodukt gelten, wenn ihr hauptsächlicher Zweck der Steuerung eines Medizinproduktes dient bzw die technische Grundlage für ein komplikationsloses Funktionieren der medizinischen Anwendung Rehmann /  Susanne Wagner / Rehmann, § 3 MPG Rn. 1. 341 Klindt / Klindt, § 3 ProdSG Rn. 39. 342 Bundesministerium für Arbeit und Soziales, GMBl 2013, 1227 (1228). 343 Verbraucherprodukte i. S. d. ProdSG sind neue, gebrauchte oder wiederaufgearbeitete Produkte, die für Verbraucher bestimmt sind oder unter Bedingungen, die nach vernünftigem Ermessen vorhersehbar sind, von Verbrauchern benutzt werden könnten, selbst wenn sie nicht für diese bestimmt sind; als Verbraucherprodukte gelten auch Produkte, die dem Verbraucher im Rahmen einer Dienstleistung zur Verfügung gestellt werden, § 2 Nr. 26 ProdSG. 344 Klindt / Kapoor, § 6 ProdSG Rn. 57. 340

112

Kap. 5: Rechtliche Problemstellungen

zu prüfen und Händler über weitere Maßnahmen zu unterrichten, mag eine Verpflichtung zur Verbesserung der Software nicht zu begründen. Sofern in der Literatur vertreten wird, dass ein derartiges Risikomanagement auch die Erstellung von Updates umfasst345, ist entgegen zu halten, dass es sich bei den aufgezählten Produktbeobachtungspflichten um Vorfeldmaßnahmen handelt und keine konkrete Abwehr der Gefahr durch Software-Updates umfasst.346 Überdies nicht erfolgsversprechend ist ein Rückgriff auf § 6 Abs. 2 ProdSG, welcher eine Verpflichtung zur Einführung und Vorhaltung eines betrieblichen Rückrufmanagements des Herstellers statuiert.347 Das durch das ProdSG umgesetzte europäische Recht sieht in Art. 5 Abs. 1 UAbs. 3 lit. b) i. V. m. UAbs. 5 Produktsicherheits-RL (RL 2001/95/EG) lediglich vor, dass diese Maßnahmen des Herstellers nur auf freiwilliger Basis getroffen werden können oder auf Grund behördlicher Aufforderung getroffen werden müssen. Wiebe kritisiert, dass hier die Chance unnötig vergeben wurde, eine Maßnahmenergreifungspflicht aufzustellen, welche im Zuge potentieller Gefahrabwehrmaßnahmen eine Update-Verpflichtung enthalten könnte und somit zum reinen rechtlichen Appell zur freiwilligen Handlung (behördliche Aufforderungen ausgenommen) an die Hersteller verkümmert.348 Lassen sich de lege lata dem ProdSG keine originären Pflichten des Herstellers entnehmen, für die fortlaufende Produktsicherheit eines Sprachassistenten zu sorgen, verbleibt nur noch ein Blick auf die Möglichkeiten der Marktüberwachung seitens staatlicher Behörden. Diesen steht mit § 26 Abs. 2 ProdSG ein ausdifferenziertes Feld verschiedener Maßnahmen zur Seite.349 Dem Grundsatz der Verhältnismäßigkeit entsprechend, dürfen die Marktüberwachungsbehörden dann eingreifende Maßnahmen gegenüber dem Hersteller erlassen, wenn dessen eigenverantwortliche Unternehmungen nicht erfolgsversprechend sind, um Gefahren seitens eines fehlerhaften Produkts abzuwehren.350 Denkbar sind hier beispielsweise Körper- und andere Rechtsgutverletzungen durch fehlerhafte Assistenten und Softwarelücken. Neben einer nicht abschließenden Auflistung von Standardmaßnahmen in § 26 Abs. 2 S. 2 ProdSG, welche von Ausstellungsuntersagungen (Nr. 1) bis hin zur Sicherstellung und Unbrauchbarmachung (Nr. 8) reichen, kann die Behörde einzelfallspezifische Maßnahmen auf die Generalklausel des § 26 Abs. 2 S. 1 ProdSG stützen. Im Gegensatz zu Reusch, der grundsätzlich eine Warnung des Herstellers vor Verwendung des Produkts als ausreichend erachtet um Gefahren abzuwehren, da die Nutzer eine Verwendung eigenmächtig einstellen würden und weitere Maßnahmen, wie beispielsweise einen Produktrückruf, nur 345 Vgl. zur alten Rechtslage des § 5 Abs. 1 Nr.1 lit.c GPSG, dessen Anforderungen ähnlich des § 6 Abs. 3 ProdSG ausgestaltet waren Runte / Potinecke, CR 2004, 725 (729). 346 G. Wiebe, NJW 2019, 625 (627). 347 Klindt / Kapoor, § 6 ProdSG Rn. 47. 348 G. Wiebe, NJW 2019, 625 (628). 349 Klindt / Schucht, § 26 ProdSG Rn. 1. 350 Klindt / Schucht, § 26 ProdSG Rn. 26.

B. Haftung für Schäden durch Sprachassistenten

113

in homöopathischen Dosen für angebracht hält,351 kann eine Aufforderung zur Aktualisierung und Schließung von Softwarelücken und Bugs ein relativ mildes und wirksames Mittel darstellen,352 zumal Sprachassistenten in der Regel mit dem Internet verbunden sind und eine Aktualisierung, anders als bei nicht vernetzter Embedded Software, möglich sein dürfte. Auch Orthwein / Obst sehen eine Verpflichtung zur Lieferung von Updates dann als denkbar an, wenn Gefahren einer bereits eingesetzten Software nicht mit milderen Mitteln beseitigt werden können.353 Allerdings muss auch bedacht werden, dass eine Verpflichtung zu SoftwareAktualisierungen nicht schrankenlos erfolgen kann. Die Behörden haben stets den Verhältnismäßigkeitsgrundsatz zu berücksichtigen. Besonders eingriffsintensive Maßnahmen – hierrunter kann auf Grund eines möglicherweise hohen finanziellen Aufwands auch die Verpflichtung zur Aktualisierung zählen – unterliegen hohen Eingriffsvoraussetzungen.354 3. Haftung des Aufsichtspflichtigen nach § 832 BGB Es wird postuliert, dass die Stellung des Entwicklers einer Künstlichen Intelligenz durchaus mit der Haftung eines Aufsichtspflichtigen vergleichbar ist. Normzweck des § 832 BGB ist es, eine Haftung für Schäden an diejenigen Personen zu adressieren, die zur Verhinderung des Schadens befähigt sind, wobei angenommen werden kann, dass Schutzbefohlene Personen zur Steuerung des eigenen Handelns und der Minimierung von Schadensfällen oftmals nicht hinreichend fähig sind. Nach § 832 Abs. 1 BGB ist derjenige, der kraft Gesetzes zur Führung der Aufsicht über eine Person verpflichtet ist, die wegen Minderjährigkeit oder wegen ihres geistigen oder körperlichen Zustands der Beaufsichtigung bedarf, zum Ersatz des Schadens verpflichtet, den diese Person einem Dritten widerrechtlich zufügt. Die Ersatzpflicht tritt nur dann nicht ein, wenn er seiner Aufsichtspflicht genügt oder wenn der Schaden auch bei gehöriger Aufsichtsführung entstanden sein würde. § 832 BGB sieht daher den Aufsichtspflichtigen als grundsätzlich zum Ersatz desjenigen Schadens verpflichtet, welchen eine der Aufsicht bedürfende Person einem Dritten zugefügt hat, wobei vermutet wird, dass zwischen Schaden und der Aufsichtspflichtverletzung ein Zusammenhang besteht, sofern der Verpflichtete diese Vermutung nicht widerlegen kann. Ähnlich minderjährigen Kindern oder anderen der Aufsicht bedürftigen Personen ist die Schaffung einer starken Künstlichen Intelligenz zu bewerten. Auch hier schafft und „erzieht“ der Hersteller ein – je nach Grad der Automatisierung – eigenständig denkendes Maschinenwesen. Um eine ausufernde Haftung zu begrenzen, 351

Reusch, BB 2017, 2248 (2253). G. Wiebe, NJW 2019, 625 (629). 353 Orthwein / Obst, CR 2009, 1 (4). 354 Klindt / Schucht, § 26 ProdSG Rn. 64. 352

114

Kap. 5: Rechtliche Problemstellungen

sollte es dem Hersteller möglich sein, eine Vermutung des Schadenszusammenhangs zu widerlegen. Es gilt entsprechend § 832 BGB Regelungen zu entwerfen, wann und unter welchen Umständen dies der Fall ist. Grundsätzlich richtet sich das Maß der aufzubringenden Sorgfalt des Aufsichtspflichtigen zum einen nach der Persönlichkeit des Aufsichtsbedürftigen, das bedeutet, nach Alter, Eigenart und Charakter des Kindes, wobei die Faustformel gilt, dass mit steigendem Alter – untypische Entwicklungsdefizite ausgenommen – des Minderjährigen die Anforderungen abnehmen.355 Zum anderen müssen in die Abwägung die konkret mögliche Rechtsgutsverletzung sowie die hierzu führenden situativen Umstände (Vorhersehbarkeit, örtliches Umfeld etc.) eingestellt werden.356 Übertragen auf intelligente Systeme wäre seitens des Entwicklers ein ähnlicher Maßstab anzulegen. Die „Aufsichtspflicht“ könnte sich in diesem übertragenen Fall sowohl aus einer zeitlichen – wie lange ist das System bereits stabil in Betrieb – als auch einer risikospezifischen  – welche Gefahren bestehen für Rechts­güter Dritter und welches Schadenspotential ist zu erwarten – Komponente ergeben. Steht der BGH bezüglich der Intensität der nötigen Aufsicht bei minderjährigen Kindern auf dem Standpunkt, dass eine anlasslose und regelmäßige Kontrolle des Kindes mit dem Erziehungsgrundsatz des § 1626 Abs. 2 S 1 BGB, nach welchem bei der Pflege und Erziehung die wachsende Fähigkeit und das wachsende Bedürfnis des Kindes zu selbstständigem, verantwortungsbewusstem Handeln seitens der Aufsichtspflichtigen zu berücksichtigen sei357, und daher eine, über die Aufklärung und das Verbot bestimmter Handlungen hinausgehende, regelmäßige Kontrolle nur bei einem konkreten Anlass zu fordern sei358, kann diese Argumentation im Zusammenhang mit intelligenten Systemen und folglich Sprachassistenten nicht verfangen. Das intelligente System weist selbst – zumindest zum derzeitigen Standpunkt (vgl. die Ausführungen bezüglich der ePerson ab S. 249) – keine eigene naturrechtliche Rechtsposition auf, die einen ähnlichen Erziehungsauftrag des Entwicklers rechtfertigen könnte. Dies und die potenziell schwerwiegenden Beeinträchtigungen der Rechte Dritter, welche durch die Datenverarbeitung bzw. Handlungen einer Künstlichen Intelligenz betroffen werden können, führen zu einer restriktiveren Aufsichtspflicht des Herstellers. Sollte in Zukunft eine analoge Anwendung des § 832 BGB auf intelligente Systeme Anwendung finden, hat der Hersteller das System nicht nur bei der erstmaligen Inbetriebnahme sorgfältig zu programmieren, es bedarf viel mehr einer dauerhaften und anlasslosen Überwachung des Systems, um einen Entlastungsbeweis des Herstellers zu rechtfertigen.

355

BeckOGK / Wellenhofer, § 832 BGB 42. Jauernig / Teichmann, § 832 BGB S. 6. 357 BGH Urt. v. 15. 11. 2012 – I ZR 74/12, NJW 2013, 1441 (1442) – Morpheus Rz. 26. 358 BGH Urt. v. 15. 11. 2012 – I ZR 74/12, NJW 2013, 1441 (1442) – Morpheus Rz. 24. 356

B. Haftung für Schäden durch Sprachassistenten

115

IV. Haftung des Verwenders Haftungsfragen bestehen nicht nur in Bezug auf den Hersteller intelligenter Produkte, sondern auch vermehrt gegenüber den Verwendern. Mit einer zunehmenden Automatisierung von Sprachassistenten nimmt im gleichen Maße die Gefahr eines Eingriffs in die Rechte Dritter zu. Es soll daher im Folgenden beleuchtet werden, ob der Verwender des Sprachassistenten für dessen Handlungen zur Verantwortung gezogen werden kann. 1. Haftung nach § 823 Abs. 1 BGB Der Betrieb von Sprachassistenten kann unter Umständen zu einer Schädigung Dritter führen. Sei es ein medizinischer Analyse-Assistent, der im Rahmen der Diagnostik zu falschen Ergebnissen gelangt oder der persönliche Butler in einem Hotel, der die Verriegelung der Türen nicht wie gewünscht überwacht. Die deliktsrechtliche Haftung knüpft grundsätzlich an die Handlung eines Menschen als natürliche Person an. Bei selbstständigen Handlungen eines autonomen Sprachassistenten fehlt es an einer menschlichen Handlung – es kann nur eine Rückverfolgung der Handlung des Assistenten bis zur letzten menschlichen Eingriffshandlung verbleiben.359 Das Haftungsrecht sieht bestimmte Verkehrssicherungspflichten nicht nur für den Hersteller eines autonomen Systems vor, sondern im gleichen Maße ebenso für den Betreiber. Durch die Inbetriebnahme eines Sprachassistenten schafft der Verwender eine Gefahrensituation, welche Auswirkungen auf den Rechtskreis Dritter nehmen kann. Die zu treffende Verkehrssicherungspflicht umfasst nach BGH diejenigen Maßnahmen, die ein umsichtiger und verständiger, in vernünftigen Grenzen vorsichtiger Mensch für notwendig und ausreichend hält, um andere vor Schäden zu bewahren, wobei Voraussetzung hierfür ist, dass vorausschauend für ein sachkundiges Urteil die nahe liegende Gefahr ergibt, dass Rechtsgüter anderer verletzt werden können.360 Vorliegend kommt nach Auffassung der Literatur im Anwendungsbereich automatisierter Entscheidungen eine Haftung für einen Organisationsmangel361 in Betracht, worunter Köhler insbesondere eine denkbare unzulässige Automatisierung, fehlende Vorkehrungen für einen störungsfreien Betriebsablauf als auch mangelnde Fehlerkontrollen fasst.362 Nicht nur hat der Verwender dafür Sorge zu tragen, dass der für seine Zwecke geeignete Sprachassistent zur Anwendung kommt und die technische Umgebung geeignet ist – hierunter zählen zum Beispiel Sicherungsmaßnahmen gegen Beeinträchtigungen durch Schadpro-

359

Riehm, ITRB 2014, 113 (114). BGH Urt. v. 4. 12. 2001 – VI ZR 447/00, NJW-RR 2002, 525 (526). 361 W. Beck, DÖV 2019, 648 (651). 362 Köhler, AcP 1982, 126 (159). 360

116

Kap. 5: Rechtliche Problemstellungen

gramme und Datensicherungsroutinen363 –, vielmehr hat dieser auch den Selbstlern-Prozess zu überwachen. Die sich wandelnde Natur eines Neuronalen Netzes verändert durchgehend die Überwachungspflichten des Verwenders. Er kann sich nicht haftungsbefreiend darauf berufen, dass eine, seinen Überwachungspflichten genügende, Kontrolle bei Aufnahme der Verwendung erfolgt ist, vielmehr hat er die Qualität des Assistenten durch weitere Maßnahmen fortlaufend zu überwachen.364 Zech wirft ein, dass es bei autonomen und lernfähigen Systemen Künstlicher Intelligenz zum derzeitigen Stand der Technik schlicht unmöglich ist, das System rechtssicher zu beherrschen. Als Konsequenz erachtet er es für möglich, dass bereits die bloße Verwendung eines solchen Systems verkehrssicherungspflichtwidrig sein kann.365 Dieser Auffassung ist zuzustimmen, sofern diese sich auf ein System ähnlich einer Superintelligenz bezieht. Die sich auf dem Markt befindlichen Sprachassistenten dürften sich jedoch, zumindest nach Kenntnisstand des Verfassers, noch nicht auf einem derart unberechenbaren technischen Niveau befinden. Verbleiben nach der hier vertretenen Auffassung somit Haftungslücken, da der Verwender seinen Verkehrssicherungspflichten hinreichend nachgekommen ist und ihm ein Schadensfall mangels Verschuldens nicht persönlich vorwerfbar ist, kann de lege ferenda eine eigene Gefährdungshaftung für jene Fälle einer vollständigen Automatisierung des Sprachassistenten366 angedacht werden. Eine spezielle – mit § 7 StVG vergleichbare – verschuldensunabhängige Betreiberhaftung für autonome Softwareagenten ist dem nationalen Deliktsrecht bisweilen fremd.367 Ein eigenes Verschulden des Sprachassistenten ist de lege lata nicht denkbar. Auch wenn das System selbständig in der Lage ist, das Verhalten und die Entscheidungsroutinen an das geltende Rechtsystem anzupassen und sich den normativen Anforderungen zu unterwerfen, womit folglich der Vorwurf einer Rechtsschuld möglich wäre,368 ist das Deliktsrecht in seiner derzeitigen Ausgestaltung nicht für die eigene Haftung autonomer Softwareagenten ausgelegt. 2. Haftung für Verrichtungsgehilfen nach § 831 Abs. 1 BGB Das Deliktsrecht kennt mit § 831 Abs. 1 BGB das Modell einer Zurechnung von Schäden, die durch Drittverschulden entstanden sind. Nach § 823 Abs. 1 S. 1 BGB ist derjenige, der einen anderen zu einer Verrichtung bestellt, zum Ersatz desjenigen Schadens verpflichtet, den der andere in Ausführung der Verrichtung einem Dritten widerrechtlich zufügt. Diese Situation ist im Grundgedanken mit dem Einsatz eines Sprachassistenten vergleichbar. 363

Köhler, AcP 1982, 126 (160). Bilski / T. Schmid, NJOZ 2019, 657 (660). 365 Zech, ZfPW 2019, 198 (210). 366 Bilski / T. Schmid, NJOZ 2019, 657 (660). 367 Borges, NJW 2018, 977 (981). 368 Cornelius, ZRP 2019, 8 (10). 364

B. Haftung für Schäden durch Sprachassistenten

117

Wesentliches Merkmal des § 831 Abs. 1 BGB stellt folglich dar, ob ein Sprachassistent als Verrichtungsgehilfe zu qualifizieren ist. Verrichtungsgehilfe i.S.v § 831 BGB ist, wer von den Weisungen seines Geschäftsherrn abhängig ist. Ihm muss von einem anderen, in dessen Einflussbereich er allgemein oder im konkreten Fall und zu dem er in einer gewissen Abhängigkeit steht, eine Tätigkeit übertragen worden sein. Das Weisungsrecht des Geschäftsherrn braucht zwar nicht ins Einzelne zu gehen, Entscheidend ist aber, dass die Tätigkeit in einer organisatorisch abhängigen Stellung vorgenommen wird und der Geschäftsherr die Tätigkeit des Handelnden jederzeit beschränken oder entziehen oder nach Zeit und Umfang bestimmen kann.369 Das Merkmal des Weisungsrechts verdeutlicht, dass der Verrichtungsgehilfe gerade nicht nach freiem Willen handeln darf, sondern vielmehr abhängig und weisungsgebunden ist.370 Je nach Automatisierungsgrad des intelligenten Systems kann diese Abhängigkeit und Weisungsgebundenheit fraglich sein. Mit guten Gründen lässt sich eine solche, sieht man davon ab, dass ein KI System keine natürliche Person darstellt, jedoch auch bei hoch autonomen Gerätschaften bejahen,371 da der Verwender (= Geschäftsherr) noch immer bestimmen kann, ob der Sprachassistent überhaupt tätig wird oder dieser (im Extremfall durch Kappung der Stromversorgung) tätig wird.372 Dies ist vergleichbar mit dem in der Rechtsprechung etablierten objek­ tiven Abhängigkeitsverhältnis, das den Geschäftsherrn dazu ermächtigt, auf das Verhalten des Dritten Einfluss zu nehmen und das Verhältnis zu diesem auch zu beenden.373 Eine mögliche Zurechnung von Handlungen der KI könnte nur in speziellen Kategorien, beispielsweise im Rahmen einer in Gänze untypischen Handlung, die in Gänze nicht mit dem Einsatzbereich vereinbar ist374 oder es sich um solche einer Superintelligenz375 handelt, entfallen. Da die Haftung des Geschäftsherrn auch kein Verschulden des Verrichtungsgehilfen, welches eine menschliche Eigenschaft darstellen würde, voraussetzt, ist eine Übertragung der Verrichtungsgehilfeneigenschaft zumindest in analoger Form möglich.376 Abgeschwächt wird die Haftung des Geschäftsherrn durch die Möglichkeit der Exkulpation. § 831 Abs. 1 S. 2 BGB. § 831 BGB statuiert keine deliktischen Sorgfaltspflichten zum Nachteil des Geschäftsherrn, sondern führt, im Zuge einer Beweislastumkehr, Möglichkeiten eines Entlastungsbeweises an, nach welchem bei Vorliegen der Anforderungen eine Haftung ausscheidet.377 Die Anforderungen, die

369

BGH Urt. v. 10. 12. 2013 – VI ZR 534/12, NJW-RR 2014, 614 (615) Rz. 12. BGH Urt. v. 25. 2. 1988 – VII ZR 348/86, NJW 1988, 1380 (1381). 371 Keßler, MMR 2017, 589 (593). 372 Hacker, RW 2018, 243 (265). 373 BGH Urt. v. 10. 12. 2013 – VI ZR 534/12, NJW-RR 2014, 614 (615) Rz. 12. 374 Denga, CR 2018, 69 (75). 375 Hacker, RW 2018, 243 (266). 376 Vgl. hierzu auch Denga, CR 2018, 69 (75). 377 MüKoBGB / G. Wagner, § 831 BGB Rn. 34. 370

118

Kap. 5: Rechtliche Problemstellungen

der Geschäftsherr im Zuge der Auswahl, Überwachung und Leitung des Erfüllungsgehilfen zu beachten hat, sind einzelfallabhängig und richten sich nach dem Grad der Komplexität des Aufgabenbereiches, der damit zusammenhängenden nötigen Verlässlichkeit des Gehilfen sowie des Schädigungspotentials der Aufgabe.378 Für den Einsatz von Sprachassistenten bedeutet dies grundsätzlich, dass der Verwender diesen regelmäßig unter realen Einsatzbedingungen testet und auf volle Funktionalität überprüft sowie auf bekanntgewordene Produktfehler zeitlich nahe und vertretbar reagiert.379 Sind zum einen die Einsatzgebiete des Sprachassistenten für die Rechte Dritter von erhöhter Relevanz und ist eine Handlung der Software für den Verwender auf Grund mangelnden technischen Fachwissens wenig überschaubar, ist es unter Umständen von Nöten, dass der Verwender die Unterstützung von sachverständigen Dritten in regelmäßigen Abständen einholt, auf dessen Urteil er sich jedoch bei entsprechender Reputation und Vertrauenswürdigkeit verlassen darf.380 Da einer Künstlichen Intelligenz menschliche Eigenschaften wie Charakterstärke, Besonnenheit und Verantwortungsgefühl fehlt,381 sind die Überwachungspflichten auch nach einer fehlerfreien Bewährung über einen längeren Zeitraum nicht wie bei einem menschlichen Helfer unter Umständen zu reduzieren,382 sondern spezifisch für die jeweilige KI situationsabhängig und dem Erfordernis angepasst fortzuführen.383

V. Exkurs: Lauterkeitsrecht Eine Haftung für auf Grund durch Sicherheitslücken eines Sprachassistenten entstandene Schäden kann sich, neben den deliktischen Haftungsansprüchen, auch auf lauterkeitsrechtliche Begebenheiten stützen. Sicherheitslücken bei autonomen Agenten können zur Folge haben, dass Dritte sich mittels der Verwendung von Schadsoftware unter Ausnutzung der Schwachstellen Zugang auf das System verschaffen und dieses unter anderem zu Zwecken der Informationsgewinnung ausspähen oder verschlüsseln, um Lösegeld zu erpressen384 bzw. dem Verwender unerwünschte Werbenachrichten zukommen zu lassen.

378

BeckOGK / Spindler, § 831 BGB Rn. 38. Hacker, RW 2018, 243 (266). 380 Spindler, CR 2017, 715 (718). 381 Keßler, MMR 2017, 589 (593). 382 BeckOGK / Spindler, § 831 BGB Rn. 39. 383 Zech, ZfPW 2019, 198 (211). 384 Die Schadsoftware „WannaCry“ zum Beispiel verschlüsselte im Mai 2017 zahlreiche Systeme und erpresste Lösegeld zur Freischaltung. Weltweit wurde in kürzester Zeit enormer Schaden verursacht, da unter anderem auch zentrale kritische Infrastrukturen betroffen waren. Verschärft wurde die Situation nur noch dadurch, dass der amerikanische Geheimdienst NSA um die dem Angriff zu Grunde liegenden Schwachstellen wusste und dies geheim hielt um ihrerseits infiltrierende Ransomeware zu entwickeln. Derin / Golla, NJW 2019, 1111 (1115). 379

B. Haftung für Schäden durch Sprachassistenten

119

Exkurs: Nur beispielhaft und ohne auf sämtliche mögliche Verletzungen wettbewerbsrechtlicher Vorschriften eingehen zu wollen, soll die Beeinträchtigung eines Verbrauchers oder sonstigen Marktteilnehmers durch Nötigung, § 4a Abs. 1 Nr. 2 UWG, dargestellt werden. Die tatbestandlichen Voraussetzungen einer Nötigung und damit einer aggressiven Geschäftspraktik i. S. v. Art. 8 und Art. 9 der Richtlinie über unlautere Geschäftspraktiken (RL 2005/29/EG) liegt vor, wenn der Betroffene durch Drohung mit einem erheblichen Nachteil zu einer geschäftlichen Handlung gezwungen werden soll, die er ohne diese Einwirkung nicht getroffen hätte.385 Die Drohung muss dabei in ihrer Intensität derart hoch sein, dass der Betroffene entweder überhaupt keine Wahl hat, anders zu handeln oder seine Entscheidungsfreiheit nicht unerheblich beeinträchtigt ist.386 Die Verschlüsselung von Daten mit der Drohung diese zu löschen, sollte der Betroffene keine Freigabezahlung leisten, kann unproblematisch unter diese Tatbestandsmerkmale subsumiert werden. Um lauterkeitsrechtlich Verantwortlicher zu sein, ist keine eigenständige Vornahme dieser Handlungen nötig. Vielmehr ist es nach Rechtsprechung des BGH ausreichend, dass der Hersteller durch Vertrieb des Sprachassistenten und Unterlassen der Behebung einer Sicherheitslücke – mithin einer Handlung im geschäftlichen Verkehr387 – die Gefahr geschaffen hat, dass Dritte durch das Wettbewerbsrecht geschützte Interessen von Marktteilnehmern verletzen. In diesem Falle ist der Betreiber eines Sprachassistenten wettbewerbsrechtlich dazu verpflichtet, diese Gefahr im Rahmen des Möglichen und Zumutbaren zu begrenzen.388 Diese Obliegenheit sieht der BGH durch den Gesichtspunkt des gefahrerhöhenden Verhaltens als gerechtfertigt an. Das Bestehen und der Umfang der Verpflichtung des Betreibers richtet sich im Einzelfall nach einer Abwägung aller betroffenen Interessen und relevanten rechtlichen Wertungen. Es kommt dabei entscheidend darauf an, ob und inwieweit dem in Anspruch genommenen Betreiber des Sprachassistenten nach den Umständen eine Prüfung zuzumuten ist, um einer unangemessenen Ausdehnung der Haftung für Rechtsverstöße der auf den Sprachassistenten einwirkenden Dritten entgegen zu wirken.389 Um diese seitens des BGH zu verhindernde unangemessene Ausdehnung zu vermeiden, wird gefordert, dass es für die Begründung der Haftung nicht ausreichend ist, dass der Hersteller des Sprachassistenten eine abstrakte Gefahr für unlauteres Verhalten Dritter geschaffen hat. Vielmehr bedarf es konkreter Anhaltspunkte für die Möglichkeit einer Erstbegehungs- oder Wiederholungsgefahr.390 Eine Bestimmung, wann eine solche haftungsbegründende Gefahr vorliegt, richtet sich stets 385

MüKoUWG / B. Raue, § 4a UWG S. 130; BGH Urt. v. 19. 3. 2015 – I ZR 157/13, GRUR 2015, 1134 (1135) – Schufa-Hinweis Rz. 17. 386 Köhler / Bornkamm / Feddersen / Alexander / Köhler, § 4a UWG 1.49. 387 B. Raue, NJW 2017, 1841 (1845). 388 BGH Urt. v. 12. 7. 2007 – I ZR 18/04, NJW 2008, 758 (762) Rz. 36. 389 BGH Urt. v. 18. 6. 2015 – I ZR 74/14, NJW 2016, 804 (805) – Haftung für Hyperlinks Rz. 23. 390 Köhler, GRUR 2008, 1 (4); Leistner, GRUR-Beil. 2010, 1 (4).

120

Kap. 5: Rechtliche Problemstellungen

nach dem jeweiligen Einzelfall, wobei in die Bestimmung das Ausmaß und die Wertigkeit der zu befürchtenden Interessenbeeinträchtigung einzustellen ist – je größer die mögliche Beeinträchtigung ist, desto geringere Anforderungen sind an die Bejahung des nötigen Gefahrengrades zu stellen.391 Raue sieht in der Gefahr, die von Schadsoftware ausgeht, eine Bedrohung der sicheren Internet­nutzung der Allgemeinheit und nimmt eine unmittelbare Gefahr für lauterkeitsrechtlich relevante Interessen bereits dann an, wenn bei verbreiteter Standardsoftware Sicherheitslücken bekannt geworden sind.392 Unbeantwortet lässt Raue, ob er bei der Anforderung des Bekanntwerdens auf das Wissen der Öffentlichkeit oder des Herstellers abstellt. Um dem Schutz der kollektiven Interessen bestmöglich gerecht zu werden, ist es zielführend, für die haftungsbegründende Kenntnis auch auf das Spezialwissen des Herstellers abzustellen, falls dieser vor der Allgemeinheit Kenntnis einer Sicherheitslücke erfährt. Freilich wird ein solcher Nachweis in der Praxis oft schwerlich zu führen sein, da dem Anspruchsteller grundsätzlich die Darlegungs- und Beweislast obliegt. Darüber kann auch nicht weghelfen, dass dem Hersteller in der Regel eine sekundäre Darlegungslast über Inhalte des betriebsinternen Bereichs obliegt393, da der Betroffene zumindest hinreichend konkret darüber Vortragen muss394, dass der Betreiber eines Sprachassistenten vom Vorliegen einer Sicherheitslücke Kenntnis hatte. Zwar richtet sich der Umfang der Konkretheit nach dem jeweiligen Einzelfall, der Vortrag muss jedoch zumindest nähere Angaben dazu enthalten, was für eine Kenntnis des Betreibers spricht395 – der Vortrag einer Möglichkeit der Kenntnis dürfte dem in der Regel nicht genügen.

VI. Fazit Zählt man die hinter Sprachassistenten stehende Software richtigerweise als Produkt im Sinne des Produkthaftungsgesetzes verbleiben im Hinblick auf die Haftung weiterhin große Bedenken. Das nationale Produkthaftungsrecht knüpft als maßgeblichen Zeitpunkt des Vorliegens eines Fehlers maßgeblich auf den Zeitpunkt des Inverkehrbringens an. Dies wirft im Hinblick auf Sprachassistenten im Speziellen und Künstliche Intelligenzen im Allgemeinen Fragestellungen auf. Insbesondere einer starken Künstlichen Intelligenz ist es bereits immanent, dass durch selbstlernende Prozesse, mag der Hersteller hierauf auch nur in sehr bedingtem Maße Einfluss nehmen können, Fehler im Laufe des Einsatzes entstehen können, die Schäden an Rechtsgütern des Verwenders (und Dritten) hervorrufen können. Der Forderung von Stimmen in der Literatur, dass im Hinblick auf Produkte, deren eigentlicher Wesensgehalt drauf ausgelegt ist, sich im operativen Betrieb 391

Köhler, GRUR 2008, 1 (4). B. Raue, NJW 2017, 1841 (1846). 393 BGH Urt. v. 3. 12. 1992, GRUR 1993, 980 (983) – Tariflohnunterschreitung. 394 K.-H. Fezer / Büscher / Obergfell / Büscher, § 8 UWG Rn. 39. 395 BGH Urt. v. 16. 12. 1993 – I ZR 231/91, GRUR 1994, 288 (290) – Malibu. 392

C. Kommunikation mit Sprachassistenten

121

weiter zu entwickeln, der Anknüpfungspunkt seitens des Gesetzgebers nach hinten verschoben werden soll, insbesondere wenn der Hersteller das Produkt weiterhin mit Softwareupdates versieht,396 ist jedoch abzulehnen. Eine Produktbeobachtungspflicht in diesen Konstellationen auch im Produkthaftungsrecht zu implementieren vereinfacht zwar die Problematik, ob der Fehler bereits im Kern des Produkts im Zeitpunkt des Inverkehrbringens angelegt war und ob dieser Entwicklungsfehler nach dem damaligen Stand der Technik und Wissenschaft erkannt werden konnte. Eine derartige Regelung bringt jedoch die Gefahr eines Verschmelzens der Grenzen der Gefährdungshaftung, des Produkthaftungsgesetzes und der verschuldensabhängigen Produzentenhaftung nach § 823 Abs. 1 BGB mit sich. Es scheint daher vorzugswürdig für Künstliche Intelligenzen einen eigenen Haftungstatbestand zu entwerfen, welcher in Grundzügen der Ausgestaltung der Haftung des Aufsichtspflichtigen nach § 832 BGB folgt und den Hersteller dazu zwingt, die Handlungen der Künstlichen Intelligenz auch nach dem Zeitpunkt der „Geburt“ zu überwachen. Für den Verwender des Sprachassistenten bzw. der Künstlichen Intelligenz stellt sich diese Nutzung zunehmend vergleichbar mit dem Einsatz eines Verrichtungsgehilfen dar. Eine Haftung in Anlehnung an § 831 BGB ist denkbar, bedarf jedoch einiger technologiespezifischer Anpassungen, welche insbesondere die Exkul­ pationsmöglichkeiten auf der einen Seite einschränken, auf der anderen Seite die Abhängigkeit und Weisungsgebundenheit eines vollständig autonomen Systems angemessen berücksichtigt.

C. Kommunikation mit Sprachassistenten Zu betrachten ist ferner auch die Ausgestaltung der Kommunikation mit Sprachassistenten, dies umso mehr, da bereits erste Sprachassistenten (z. B. Google Duplex) mit menschlich modulierter Stimme kommunizieren können. Kommunikationswissenschaftliche Erkenntnisse legen nahe, dass Menschen in einer Mensch-zu-Mensch-Kommunikation aufgeschlossener, wohlwollender und natürlicher kommunizieren, als dies in einer Mensch-Maschine-Kommunikation der Fall ist.397 Auch in der nonverbalen Kommunikation konnte bewiesen werden, dass virtuelle Agenten, welche mit aussagekräftigen Gesichtern modelliert wurden, auf den Menschen vertrauenserweckender wirkten.398 Das Gefahrenpotential, sollte der menschliche Gesprächspartner nicht über die Tatsache aufgeklärt werden, dass der Gesprächspartner zwar eine menschlich modulierte Stimme hat, es sich jedoch 396

Riehm / Meier, EuCML 2019, 161 (164 f.). Franck / Müller-Peltzer, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 241 (253). 398 Hyniewska / Niewiadomski / Mancini u. a., in: A Blueprint for Affective Computing: A Sourcebook and Manual (Hrsg.), Scherer, Klaus R; Bnziger, Tanja, Roesch, Etienne, 213 (213). 397

122

Kap. 5: Rechtliche Problemstellungen

tatsächlich um eine Maschine handelt, oder er dies im Laufe des Gesprächs vergisst, ist in die rechtliche Bewertung einzustellen und entsprechend zu würdigen. Es folgt eine Betrachtung sowohl aus datenschutzrechtlicher, telemedien- und telekommunikationsspezifischer Perspektive als auch aus strafrechtlicher Sicht.

I. Datenschutzrecht Sprachassistenten sind bereits in ihrer heutigen Ausprägung in einer Vielzahl von Geräten enthalten. So finden sie sich nicht nur in so gut wie jedem aktuellen Smartphone wieder, sondern werden in eine Vielzahl von Geräten integriert. Umso wichtiger ist in Zeiten von gestiegener Rechenleistung und Big-Data-­ Anwendungen, dass die Daten der Nutzer sensibel behandelt werden, möchte man nicht der Entwicklung hin zu einer orwellschen Dystopie beiwohnen. In jüngerer Zeit sind immer wieder Berichte an die Öffentlichkeit gedrungen, dass Anbieter von Sprachassistenten Kundendaten ohne Einwilligung weitergegeben haben und personenbezogene Daten Dritter im Rahmen eines Auskunftsersuchens fälschlicherweise herausgegeben wurden.399 Ebenfalls ist bekannt geworden, dass die von Sprachassistenten aufgezeichneten Inhalte von menschlichen Mitarbeitern der Anbieter bzw. Sub-Unternehmern ausgewertet werden. Nachdem der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit diesbezüglich ein Verwaltungsverfahren eröffnete, stellte das fragliche Unternehmen die Verarbeitung dieser Daten vorläufig ein.400 1. Rechtsgrundlagen des Datenschutzrechts a) Nationales Recht Als Ausgangspunkt des modernen Datenschutzes kann zu Recht das Volkszählungsurteil des BVerfG herangezogen werden. Dieses stellte fest, dass unter den modernen Bedingungen der Datenverarbeitung die freie Entfaltung der Persönlichkeit einen Schutz des einzelnen gegen unbegrenzte Erhebung, Speicherung, Verwendung und Weitergabe seiner persönlichen Daten voraussetzt, welcher vom Grundrecht auf informationelle Selbstbestimmung aus Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 2 GG umfasst wird.401 Dieses Grundrecht als Ausprägung des allgemeinen Persönlichkeitsrecht hat eine doppelte Schutzfunktion, zum einen das Recht auf 399

Vgl. ZD-Aktuell 2019, 6411. Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit, Sprachassistenzsysteme auf dem Prüfstand – Datenschutzbehörde eröffnet Verwaltungsverfahren gegen Google. 401 BVerfG Urt. v. 15. 12. 1983 – 1 BvR 209/83 u. a., NJW 1984, 419 (422) – Volkszählungsurteil. 400

C. Kommunikation mit Sprachassistenten

123

Selbstbewahrung und zum anderen das Recht auf Selbstdarstellung.402 In seiner Ausprägung als Schutz der Privatsphäre gewährleistet das Recht auf informationelle Selbstbestimmung dem Einzelnen einen räumlich und thematisch bestimmten Bereich, der grundsätzlich frei von unerwünschter Einsichtnahme bleiben soll.403 Mehr als den reinen Schutz vor Einsichtnahme gewährleistet das Grundrecht viel mehr, dass der Einzelne grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten bestimmen darf.404 Der grundrechtliche Schutz von Verhaltensfreiheit und Privatheit wird durch das Recht auf informationelle Selbstbestimmung erweitert, da ein Schutz auf der vorgelagerten Stufe der Persönlichkeitsgefährdung implementiert wird. Eine solche Gefahrenlage erblickt das BVerfG bereits im Vorfeld einer konkreten Bedrohung von Rechtsgütern, wenn personenbezogene Informationen in einer Art und Weise genutzt und verknüpft werden, die der Betroffene weder überschauen noch beherrschen kann. Insbesondere mittels elektronischer Datenverarbeitung können – wie das Gericht richtig erkennt – aus gewonnenen Informationen weitere Informationen erzeugt und so Schlüsse gezogen werden, die sowohl die grundrechtlich geschützten Geheimhaltungsinteressen des Betroffenen beeinträchtigen, als auch Eingriffe in seine Verhaltensfreiheit mit sich bringen können.405 Insbesondere die Möglichkeiten der Verknüpfung im Zuge von computergestützter Auswertung führt dazu, dass selbst personenbezogene Daten mit eigentlich geringem Informationsgehalt durch Verknüpfung mit anderen Daten grundrechtserhebliche Auswirkungen auf die Privatheit und Verhaltensfreiheit des Betroffenen haben können – es gibt mithin kein belangloses personenbezogenes Datum mehr.406 Grundsätzlich ist das fragliche Recht, so wie Grundrechte im Allgemeinen, ein Abwehrrecht des Bürgers gegen den Staat und soll die Freiheitssphäre des einzelnen vor Eingriffen der öffentlichen Gewalt sichern.407 Allerdings ist es der staatlichen Schutzpflicht zu eigen, dass das Grundrecht auch im horizontalen Verhältnis zwischen den jeweiligen Grundrechtsträgern Wirksamkeit erhalten muss.408 b) Europäisches Recht Vor Inkrafttreten des Vertrags von Lissabon hielt das europäische Primärrecht nur in Art. 286 EGV eine datenschutzrechtliche Bestimmung vor; inzwischen finden sich jedoch Regelungen hierzu sowohl in Art. 16 AEUV, Art. 39 EUV als auch 402

BeckOK InfoMedienR / Gersdorf, GG Art. 2 Rn. 17. BVerfG Urt. v. 27. 2. 2008 – 1 BvR 370/07, 1 BvR 595/07, NJW 2008, 822 (826) Rz. 197. 404 BVerfG Urt. v. 15. 12. 1983 – 1 BvR 209/83 u. a., NJW 1984, 419 (422) – Volkszählungsurteil. 405 BVerfG Beschl. v. 13. 6. 2007 – 1 BvR 1550/03 u. a., NJW 2464–2473 (2466). 406 BVerfG Urt. v. 11. 3. 2008 – 1 BvR 2074/05, 1 BvR 1254/07, NJW 2008, 1505 (1506) Rz. 66. 407 BVerfG Urt. v. 15. 1. 1958 – 1 BvR 400/51, GRUR 1958, 254 (255) – Veit Harlan. 408 BeckOK InfoMedienR / Gersdorf, GG Art. 2 Rn. 17. 403

124

Kap. 5: Rechtliche Problemstellungen

Artt. 7 u. 8 GRCh.409 Der Wortlaut des Art. 16 Abs. 1 AEUV bzw. Art 8 Abs. 1 GRCh ist in der deutschen Fassung identisch und muss folglich auch gleichlaufend verstanden werden.410 Nachdem der Datenschutz auf europäischer Ebene vom Sekundärrecht auf die Ebene des Primärrechts gehoben wurde, enthält Art. 8 GRCh nunmehr ein einklagbares Recht und nicht nur einen Charta-Grundsatz nach Art 52 Abs. 5 CRCh; Sekundärrecht ist folglich unmittelbar grundrechtskonform auszulegen.411 Die Rechte aus Art. 8 GRCh („Schutz personenbezogener Daten“) und Art. 7 GRCh („Achtung des Privat- und Familienliebens“) stehen sich nicht konträr, sondern in Idealkonkurrenz gegenüber; soweit es personenbezogene Daten mit Bezug zum Privatleben betrifft, ist der Schutzbereich beider Grundrechte berührt.412 Der EuGH führt in diesem Zusammenhang aus, dass für den Schutz personenbezogener Daten nach Art. 8 Abs. 1 GRCh das in Art. 7 GRCh verankerte Recht auf Achtung des Privatlebens von besonderer Bedeutung ist.413 Die frühere Datenschutz-RL414 hatte den großen Nachteil, dass sie nicht unmittelbar geltendes Recht schaffen konnte, sondern viel mehr eines nationalen Umsetzungsaktes bedurfte. Der Regelungsinhalt einer Richtlinie ist für jeden Mitgliedstaat, an den sie gerichtet wird, hinsichtlich des zu erreichenden Ziels verbindlich, überlässt jedoch den jeweiligen Staaten die Wahl der konkreten Form und der anzusetzenden Mittel, Art. 288 Abs. 3 AEUV. Zwar sind die Mitgliedsstaaten nach Rechtsprechung des EuGH dazu verpflichtet, innerhalb der ihnen belassenen Entscheidungsfreiheiten die Form und Mittel zu wählen, die sich zur Gewährleistung der praktischen Wirksamkeit (effet utile) der Richtlinie unter Berücksichtigung des mit ihr verfolgten Zwecks am besten eignen,415 dies hindert jedoch nicht daran, auf nationaler Ebene teilweise differierende Schutzniveaus zu implementieren. Gerade Staaten mit einem niedrigeren Schutzniveau als beispielsweise Deutschland, hatten hierbei Standortvorteile. Insbesondere der Umgang der irischen Datenschutzbehörden mit Unternehmen wie Facebook sorgte hierbei europaweit für Unmut.416 Irische Datenschutzbehörden (die Verarbeitung von Nutzerdaten in Irland seitens Facebook hatte zur Folge, dass auch für deutsche Nutzer irisches Datenschutzrecht und nicht deutsches galt) haben die Funktionalitäten einiger Anwendungen des sozialen Netzwerkes Facebook wesentlich unkritischer beurteilt als die Datenschutzbehörden kontinentaleuropäischer Staaten.417 409

Calliess / Ruffert / Kingreen, Art. 16 AEUV 1 f. Franzen / Gallner / Oetker / Franzen, Art. 8 GRCh Rn. 5. 411 Jarass / Jarass, Art. 8 CRCh Rn. 2. 412 Jarass / Jarass, Art. 8 CRCh Rn. 4. 413 EuGH Urt. v. 8. 4. 2014 – C-293/12, C-594/12, NJW 2014, 2169 (2172) Rz. 53. 414 RL 95/46/EG des Europäischen Parlaments und des Rates vom 24. Oktober 1995 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr. 415 EuGH Urt. v. 8. 4. 1976 – Rs 48/75, NJW 1976, 2065 (2067). 416 ZD-Aktuell 2012, 3292; europe-v-facebook.org, Response to „audit“, by the Irish Office of the Data Protection Commissioner on „Facebook Ireland Ltd.“, 2012. 417 Ehmann, Lexikon für das IT-Recht 2017/2018, S. 134. 410

C. Kommunikation mit Sprachassistenten

125

Um eine kohärente Anwendung der Datenschutzvorschriften sicherzustellen und, unter Berücksichtigung der Auswirkungen neuer Technologien auf die Rechte und Freiheiten von Personen, einen freien Verkehr personenbezogener Daten im Binnenmarkt zu gewährleisten,418 ist die Datenschutz-Grundverordnung419 (DSGVO) beschlossen worden, welche am 25. 05. 2018 EU-weit wirksam wurde. Diese ist, anders als die vorhergehende Richtlinie, in allen Mitgliedsstaaten allgemeingültig, verbindlich und gilt unmittelbar, Art. 288 Abs. 2 AEUV. Die Literatur hat hierbei sieben Grundbausteine ermittelt, welche der DS-GVO zu Grunde gelegt wurden:420 – Vereinheitlichung durch Wahl der Verordnung als Rechtsform – „One Stop Shop“ für Europas Datenschutz bei der Rechtsanwendung und Durchsetzung – Hohes Schutzniveau im europäischen Datenschutz – Gesonderte Regelung des Datenschutzes im Bereich der polizeilichen und justiziellen Zusammenarbeit in Strafsachen – Berücksichtigung kleiner und mittlerer Unternehmen – Ausgewogenes Verhältnis zwischen Datenschutz und anderen Grundrechten – Technologieoffenheit des Datenschutzes, um zukünftige Entwicklungen zu berücksichtigen Die in der DS-GVO getroffenen Regelungen gelten selbstredend auch für den Einsatz von Künstlicher Intelligenz bzw. von Sprachassistenten und dienen dem Schutz der Grundrechte und Grundfreiheiten natürlicher Personen.421 c) Zwischenfazit Der Betrieb eines Sprachassistenten hat sich neben nationalen datenschutzrechtlichen Regelungen des Bundes und der Länder insbesondere an den Vorgaben der DS-GVO zu orientieren. Der Europäischen Union ist es gelungen, den datenschutzrechtlichen Flickenteppich zu Zeiten der Datenschutz-Richtlinie zu beheben und ein kohärentes Schutzniveau über die Ländergrenzen der Mitgliedsstaaten hinaus zu erschaffen. 418

Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, KOM(2010) 609 (2010). 419 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG. 420 Reding, ZD 2012, 195–198; Gola / Gola, Einleitung Rn. 16. 421 Datenschutzkonferenz, Hambacher Erklärung zur Künstlichen Intelligenz, Entschließung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder, 2019, S. 2.

126

Kap. 5: Rechtliche Problemstellungen

2. Begrifflichkeiten des Datenschutzrechts a) Personenbezogene Daten Voraussetzung der Eröffnung des Anwendungsbereiches des Datenschutzrechts nach der DS-GVO ist, dass personenbezogene Daten ganz oder teilweise automatisiert verarbeitet werden, sowie für die nichtautomatisierte Verarbeitung personen­ bezogener Daten, die in einem Dateisystem gespeichert sind oder gespeichert werden sollen, Art. 2 Abs. 1 DS-GVO. Dem Merkmal des Personenbezugs kommt folglich eine zentrale Rolle zu. Nach Art. 4 Nr. 1 DS-GVO sind „‚personenbezogene Daten‘ alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person (im Folgenden ‚betroffene Person‘) beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann“.

Der Definition unschwer zu entnehmen ist, dass die DS-GVO nur den Schutz natürlicher Personen betrifft. Juristische Personen fallen folglich grundsätzlich aus dem Schutzbereich heraus. Dies gilt jedoch dann nicht, wenn die Daten der juristischen Person einen Rückschluss auf dahinterstehende natürliche Personen zulassen, wie dies beispielsweise bei Angaben der finanziellen Situation einer Unternehmergesellschaft (haftungsbeschränkt) nach § 5a GmbHG der Fall wäre.422 Die DS-GVO hat sich bei der Bestimmung, ob ein personenbezogenes Datum vorliegt oder nicht, für ein „Alles oder Nichts“-Prinzip entschlossen: Die Verarbeitung der Daten fällt entweder komplett unter die DS-GVO oder der Anwendungsbereich ist überhaupt nicht eröffnet.423 Soweit in der Literatur in der Vergangenheit Stimmen laut wurden, mit der Idee, die Bestimmung des Personenbezugs in eine Abwägung zwischen Privatem und Öffentlichem einzustellen und „in eine Balance zu bringen, bei der die jeweils privaten Interessen wie öffentliche Belange so weit wie möglich Berücksichtigung finden“,424 ist hierfür kein Raum. Auch dem vormals teils in der Rechtsprechung verfolgten relativen Ansatz, nach welchem es sich um kein personenbezogenes Datum handelt, wenn der Personenbezug nur theoretisch bestimmbar ist und ein Personenbezug nur angenommen wurde, wenn die Bestimmung der Person technisch und rechtlich möglich ist und nicht einen Aufwand erfordert, der außer Verhältnis zum Nutzen der Information für die verarbeitende Stelle steht,425 wurde noch zu Zeiten der Datenschutz-RL seitens des EuGH und BGH eine Absage erteilt. Für die Einstufung einer Information als personenbezogenes Datum ist es mithin nicht erforderlich, dass die Information für sich genom 422

Kühling / Buchner / Klar / Kühling, Art. 4 Nr. 1 DS-GVO Rn. 4. Simitis / Hornung / Spiecker genannt Döhmann / Karg, Art. 4 Nr. 1 DS-GVO Rn. 14. 424 Hohmann-Dennhardt, NJW 2006, 545 (545 f.). 425 LG Berlin Urt. v. 31. 1. 2013 – 57 S 87/08, ZD 2013, 618 (620 f.).

423

C. Kommunikation mit Sprachassistenten

127

men die Identifizierung der betreffenden Person ermöglicht. Es reicht aus, wenn Zusatzinformationen – welche sich auch bei einem Dritten befinden können – vorliegen, da diese ein Mittel darstellen, das vernünftigerweise zur Bestimmung der betreffenden Person eingesetzt werden könne.426 Karg ist somit zuzustimmen, wenn er einer „privatheitsbezogene[n] oder eine einer Rechtsgüterabwägung zugäng­ liche[n] Definition des personenbezogenen Datums“427 eine Absage erteilt, da es die vernünftige Anwendung der DS-GVO erforderlich macht, dass an den Rändern des Anwendungsbereichs der DS-GVO keine Unschärfen vorliegen dürfen. Unsicherheiten bezüglich der Reichweite der DS-GVO würden in einem verminderten Datenschutz für die betroffenen Personen resultieren, welchen es zu vermeiden gilt. Eine Güterabwägung und Bewertung der betroffenen Interessen ist nicht auf der Ebene des personenbezogenen Datums zu führen, sondern im Rahmen einer Rechtfertigung der Verarbeitung unter den Grundsätzen der DS-GVO. Diese sehr weite Definition eines personenbezogenen Datums kann auch aus Erwägungsgrund 26 der DS-GVO gewonnen werden, welcher zwar eine Berücksichtigung aller Mittel fordert, die von dem Verantwortlichen oder einer anderen juristischen Person nach allgemeinem Ermessen genutzt werden, um die natürliche Person direkt oder indirekt zu identifizieren, führt im Nichtanwendungsbereich jedoch explizit anonyme Informationen auf. Dies lässt darauf schließen, dass es gerade Wille des Gesetzgebers ist, nicht allzu leichtfertig aus dem Anwendungsbereich der DS-GVO auszuscheiden. Die Möglichkeit der langfristigen Speicherung von Daten im digitalen Zeitalter führt dazu, dass auch bezüglich der Daten Verstorbener Stellung zu beziehen ist. Hat der BGH erst jüngst entschieden, dass bei Versterben eines Nutzers einer sozialen Plattform der Vertrag im Wege der Gesamtrechtsnachfolge nach § 1922 BGB auf die Erben übergeht und insbesondere der Datenschutz es nicht verbietet, dass auch Informationen Dritter, mit welchen der Verstorbene über die Plattform kommuniziert hatte übermittelt werden,428 gelten die Daten der verstorbenen Person grundsätzlich nicht als personenbezogene Daten, es sei denn diese Daten haben Bezug auf noch lebende Personen.429 Dies ist insbesondere unter der Thematik des „Digitalen Zwillings“430 relevant. Durch digitalen Nachbau eines Menschen und der Darstellung seiner Interessen und Vorlieben mittels Big-Data-Anwendungen ist es wahrscheinlich, dass durch die Verwendung dieser – nun nicht mehr dem Datenschutz unterliegenden Daten – Rückschlüsse auf noch lebende Menschen mit 426

BGH Urt. v. 16. 5. 2017 – VI ZR 135/13, NJW 2017, 2416–240 (2417) Rz. 24; EuGH Urt. v. 19. 10. 2016 – C-582/14, NJW 2016, 3579 – Breyer / Deutschland. 427 Simitis / Hornung / Spiecker genannt Döhmann / Karg, Art. 4 Nr. 1 DS-GVO Rn. 15. 428 BGH Urt. v. 12. 7. 2018 – III ZR 183/17, ZD 2018, 477 (485) Rz. 88 ff. 429 Ehmann / Selmayer / Klabunde, Art. 4 DS-GVO Rn. 13. 430 Ein Digitaler Zwilling ist ein Konzept, nach welchem ein digitaler Klon inklusive sämtlicher Attribute erstellt wird. (Vgl. Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, Digitaler Zwilling, https://www.iosb.fraunhofer.de/servlet/is/80212/ (Stand: 27. 09. 2020) Dieses Konzept wird hier nicht auf die Nachbildung einer Maschine sondern eines Menschen mit all seinen Verhaltensattributen herangezogen.

128

Kap. 5: Rechtliche Problemstellungen

ähnlichen Verhaltensweisen gezogen werden und die Informationen beispielsweise zu Werbezwecken eingesetzt werden können. b) Pseudonymisierung Die Pseudonymisierung von personenbezogenen Daten ist dem Datenschutzrecht nicht fremd, so wurde dieses Verfahren bereits in § 3a S. 2 BDSG a. F. geführt, und hat das erklärte Ziel, die Risiken für die betroffene Person zu senken und die für die Verarbeitung Verantwortlichen bei der Erfüllung ihrer Datenschutzpflichten zu unterstützen, soll jedoch andere Schutzmaßnahmen nicht ausschließen.431 Anders als das BDSG a. F., welches die Pseudonymisierung nur als Maßnahme der Datensparsamkeit aufführte, erhebt sie die DS-GVO als Kernpfeiler der technisch-organisatorischen Maßnahmen (TOMs).432 Gemäß Art. 4 Nr. 5 DS-GVO ist „Pseudonymisierung“ die Verarbeitung personenbezogener Daten in einer Weise, dass die personenbezogenen Daten ohne Hinzuziehung zusätzlicher Informationen nicht mehr einer spezifischen betroffenen Person zugeordnet werden können, sofern diese zusätzlichen Informationen gesondert aufbewahrt werden und technischen und organisatorischen Maßnahmen unterliegen, die gewährleisten, dass die personenbezogenen Daten nicht einer identifizierten oder identifizierbaren natürlichen Person zugewiesen werden“.

Vereinfacht gesagt liegt eine Pseudonymisierung dann vor, wenn der konkrete Personenbezug eines Datensatzes durch ein Kennzeichen ersetzt wird und der Schlüssel, hinter welchem Kennzeichen sich die jeweilige natürliche Person verbirgt, derart getrennt aufbewahrt wird, dass eine Zuordnung praktisch ausscheidet.433 Grundsätzlich können drei Arten der Pseudonymisierung unterschieden werden: (1) der Betroffene selbst vergibt ein Pseudonym, (2) der Anbieter des Sprachassistenten pseudonymisiert intern (3) ein unabhängiger Dritter – der als einziger die Zuordnungsregel kennt – wird für die Pseudonymisierung zwischengeschaltet.434 Den höchsten Schutz für die Rechte des Betroffenen vermittelt dabei Variante a), da die jeweilige Zuordnung nur durch den Betroffenen selbst hergestellt werden kann. Dies wird im Rahmen von Sprachassistenten jedoch meist nicht möglich bzw. zielführend sein, da Sprachassistenten, anders als „anonyme“ Messageboards im Internet, gerade darauf ausgelegt sind, sich in die bereits bestehende IT-Infrastruktur des Betroffenen einzugliedern. Auch für Aufgaben wie beispielsweise die Vereinbarung von Terminen oder das Versenden von Nachrichten ist eine namentliche Verknüpfung notwendig. Die wohl praxistauglichste Lösung ist die Pseudonymisierung seitens des Anbieters. Hier vermittelt die Pseudonymisierung einen Schutz gegenüber Dritten, die erlaubt oder unerlaubt auf die Datensätze des

431

Erwg. 28 zur DS-GVO. Roßnagel, ZD 2018, 243. 433 BeckOK DatenschutzR / Schild, Art. 4 DS-GVO Rn. 72. 434 Roßnagel / Scholz, MMR 2000, 721 (725). 432

C. Kommunikation mit Sprachassistenten

129

Verantwortlichen zugreifen. Für den Betreiber hat diese Konstellation den Vorteil, dass er weiterhin „Herr über die Daten“ bleibt und diese auch mit Personenbezug – im Rahmen des Datenschutzrechts – verwerten kann.435 Im Gegensatz zu anonymisierten Datensätzen (s. u.) sind die Vorschriften der DS-GVO weiterhin einschlägig.436 Leider hält die DS-GVO selbst keine Kriterien für die Qualität der verwendeten Pseudonymisierung vor. Es ist daher, in Ermangelung bisheriger Rechtsprechung, noch nicht geklärt, in welchem Umfang eine Pseudonymisierung als datenschutzkonform angesehen werden kann.437 c) Anonymisierung Die Regelungen der DS-GVO finden keine Anwendung auf anonymisierte Daten. Sieht die DS-GVO zwar selbst keine Begriffserklärung vor, handelt es sich gem. Erwägungsgrund 26 der DS-GVO bei anonymisierten Informationen um solche, „die sich nicht auf eine identifizierte oder identifizierbare natürliche Person beziehen, oder personenbezogene Daten, die in einer Weise anonymisiert worden sind, dass die betroffene Person nicht oder nicht mehr identifiziert werden kann“. Eine Anonymisierung ist mithin ein Mehr gegenüber der zuvor vorgestellten Pseudo­nymisierung. Wesentliches Merkmal ist, dass, anders als bei der Pseudonymisierung, kein Schlüssel zur Wiederherstellung des Personenbezugs erhalten bleibt und die hinter den Informationen stehende Person nicht mehr identifiziert werden kann, der Gehalt eines Datensatzes jedoch bestehen bleibt.438 Ziebarth, im Gegensatz zu Roßnagel / Scholz,439 nimmt an, dass das Datenschutzrecht sich mit einer „faktischen Anonymisierung“, bei der so viele der personalisierenden Merkmale entfernt werden, dass mit vernünftigen Aufwand nicht zu erwarten ist, dass eine Identifizierung erfolgt, begnügt.440 Auch die Art. 29-Datenschutzgruppe scheint dieser Auffassung – wenn auch noch in Bezug auf die Datenschutz-RL – zu folgen und hält es für nötig, dass in einer Einzelfallanalyse untersucht werden muss, „inwieweit Mittel in vertretbarem Umfang eingesetzt werden könnten, um die betroffene Person zu bestimmen“.441 Wesentliches Merkmal für die Art. 29-Datenschutzgruppe ist hierbei die Robustheit der verwendeten Anonymisierungstechnik, welche sich zum einen nach dem Stand der Technik bestimmt und zum anderen aus den Risiken des Herausgreifens (singling out), der Verfügbarkeit und der Inferenz bestimmt:442 435

BeckOK DatenschutzR / Schild, Art. 4 DS-GVO Rn. 76. Frost, MPR 2019, 117 (122). 437 Marnau, DuD 2016, 428 (431). 438 Paal / Pauly / S . Ernst, Art. 4 DS-GVO 48 f. 439 Roßnagel / Scholz, MMR 2000, 721 (726). 440 Sydow / Ziebarth, Art. 4 DS-GVO Rn. 30. 441 Artikel-29-Datenschutzgruppe, WP 136, 01248/07/DE 2007, 1 (24). 442 Artikel-29-Datenschutzgruppe, WP 216, 0829/14/DE 2014, 1 (13). 436

130

Kap. 5: Rechtliche Problemstellungen

– Herausgreifen (singling out) meint, in einem Datensatz, welcher zum Zwecke der Anonymisierung Daten verschiedenster Personen enthält, die für eine Person spezifischen Daten herauszufiltern und so eine Identifizierbarkeit zu bewirken. – Im Zuge der Vermeidung der Verknüpfbarkeit ist dafür Sorge zu tragen, dass zwei getrennte Datensätze der gleichen Personengruppe nicht kombiniert werden können, um durch ein „Mehr“ an Information die Anonymität zu schwächen. – Inferenz ist ein Prozess, der durch Einsatz logischer Schlussfolgerungen aus einem Datensatz neue Erkenntnisse zieht. Werden im Zuge der Anonymisierung (dies gilt ebenso für die Pseudonymisierung) personenbezogene Werte im Datensatz zwar durch Hashwerte443 ersetzt, können diese jedoch durch ein Fortschreiten des Stands der Technik rückrechenbar werden bzw. durch Verknüpfung mit einem weiteren Datensatz logische Schlüsse gezogen werden, welcher Klarwert hinter dem Hashwert steht. Der Hashwert selbst wird dann selbst ein personenbezogenes Datum.444 Es ist weiterhin hervorzuheben, dass eine Anonymisierung nicht einen einmaligen Akt darstellt. Vielmehr ist der Verantwortliche gehalten, den Stand der Technik kritisch zu evaluieren und bei einer möglichen Reidentifizierbarkeit eine erneute Anonymisierung nach neuen Kriterien vorzunehmen.445 Katko / Babaei-Beigi kommen zu dem Schluss, dass die große Masse an verfügbaren Daten und die Möglichkeit der Kombination verschiedenster Quellen eine Anonymisierung scheitern lassen und sich ein Personenbezug in den meisten Fällen herstellen lässt.446 Insbesondere die ansteigenden Datenmengen durch Big-Data-Anwendungen lässt die berechtigte Frage aufkommen, ob eine Anonymisierung überhaupt noch möglich ist oder der Personenbezug niemals mit hinreichender Anstrengung entfernt werden kann. Als Beispiel kann der Fall AOL herangezogen werden. Im Jahr 2006 veröffentlichte der Konzern 20 Millionen „anonymisierte“ Web-­Suchen seiner Kunden. Reportern der New York Times gelang es, die hinter dem Hashwert No. 4417749 stehende Kundin durch Verknüpfung ihrer Suchanfragen namentlich zu identifizieren.447 Im Gegensatz zu den Suchmaschinen Daten des vorgestellten Falls sind bereits aktuelle Sprachassistenten in wesentlich mehr Bereichen des Lebens integriert. Neben Suchanfragen haben sie Zugriff auf Standortdaten, verwalten die Kontaktdaten der Nutzer, fungieren als Schaltzentrale des Smart-Homes 443

Hash-Funktionen haben den Zweck, eine bestimmte Aussage, z. B. den Namen „Mustermann“ in eine, meist hexadezimale, Zahlenkette umzuwandeln, welche keinen Rückschluss auf den ursprünglichen Inhalt bietet. Aus Mustermann wird beispielsweise die Zahl „1485“ generiert. Bei dieser ausgegebenen Zahl handelt es sich um den sogenannten Hashwert (Vgl. zur Verdeutlichung Czernik, Hashwerte und Hashfunktionen einfach erklärt, https://www.daten schutzbeauftragter-info.de/hashwerte-und-hashfunktionen-einfach-erklaert/ (Stand: 27. 09. 2020). 444 Erbguth, MMR 2019, 654 (657). 445 Marnau, DuD 2016, 428 (429). 446 Katko / Babaei-Beigi, MMR 2014, 360 (361). 447 Zeller / Barbaro, A Face Is Exposed for AOL Searcher No. 4417749, https://www.nytimes. com/2006/08/09/technology/09aol.html (Stand: 27. 09. 2020).

C. Kommunikation mit Sprachassistenten

131

und vieles mehr. Diese Menge an Daten, kombiniert mit der Varianz der Quellen, der Dynamik und Geschwindigkeit der Erzeugung, sowie die Heterogenität in Qualität und Konsistenz, stellt die Anonymisierung vor eine große Herausforderung.448 Im Folgenden sollen daher einige der gängigen Anonymisierungsmodelle vorgestellt werden, auf welche auch die Art.-29-Datenschutzgruppe Bezug genommen hatte.449 aa) Differential Privacy Das Differential Privacy Modell nach Dwork versucht dem Betroffenen der Datenverarbeitung folgendes Versprechen zu geben: „You will not be affected, adversely or otherwise, by allowing your data to be used in any study or analysis, no matter what other studies, data sets, or information sources, are available.“450 Das erarbeitet System zählt zu den Randomisierungstechniken. Hierbei verändert der für die Verarbeitung Verantwortliche den ursprünglichen Datensatz nicht. Vielmehr werden bei Bedarf aus diesem Datensatz anonymisierte Versionen generiert, die im Fortgang genutzt werden. Um eine höhere Sicherheit zu gewährleisten, werden dem neuen Datensatz weitere Informationen als „Hintergrundrauschen“ beigefügt. Dem Verwender des Datensatzes wird lediglich mitgeteilt, in welchem Umfang derartige Fehlinformationen beigefügt wurden, um die Verwendung des Datensatzes valide zu erhalten.451 Die Anonymität der Daten wird daran gemessen, in welchem Umfang sich das Ergebnis der Verarbeitung durch In- oder Exklusion einer Person in dem generierten Datenbestand ändern kann und somit nach Winter / Battis / Halvani, welcher Umfang an Information über eine Person offenbart wird.452 bb) k-Anonymität Die Technik der k-Anonymität, 2012 entwickelt von Sweeney453, arbeitet nicht durch das Hinzufügen von Informationen wie das Konzept der Differential Privacy, vielmehr werden mehrere Personen, die das selbe Attribut „k“ aufweisen (z. B. Geschlecht, Wohnort, Alter etc.) in einem Datensatz zusammengefasst. Ziel ist es, durch eine große Anzahl von Personen mit den selben Merkmalen die Identifizierung des Einzelnen zu erschweren.454 Dieses Konzept verspricht jedoch nur 448

Marnau, DuD 2016, 428. Artikel-29-Datenschutzgruppe, WP 216, 0829/14/DE 2014, 1 (13). 450 Dwork / A . Roth, FNT in Theoretical Computer Science 9 (2013), 211 (215). 451 Artikel-29-Datenschutzgruppe, WP 216, 0829/14/DE 2014, 1 (17 f.). 452 Winter / Battis / Halvani, ZD 2019, 489 (490). 453 Sweeney, International Journal on Uncertainty, Fuzziness and Knowledge-based Systems 10 (2002), 557. 454 Marnau, DuD 2016, 428. 449

132

Kap. 5: Rechtliche Problemstellungen

Erfolg, wenn „k“ über eine hinreichende Größe verfügt, da ansonsten das Gewicht der einzelnen Personen innerhalb der Gruppe zu groß ist.455 Ist bei sorgsam geplanter Aggregation ein Rückschluss grundsätzlich nicht mehr möglich, zeigt sich eine der größten Schwächen des Modells dann, wenn über eine bestimmte Person Zusatzwissen aus einer Kategorie vorliegt, die ihrerseits eine geringe Größe „k“ aufweist, da durch Abgleich der Werte eine Identifikation wahrscheinlicher wird.456 cc) l-Diversity und t-Closeness Um die Schwachstellen des k-Anonymitäts-Modells auszugleichen wurden das l-Diversity457 und t-Closeness458 Konzept entwickelt.459 Zielsetzung ist es, das Auftreten von Aggregatsklassen mit einer geringen Unterscheidung der kategorisierten Merkmalswerte zu vermeiden, um Dritten, welche über Hintergrundwissen verfügen, die Identifizierung zu erschweren.460 Die l-Diversität soll dabei insbesondere gewährleisten, dass in einer Äquivalenzklasse verschiedene Merkmale auftauchen.461 Durch die Verteilung der Merkmalswerte steigt die Wehrhaftigkeit des Datensatzes gegenüber Inferenztechniken Dritter.462 „I“ bestimmt hierbei, wie viele verschiedene Werte für jede der Kombinationen enthalten sein müssen. Dadurch wird der Mangel der k-Anonymität ausgeglichen, dass in unterschiedlichen Kategorien eventuell weniger Merkmale vorhanden sind. Problematisch ist hierbei, dass verschiedene Attribute eins Merkmals eine ähnliche Bedeutung haben. Hammer führt hierbei beispielhaft aus, dass die Begriffe „Herzklappenoperationen, Stent-Operationen oder das Einsetzen eines Herzschrittmachers alle auf ‚Herzprobleme‘ rückschließen lassen“463und dies bei Dritten, deren eine Herzerkrankung bekannt ist, eine Zusammenführung der Daten ebenfalls nicht unmöglich macht. t-Closeness selbst ist eine weitere Verfeinerung der l-Diversity Methode. Hauf definiert t-Closeness folgendermaßen: „Ein q*-Block besitzt t-Closeness, wenn die Distanz zwischen den zu veröffentlichenden sensitiven Attributen dieses Blocks zur gesamten Tabelle nicht mehr als ein Grenzwert von t beträgt. Eine Tabelle be 455

Artikel-29-Datenschutzgruppe, WP 216, 0829/14/DE 2014, 1 (20). A. Schneider, in: Specht / Mantz (Hrsg.), Handbuch Europäisches und deutsches Datenschutzrecht, 1–141 (79). 457 Machanavajjhala / Kifer / Gehrke u. a., ACM Transactions on Knowledge Discovery from Data 1 (2007), 3. 458 N. Li / T. Li / Venkatasubramanian, in: IEEE Computer Society (Hrsg.), ICDE 2007: 2007 IEEE 23rd International Conference on Data Engineering: April 15–20, 2007, Istanbul, Turkey, 106. 459 Aggarwal / P. Yu, Chapter 2, A general survey of privacy-preserving data mining models and algorithms, S. 12. 460 Artikel-29-Datenschutzgruppe, WP 216, 0829/14/DE 2014, 1 (20). 461 Taeger / Gabel / Arning / Rothkegel, Art. 4 DS-GVO Rn. 52. 462 Artikel-29-Datenschutzgruppe, WP 216, 0829/14/DE 2014, 1 (20). 463 Hammer, in: Jandt / Steidle (Hrsg.), Datenschutz im Internet, 173–296 (292). 456

C. Kommunikation mit Sprachassistenten

133

sitzt t-Closeness, wenn alle q*-Blöcke von ihr t-Closeness besitzen.“464 Musste bei l-Diversity nur eine bestimmte Menge „l“ pro Äquivalenzgruppe vorhanden sein, so ist es nach der t-Closeness erforderlich, dass jeder Wert so oft vertreten ist, dass die ursprüngliche Verteilung für jedes Merkmal abbildbar ist.465 d) Zwischenfazit Die DS-GVO sowie nationale Datenschutzgesetze sind in ihrem Anwendungs­ bereich denkbar weit. Da sich die strengen datenschutzrechtlichen Regelungen gem. Art 4 Nr. 1 DS-GVO nicht nur auf Daten einer identifizierten natürlichen Person beziehen, sondern darüber hinaus auch identifizierbare, d. h. pseudonyme, Daten natürlicher Personen vom Schutzbereich umfasst werden, sind Daten, welche von Sprachassistenten erhoben werden wohl in der Regel als personenbezogene Daten zu kategorisieren. Das Konzept der faktischen Anonymisierung kann in Zeiten von Big Data nur noch eingeschränkte Gültigkeit besitzen. Mit steigenden Datensätzen und hochleistungsfähigen Rechenzentren ist die Verknüpfung einzelner Datenschnipsel dem Betreiber der Sprachassistenten und dritten Datenverwertern denkbar erleichtert. Es kann angeführt werden, dass auf Grund der großen Anzahl der Nutzer eines Sprachassistenten Datensätze derart aggregiert werden können, dass auf Grund der Vielzahl der Personen mit dem selben Merkmal, eine Rückrechnung hinreichend erschwert werden könnte (vgl. die Ausführungen zum Prinzip der k-Anonymität S. 131). Der Anwendungsbereich des Sprachassistenten in allen Lebensbereichen des Verwenders bringt es jedoch mit sich, dass Daten nicht nur punktuell erhoben werden, sondern ein breites Potpourri an Zusatzwissen erhoben wird. Dieses für jeden Verwender einzigartige Zusatzwissen erleichtert es, eine Zuordnung des Einzelnen selbst in großen Datensätzen mit ähnlichen Daten durchzuführen. Anonyme Daten dürften, selbst bei entsprechenden Anonymisierungsanstrengungen, in Zukunft eher die Seltenheit als die Regel darstellen bzw. im Zweifel nicht mehr zu generieren sein. 3. Räumlicher Anwendungsbereich der DS-GVO Da eine Verarbeitung personenbezogener Daten durch Sprachassistenten – zumindest derzeit – überwiegend nicht bzw. nicht ausschließlich auf den Endgeräten der Verwender erfolgt, sondern Daten oftmals über das Internet an die Rechenzentren der Anbieter übersendet werden, welche sich nicht nur in Deutschland oder anderen Mitgliedsstaaten der Europäischen Union befinden, sondern viel mehr weltweit zu verorten sind, ist der räumliche Anwendungsbereich europäischer bzw. nationaler Normen darzustellen. 464 465

Hauf, Allgemeine Konzepte, K-Anonymity, l-Diversity and T-Closeness, S. 12. Artikel-29-Datenschutzgruppe, WP 216, 0829/14/DE 2014, 1 (20).

134

Kap. 5: Rechtliche Problemstellungen

Noch bezüglich der, der DS-GVO vorausgehenden, Datenschutz-RL hat der EuGH die Wichtigkeit eines weiten räumlichen Anwendungsbereichs des Datenschutzrechts unterstrichen. Ein geographisch zu kleiner Anwendungsbereich bringe nach EuGH Gefahren für die praktische Wirksamkeit des Rechts und folglich auch für den umfassenden Schutz der Grundrechte und Grundfreiheiten der natürlichen Personen mit sich, welcher initial durch das Datenschutzrecht gewährleistet werden soll.466 Unproblematisch erfasst die DS-GVO daher die Verarbeitung sämtlicher personenbezogener Daten, soweit diese im Rahmen der Tätigkeiten einer Niederlassung eines Verantwortlichen oder eines Auftragsverarbeiters in der Union erfolgt, unabhängig davon, ob die Verarbeitung in der Union stattfindet, Art. 3 Abs. 1 DS-GVO. Ein Novum hingegen findet sich mit dem Marktortprinzip in Art. 3 Abs. 2 DS-GVO. Auch die Verarbeitung personenbezogener Daten einer in der EU befindlichen Person durch eine Entität ohne Niederlassung in der Europä­ ischen Union unterfällt nun den Regelungen der DS-GVO, sofern sie ihre Ware oder Dienstleistung – unabhängig von einer Bezahlung – Personen in der EU anbietet (Art. 3 Abs. 2 lit. a) DS-GVO) oder das Verhalten einer Person in der EU beobachten (Art. 3 Abs. 2 lit. b) DS-GVO). Unter den Tatbestand des Beobachtens ist das Nachvollziehen von Internettätigkeiten zu verstehen, worunter unter anderem der Einsatz von Cookies, Pixeln o.ä. seitens des Sprachassistenten fällt.467 Unternehmen in einem Drittland können sich in Zukunft folglich nicht mehr darauf berufen, mangels Sitzes in der EU würde europäisches Datenschutzrecht für sie keine Geltung erlangen.468 Um festzustellen, ob der Anbieter eines Angebots aus einem Drittland die notwendige Absicht aufweist, Personen aus der EU anzusprechen, ist nicht nur auf die reine Abrufmöglichkeit einer Webseite aus dem EU-Innenraum sowie auf die Verwendung einer Sprache, die in dem Drittland, in dem der Verantwortliche niedergelassen ist, allgemein gebräuchlich ist, abzustellen.469 Es müssen vielmehr noch weitere Indizien, wie beispielsweise die Möglichkeit der Aufgabe einer Bestellung aus einem Mitgliedsstaat der EU oder die Erwähnung von sich in der EU befindlichen Personen oder Nutzern hinzutreten, wobei ein erfolgter Vertragsschluss nicht notwendig ist, jedoch ein starkes Indiz darstellt.470 4. Der datenschutzrechtlich Verantwortliche Der Einsatz eines Sprachassistenten kann, je nach Verwendungsszenario, eine Mehrheit verschiedener betroffener Parteien beinhalten, deren Kategorisierung als Verantwortlicher im datenschutzrechtlichen Sinne es zu unterscheiden gilt.

466

EuGH Urt. v. 13. 5. 2014 – C-131/12, ZD 2014, 350 (355) – Recht auf Vergessen Rz. 58. Piltz, K&R 2016, 557 (559). 468 Ehmann / Selmayer / Z erdick, Art. 3 DS-GVO Rn. 2. 469 Erwg. 23 zur DS-GVO. 470 Spindler / Fabian Schuster / Spindler / Dalby, Art. 3 DS-GVO Rn. 9. 467

C. Kommunikation mit Sprachassistenten

135

Nach Art. 4 Nr. 7 DS-GVO ist Verantwortlicher die natürliche oder juristische Person, Behörde, Einrichtung oder andere Stelle, die allein oder gemeinsam mit anderen über die Zwecke und Mittel der Verarbeitung von personenbezogenen Daten entscheidet. Neben dem Betreiber des Sprachassistenten kommen als Verantwortliche der Verwender selbst, Anbieter von Drittanwendungen, als auch möglicherweise die KI selbst in Betracht. Bei derartigen mehrpolaren Verhältnissen ist eine Bestimmung der Verantwortlichkeit a priori nicht möglich, sondern bedarf einer Betrachtung des jeweiligen Einzelfalls.471 Dem Verantwortlichen kommt eine zen­trale Stellung im Geflecht des Datenschutzrechts zu. Er wird an vielen Stellen in die Pflicht genommen, um den Schutz der betroffenen Personen zu gewährleisten.472 Dabei dient der Begriff des „Verantwortlichen“ in erster Linie dazu, originäre Verantwortung im Datenschutzrecht zuzuweisen473, wobei es Zielsetzung der DS-GVO ist, jede Verarbeitung einer Rechtsperson zuzuordnen, damit in Bezug auf die von der Verarbeitung Betroffenen keine Schutzlücken entstehen.474 Die DS-GVO fasst diesbezüglich auch den Kreis der möglichen Verantwortlichen sehr weit. Neben natürlichen Personen, welche nach nationalem Recht bzw. Unionsrecht rechts- und prozessfähig sind475, werden auch sämtliche juristischen Personen – mithin alle nach dem Völkerrecht, Unionsrecht sowie den nationalen Rechtsordnungen gegründeten Entitäten – gleich ob staatlicher oder privatrechtlicher Natur umfasst.476 Nach dieser Systematik kommen sowohl die Verwender eines Sprachassistenten – sei es als natürliche Person, Behörde oder Unternehmen – als auch der Hersteller bzw. Betreiber eines solchen Systems grundsätzlich in Betracht. Ausgeschlossen ist die Anwendbarkeit der DS-GVO  – und somit auch die Pflichten des Verantwortlichen – bei einer Verarbeitung der Daten durch natürliche Personen zu ausschließlich persönlichen oder familiären Tätigkeiten, Art. 2 Abs. 2 lit. c) DS-GVO. Dies betrifft jedoch nur den Verwender eines Sprachassistenten selbst. Dem Betreiber des Assistenten, bei welchem es sich in der Regel um eine juristische Person handeln wird, ist diese Privilegierung zumeist verwehrt, da eine juristische Person bereits aus der Natur der Sache weder persönliche noch familiäre Tätigkeiten ausüben kann.477 Das verfolgte Ziel des Gesetzgebers ist eine Ausnahme der Anwendbarkeit des Datenschutzrechts, sofern eine Verarbeitung nur im privaten Bereich und als Ausprägung des allgemeinen Persönlichkeitsrechts erfolgt.478 Unerheblich ist im Zusammenhang mit der Haushaltsausnahme, ob die natürliche Person zur Verarbeitung der Daten auf einen Dritten zurückgreift. Als Anhaltspunkt kann Erwägungsgrund 18 der DS-GVO herangezogen werden, 471

Klink-Straub / Straub, NJW 2018, 3201 (3203). C. Conrad, DuD 2019, 563 (563). 473 Artikel-29-Datenschutzgruppe, WP 169, 00264/10/DE 2010, 1 (6). 474 Kühling / Buchner / Hartung, Art. 4 Nr. 7 DS-GVO Rn. 5. 475 Sydow / Raschauer, Art. 4 Nr. 7 DS-GVO 128. 476 Sydow / Raschauer, Art. 4 Nr. 7 DS-GVO 129. 477 Paal / Pauly / S . Ernst, Art. 2 DS-GVO Rn. 15. 478 Albrecht, CR 2016, 88 (90). 472

136

Kap. 5: Rechtliche Problemstellungen

nach welchem beispielsweise die Nutzung sozialer Netze und online Tätigkeiten zu rein privaten Zwecken privilegiert wird. Es entstehen auch keine Schutz­lücken der betroffenen Personen, da der Betreiber des Sprachassistenten selbst den datenschutzrechtlichen Verpflichtungen unterliegt. Abgrenzungsschwierigkeiten ergeben sich, wenn der Nutzer des Assistenten beispielsweise auf seinem mobilen Telefon Kontaktdaten von privaten Freunden, mit denen er jedoch auch geschäftliche Korrespondenz führt, beispielswiese Arbeitskollegen, speichert, bedingt das Ausschließlichkeitsprinzip, dass diese Mischdaten vollends den Regelungen der DSGVO unterfallen.479 Auch wenn der Begriff der Haushaltsausnahme suggerieren könnte, dass eine Exkludierung der datenschutzrechtlichen Obliegenheiten auf den räumlichen Bereich der Privatwohnung anzunehmen wäre, ist die Reichweite nicht geographisch zu bestimmen, sondern viel mehr, ob die Handlung des Verwenders subjektiv noch zu den begünstigten Zwecken erfolgt und dies auch objektiv für einen Dritten erkennbar ist.480 Dies gilt auch für die Verwendung von Assistenten in Smartphones und anderen smarten Produkten außerhalb des Wohnbereichs.481 a) Abgrenzung zur Auftragsverarbeitung Abzugrenzen ist der für die Verarbeitung Verantwortliche überdies von einem reinen Auftragsverarbeiter. Diese Frage stellt sich insbesondere  – im Hinblick auf derzeitige Sprachassistenten  – in Bezug auf die Betreiber als Verantwort­ liche im datenschutzrechtlichen Sinne. Unter einem Auftragsverarbeiter versteht die DS-GVO eine natürliche oder juristische Person, Behörde, Einrichtung oder andere Stelle, die personenbezogene Daten im Auftrag des Verantwortlichen verarbeitet, Art. 4 Nr. 8 DS-GVO. Entscheidendes Merkmal ist mithin, im Vergleich zum BDSG a. F., welches für die Abgrenzung der Auftragsdatenverarbeitung eine Funktionsübertragung herangezogen hatte,482 ob der jeweils Handelnde selbst über die Zwecke und Mittel der Verarbeitung bestimmen darf oder an Weisungen und Vorgaben Dritter gebunden ist.483 In Bezug auf Twitter-Accounts hat Engeler die These aufgestellt, dass der Verwender die Wahl des Anbieters bestimmt, eigene Zwecke verfolgt und die Daten durch Twitter Inc. lediglich verarbeitet werden; dies sei ausreichend, da der Betreiber lediglich im Interesse bzw. zu Gunsten des Nutzers handle und dies nach dem englischen Wortlaut des Art. 4 Nr. 8 DS-GVO „on behalf of the controller“ für eine Auftragsverarbeitung genüge.484 Auch Weichert scheint in diese Richtung zu tendieren und erblickt in einem Abschluss des Vertrages zwischen Nutzer und Betreiber eines sozialen Netzwerkes eine Auftragserteilung. Unerheblich ist seiner Ansicht nach, dass der Betreiber sich in der Re 479

Gola / Gola, Art. 2 DS-GVO Rn. 22. Taeger / Gabel / B. Schmidt, Art. 2 DS-GVO Rn. 21. 481 Fuchs, ZD 2015, 212 (216). 482 B. Wagner, ZD 2018, 307 (310). 483 Hartung / Büttgen, DuD 2017, 549 (551). 484 Engeler, MMR 2017, 651 (654). 480

C. Kommunikation mit Sprachassistenten

137

gel nicht an die vertraglichen Vorgaben des Nutzers hält, sondern viel mehr eine Datenverarbeitung nach eigenen Vorstellungen vornimmt. Dieses Verhalten sei zwar vertragswidrig, würde das Konzept einer Auftragsverarbeitung jedoch nicht von vornherein unmöglich machen.485 Mag es eine hehre Vorstellung sein, dass der Verwender eines Sprachassistenten die Entscheidungshoheit über die zu verarbeitenden Daten innehat, ist die tatsächliche Ausgestaltung wohl überwiegend konträr hierzu. Der Betreiber des intelligenten Systems gibt in der Regel die Parameter vor, in welchen der Verwender das Produkt nutzen kann. Auch die Verarbeitung der Daten erfolgt zwar durch initiale Mitwirkung des Nutzers, im Übrigen jedoch zumeist ohne konkrete Möglichkeit der Beeinflussung. Der Betreiber übt nicht nur die Kontrolle über die Verarbeitungsserver aus, sondern bestimmt überdies, welche Daten überhaupt erhoben bzw. verwertet werden können.486 Eine Kategorisierung des Betreibers als Verantwortlicher der Datenverarbeitung ist auch bereits aus praktikablen Gesichtspunkten vorzugswürdig. Wäre der Nutzer als einziger für die Datenverarbeitung verantwortlich und der Betreiber des Assistenten nur Auftragsverarbeiter, obläge es dem Nutzer, die komplexen Strukturen des Datenschutzrechts zu befolgen und den Pflichten in Gänze Genüge zu tun. Auch aus Sicht der Betroffenen ist es vorzugswürdig, neben dem Benutzer selbst, mögliche Ansprüche gegenüber dem regelmäßig finanziell besser gestellten Betreiber direkt als Verantwortlichen geltend zu machen b) Gemeinsame Verantwortlichkeit Eine Abwandlung des Systems der singulären Verantwortlichkeit einer Stelle sieht die DS-GVO in Art 26 mit dem System der gemeinsamen Verantwortlichkeit vor. Gemäß Art. 26 Abs. 1 S. 1 DS-GVO sieht die DS-GVO dann mehrere als gemeinsam verantwortlich an, wenn sie gemeinsam die Zwecke und Mittel zur Verarbeitung festlegen. Diese Konstellation wird insbesondere dann relevant, wenn durch einen Sprachassistenten Daten Dritter, mithin nicht solche des direkten Verwenders des Sprachassistenten, verarbeitet werden. Zwingend nötig ist, dass nicht nur die personenbezogenen Daten des Nutzers verarbeitet werden, da eine Verantwortlichkeit grundsätzlich nur bei der Verarbeitung von Daten Dritter entstehen kann.487 Eine denkbare Konstellation kann beispielsweise der Fall sein, dass sich Unbeteiligte in den Räumlichkeiten des Verwenders aufhalten und ihre Aussagen versehentlich oder beabsichtig durch den Sprachassistenten ausgewertet werden bzw. der Verwender deren Daten mittels des Sprachassistenten weitergibt. Der EuGH legt für die Beurteilung einer gemeinsamen Verantwortlichkeit keine allzu 485

Weichert, ZD 2014, 605 (607). B. Wagner, ZD 2018, 307 (310). 487 B. Wagner, jurisPR-ITR 2018 (5). 486

138

Kap. 5: Rechtliche Problemstellungen

restriktiven Anforderungen fest. Insbesondere verlangt der EuGH keine gleichwertige Zusammenarbeit der Verantwortlichen auf Augenhöhe. In seiner vielbeachteten Entscheidung zur Beurteilung einer Facebook-Fanpage hat er geurteilt, dass es für die Begründung einer gemeinsamen Verantwortlichkeit bereits ausreichend ist, wenn der Betreiber einer Fanpage über ein soziales Netzwerk durch die von ihm vorgenommene Parametrierung auf die seitens Facebook zu erhebenden Daten Einfluss nimmt und folglich durch die Erstellung einer solchen Fanpage an der Entscheidung über die Zwecke und Mittel der Verarbeitung der personenbezogenen Daten der Besucher beteiligt ist.488 Unerheblich ist hierbei, ob der Betreiber einer solchen Seite selbst Zugang zu den betreffenden personenbezogenen Daten hat oder diese vollständig im Machtbereich des Plattformbetreibers verbleiben.489 Eine trennscharfe Feststellung, ab welchem Grad der Beteiligung an der Datenverarbeitung eines Dritten von einem Vorliegen einer gemeinsamen Verantwortung auszugehen ist, kann mit den Erkenntnissen des EuGH auch für die Zukunft nicht getroffen werden.490 Eine geschlossene Liste der Formen einer gemeinsamen Verantwortlichkeit ist jedoch sowohl auf Grund der Vielzahl denkbarer Modalitäten einer Verarbeitungssituation als auch im Hinblick auf den Schutz der Betroffenen nicht aufstellbar.491 Das Datenschutzrecht muss flexibel genug bleiben, um auf neuartige Varianten sach- und schutzgemäß zu reagieren.492 Schreiber kritisiert, dass eine gemeinsame Verantwortlichkeit nur in Konstellationen angebracht sein kann, in welchen die Beteiligten derart eng kooperieren, dass wirklich ein gemeinsamer Zweck gegeben ist und dies die Ausweitung der Betroffenenrechte auf die Haftung aller Kooperationspartner rechtfertig.493 Die Rechtsprechung des EuGH zu Fanpages in sozialen Netzwerken lässt sich grundsätzlich auf den Betrieb eines Sprachassistenten übertragen. Gegenüber Dritten verlässt der Verwender eines Sprachassistenten seine Rolle als rein von der Datenverarbeitung des Betreibers Betroffener und stellt sich neben den hauptsächlich Verantwortlichen, da er ein gewisses Maß an faktischer oder rechtlicher Einflussmöglichkeit auf die Zwecke und Mittel der Datenverarbeitung hat.494 Die Entscheidung des Verwenders, ob, wann und wo er einen Sprachassistenten betreibt und welche weiteren Software- und Hardwarekomponenten er mit diesem verknüpft, verschafft ihm einen hinreichenden Einfluss auf den Vorgang der Datenverarbeitung, sodass er zwar nicht gleichberechtigt neben dem eigentlichen Betreiber steht, jedoch eine Datenverarbeitung grundsätzlich nur durch sein initiales 488

EuGH Urt. v. 5. 6. 2018 – C-210/16, EuZW 2018, 534 (537) – Wirtschaftsakademie Schleswig-Holstein Rz. 39. 489 EuGH Urt. v. 5. 6. 2018 – C-210/16, EuZW 2018, 534 (537) – Wirtschaftsakademie Schleswig-Holstein Rz. 38. 490 Simitis / Hornung / Spiecker genannt Döhmann / Petri, Art. 26 DS-GVO Rn. 14. 491 Artikel-29-Datenschutzgruppe, WP 169, 00264/10/DE 2010, 1 (22). 492 Datenschutzkonferenz, Kurzpapier Nr. 16, Gemeinsam für die Verarbeitung Verantwortliche, Art. 26 DS-GVO, 2018, S. 4. 493 Schreiber, ZD 2019, 55 (60). 494 Kartheuser / Nabulsi, MMR 2018, 717 (720).

C. Kommunikation mit Sprachassistenten

139

Zuhelfen möglich ist. Dieses von der Konzeption – auch wenn dies auf Grund der Marktmacht der Konzerne faktisch abweichen mag – gleichberechtigte Verhältnis der gemeinsam Verantwortlichen ist auch das hauptsächliche Abgrenzungsmerkmal zwischen der gemeinsamen Verantwortlichkeit und einer Auftragsverarbeitung (vgl. S. 183 ff.), welche ein hierarchisches Verhältnis zwischen Verantwortlichem und Auftragsverarbeiter kennzeichnet.495 Stellt eine solche gemeinsame Verantwortlichkeit für den Verwender bereits bei den von diesem bereitgestellten Daten (sog. Inhaltsdaten) Unsicherheiten dar, ist unklar, ob die Rechtsprechung des EuGH auch auf Daten zu erstrecken ist, die seitens des Systems im Hintergrund und ohne aktives Zutun des Verwenders generiert werden (sog. Nutzungsdaten). Solche können seitens des Sprachassistenten generiert werden, wenn Dritte in den Räumlichkeiten des Verwenders Gespräche führen und es auf Grund dessen zu einer Verarbeitung von personenbezogenen Daten kommt. In dieser Situation ist fraglich, ob der Verwender tatsächlich über die Zwecke und Mittel der Datenverarbeitung bestimmen kann, da diese Daten ohne sein Wissen im Hintergrund generiert werden.496 Anknüpfungspunkt wäre hier möglicherweise die bloße Inbetriebnahme des Sprachassistenten. Eine solch weite Auslegung der gemeinsamen Verantwortlichkeit, welche den Verwender bereits für die Verwendung eines smarten Gerätes den Ansprüchen auf Schadensersatz bzw. den Pflichten der DS-GVO unterwirft,497 scheint schwerlich zu rechtfertigen, dies insbesondere, da betroffenen Dritten ein Rückgriff auf den Betreiber des Systems verbleibt. Die vorausgegangenen Ausführungen lassen jedoch einen wesentlichen Akteur in der Kette der Verantwortlichkeit außer Betracht, nämlich den autonomen Sprachassistenten selbst. Eine Zuweisung des datenschutzkonformen Verhaltens wird umso schwieriger, wenn in Zukunft zwischen dem Verwender, dem Entwickler und einer vollständig autonomen KI möglicherweise hinsichtlich der Verantwortlichkeit zu unterscheiden ist.498 Diese Fragestellung ist freilich eine der erst kommenden Zukunft. Noch sind Sprachassistenten noch nicht in der Form hinreichend autonom, dass sie tatsächlich zu eigenen Ideen und Verarbeitungsmöglichkeiten fähig sind, die nicht seitens des Betreibers vorgesehen sind. Werden Handlungen des Assistenten jedoch in Zukunft freier und trifft er selbst unabhängige und selbstständige Entscheidungen werden die Grenzen der Zurechenbarkeit der Verantwortlichkeit sowohl des Betreibers als auch Verwenders zunehmend zerfließen. Eine vollständig autonome Handlung des Assistenten würde unter Umständen eine vollständig neue Zweckrichtung der Datenverarbeitung festlegen und folglich eine eigene und unabhängige „Verantwortlichkeit“ des Systems bedeuten.499 495

Spindler / Fabian Schuster / J. Nink, Art. 26 DS-GVO Rn. 4. B. Wagner, ZD 2018, 307 (309). 497 C. Conrad, DuD 2019, 563 (566). 498 C. Conrad, DuD 2018, 541 (544). 499 C. Conrad, DuD 2019, 563 (567). 496

140

Kap. 5: Rechtliche Problemstellungen

c) Zwischenfazit Die Zuweisung der datenschutzrechtlichen Verantwortlichkeit an eine natürliche oder juristische Person nach den geltenden Datenschutzgesetzen gelingt für Systeme schwacher Künstlicher Intelligenz und folglich derzeitiger Sprachassistenten. Das Verhalten des Sprachassistenten wird überwiegend durch die Nutzer, Verwender und Betreiber des Systems initiiert und gesteuert. Eine Zurechnung und Rückverfolgung ist durchaus gegeben. Anders wird es jedoch zukünftig bei Systemen starker Künstlicher Intelligenz zu beurteilen sein, wenn Datenverarbeitungsprozesse angestoßen werden, die durch keine der vorgenannten Akteure vorhergesehen werden können bzw. ausgelöst werden. Die Zurechnung der Verantwortlichkeit an eine natürliche oder juristische Person wäre unter Umständen weder billig und gerecht noch führbar. 5. Rechtfertigung der Datenverarbeitung Dem Datenschutzrecht liegt seit jeher der Rechtsgedanke eines Verbots mit Erlaubnisvorbehalt zu Grunde.500 Dies hat zur Folge, dass eine Verarbeitung personenbezogener Daten nach der DS-GVO nur rechtmäßig ist, wenn einer der in Art. 6 Abs. 1 DS-GVO aufgeführten abschließenden Erlaubnistatbestände erfüllt ist. Im Unterschied zu einem „herkömmlichen“ verwaltungsrechtlichen Erlaubnisvorbehalt setzt die DS-GVO nur das Vorliegen eines Erlaubnisgrundes voraus und verzichtet auf eine gesonderte Einholung einer behördlichen Genehmigung.501 a) Einwilligung, Art. 6 Abs. 1 lit. a) DS-GVO Ausgangspunkt der Erlaubnistatbestände und Ausprägung der informationellen Selbstbestimmung stellt bei der Verarbeitung der personenbezogenen Daten durch Sprachassistenten die Einwilligung des Betroffenen Nutzers dar, Art. 6 Abs. 1 lit. a) DS-GVO. Bezüglich dieser Einwilligung ist zwischen solchen des Verwenders des Sprachassistenten selbst und Dritten, welche zu dem Betreiber in keinem Vertragsverhältnis stehen, zu unterscheiden. Im Verhältnis zu dem eigentlichen Nutzer ist die Einräumung einer Einwilligung in den vertraglichen Regelungen prinzipiell denkbar. Unter einer Einwilligung der betroffenen Person versteht die DS-GVO jede freiwillig für den bestimmten Fall in informierter Weise und unmissverständ 500

Kühling / Buchner / Buchner / Petri, Art. 6 DS-GVO Rn. 11; Taeger / Gabel / Taeger, Art. 6 DS-GVO Rn. 3; Krit. Albers / Veit die die datenschutzrechtlichen Rechtmäßigkeitsvoraussetzungen als zu weitgehend ansehen, um noch von einem Verbotscharakter zu sprechenBeckOK DatenschutzR / Albers / Veit, Art. 6 DS-GVO Rn. 12; ebenso Krit. Roßnagel, der in der DS-GVO eher ein Erlaubnis- als Verbotsprinzip erblickt, vgl. Roßnagel, NJW 2019, 1 (5). 501 Simitis / Hornung / Spiecker genannt Döhmann / Albrecht, Einf. zu Art. 6 DS-GVO Rn. 4.

C. Kommunikation mit Sprachassistenten

141

lich abgegebene Willensbekundung in Form einer Erklärung oder einer sonstigen eindeutigen bestätigenden Handlung, mit der die betroffene Person zu verstehen gibt, dass sie mit der Verarbeitung der sie betreffenden personenbezogenen Daten einverstanden ist, Art. 4 Nr. 11 DS-GVO. aa) Formelle Wirksamkeitsvoraussetzungen Da nur in seltenen Ausnahmefällen eine mündliche Einwilligung vorliegen wird, sind die besonderen Voraussetzungen des Art. 7 Abs. 2 S. 1 DS-GVO zu beachten: Wird eine Einwilligung schriftlich erteilt, die noch andere Sachverhalte betrifft, so muss das Ersuchen um Einwilligung in verständlicher und leicht zugänglicher Form in einer klaren und einfachen Sprache so erfolgen, dass es von den anderen Sachverhalten klar zu unterscheiden ist. Der Begriff der Schriftform der DS-GVO geht hierbei weit über das Verständnis von § 126 BGB hinaus502, wodurch eine Einwilligung auch in Textform (§ 126b BGB) und, bei Sprachassistenten wohl die überwiegende Anzahl, in elektronischer Form (§ 126a BGB) möglich ist.503 Wichtiger als das Medium selbst ist die Warnfunktion der Einwilligungserklärung, mithin, dass sich der Betroffene bewusst darüber ist, eine entsprechende Erklärung abzugeben.504 Sofern eine Einwilligungserklärung in Form Allgemeiner Geschäftsbedingungen (AGB) abgegeben wird,505 ist darauf zu achten, dass die Einwilligung gegenüber anderen Vertragsbestandteilen sichtbar abgetrennt und für den Verwender erkennbar ist, folglich nicht innerhalb der AGB untergeht.506 Veil kritisiert, dass AGB grundsätzlich nicht gelesen und die Verwender der AGB ihre Verpflichtungen auf den Nutzer abwälzen würden, wobei bei diesen auf Grund der Marktmacht der Unternehmen eine „take it or leave it“ Situation507 entstünde und die Einwilligung im Rahmen von AGB keine hinreichende Kundgabe der Souveränität des Einzelnen sei.508 Dem muss entgegen gehalten werden, dass dies keine Kritik an der Form der Regelung innerhalb Allgemeiner Geschäftsbedingungen sein kann, sondern vielmehr die Punkte der Informiertheit und Freiwilligkeit einer Einwilligung betreffen. In zeitlicher Hinsicht ist eine Einwilligung des Betroffenen vor jeglicher Verarbeitungshandlung einzuholen, ab dann jedoch zeitlich unbeschränkt wirksam. Um ein nötiges Maß an Transparenz zu begründen, postulieren Heckmann /  Paschke, dem Betroffenen mitzuteilen, wie lange ein jeweiliges Datum für die Verarbeitung notwendig ist und ab wann der Verantwortliche dies datenschutzkonform 502

Anders noch § 4a Abs. 1 S. 3 BDSG a. F. i. V. m. § 126 BGB. Spindler / Fabian Schuster / Spindler / Dalby, Art. 7 DS-GVO Rn. 8. 504 Krohm, ZD 2016, 368 (371). 505 Vgl. vertiefend Wendehorst / Westphalen, NJW 2016, 3745. 506 Hennemann, ZUM 2017, 544 (546). 507 Vgl. ausführlichBorgesius / Kruikemeier / Boerman u. a., EDPL 2017, 1. 508 Veil, NVwZ 2018, 686 (688). 503

142

Kap. 5: Rechtliche Problemstellungen

löscht.509 Die Art-29-Datenschutzgruppe geht überdies einen Schritt weiter und fordert gar, dass eine Einwilligung in angemessenen Zeitabständen zu erneuern ist, damit der Betroffene jederzeit über seine Rechte informiert und sich darüber im Klaren ist, wie seine Daten verwertet werden.510 Eine solche wiederkehrende Einholung einer Einwilligung ist im digitalen Zeitalter unter Umständen jedoch als kontraproduktiv einzuordnen. Zu vielfältig sind die verschiedenen Verarbeitungssituationen, welchen Betroffene gegenüberstehen. So gut wie jede Anwendung, jedes vernetzte Produkt bis hin zum Zahnarzt verarbeitet personenbezogene Daten. Würde von jeder Stelle in regelmäßigen Abständen eine erneute Einwilligung bzw. Hinweis auf die Datenverarbeitung gegeben, hätte dies bei einigen Betroffenen einen Information Overload zur Folge, mithin eine Informationsüberlastung des Einzelnen.511 Ein Mehr an Information geht nicht zwingend mit einem Mehr an Informiertheit einher. bb) Materielle Wirksamkeitsvoraussetzungen Wirksamkeitsvoraussetzung einer Einwilligung ist, dass sich der im Betroffenen gebildete Wille nicht von seiner Äußerung unterscheidet. Da der naturalistische Wille von Personen im Inneren verborgen bleibt, ist die geäußerte Willenserklärung einziger Anhaltspunkt und muss Rückschlüsse für eine die Verarbeitung rechtfertigende Willensäußerung bieten können.512 Dabei handelt es sich bei der Einwilligung nicht nur um ein primärrechtlich rechtfertigendes Element im Rahmen des Schutzes personenbezogener Daten nach Art. 8 Abs. 1 GRCh, sondern ist vielmehr nach Art. 8 Abs. 2 GRCh primärrechtlich geboten.513 (1) Freiwilligkeit Die Freiwilligkeit einer Einwilligung setzt eine tatsächliche Wahlmöglichkeit des Betroffenen zu einer Versagung oder Erteilung der Einwilligung zwingend voraus.514 Die Freiwilligkeit einer datenschutzrechtlich wirksamen Einwilligung weißt zwei Hauptkomponenten auf: Die Freiheit von Zwang des Betroffenen auf der einen und seine Informiertheit auf der anderen Seite.515 Der Grundsatz der Selbstbestimmtheit setzt voraus, dass der Betroffene sowohl über eine Willensentschließungs- und Handlungsfreiheit verfügt und nicht mittels 509

Ehmann / Selmayer / Heckmann / Paschke, Art. 7 DS-GVO Rn. 43. Artikel-29-Datenschutzgruppe, WP 259 rev.01 17/DE 2018 (25). 511 Paal / Pauly / Paal / Hennemann, Art. 12 DS-GVO Rn. 5. 512 Radlanski, Das Konzept der Einwilligung in der datenschutzrechtlichen Realität, S. 11. 513 Sydow / Ingold, Art. 7 DS-GVO Rn. 15. 514 Lüdemann / Pokrant, DuD 2019, 365 (366). 515 Ehmann / Selmayer / Heckmann / Paschke, Art. 7 DS-GVO Rn. 48. 510

C. Kommunikation mit Sprachassistenten

143

tatsächlichen oder rechtlichen Zwangs zu einer Abgabe der Einwilligungserklärung genötigt wird.516 An einer solchen Selbstbestimmtheit kann es fehlen, wenn der Einsatz des Sprachassistenten für den Nutzer quasi zur Verpflichtung wird, beispielsweise weil durch vertiefte vorhergehende Nutzung eine zu enge Bindung an die Funktionalität eingetreten ist. Hat der Nutzer in seinem Haushalt eine Vielzahl smarter Geräte, die jedoch nur unter Verwendung des Sprachassistenten eines bestimmten Anbieters angesteuert werden können, hat der Verwender keine freie Entscheidung in der freien Wahl zwischen mehreren Anbietern, sodass eine faktische Unfreiwilligkeit der Einwilligung anzunehmen ist.517 Ein genereller Ausschluss der Einwilligung in Fällen starker Machtsymmetrien zwischen Betroffenen und Verantwortlichen ist der DS-GVO hingegen grundsätzlich nicht zu entnehmen, es verbleibt – trotz hieraus entstehender Rechtsunsicherheiten – bei der Abstellung auf die konkreten Umstände des jeweiligen Einzelfalls.518 Die DS-GVO setzt für die Wirksamkeit einer Einwilligung zwar eine Einwilligungsfähigkeit voraus, welche eine kognitive Erfassung des Sachverhalts erfordert, sieht hierfür aber – mit Ausnahme von Art 8 Abs. 1 DS-GVO – keine feste Altersgrenze vor, bei welcher das Vorliegen oder die Abwesenheit einer hinreichenden Verständnisfähigkeit anzunehmen wäre.519 Exkurs: Für Angebote von Diensten der Informationsgesellschaft, die einem Kind direkt gemacht werden, sieht die DS-GVO eine Einwilligungsfähigkeit der Kinder erst ab der Vollendung des sechzehnten Lebensjahres vor, Art. 8 Abs. 1 S. 1 DSGVO. Richtet sich das Angebot an jüngere Kinder, so bedarf es der Zustimmung des Trägers der elterlichen Verantwortung, Art. 8 Abs. 1 S. 2 DS-GVO. Ein Sprachassistent kann grundsätzlich als ein solcher Dienst der Informationsgesellschaft verstanden werden. Art. 4 Nr. 25 DS-GVO verweist bezüglich der Definition dieses Dienstes auf Art. 1 Abs. 1 lit. b Info-RL (RL (EU) 2015/1525). Hiernach handelt es sich bei einem Dienst der Informationsgesellschaft um eine elektronische, im Fernabsatz, in der Regel gegen Entgelt und auf individuellen Abruf eines Empfängers erbrachte Dienstleistung. Eine formale Problematik könnte bei der Einordnung von Sprachassistenten als Dienste der Informationsgesellschaft bei dem geforderten Merkmal der Entgeltlichkeit gesehen werden. Soweit für den Sprachassistenten selbst Geldzahlungen zu leisten sind, ist dies unproblematisch. Ist der Sprachassistent jedoch lediglich Teil einer größeren Funktionalität, beispielsweise als Teil der Software eines mobilen Telefons, ist dies differenziert zu beantworten. Vertreten werden kann, dass die Nutzung des Sprachassistenten in diesem Fall seitens der Lizenzvergütungen, die durch den Hersteller des Mobiltelefons an den Entwickler des Betriebssystems, in welchem der Sprachassistent enthalten ist,

516

Simitis / Hornung / Spiecker genannt Döhmann / Klement, Art. 7 DS-GVO Rn. 48. Golland, MMR 2018, 130 (131). 518 Sydow / Ingold, Art. 7 DS-GVO Rn. 28. 519 Simitis / Hornung / Spiecker genannt Döhmann / Klement, Art. 7 DS-GVO Rn. 49. 517

144

Kap. 5: Rechtliche Problemstellungen

entgeltlich abgegolten wurde, da die Gegenleistung nicht direkt durch den Nutzer des Sprachassistenten entrichtet werden muss.520 Ob die seitens des Nutzers des Sprachassistenten bereitgestellten Daten eventuell bereits selbst als entgeltliche Leistung anzusehen sind, ist umstritten und bisher nicht geklärt.521

(2) Informiertheit Die Informiertheit der Einwilligung (sog. informed consent) setzt voraus, dass der Verwender eines Sprachassistenten in erschöpfender Form über den Zusammenhang, Hintergrund und die Tragweite der Datenverarbeitung aufgeklärt wird.522 Nach Erwägungsgrund 42 der DS-GVO ist hierfür mindestens erforderlich, dass der Betroffene weiß, wer der Verantwortliche ist und für welche Zwecke die personenbezogenen Daten verarbeitet werden können. Dies scheint insbesondere bei Systemen Künstlicher Intelligenz den Verantwortlichen zumindest vor große Herausforderungen zu stellen. Kann er selbst auf Grund der Undurchsichtigkeit der Handlungsweisen einer Künstlichen Intelligenz wohl bereits schwerlich festlegen, wie genau die Daten verarbeitet werden,523 gestaltet sich die Darstellung für den Betroffenen, welcher oftmals ein technischer Laie sein dürfte, umso schwieriger. Der Verantwortliche hat zwischen einer umfassenden Informierung unter Beibehaltung der Verständlichkeit für den jeweiligen Betroffenen einen Spagat zu wagen, wobei eine Vereinfachung der technischen Verarbeitungsvorgänge nicht zu Lasten der Richtigkeit der Aussage gehen darf.524 Ob eine Informiertheit ohne Angabe technischen oder fremdsprachlichen Fachvokabulars möglich sein kann, zumal unspezifische Beschreibungen nicht verwendet werden dürfen,525 mag bezweifelt werden. Problematisch ist überdies, dass es sich bei Sprachassistenten in der Regel um Massenprodukte handelt und die seitens des Vertreibers vorgehaltenen Informationen in allgemeinen Standardverträgen festgehalten werden und gerade nicht betroffenenspezifisch formuliert werden. Soweit die Art-29-Datenschutzgruppe lediglich fordert, dass der Grad der Verständlichkeit sich am Wissen der Durchschnittspersonen zu richten hat526 kritisieren Heckmann / Paschke richtigerweise, das dies zahlreiche Betroffene unberücksichtigt lässt, deren Kenntnisstand unter dem eines Durchschnittsbetroffenen verbleibt und eine Einwilligung in diesen Fällen jedenfalls mangels angemessener Informierung unwirksam wäre.527 520

Simitis / Hornung / Spiecker genannt Döhmann / Klement, Art. 4 Nr. 25 Rn. 9. Vgl. hierzu vertiefend die insbesondere auch steuerrechtlich geführte Debatte bei Bunjes /  Robisch, § 1 UStG Rn. 13; Grambeck, DStR 2016, 2026; Dietsch, MwStR 2017, 868; sowie Melan / Pfeiffer, DStR 2017, 1072. 522 Tinnefeld / I. Conrad, ZD 2018, 391 (394). 523 Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (536). 524 Uecker, ZD 2019, 248. 525 S. Ernst, ZD 2017, 110 (113). 526 Artikel-29-Datenschutzgruppe, WP 259 rev.01 17/DE 2018 (16). 527 Ehmann / Selmayer / Heckmann / Paschke, Art. 7 DS-GVO Rn. 59. 521

C. Kommunikation mit Sprachassistenten

145

(3) Bestimmtheit und Zweckbindung Die Einwilligung in die Datenverarbeitung eines Sprachassistenten muss für einen bestimmten Fall erteilt werden, da nur diese genaue Festlegung es dem Betroffenen ermöglicht, die Reichweite der abzugebenden Einwilligung zu über­ blicken.528 Dies trifft insbesondere auf den konkreten Zweck der Datenverarbeitung zu, da dem Betroffenen zur Überblickung der Gefahren nicht nur die Art und Weise der Verarbeitung mitgeteilt werden muss, sondern auch, zu welchem Nutzen diese erfolgt.529 Für die Verwendung der Daten im Rahmen von Sprachassistenten ist zwischen der Auswertung zur Beantwortung einer Frage bzw. Durchführung einer Aufgabe und der Verwendung für weitere Zwecke zu unterscheiden. Lässt sich der Zweck einer Datenverarbeitung für die reine Funktionalität des Assistenten noch bestimmen, entfällt dies, wenn die Daten im Nachgang zu Lernzwecken des Algorithmus Verwendung finden. Big-Data-Analysen basieren darauf, dass Zusammenhänge zwischen Daten und der zu erreichende Zweck zumeist nicht vor Beginn der Datenverarbeitung erkenntlich sind. Der Betreiber kann vor Beginn der Datenverarbeitung zumeist nur sehr grob definieren, welche Zwecke letztendlich genau verfolgt werden.530 Eine Einholung einer wirksamen Einwilligung zu weitergehenden Verarbeitungszwecken wird regelmäßig sehr aufwändig sein bzw. stehen dieser beträchtliche Hürden gegenüber.531 Vgl. vertiefend zur Problematik der Zweckbindung bzw. nachträgliche Änderung auf den S. 170 ff. cc) Besondere Kategorien personenbezogener Daten Ein vertieftes Augenmerk ist auf die Verarbeitung besonderer Kategorien personenbezogener Daten zu legen, welche nach Art. 9 DS-GVO grundsätzlich verboten ist und unter welche insbesondere Daten fallen, die Rückschlüsse über die rassische und ethische Herkunft einer Person zulassen, genetische und biometrische Daten betreffen sowie aber auch Gesundheitsdaten, Art. 9 Abs. 1 DS-GVO. Für Sprachassistenten erwächst gerade die Aufnahme biometrischer Daten (Art. 4 Nr. 14 DS-GVO) in den Kodex der besonderen personenbezogenen Daten des Art. 9 DS-GVO besondere Bedeutung. Die Stimme eines Menschen, welche im Zuge eines akustischen Identifikationsverfahrens (= Spracherkennung) ausgewertet wird, stellt ein derartiges physisches bzw. physiologisches Merkmal einer natürlichen Person dar, mit welchem eine eindeutige Identifizierung dieser natürlichen Person ermöglicht oder bestätigt werden kann, Art. 4 Nr. 14 DS-GVO.532 528

BeckOK DatenschutzR / Stemmer, Art. 7 DS-GVO Rn. 74. Simitis / Hornung / Spiecker genannt Döhmann / Klement, Art. 7 DS-GVO Rn. 70. 530 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 135. 531 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, 42 f. 532 Kühling / Buchner / Weichert, Art. 4 Nr. 14 DS-GVO Rn. 4. 529

146

Kap. 5: Rechtliche Problemstellungen

Im Zuge der Inbetriebnahme eines Sprachassistenten wird oftmals vor der ersten Verwendung des Assistenten eine Stimmprobe des Verwenders genommen und gespeichert, damit nur dieser in Zukunft den Assistenten aktivieren kann und es zu keinem Fehlgebrauch durch Dritte kommt oder die persönliche Nutzererfahrung verbessert werden kann (vgl. Abbildung 14). Das Unternehmen Amazon bewirbt dies beispielsweise offen mit dem Hinweis: „Alexa verwendet Ihr Sprachprofil dazu, Ihre Stimme besser kennenzulernen, wodurch Ihre Nutzererfahrung persönlicher gestaltet werden kann.“533

Abbildung 14: Prinzip der Stimmerfassung und Verifikation534

Dieses Vorgehen bewertet die Datenethikkommission (DEK) jüngst in ihrem Gutachten als besonders invasiven Eingriff in den Kernbereich der Persönlichkeitsrechte und warnt vor der Möglichkeit der Analysierung der persönlichen Stimmfärbung bzw. Auswertung der Sprachemotionen, welche bei maliziöser Verwendung der Daten ein hohes Missbrauchspotential im Bereich der Nachformung (sog. deep fakes535) darstellt.536 Dieses Gefährdungspotential ist indes dem europäischen Gesetzgeber nicht verborgen geblieben. Art. 9 DS-GVO dient nach Erwägungsgrund 51 DS-GVO dazu, personenbezogene Daten, die ihrem Wesen nach hinsichtlich der Grundrechte und Grundfreiheiten besonders sensibel sind, zu schützen, da im Zusammenhang mit ihrer Verbreitung erhebliche Risiken für die Grundrechte und Grundfreiheiten auftreten können.537 533

Amazon, Was sind Alexa-Sprachprofile?, https://www.amazon.de/gp/help/customer/display. html?ie=UTF8&nodeId=202199440 (Stand: 27. 09. 2020). 534 Tillenburg, DuD 2011, 197 (197). 535 Hierunter sind mittels Künstlicher Intelligenz generierte Audio- Foto- oder Videoinhalte zu verstehen, vgl. Lantwin, MMR 2019, 574. 536 Datenethikkommission der Bundesregierung, Gutachten der Datenethikkommission, 2019, S. 101. 537 Nach Schneider ist eine Unterteilung des Datenschutzrechts in sensible und weniger sensible Daten verfehlt, da das Recht auf informationelle Selbstbestimmung kein belangloses Datum kennt und sich eine tatsächliche Sensibilität nur kontext- und situationsabhängig ergibt, J. Schneider, ZD 2017, 303 (304); Ablehnend auch Kühling / Buchner / Weichert, Art. 9 DS-GVO Rn. 21.

C. Kommunikation mit Sprachassistenten

147

Die Systematik des Schutzes dieser besonderen Daten sieht vor, dass Art. 9 DSGVO neben die Erlaubnistatbestände des Art. 6 Abs. 1 DS-GVO tritt, ergänzend heranzuziehen ist und die Tatbestände nicht verdrängt, sondern mit speziellen Freiheitsgewährleistungen konkretisiert.538 In dieser Konstellation liegt auch eine nicht zu verachtende Unabwägbarkeit für Betreiber von Sprachassistenten. Die Auswertung von Daten mittels Big-Data-Analysen unter Kombination verschiedenster Datenquellen bietet das Potential, Rückschlüsse auf sensible Daten zu geben. Eine strikte Trennung zwischen „herkömmlichen“ und besonders sensiblen Daten verschwimmt zunehmend, wobei gerade eine Trennung zwischen diesen Kategorien nach der Systematik der DS-GVO bereits vor Aufnahme der Verarbeitung zu erfolgen hat, da sich diese entweder nur nach Art. 6 Abs. 1 DS-GVO oder nach Art. 6 Abs. 1 i. V. m. Art. 9 DS-GVO beurteilt.539 Besondere Bedeutung der erweiterten Rechtmäßigkeitstatbestände nimmt hierbei die Möglichkeit der ausdrücklichen Einwilligung in die Verarbeitung seitens des Betroffenen ein, Art. 9 Abs. 2 lit. a)  DS-GVO. Diese folgt den allgemeinen Anforderungen an die Wirksamkeit einer Einwilligung (vgl. Ausführungen auf den S. 140). Wie bei der Verarbeitung herkömmlicher personenbezogener Daten, verbleibt der Einwilligung im Rahmen von Big-Data-Anwendungen auf Grund des unbestimmten Zwecks nur ein schmaler Anwendungsgrad.540 Exkurs: Obwohl das Ziel der DS-GVO eine vollständige Harmonisierung des Datenschutzrechts in der Europäischen Union angestrebt hat, enthält sie zahlreiche Öffnungsklauseln, die es den Mitgliedsstaaten ermöglicht, punktuell eigene Regelungen zu erlassen. Mangels dieser fehlenden Vollharmonisierung müssen Verantwortliche themenspezifisch prüfen, ob für die geplante Anwendung ein solcher Spezialfall geben ist und falls ja, welches nationale Recht anwendbar ist. Dies kann gerade bei grenzüberschreitenden Sachverhalten große Relevanz aufweisen.541 Im Bereich des Schutzes besonderer Kategorien personenbezogener Daten hat der deutsche Gesetzgeber von den Öffnungsklauseln des Art. 9 Abs. 2 DS-GVO Gebrauch gemacht und unter anderem die §§ 22 und 26 Abs. 3 BDSG n. F. erlassen. Diese sind zu beachten, sofern der Verwender eines Sprachassistenten die Daten zur Beurteilung der Arbeitsfähigkeit der Beschäftigten einsetzt oder auf den Gebieten der sozialen Sicherheit und des Sozialschutzes tätig ist. Fällt eine Verarbeitung unter diese nationalen Sondervorschriften, hat der Verantwortliche nach § 22 Abs. 2 BDSG die Vorgaben der DS-GVO einzuhalten und überdies besondere technische und organisatorische Maßnahmen zu ergreifen, um die Sicherheit der Datenverarbeitung zu gewährleisten.542 538

BeckOK DatenschutzR / Albers / Veit, Art. 9 DS-GVO Rn. 1. Matejek / Mäusezahl, ZD 2019, 551 (552). 540 J. Schneider, ZD 2017, 303 (305). 541 Zur Vertiefung vgl. Laue, ZD 2016, 463. 542 ErfK / Franzen, § 22 BDSG 2 ff. 539

148

Kap. 5: Rechtliche Problemstellungen

dd) Kopplungsverbot Neben den vorstehenden ausgeführten allgemeinen Ausführungen an die Freiwilligkeit einer Einwilligung hält Art. 7 Abs. 4 DS-GVO ein besonderes Kopplungsverbot vor. Nach diesem liegt dann keine freiwillige Einwilligung vor, wenn der Vertragsschluss von der Einwilligung in eine Verarbeitung personenbezogener Daten abhängig gemacht wird, die dem Wesen des eigentlichen Vertrages fremd ist und die Verarbeitung nicht zur Erfüllung der eigentlichen Vertragsbestandteile von Nöten ist.543 Für Systeme Künstlicher Intelligenz gewinnt diese Problematik unter anderem hinsichtlich der Weiterverwendung der Daten für die Verbesserung der Algorithmen an Bedeutung. Ob die Verbesserung der Algorithmen der Künstlichen Intelligenz unter Umständen für die Erfüllung der vertraglichen Verpflichtung als notwendig angesehen werden kann, muss im Einzelfall bestimmt werden. Die Art.29-Datenschutzgruppe legt einen strengen Maßstab an, der strikt unterscheidet, ob eine Verarbeitung unter allen Gesichtspunkten wirklich notwendig ist oder der betroffenen Person nur unter dem Deckmantel der Notwendigkeit einseitig auferlegt wird.544 Nur wenn nach dieser Auffassung eine direkte und objektive Verbindung zwischen der Datenverarbeitung und dem Vertragszweck besteht, findet Art. 7 Abs. 4 DS-GVO keine Anwendung.545 Ein striktes absolutes Kopplungsverbot ist der DS-GVO indes nicht zu entnehmen; nicht jede Kopplung einer datenschutzrechtlichen Einwilligung an andere Sachverhalte indiziert eine faktische Unfreiwilligkeit der Einwilligung.546 Dies wurde jüngst sowohl in einer deutschen als auch österreichischen Gerichtsentscheidung bestätigt. Das OLG Frankfurt konnte in der Verknüpfung der Teilnahme an einem Gewinnspiel von der Abgabe einer Einwilligung zum Erhalt zukünftiger Werbemails keinen Verstoß gegen das Kopplungsverbot erblicken, da das Anlocken durch Versprechen einer Vergünstigung – Teilnahme am Gewinnspiel – keinen Zwang auf den Betroffenen ausübt und der Verbraucher selbst entscheiden könne, ob ihm die Teilnahme an einem Gewinnspiel die Preisgabe seiner personenbezogenen Daten wert ist.547 In ähnlicher, wenn auch wesentlich restriktiverer, Weise hat der ÖOGH entschieden. Ausgangspunkt seiner Überlegungen war, dass der Wortlaut des Erwägungsgrundes 43548 der DS-GVO eindeutig ein unbedingtes Kopplungsverbot 543

Betz, ZD 2019, 148 (151). Artikel-29-Datenschutzgruppe, WP 217 844/14/EN 2014 (21). 545 Artikel-29-Datenschutzgruppe, WP 259 rev.01 17/DE 2018 (9 f.). 546 Ehmann / Selmayer / Heckmann / Paschke, Art. 7 DS-GVO Rn. 95. 547 OLG Frankfurt am Main Urt. v. 27. 6. 2019 – 6 U 6/19, ZD 2019, 507 Rz. 12. 548 „[…] Die Einwilligung gilt nicht als freiwillig erteilt, wenn zu verschiedenen Verarbeitungsvorgängen von personenbezogenen Daten nicht gesondert eine Einwilligung erteilt werden kann, obwohl dies im Einzelfall angebracht ist, oder wenn die Erfüllung eines Vertrags, einschließlich der Erbringung einer Dienstleistung, von der Einwilligung abhängig ist, obwohl diese Einwilligung für die Erfüllung nicht erforderlich ist“. 544

C. Kommunikation mit Sprachassistenten

149

fordert.549 Da der Wortlaut der DS-GVO hingegen in Art. 7 Abs. 4 nur von einer „größtmöglichen“ Berücksichtigung spricht, gilt es den Konflikt zwischen Normtext und Erwägungsgründen aufzulösen. Der ÖOGH legt den Erwägungsgrund in der Folge dahingehend aus, dass die DS-GVO zwar weiterhin kein absolutes Kopplungsverbot kennt, an die Beurteilung der „Freiwilligkeit“ der Einwilligung jedoch – bezogen auf den Einzelfall – strenge Anforderungen zu stellen sind.550 Die Aussagen betreffen jedoch insbesondere Konstellationen, in denen dem Vertrag eine Entgeltlichkeit zu Grunde liegt. Ob diese Anforderungen auf eine kostenlose Teilnahme an einem Glückspiel, wie es das OLG Frankfurt am Main zu entscheiden hatte, übertragbar sind, fand keine Beachtung. Eine höchstrichterliche Entscheidung steht zu diesem Zeitpunkt noch aus. Der EuGH vermied es, in der Rechtssache „Planet 49“ hierzu konkret Stellung zu beziehen, da das vorlegende Gericht die Thematik des Kopplungsverbots nicht vorgelegt hatte und der EuGH die Problematik unter diesen Gesichtspunkten nicht zu prüfen hatte.551 Der EuGH hätte in einer höchstrichterlichen Rechtsprechung Klarheit darüber schaffen können, ob er auch im Hinblick auf die DS-GVO an seiner bisherigen lauterkeitsrechtlichen Rechtsprechung festhält, nach welcher ein Kopplungsverbot lauterkeitsrechtlich nicht in Art. 5 Abs. 2 der Richtlinie über unlautere Geschäftspraktiken (RL 2005/29/EG) vorgesehen sei und auf Grund der Harmonisierung nicht im Recht der Mitgliedsstaaten erlassen werden dürfe552, oder nun vielmehr ein absolutes datenschutzrechtliches Kopplungsverbot existiert. Für die Betreiber von Sprachassistenten verbleibt somit derzeit eine Ungewissheit, ob eine Einwilligung – sei sie bei Big-Data-Anwendungen überhaupt denkbar – in Hinsicht auf das Kopplungsverbot eine rechtssichere Alternative bietet; dies umso mehr, als für eine mögliche Unfreiwilligkeit der Einwilligung oftmals eine Monopolstellung und erdrückende Wirtschaftsmacht des Betreibers streiten wird.553 Heckmann / Paschke verweisen hierbei richtigerweise darauf, dass im Falle einer Unwirksamkeit der Einwilligung ein Rückgriff auf andere Rechtfertigungstatbestände des Art. 6 Abs. 1 DS-GVO verbleibt (vgl. hierzu S. 149).554 ee) Folgen einer fehlerhaften Einwilligung Fehlen die Voraussetzungen einer wirksamen Einwilligung des Betroffenen ist umstritten, ob unter diesen Bedingungen ein Rückgriff auf die anderen Rechtfertigungstatbestände des Art. 6 Abs. 1 DS-GVO erfolgen darf oder die Verarbeitung

549

ÖOGH Urt. v. 31. 8. 2018 – 6 Ob 140/18h, ZD 2019, 72 (73) Rz. 43. ÖOGH Urt. v. 31. 8. 2018 – 6 Ob 140/18h, ZD 2019, 72 (73) Rz. 73. 551 EuGH Urt. v. 1. 10. 2019 – C-673/17, MMR 2019, 732 (735) – Planet 49 Rz. 64. 552 EuGH Urt. v. 14. 1. 2010 – C-304/08, GRUR 2010, 244 – Warenhandelsgesellschaft. 553 Gierschmann, ZD 2016, 51 (54). 554 Ehmann / Selmayer / Heckmann / Paschke, Art. 7 DS-GVO Rn. 100. 550

150

Kap. 5: Rechtliche Problemstellungen

bereits auf Grund dessen rechtswidrig ist. Die Datenschutzkonferenz555 ist der Auffassung, dass ein Rückgriff im Rahmen der Datenverarbeitung auf eine andere Rechtsgrundlage die Grundsätze der Fairness und Transparenz (Art. 5 Abs. 1 lit. a) DS-GVO) verletzt und ein willkürliches Wechseln zwischen Einwilligung und anderen Rechtsgrundlagen folglich ausgeschlossen ist;556 eine jede fehlerhafte Einwilligung hätte hiernach zwingend die Rechtswidrigkeit der Verarbeitung zur Folge. Gegen eine solch restriktive Aussage spricht die Rechtsprechung des EuGH noch bezüglich der Datenschutzrichtlinie, in welcher er eine Rechtfertigung der Verarbeitung auf mehrere Zulässigkeitsgründe stützt557 und diese gerade nicht in einem Ausschlussverhältnis zueinander sieht.558 Dieser Auffassung scheint auch die Literatur zu folgen, die auf Grund der Gleichrangigkeit der gesetzlichen Erlaubnistatbestände eine simultane Anwendbarkeit mehrerer Tatbestände auch aus Gründen der Rechtssicherheit für den Verantwortlichen als zulässig erachten.559 Dies ist auch zielführend, ansonsten müsste der Betreiber eines Sprachassistenten die Verarbeitungsszenarien, welche er auf eine andere gesetzliche Erlaubnis stützen kann, explizit aus der Einwilligung ausnehmen, um im Falle einer Unwirksamkeit Bußgelder zu vermeiden; dies hätte für die Verständlichkeit und Lesbarkeit der Einwilligung für den Betroffenen negative Konsequenzen und stellt nach Schafft / Ruoff eher einen verwirrenden Formalismus als tatsächliche Hilfe dar.560 Allenfalls könnte Buchner / Kühling dahingehend gefolgt werden, dass ein Berufen auf einen anderweitigen Rechtfertigungsgrund einen Hinweis auf einen solchen Rückgriff in der Einwilligungserklärung bedarf, um dem Betroffenen keine Entscheidungsmacht zu suggerieren, wo er objektiv keine besitzt.561 Ein weiteres Indiz für die Anwendbarkeit der anderen Erlaubnistatbestände liefert überdies der Wortlaut der DS-GVO selbst. So besteht nach Art. 17 Abs. 1 lit. b) DS-GVO eine Löschpflicht des Verantwortlichen bei Widerruf seiner Einwilligung nur dann, wenn es an einer anderweitigen Rechtsgrundlage für die Verarbeitung fehlt.562 Es wäre unverständlich, eine fehlerhafte Einwilligung, die nicht automatisch einen der Verarbeitung entgegenstehenden Willen des Betroffenen bezeugt, strikter zu behandeln als der Widerruf einer Einwilligung, mit welchem der Betroffene letztverbindlich zu verstehen gibt, dass ihm an einer weiteren Verarbeitung nicht gelegen ist. Auch nach Rechtsprechung des BVerfG – verdeutlichend herangezogen – geht das Recht auf informationelle Selbstbestimmung nicht so weit, dass der 555 Hierbei handelt es sich um das Gremium der unabhängigen deutschen Datenschutz­ behörden des Bundes und der Länder. 556 Datenschutzkonferenz, Kurzpapier Nr. 20, Einwilligung nach der DS-GVO, 2019, S. 3. 557 EuGH Urt. v. 9. 3. 2017 – C-398/15, BB 2017, 652 (654) – Manni Rz. 42 f. 558 Veil, NJW 2018, 3337 (3342). 559 Simitis / Hornung / Spiecker genannt Döhmann / Klement, Art. 7 DS-GVO Rn. 34; Kühling / Buchner / Buchner / Kühling, Art. 7 DS-GVO Rn. 17. 560 Schafft / Ruoff, CR 2006, 499 (503). 561 Kühling / Buchner / Buchner / Kühling, Art. 7 DS-GVO Rn. 18. 562 Simitis / Hornung / Spiecker genannt Döhmann / Klement, Art. 7 DS-GVO Rn. 34; Veil, NJW 2018, 3337 (3342).

C. Kommunikation mit Sprachassistenten

151

Betroffene ein Recht im Sinne einer absoluten, uneinschränkbaren Herrschaft über seine Daten hat, sondern sich seine Persönlichkeit im Rahmen der Bedingungen der sozialen Gemeinschaft entfalten kann.563 Eine unwirksame Einwilligung würde es bei fehlender Rückgriffsmöglichkeit dem Einzelnen ermöglichen, sich über die, im übrigen DS-GVO konformen, Interessen des Verantwortlichen hinwegzusetzen. Dies scheint – auch im Hinblick auf eine mögliche Beeinträchtigung der Transparenz – nicht hinnehmbar. b) Vertragserfüllung, Art. 6 Abs. 1 lit. b) DS-GVO Scheitert die Möglichkeit einer informierten und freiwilligen Einwilligung von Beginn an oder stellt sich eine erteilte Einwilligung im Nachhinein als rechtswidrig heraus, verbleibt dem Betreiber des Sprachassistenten eine rechtmäßige Verarbeitung der Daten auf Grund der Erfüllung des mit dem Verwender geschlossenen Vertrages. Nach Art.6 Abs. 1 lit. b) DS-GVO ist eine Verarbeitung personenbezogener Daten rechtmäßig, wenn diese für die Erfüllung eines Vertrages, dessen Vertragspartei die betroffene Person ist, oder zur Durchführung vertraglicher Maßnahmen erforderlich ist, die auf Anfrage der betroffenen Person erfolgt. Die Zulassung einer solchen Verarbeitung ist mit dem Rechtsgedanken der informationellen Selbstbestimmung zu vereinbaren, da der Verwender des Assistenten freiwillig und autonom ein Vertragsverhältnis mit dem Betreiber vor Beginn der Verarbeitung eingegangen ist.564 Dies zeigt bereits, dass eine Rechtfertigung der Datenverarbeitung Dritter – sei es auf Grund bewusster Aktivierung des Assistenten durch diese oder im Wege der Aufnahme von Umgebungsgeräuschen – nicht nach Art. 6 Abs. 1 lit. b) DS-GVO gerechtfertigt werden kann, da diese Personen nicht Partei des betroffenen Vertragsverhältnisses sind.565 Neben der direkten Erhebung der personenbezogenen Daten durch den Sprachassistenten fallen auch jene Daten Dritter, die der Verwender eigenständig dem System zur Verfügung stellt, nicht unter den Rechtfertigungsgrund der Vertragserfüllung. Dies gilt selbst dann, wenn die Handlungen des Verwenders drittbegünstigende Wirkung aufweisen (z. B. eine Überweisung, die der Assistent auf Anweisung des Verwenders durchführt).566 Die vorgenommene Verarbeitung muss dem Zweck der Vertragserfüllung dienen. Dies setzt voraus, dass der Vertrag ohne diese Verarbeitung nicht so erfüllt werden könnte, wie die Parteien es zuvor vereinbart haben, wobei sich eine konkrete Bestimmung des Umfangs der nötigen Verarbeitung immer aus einer umfassenden Abwägung der gegenseitigen Interessen ergeben muss.567 Für einen 563

BVerfG Urt. v. 15. 12. 1983 – 1 BvR 209/83 u. a., NJW 1984, 419 (422) – Volkszählungsurteil. 564 Kühling / Buchner / Buchner / Petri, Art. 6 DS-GVO Rn. 26. 565 Steege, MMR 2019, 509 (511); Nugel, ZD 2019, 341 (344). 566 Simitis / Hornung / Spiecker genannt Döhmann / Schantz, Art. 6 Abs. 1 DS-GVO Rn. 20. 567 BeckOK DatenschutzR / Albers / Veit, Art. 6 DS-GVO Rn. 32.

152

Kap. 5: Rechtliche Problemstellungen

Sprachassistenten bedeutet dies, dass für die Funktionalität des Assistenten eine dauerhafte Aufnahmebereitschaft des Geräts unter Umständen Voraussetzung der Vertragserfüllung ist, diese so aufgenommen Daten aber nicht zwangsläufig zur Verbesserung der Algorithmen auch an den Betreiber übersendet werden dürfen.568 Becker schlägt vor, zur Stärkung des Datenschutzes sog. „datenerhebungsfreie Produkte“ einzuführen, welche die Erlaubnistatbestände der DS-GVO derart beschränken, dass eine einwilligungslose Verarbeitung bei Produkten mit umfänglichen funktional bedingten Datenerhebungen – worunter Sprachassistenten zu zählen sind – nur auf Grund eines anonymen Vertragsverhältnisses möglich wäre.569 Klingt diese Idee auf den ersten Blick sehr verlockend bleibt, sie hinter der Wirklichkeit dennoch zurück. Nicht die personenbezogenen Daten des Vertragsverhältnisses selbst sind bei der dauerhaften Datenerfassung eines Sprachassistenten problematisch. Die überwiegende Zahl (sensibler) personenbezogener Daten wird während des laufenden Betriebs anfallen. Solange eine Verarbeitung dieser Daten nicht nur auf dem Endgerät des Verwenders stattfinden kann, sondern zwingend auf den rechenleistungsstarken Servern des Betreibers, ist eine Übersendung personenbezogener Daten für die Funktionalität des Gerätes wohl auch auf absehbare Zeit unerlässlich. Die Vorstellung eines komplett auf Anonymisierung – sofern es eine solche im Rahmen von Big-Data-Anwendungen noch geben kann – basierenden Sprachassistenten wird wohl erst einmal nur ein gedankliches Experiment bzw. theoretisches Modell verbleiben. c) Wahrung berechtigter Interessen, Art. 6 Abs. 1 lit. f) DS-GVO Neben der Einwilligung ist in privatrechtlichen Rechtsverhältnissen in der Regel die Verarbeitung zur Wahrung berechtigter Interessen des Verantwortlichen nach Art. 6 Abs. 1 lit. f) DS-GVO von zentraler Bedeutung570 und ist von seiner Natur her ein Auffangtatbestand.571 Dies setzt zuvorderst voraus, dass die zu verarbeitenden Daten richtig sind und rechtmäßig nach Treu und Glauben erhoben worden sind.572 Für Betreiber von Sprachassistenten stellt sich die Frage, ob dieser Erlaubnistatbestand das Speichern der Daten in Datencontainern rechtfertigt, um diese dann entweder selbst oder durch Einbindung von Dritten zur Verbesserung der Algorithmen heranzuziehen, da eine solche Verarbeitung in der Regel außerhalb des eigentlichen Vertragsverhältnisses bzw. -erfüllung liegen wird.573 Eine solche ist nach 568

Simitis / Hornung / Spiecker genannt Döhmann / Schantz, Art. 6 Abs. 1 DS-GVO Rn. 27. Becker, JZ 2017, 170 (177). 570 Wendehorst / Westphalen, NJW 2016, 3745 (3746). 571 Schwartmann / Jaspers / T hüsing / Kugelmann / Schwartmann / Klein, Art. 6 Abs. 1 lit.f DSGVO Rn. 109. 572 Däubler / Wedde / Weichert / Sommer / Wedde, Art. 6 DS-GVO Rn. 90. 573 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 38. 569

C. Kommunikation mit Sprachassistenten

153

dem Wortlaut der DS-GVO dann zulässig, wenn die Verarbeitung zur Wahrung der berechtigten Interessen des Verantwortlichen oder eines Dritten erforderlich ist, sofern nicht die Interessen oder Grundrechte und Grundfreiheiten der betroffenen Person, die den Schutz personenbezogener Daten erfordern, überwiegen. Dieser Tatbestand ist äußerst vage gehalten und enthält zahlreiche unbestimmte Rechtsbegriffe, welche vor einer Anwendung einer Auslegung durch den Verantwortlichen bedürfen.574 Im Zuge dieser Abwägung des Verantwortlichen sind die jeweiligen einander gegenüberstehenden Rechte und Interessen einzustellen, welche grundsätzlich von den konkreten Umständen des betreffenden Einzelfalls abhängen. Der Verantwortliche hat insbesondere die sich aus Art. 7 und 8 GRCh ergebenden Rechte der betroffenen Personen zu berücksichtigen.575 Der EuGH akzeptiert somit generell eine gewisse Rechtsunsicherheit des Wortlauts und verzichtet auf die Vorgabe konkreter Abwägungskriterien,576 um den verschiedenen Verarbeitungsszenarien und Anwendungsbereichen gerecht zu werden. Insbesondere dann, wenn personenbezogene Daten in Situationen verarbeitet werden, in denen eine betroffene Person vernünftigerweise nicht mit einer weiteren Verarbeitung rechnen muss, könnten die Interessen und Grundrechte der betroffenen Person das Interesse des Verantwortlichen überwiegen.577 Konkrete Verarbeitungsverhältnisse, die im Interesse des Betreibers stehen, benennt die DS-GVO nur in den Erwägungsgründen 47 und 49. Danach ist als berechtigtes Interesse zum einen eine Verbesserung der Algorithmen zur Abwehr von Betrugsversuchen,578 in Einzelfällen zum Zwecke der Direktwerbung,579 sowie die Verarbeitung von personenbezogenen Daten durch Behörden, Computer-Notdienste (Computer Emergency Response Teams – CERT, beziehungsweise Computer Security Incident Response Teams – CSIRT), Betreiber von elektronischen Kommunikationsnetzen und -diensten sowie durch Anbieter von Sicherheitstechnologien und -diensten, sofern dies für die Gewährleistung der Netz- und Informationssicherheit unbedingt notwendig und verhältnismäßig ist, anerkannt.580 Der Betreiber eines Sprachassistenten kann folglich durchaus ein Interesse daran haben, den Sprachassistenten durch Weiterentwicklung der Software gegenüber Angriffen Dritter, die die Integrität, Vertraulichkeit und Verfügbarkeit beeinträchtigen können, zu verbessern und so die Verbreitung schädlicher Programmcodes zu verhindern und die Unterbindung von Angriffen (beispielsweise Denial of Service (DoS)- Angriffen) voran zu treiben.581 Überdies scheint ein Interesse des Herstellers 574

Voigt / Bussche, EU-Datenschutz-Grundverordnung, S. 132. EuGH Urt. v. 24. 11. 2011  – C-468 und C-469/10, EuZW 2012, 37 (39 f.)  – ASNEF /  FECEMD Rz. 40. 576 Spindler / Fabian Schuster / Spindler / Dalby, Art. 6 DS-GVO Rn. 14. 577 Erwg. 47 S. 4 der DS-GVO. 578 Erwg. 47 S. 6 der DS-GVO. 579 Erwg. 47 S. 7 der DS-GVO. 580 Erwg. 49 S. 1 der DS-GVO. 581 Voigt / Bussche, EU-Datenschutz-Grundverordnung, S. 133. 575

154

Kap. 5: Rechtliche Problemstellungen

an der Verarbeitung der Gebrauchsdaten auf Grund seiner durch die erweiterten Produktbeobachtungspflichten (vgl. hierzu S. 107) zunehmenden Haftungs­ gefahren durchaus legitim.582 Eine generelle Erlaubnis der Speicherung und Auswertung der Daten kann jedoch auch zu diesen Zwecken nicht auf Art. 6 Abs. 1 lit. f) DS-GVO gestützt werden. Es bietet sich ein Rückgriff auf die Rechtsprechung des BGH zu Dash-Cams583 an. Der BGH lehnt, auch im Hinblick auf den Einsatz in der Öffentlichkeit, diesbezüglich eine permanente und anlasslose Aufzeichnung des gesamten Geschehens entlang der Fahrstrecke im Zuge der Abwägung der Rechte und Interessen der Betroffenen und des Aufnahmenerstellers ab.584 Ähnliches muss für Sprachassistenten gelten, die in der Öffentlichkeit eingesetzt werden und Daten Dritter erfassen, die in keinem Vertragsverhältnis mit dem Betreiber stehen und nicht mit einer Verarbeitung rechnen müssen und dürfen. Darüber kann auch die – in der DS-GVO nicht direkt verankerte585 – Sphärentheorie des BVerfG, nach welcher die Interessen der Betroffenen weniger Gewicht erhalten, wenn sich der Sachverhalt in der Öffentlichkeit abgespielt hat,586 nicht hinweghelfen, da ein unbeteiligter Dritter selbst in der Öffentlichkeit nicht damit rechnen muss, dass seine personenbezogenen Daten durch eine Big-Data-Anwendung ausgewertet werden. Umso mehr gilt jenes für Informationen aus dem hochsensiblen Bereich der Intimsphäre des Verwenders, die Rückschlüsse auf die Lebensgewohnheiten und Aufenthaltsorte – z. B. Arztbesuche – zulassen.587 Die Art.-29-Datenschutzgruppe warnt im Zusammenhang mit IoT-Geräten davor, dass die Erfassung des genauen und vollständigen Lebens einer Person bei dieser einen Druck auslösen könnte, selbst im privaten und eigentlich geschützten Bereich, aus Angst vor Überwachung, gewisse Verhaltensmuster, welche ihrer Auffassung nach als für Dritte ungewöhnlich wirken könnten, zu vermeiden.588 Ein solch bewusstes Verhalten und Reaktion auf gefühlte Überwachung ist hingegen nicht entscheidend, um eine Aushöhlung der Privatheit durch die Hintertüre der Generalklausel des Art. 6 Abs. 1 lit. f) DSGVO zu möglicherweise überwiegend fiskalischen Interessen der Betreiber zuzulassen. Durch die Vernetzung smarter Heimgeräte mit dem Sprachassistenten können Informationen aus Geräten – beispielsweise Thermostaten – übermittelt werden, mit deren Kommunikationsmöglichkeiten der durchschnittliche Nutzer 582

Bodungen, in: Specht / Mantz (Hrsg.), Handbuch Europäisches und deutsches Datenschutzrecht, 1–60 (39). 583 Hierbei handelt es sich um eine Onboard-Kamera in Fahrzeugen, die dazu genutzt wird das Verkehrsgeschehen aufzuzeichnen, um im Falle eines Unfalls als mögliches Beweismittel herangezogen zu werden. 584 BGH Urt. v. 15. 5. 2018 – VI ZR 233/17, NJW 2018, 2883 (2885) Rz. 19. 585 Gierschmann / Schlender / Stentzel / Veil / Assion / J. Nolte / Veil, Art. 6 DS-GVO Rn. 142. 586 BVerfG Urt. v. 15. 12. 1999 – 1 BvR 653/96, NJW 2000, 1021 (1025) – Caroline von Monaco II. 587 Klink-Straub / Straub, NJW 2018, 3201 (3204). 588 Artikel-29-Datenschutzgruppe, WP 223 1471/14/DE 2014 (9).

C. Kommunikation mit Sprachassistenten

155

oftmals nicht rechnen bzw. diese Tatsache nicht im präsenten Alltagswissen vorhalten wird.589 Schantz ist zuzustimmen, dass für die Verarbeitung solcher Daten gewichtige Gründe seitens des Verantwortlichen vorgebracht werden müssen, die über ein rein wirtschaftliches Motiv hinausgehen,590 da auf Grund einer potentiellen Schwere des Eingriffs die Interessen und Grundrechte aus Art. 7 und 8 GRCh der betroffenen Personen als gewichtige Güter in die Abwägung einzustellen sind.591 Diese Einschränkung dürfte es für den Betreiber faktisch unmöglich machen, entscheiden zu können, ob eine jeweilige Datenverarbeitung unter Beibehaltung des Personenbezuges zur Weiterentwicklung der Software nach Art. 6 Abs. 1 lit. f) DS-GVO gerechtfertigt ist. Oftmals sollten ohnehin für die Zwecke der Erhöhung der Sicherheit anonymisierte oder pseudonymisierte Daten ausreichend sein,592 was eine Datenverarbeitung personenbezogener Daten weiterhin im Rahmen der Abwägung unverhältnismäßig machen würde. Als vergleichbare Norm kann auf die nationale Regelung des § 63a Abs. 5 StVG verwiesen werden. Diese sieht vor, dass im Falle eines Haftungsereignisses Betriebsdaten eines autonomen Autos in anonymisierter Form zur Unfallforschung an Dritte herausgegeben werden dürfen. Der gesetzgeberische Wille deute folglich darauf hin, dass er einen Personenbezug von Daten zu Zwecken der Forschung und Weiterentwicklung nicht als zwingende Voraussetzung erachtet. d) Zwischenfazit Da das Datenschutzrecht ein Verbot mit Erlaubnisvorbehalt vorsieht, ist eine Verarbeitung grundsätzlich verboten, sofern der Betroffene nicht in die Verarbeitung einwilligt oder ein anderer gesetzlicher Ermächtigungstatbestand greift.593 Für die Verarbeitung der Daten des Benutzers eines Sprachassistenten im Rahmen der Beantwortung von Fragen und anderen Eingaben des Benutzers kann sich der Betreiber des Assistenten in der Regel auf den Ermächtigungstatbestand der Vertragserfüllung des Art. 6 Abs. 1 lit. b) DS-GVO berufen. Sofern die Daten im Nachgang der eigentlichen Vertragserfüllung im Rahmen von Big-Data-Analysen und anderen Prozessen zur Optimierung der Algorithmen Verwendung finden sollen, wird dies in aller Regel über die reine Vertragserfüllung hinausgehen. Eine Verarbeitung auf Grund eines berechtigten Interesses gem. Art. 6 Abs. 1 lit. f) DS-GVO scheitert in der Regel, von engen Ausnahmen wie der Abwehr von Betrugsversuchen abgesehen, an der vorzunehmenden Interessenab 589 Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt, White Paper, Das versteckte Internet, 2015, S. 8. 590 Simitis / Hornung / Spiecker genannt Döhmann / Schantz, Art. 6 Abs. 1 DS-GVO Rn. 121. 591 EuGH Urt. v. 13. 5. 2014 – C-131/12, ZD 2014, 350 (357) – Recht auf Vergessen Rz. 81. 592 Klink-Straub / Straub, NJW 2018, 3201 (3204). 593 Leeb / Liebhaber, JuS 2018, 534 (536).

156

Kap. 5: Rechtliche Problemstellungen

wägung zwischen den Interessen des Betreibers an einer Verbesserung der Algorithmen auf der einen und dem Interesse des Verwenders des Sprachassistenten auf den Schutz personenbezogener Daten gem. Art. 8 GRCh auf der anderen Seite. Dies umso mehr, da das Interesse an der Weiterentwicklung der Algorithmen in der Regel nur dem Interesse des verantwortlichen Betreibers dient und nicht gleichzeitig der Allgemeinheit zugutekommt.594 Für die Verarbeitung der nicht anonymisierten Daten des Benutzers im Rahmen von Big-Data-Analysen verbleibt in der Regel nur der Rückgriff auf eine informierte, selbstbestimmte und freiwillige Einwilligung des Benutzers. Im Rahmen der nachgelagerten Verwertung der Daten von Sprachassistenten ist zum einen zu beachten, dass es sich in vielen Fällen um besondere Kategorien personenbezogener Daten nach Art. 9 DS-GVO handelt und eine Bestimmung des Verarbeitungszwecks, was für eine wirksame Einwilligung essentiell ist, für Big-Data-Analysen nicht trennscharf gegeben werden kann. Eine wirksame Einwilligung des Benutzers wird in der Regel daran scheitern, dass er nicht vor Beginn der Datenverarbeitung über die konkrete Form der vielzahligen Datenverarbeitungen im Rahmen von Big-Data-Analysen ausdrücklich informiert werden kann und es schwerlich denkbar ist, ihm die Möglichkeit einzuräumen, in die spezifischen Formen der Datenverarbeitung jeweils spezifisch einzuwilligen.595 6. Pflichten des Verantwortlichen Im Rahmen seiner Rechenschaftspflicht ist der Verantwortliche gehalten, die Einhaltung der in Art. 5 Abs. 1 DS-GVO postulierten Datenschutzgrundsätze nachweisen zu können, Art. 5 Abs. 2 DS-GVO. Gerade bei der Verarbeitung von personenbezogenen Daten mittels KI-gestützten Sprachassistenten können die Grundsätze der Transparenz (Abs. 1 lit. a Alt. 3)), Zweckbindung (Abs. 1 lit. b)) sowie Datenminimierung (Abs. 1 lit. c)) gesteigerte Aufmerksamkeit bedingen. Die genaue Natur dieser Grundsätze ist in der Literatur bisher umstritten. Während einige die Konkretisierungsbedürftigkeit der aufgestellten Grundsätze kritisieren, welche aus diesem Grund nicht zweifelsfrei vollzogen und sanktioniert werden können596 und in diesen weniger eine feststehende Begrifflichkeit sondern Optimierungsgebote597 erblicken, gehen andere davon aus, dass es sich um verbind­liche Grundpflichten handelt, deren Verwirklichung verpflichtend ist und nicht nur seitens des Verantwortlichen bestmöglich angestrebt werden muss.598 Nicht von der 594 Datenschutzkonferenz, Orientierungshilfe der Aufsichtsbehörden für Anbieter von Telemedien, 2019, S. 14. 595 Datenschutzkonferenz, Orientierungshilfe der Aufsichtsbehörden für Anbieter von Telemedien, 2019, S. 8. 596 Simitis / Hornung / Spiecker genannt Döhmann / Roßnagel, Art. 5 DS-GVO Rn. 22. 597 Paal / Pauly / Frenzel, Art. 5 DS-GVO Rn. 9. 598 BeckOK DatenschutzR / Schantz, Art. 5 DS-GVO Rn. 2.

C. Kommunikation mit Sprachassistenten

157

Hand zu weisen ist, dass eine einzelfallspezifische Bewertung nicht anhand der Grundsätze der DS-GVO seitens des Verantwortlichen zu treffen sein wird; die DS-GVO bedarf auch nach einiger Zeit ihrer Geltungserlangung weiterer Klärung durch die Datenschutzaufsichtsbehörden sowie der Rechtsprechung, um den sich wandelnden technischen Anforderungen gerecht zu werden.599 Da ein Verstoß gegen die Grundsätze jedoch gem. Art. 83 Abs. 5 lit. a) DS-GVO bußgeldbewehrt ist, sollte die Einhaltung der Anforderungen bereits vor einer themenspezifischen Klärung seitens der Datenschutzbehörden angestrebt werden. a) Grundsatz der Transparenz nach Art. 5 Abs. 1 lit. a) Alt. 3 DS-GVO Der Grundsatz der Transparenz betrifft nicht nur die sekundärrechtlichen Informationsansprüche des Betroffenen, sondern ist viel mehr primärrechtlich in Art. 8 Abs. 2 GRCh verankert.600 Auch das BVerfG hat sich über die Wichtigkeit der Transparenz bereits in seinem Volkszählungsurteil eingelassen. Wer nicht mit hinreichender Sicherheit überschauen kann, welche ihn betreffenden Informationen in bestimmten Bereichen seiner sozialen Umwelt bekannt sind, und wer das Wissen möglicher Kommunikationspartner nicht einigermaßen abzuschätzen vermag, kann in seiner Freiheit wesentlich gehemmt werden, aus eigener Selbstbestimmung zu planen oder zu entscheiden. Mit dem Recht auf informationelle Selbstbestimmung wären eine Gesellschaftsordnung und eine diese ermöglichende Rechtsordnung nach BVerfG nicht vereinbar, in der Bürger nicht mehr wissen können, wer was wann und bei welcher Gelegenheit über sie weiß.601 Im Hinblick auf die Funktionsweise einer Künstlichen Intelligenz muss dem Merkmal der Transparenz gesteigerte Aufmerksamkeit geschenkt werden. Werden personenbezogene Daten beispielsweise für Big-Data-Analysen eingesetzt, muss die betroffene Person hierüber und über die jeweiligen Funktionsweisen hinreichend informiert werden bzw. ihre Auskunftsrechte nach Art. 13 f. DS-GVO ausüben können.602 Eine der wesentlichen Herausforderungen ist es, die analytischen Verfahren und komplexen Vorgänge einer Künstlichen Intelligenz, sofern dies bei BigData-Anwendungen überhaupt denkbar ist,603 für den die Datenschutzhinweise entwerfenden Juristen604 und nachfolgenden für den technischen Laien verständlich zu beschreiben, um dem laienhaften Betroffenen zu ermöglichen, eine Bewertung der Vorgänge und Abschätzung möglicher Gefahren für seine Rechte vorzunehmen.605 599

Kühling / Martini, EuZW 2016, 448 (449). Simitis / Hornung / Spiecker genannt Döhmann / Roßnagel, Art. 5 DS-GVO Rn. 49. 601 BVerfG Urt. v. 15. 12. 1983 – 1 BvR 209/83 u. a., NJW 1984, 419 (422) – Volkszählungsurteil. 602 Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (529). 603 Gausling, PinG 2019, 61 (65). 604 Heckmann, in: Kusche / Valerius (Hrsg.), Festgabe Forschungsstelle RobotRecht, 45 (48). 605 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 134. 600

158

Kap. 5: Rechtliche Problemstellungen

Gerade Neuronale Netze eignen sich auf Grund ihrer guten Skalierbarkeit mit größeren Datenmengen zwar für einen Einsatz in Sprachassistenten und dem Maschinellen Lernen, lassen sich jedoch äußerst schlecht von außen interpretieren.606 Diese Black-Box einer Künstlichen Intelligenz gilt es folglich auf technischem Wege zu überwinden. Hierfür gibt es bereits erste konzeptuelle Ansätze. In einer Studie hebt PwC drei wesentliche Elemente – Explainability, Transparency und Provability – der Verständlichkeit hervor. Explainability soll es dem Verwender ermöglichen, die Argumentation hinter jeder Entscheidung zu verstehen, Transparancy die Entscheidungsfindung einer KI offenlegen und Provability die mathematische Beweisbarkeit abbilden.607 Auch die Bundesregierung fordert in einem an Künstliche Intelligenz angepassten Ordnungsrahmen eine Sicherstellung von Transparenz, Nachvollziehbarkeit und Überprüfbarkeit von KI-Systemen, um das berechtigte Vertrauen der Nutzer zu stärken.608 Sowohl der Ansatz von PwC als auch der Bundesregierung sind in ihren Grundzügen erkennbar vergleichbar. Fraglich ist, wie weitgehend der Betreiber eines intelligenten Systems nun tatsächlich einen Einblick gewähren muss. b) Grundsatz der Überprüfbarkeit Um ein System der Künstlichen Intelligenz bzw. dessen Neuronale Netze mathematisch überprüfen zu können, wäre es notwendig, die hinter dem Neuronalen Netz stehenden Funktionen (vgl. zur Funktionsweise eines Neuronalen Netzes S. 50 ff.) zu kennen. Eine Offenlegung des vollständigen Algorithmus wäre notwendig. Zur alten Rechtslage des Auskunftsanspruchs aus § 34 BDSG a. F. herrschte sowohl in der Literatur als auch der Rechtsprechung des BGH überwiegend die Auffassung vor, dass zumindest in Bezug auf Auskunfteien die von diesen verwendete Scoreformel, mithin der hinter einer Berechnung liegende abstrakte Algorithmus, selbst nicht mitzuteilen war.609 Eine Nachvollziehbarkeit sollte nach altem Recht bereits dann vorliegen, wenn der Betroffene aus einem logischen Rückschluss aus den mitgeteilten Informationen erkennen kann, wie die Bewertung eines Systems zustande gekommen ist und welche seiner personenbezogenen Daten worauf Einfluss genommen haben.610 Regelungen zu den Informationspflichten nach der DS-GVO hält diese in den Artt. 12 ff. DS-GVO vor. Hiernach hat der für die Verarbeitung Verantwortliche 606

Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018, S. 12. 607 PwC, 2018 AI predictions, 8 insights to shape business strategy, 2018, S. 17. 608 Bundesregierung Deutschland, Eckpunkte der Bundesregierung für eine Strategie Künstliche Intelligenz, 2018, S. 10. 609 BGH Urt. v. 28. 1. 2014 – VI ZR 156/13, NJW 2014, 1235 (1237) – Scorewerte Rz. 23; OLG Nürnberg Urt. v. 30. 10. 2012 – 3 U 2362/11, ZD 2013, 26 (27); Heinemann / Wäßle, MMR 2010, 600 (602); Metz, VuR 2009, 403 (406); Pauly / Ritzer, WM 2010, 8 (12). 610 Heinemann / Wäßle, MMR 2010, 600 (602).

C. Kommunikation mit Sprachassistenten

159

grundsätzlich geeignete Maßnahmen zu treffen, um der von der Verarbeitung betroffenen Person alle nach diesen Artikeln notwendigen Informationen in präziser, transparenter, verständlicher und leicht zugänglicher Form in klarer und einfacher Sprache zu übermitteln, Art. 12 Abs. 1 S. 1 DS-GVO. Im Rahmen der Entscheidungsfindung Künstlicher Intelligenzen wird oftmals das Phänomen einer automatischen Entscheidungsfindung an Relevanz gewinnen. Gemäß Artt. 13 Abs. 2 lit. f), 14 Abs. 2 lit. g) und 15 Abs. 1 lit. h) DS-GVO hat der Verantwortliche im Zuge seiner Informationspflicht über das Bestehen einer automatisierten Entscheidungsfindung aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen einer solchen Verarbeitung für die betroffene Person zu informieren. Kann er dies nicht erfüllen, hat bereits der Betrieb eines derartigen Systems bzw. Verfahrens zu unterbleiben, da eine Rechtskonformität abzulehnen ist.611 Hier können Betreiber von Sprachassistenten an die Grenzen des Möglichen stoßen, da der Einzelne oftmals nicht in der Lage sein wird, schwierige technische Zusammenhänge zu verstehen und die Informationsasymmetrie zwischen Entwickler, Betreiber und Verwender erhöhen.612 Eine Preisgabe des Quellcodes selbst würde nicht nur den Anforderungen an eine verständliche Information des Betroffenen zuwiderlaufen, sie ist auch nicht durch den Wortlaut der DS-GVO gedeckt, welche Informationen „über die involvierte Logik“ und nicht die Logik (hierunter ist der Algorithmus zu verstehen) selbst verlangt.613 Nicht nur widerspricht der Wortlaut einem so weitreichenden Einschnitt in die unternehmerischen Rechte, auch Aspekte der Sicherheit der personenbezogenen Daten verbieten die Preisgabe des Algorithmus selbst. Müsste der Betreiber den Algorithmus in Gänze offenlegen, könnte ein einfacher Auskunftsanspruch Nutzern die Möglichkeiten an die Hand geben, die seitens des Betreibers vorgesehenen Schutzmechanismen zu umgehen614 und als Folge ein Weniger an generellem Datenschutz für die restlichen Nutzer zu Gunsten des Auskunftsanspruchs eines Einzelnen bzw. einer kleineren Nutzergruppe bewirken. Es müsste, sollte der Wortlaut der DS-GVO nicht bereits wie hier vertreten, eine Preisgabe nicht verlangen, der Informationsanspruch dahingehend teleologisch reduziert werden. Lässt sich eine Informierung der Betroffenen durch eine steigende Anzahl von intelligenten Produkten seitens der Hersteller ohne Preisgabe zu sensibler Algorithmen in Zukunft möglicherweise nicht mehr realisieren, wäre es überdies dem technischen Fortschritt nicht zuträglich, aus rein datenschutzrechtlichen Gesichtspunkten eine Weiterentwicklung der digitalen Strukturen zu unterbinden. Da die DS-GVO Künstliche Intelligenz und Big Data nur an wenigen Stellen – z. B. im Rahmen automatisierter Entscheidungsfindungen – berücksichtigt, ist anzunehmen, dass der europäische Gesetzgeber bei der Ausarbeitung der Regelungen selbstlernende 611

Simitis / Hornung / Spiecker genannt Döhmann / Dix, Art. 13 DS-GVO Rn. 16. Article 19, Privacy and Freedom of Expression, In the Age of Artificial Intelligence, 2018, S. 26. 613 A. Schmid, jurisPR-ITR 2018, Anm. 2; Martini / D. Nink, NVwZ 2017, 681 (682). 614 Martini / D. Nink, NVwZ 2017, 681 (682). 612

160

Kap. 5: Rechtliche Problemstellungen

Neuronale Netze noch nicht im Blick hatte und sich auf bekannte Phänomene wie soziale Netzwerke und das Cloud Computing fokussierte.615 Denkbar wäre in einer zukünftigen Anpassung der DS-GVO eine Herausgabepflicht der Algorithmen an eine zertifizierte und unabhängige (staatliche) Einrichtung, welche die datenschutzrechtliche Konformität prüft und diesen Positiv- oder Negativbescheid dem Betroffenen mitteilt. c) Datenminimierung / Datensparsamkeit, Art. 5 Abs. 1 lit. c) DS-GVO Die vorgenannte Nachvollziehbarkeit und Transparenz kollidiert jedoch mit einem weiteren Grundsatz des Datenschutzrechts. Eine vollständige Nachvollziehbarkeit würde es bedingen, dass sämtliche zur Verarbeitung verwendeten Daten zumindest bis zum Zeitpunkt einer Überprüfung gespeichert werden müssten.616 Der Grundsatz der Datenminimierung, niedergelegt in Art. 5 Abs. 1 lit. c) DS-GVO, verpflichtet den Verantwortlichen hingegen, personenbezogene Daten nur zu verarbeiten, soweit diese dem Zweck angemessen und erheblich sind und auf das für die Zwecke der Verarbeitung notwendige Maß beschränkt sind. Nicht nur zu Zwecken der Transparenz sind KI gestützte Big-Data-Analysen auf große Datenmengen angewiesen. Die im Zuge von Maschinellem Lernen antrainierten Ergebnisroutinen sind nur dann in der Praxis verwertbar, wenn ein hinreichend großer Datenkorpus für den Anlernvorgang Verwendung gefunden hat.617 Muss der Anbieter die Menge der verfügbaren Daten auf Grund einer Datenminimierung reduzieren, birgt dies die Gefahr einer mangelhaften Künstlichen Intelligenz welche weiterführende Haftungsrisiken kreieren würde. Allerdings bedeutet der Grundsatz der Datenminimierung gerade nicht, dass der Umfang der Daten als solcher reduziert werden muss, vielmehr genügt der Betreiber den Ansprüchen der DS-GVO, wenn von diesen Daten der Personenbezug entfernt bzw. reduziert wird.618 Hier zeigt sich eine große Problematik in Bezug auf Big-Data-Analysen: Eine Verwendung der Daten wäre nur nach hinreichender Anonymisierung möglich, eine solche ist indes bei steigender Datenmenge oftmals nicht mehr ausreichend zu gewährleisten (vgl. zu den Herausforderungen der Anonymisierung S. 129 ff.). Eine weitere Problematik stellt das Erfordernis der Zweckbezogenheit und Erheblichkeit dar. Je mehr Daten automatisiert ausgewertet werden, desto schwieriger wird es, die Erheblichkeit und Zweckdienlichkeit eines jeden verwendeten Datums zu bestimmen. Eine gezielte Kontrolle jedes einzelnen Datensatzes vor Beginn der Verarbeitung wäre nötig und würde den Einsatz derartiger Systeme fiskalisch und praktisch nicht unerheblich verkomplizieren.619 Die Problematik der Datensparsamkeit in Zusammenhang mit 615

Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 133; Dehmel, ZD 2020, 62 (63). 616 Reichwald / Pfisterer, CR 2016, 208 (210). 617 Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (533). 618 Simitis / Hornung / Spiecker genannt Döhmann / Roßnagel, Art. 5 DS-GVO Rn. 125. 619 Frost, MPR 2019, 117 (123).

C. Kommunikation mit Sprachassistenten

161

Big Data Anwendungen würdigt der Bundesbeauftrage für den Datenschutz und die Informationsfreiheit Kelber in seinem 27. Tätigkeitsbericht im Rahmen der Diskussion der Ersetzung des Datenminimierungsgedankens mit einer betroffenenfreundlichen Ausweitung der Datensouveränität und des Dateneigentums, wobei er auf die Auffassung der Bundeskanzlerin Angela Merkel Bezug nimmt, welche fordert, dass das „Prinzip der Datensparsamkeit […] nicht mehr die Richtschnur für neuartige Produkte sein [könne]“.620 Das Erfordernis der Bereitstellung größerer Datenbestände und die Erleichterung des Zugangs zu diesen Daten als wichtige Voraussetzung einer wettbewerbsfähigen KI-Landschaft hat auch die Europäische Kommission erkannt und fordert eine politische Förderung der Verfügbarmachung von bisher in Privatbesitz befindlichen Daten für die Akteure der Wirtschaft, verbleibt bei Regelungen des Umgangs mit personenbezogenen Daten jedoch vage und verweist auf die Vorschriften des Datenschutzrechts.621 Gausling schlägt vor, dieses Problem bereits auf der Ebene der Technikgestaltung und der gewählten Voreinstellungen (Art.  25 Abs. 1  und  2  DS-GVO) anzugehen und verweist hierbei unter anderem auf den Einsatz sog. Generative Adversarial Networks (GAN) als Form des Unsupervised Learnings. Der Datenminimierungsvorteil von GANs liegt darin, dass mit einem Datensatz gleich zwei Künstliche Intelligenzen trainiert werden. Hierbei erlernt eine KI anhand der gegebenen Daten neue, diesen entsprechenden jedoch komplett fiktiven Daten zu generieren, wobei die zweite KI versucht herauszufinden, ob es sich bei den generierten Inhalten um echte oder neu erfundene Daten handelt.622 Der unbestreitbare Vorteil besteht bei diesem Prinzip darin, dass ein Neuronales Netzwerk für die Generierung der zukünftigen Daten eingesetzt werden kann, welche im Optimalfall keinen Personenbezug aufweisen können, da sie auf einem gänzlich fiktiven Hintergrund beruhen, in ihrer Qualität für den Lernvorgang von „echten“ Datensätzen allerdings nicht differieren. Auch Winter / Battis / Halvani kommen zu dem Ergebnis, dass der Vorteil der Verwendung von GANs insbesondere in dem Erhalt von Datensätzen liegt, welche bereits den Anforderungen der Anonymisierung nach dem Prinzip der Differential Privacy (vgl hierzu S. 131) genügen und in beliebiger Anzahl generiert werden können.623

620

BT-Drs. 19/9800 2019, 1 (34 f.). Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Künstliche Intelligenz für Europa, 2018, S. 12. 622 Giles, MIT Technology Review 121 (2018), 48 (51 f.). 623 Winter / Battis / Halvani, ZD 2019, 489 (492). 621

162

Kap. 5: Rechtliche Problemstellungen

d) Zweckbindungsgrundsatz nach Art. 5 Abs. 1 lit. b) DS-GVO Der Zweckbindungsgrundsatz verlangt, dass personenbezogene Daten seitens des Verantwortlichen nur für festgelegte, eindeutige und legitime Zwecke erhoben und grundsätzlich nicht in einer mit diesen Zwecken nicht vereinbaren Weise weiterverarbeitet werden dürfen, Art. 5 Abs. 1 lit. b) HS 1 DS-GVO. Unter all den vorgenannten Grundsätzen kann der Zweckbindungsgrundsatz als der zentralste bezeichnet werden; er ist nicht nur nach Art. 8 Abs. 2 S. 1 GRCh grundrechtlich geboten, sondern soll sicherstellen, dass der Betroffene jederzeit informiert ist, dass die Verarbeitung nach dem von ihm intendierten Zwecken oder auf Grund gesetzlicher Erlaubnis erfolgt.624 Der Grundgedanke ist, dass dieser Zweck schon zum Zeitpunkt der Datenerhebung festgelegt werden und die anschließende Verarbeitung sich hieran orientieren muss.625 aa) Zweckbestimmung Ob Daten des Sprachassistenten zur Verbesserung des Produkts und anderen Big-Data-Analysen verwendet werden dürfen, hängt von der Reichweite der Zweckbestimmung ab. Je granulierter diese zu erfolgen hat, desto schwieriger wird der Einsatz neuartiger Big-Data-Anwendungen, da zum Zeitpunkt der Erhebung oft nicht mit hundertprozentiger Sicherheit gesagt werden kann, wie und auf welchem Wege und zu welchem Zweck die Künstliche Intelligenz die Daten verarbeitet.626 Zwar kann der Verantwortliche grundsätzlich selbst entscheiden, wie weit er eine Zweckfestlegung vornimmt,627 diese muss jedoch eindeutig formuliert werden, eine Bezugnahme auf globale Zwecke wie z. B. „zur Verbesserung des Dienstes“ oder „zur Analyse im Rahmen von Big-Data-Anwendungen“ ist hierfür nicht ausreichend.628 Gänzlich ausgeschlossen ist folglich eine Erhebung von personen­ bezogenen Daten zu unbestimmten oder erst später zu bestimmenden Zwecken.629 Die Formulierung des Zwecks soll dabei seitens des Verantwortlichen so gewählt werden, dass er nicht nur für mit der Materie Vertraute verständlich ist, sondern auch von allen Dritten, die möglicherweise zu einem späteren Zeitpunkt – z. B. als Auftragsverarbeiter – mit einer Verarbeitung betraut werden, den Datenschutzbehörden und natürlich dem Betroffenen selbst verstanden werden kann.630 Das Merkmal der „Legitimität“ des Art. 5 Abs. 1 lit. b)  DS-GVO ist dahingehen zu verstehen, dass der Zweck mit der gesamten Rechtsordnung – sei es durch Ein 624

Simitis / Hornung / Spiecker genannt Döhmann / Roßnagel, Art. 5 DS-GVO 63 ff. Kühling / Buchner / Herbst, Art. 5 DS-GVO Rn. 21. 626 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/ import/171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 135. 627 Härting, NJW 2015, 3284 (3288). 628 Ehmann / Selmayer / Heberlein, Art. 5 DS-GVO Rn. 14. 629 Simitis / Hornung / Spiecker genannt Döhmann / Roßnagel, Art. 5 DS-GVO Rn. 72. 630 Artikel-29-Datenschutzgruppe, WP 203 00569/13/EN 2013 (17). 625

C. Kommunikation mit Sprachassistenten

163

willigung oder gesetzlicher Rechtfertigung  – als übereinstimmend angesehen werden kann;631 es ist folglich weiter zu verstehen, als eine reine Rechtmäßigkeit des Zwecks und umfasst auch soziale Bräuche, Verhaltenscodizes, ethische und moralische Vorstellungen sowie vertragliche Vereinbarungen.632 bb) Zweckänderung Eine von der erstmaligen Zwecksetzung abweichende Verarbeitung lässt die DS-GVO nur in sehr engen Grenzen zu. Anforderungen für eine solche Weiterverarbeitung sieht die DS-GVO in Art. 6 Abs. 4 DS-GVO vor. Unklarheiten bestehen in der Literatur über die konkrete Rechtsnatur einer solchen Weiterverarbeitung. Erwägungsgrund 50 der DS-GVO geht davon aus, dass die Verarbeitung personenbezogener Daten für andere Zwecke als die, für die die personenbezogenen Daten ursprünglich erhoben wurden, nur zulässig sein sollte, wenn die Verarbeitung mit den Zwecken, für die die personenbezogenen Daten ursprünglich erhoben wurden, vereinbar ist. In diesem Fall sei keine andere gesonderte Rechtsgrundlage erforderlich als diejenige für die Erhebung der personenbezogenen Daten. Monreal erblickt in diesen Ausführungen des Erwägungsgrundes einen umfassenden Verarbeitungsbegriff der DS-GVO mit der Folge, dass eine spätere Zweckänderung nur die Fortsetzung einer bereits begonnenen Datenverarbeitung darstellt, was ein Vorliegen eines neuen Erlaubnistatbestandes neben Art. 6 Abs. 4 DS-GVO nicht erforderlich machen würde.633 Zu folgen ist jedoch den Stimmen in der Literatur, welche diese Freistellung der Verarbeitung von dem Erfordernis einer eigenen Rechtsgrundlage bei Vorliegen der Anforderungen des Art. 6 Abs. 4 DS-GVO als Redaktionsfehler des Gesetzgebers bemängeln. Eine gesetzliche Vermutung der Vereinbarkeit dieser neuen Zwecke mit dem ursprünglichen Erhebungszweck und dessen rechtlicher Grundlage ist mit Artt. 7 und 8 GRCh nicht vereinbar; zu fordern ist insofern, dass bei einer Zweckänderung neben den Voraussetzungen des Art. 6 Abs. 4 DS-GVO auch ein eigener Erlaubnistatbestand des Art. 6 Abs. 1 DS-GVO für die neue Verarbeitung vorliegt.634 Trotz Vereinbarkeit kann eine neue Rechtsgrundlage erforderlich werden, wenn beispielsweise die Verarbeitung der Daten des Sprachassistenten ursprünglich der Vertragserfüllung (Art. 6 Abs. 1 lit.b) DS-GVO) gedient hat und die Weiterverwendung nunmehr berechtigten Interessen des Betreibers dient, Art. 6 Abs. 1 lit. f) DS-GVO.635 Art. 6 Abs. 4 DS-GVO sieht drei Möglichkeiten einer Zweckänderung vor: Die Einwilligung des Betroffenen, eine nationale oder unionsrechtliche Rechtsvor 631

Monreal, ZD 2016, 507 (509). Artikel-29-Datenschutzgruppe, WP 203 00569/13/EN 2013 (20). 633 Monreal, ZD 2016, 507 (510); so wohl auch Kühling / Martini, EuZW 2016, 448 (451). 634 Schantz, NJW 2016, 1841 (1844); Albrecht, CR 2016, 88 (92); BeckOK DatenschutzR /  Albers / Veit, Art. 6 DS-GVO Rn. 75. 635 So auch Ehmann / Selmayer / Heberlein, Art. 5 DS-GVO Rn. 20. 632

164

Kap. 5: Rechtliche Problemstellungen

schrift zum Schutz der in Art. 23 Abs. 1 DS-GVO genannten Ziele sowie einen subsidiären Kompatibilitätstest zwischen Primär- und Sekundärzweck.636 (1) Einwilligung Da sich die Verarbeitungszwecke bei der Analyse der Daten von Sprachassistenten im Wege einer nachfolgenden Big-Data-Auswertung erst im Nachgang der Erhebung zeigen,637 liegt eine wirksame ursprüngliche Einwilligung zumeist nicht vor.638 Die nachträgliche Einwilligung scheidet bereits aus Praktikabilitätsgründen aus, da der Verantwortliche jeden einzelnen Betroffenen jeweils erneut um eine solche ersuchen müsste und dies mit dem Wesen einer solchen Analyse großer Datensätze nicht vereinbar ist.639 (2) Abweichung durch eine nationale Rechtsvorschrift Eine Möglichkeit der nationalen Abweichung von Grundsatz der Zweckbindung schafft Art. 6 Abs. 4 DS-GVO. In Abweichung zu Art. 6 Abs. 2 und 3 DS-GVO ist der Gesetzgeber hierbei nicht auf die Erweiterung der Verwendung der Daten spezifisch für die Erfüllung einer rechtlichen Verpflichtung (Abs. 1 lit. c)) oder Wahrnehmung einer öffentlichen Aufgabe bzw. Interesse (Abs. 1 lit. e)) beschränkt.640 Eine Öffnung für die Verwendung der Daten im Zuge von Big-Data-Verfahren als Verarbeitung im Sinne eines berechtigten Interesses des Unternehmens, wäre demnach prinzipiell denkbar. Eine Einschränkung erfährt die Öffnungsklausel641 jedoch dadurch, dass eine solche Beschränkung den Wesensgehalt der Grundrechte und Grundfreiheiten achtet und in einer demokratischen Gesellschaft eine notwendige und verhältnismäßige Maßnahme zum Schutz der in Art. 23 Abs. 1 DS-GVO aufgeführten Ziele dient. Diese beziehen sich jedoch ihrer Natur nach nicht auf die privatwirtschaftlichen Interessen des Verantwortlichen, sondern stellen Ausnahmen von Betroffenenrechten zur Erreichung öffentlicher Zwecke dar.642 Der deutsche Gesetzgeber hat von dieser Öffnungsklausel Gebrauch gemacht und regelt für nichtöffentliche Stellen in § 24 BDSG die Ermöglichung einer Zweckänderung 636

Culik / Döpke, ZD 2017, 226 (228). Culik / Döpke, ZD 2017, 226 (228). 638 Heckmann, in: Kusche / Valerius (Hrsg.), Festgabe Forschungsstelle RobotRecht, 45 (48). 639 Katko / Babaei-Beigi, MMR 2014, 360 (362). 640 Culik / Döpke, ZD 2017, 226 (229). 641 Ziegenhorn / Heckel, NVwZ 2016, 1585 (1590 f.); a. A. Buchner / Petri welche Art. 6 Abs. 4 DS-GVO nicht als Öffnungsklausel qualifizieren, sondern diesen nur in Verbindung mit Art. 6 Abs. 2 und 3 DS-GVO anwendbar erachten, da ihrer Auffassung nach ansonsten die Gefahr bestünde, die gewünschte Harmonisierung durch eine zu weit gehende nationale Zweckänderung ad absurdum zu führen, vgl. Kühling / Buchner / Buchner / Petri, Art. 6 DS-GVO Rn. 200. 642 BeckOK DatenschutzR / Stender-Vorwachs, Art. 23 DS-GVO Rn. 4. 637

C. Kommunikation mit Sprachassistenten

165

im Rahmen der Weiterverarbeitung. Geregelt werden in § 24 Abs. 1 BDSG zwei Erlaubnistatbestände. Zum einen die Verarbeitung zur Abwehr von Gefahren für die staatliche oder öffentliche Sicherheit oder zur Verfolgung von Straftaten (Nr. 1) und zum anderen zur Geltendmachung, Ausübung oder Verteidigung zivilrechtlicher Ansprüche.643 Eine Rechtsgrundlage für die zweckgeänderte Weiterverarbeitung der seitens des Betreibers eines Sprachassistenten erhobenen personenbezogenen Daten kann die nationale Sonderregelung hingegen nicht darstellen. § 24 Abs. 1 Nr. 2 BDSG ist insoweit in seinem Anwendungsbereich beschränkter als die in Teilen als Vorbild herangezogene Regelung des § 28 Abs. 1 Nr. 2 BDSG a. F.644 (3) Kompatibilitätstest Die DS-GVO sieht in Art. 4 Abs. 6 nicht abschließend fünf Beurteilungskriterien vor, welche zwischen einer kompatiblen und inkompatiblen Zweckänderung unterscheiden.645 Im Zuge dieses Kompatibilitätstest sind Kriterien grundsätzlich restriktiv auszulegen, da sich eine strenge Zweckbindung als unabdingbare Voraussetzung für die Entscheidungsfreiheit des Betroffenen und den Grundsatz der Transparenz darstellt.646 – Verbindung der Zwecke, lit. a): Eines der wichtigsten Kriterien ist die Verbindung des ursprünglichen und neuen Zwecks in zeitlicher und inhaltlicher Hinsicht. Je enger diese ist, desto eher ist eine Zweckänderung erlaubt.647 Eine solche Begebenheit kann insbesondere angenommen werden, wenn die geplante Weiterverarbeitung bereits mehr oder weniger in den ursprünglichen Zwecken impliziert war oder als logischer nächster Schritt der Verarbeitung angenommen werden konnte.648 Wird eine solche Ähnlichkeit bei Daten des Sprachassistenten möglicherweise bei der Verbesserung der Programmalgorithmen anzunehmen sein, weisen allgemeine Big-Data-Auswertungen eine solche in der Regel wohl nicht auf. – Zusammenhang der Datenerhebung, lit b): Der Zusammenhang der Datenerhebung und das Verhältnis zwischen dem Betroffenen und dem Verantwortlichen ist insbesondere im Hinblick auf die vernünftigen Erwartungen der betroffenen Personen in Ansehung des Verantwortlichen abzustellen.649 Der EuGH hat dem Merkmal der Vernünftigkeit zu Grunde gelegt, dass der Betroffene in der Regel 643

Vgl. weiterführend Gola / Heckmann / Heckmann / Scheurer, § 24 BDSG 7 ff. Gola / Heckmann / Heckmann / Scheurer, § 24 BDSG Rn. 14. 645 Kühling / Buchner / Buchner / Petri, Art. 6 DS-GVO Rn. 186. 646 Vgl. die Datenschutzkonferenz bzgl. der Trialogverhandlungen zur DS-GVO Datenschutzkonferenz, Datenschutzrechtliche Kernpunkte für die Trilogverhandlungen zur Datenschutz-Grundverordnung, 2015, S. 6. 647 Monreal, ZD 2016, 507 (510). 648 Artikel-29-Datenschutzgruppe, WP 203 00569/13/EN 2013 (24). 649 Erwg. 50 S. 6 der DS-GVO. 644

166

Kap. 5: Rechtliche Problemstellungen

nur solche Verarbeitungen erwarten muss, die rechtlich zulässig und praktisch durchführbar sind.650 Äußerungen des Verantwortlichen bei Vertragsschluss  – z. B. dass er die Daten sehr sensibel behandeln wird und ihm der Schutz des Betroffenen sehr wichtig sei – sind hierbei in die Beurteilung mit einzubeziehen.651 – Art der Daten, lit. c): Die Art der zu verarbeitenden Daten und die mit diesen verbundenen Gefahren für die betroffene Person sind angemessen zu bewerten. So ist die Zweckänderung bei besonderen Kategorien personenbezogener Daten zwar nicht schlichtweg verboten, es bedarf dann jedoch einer besonders umsichtigen Prüfung.652 Dies ist für Big-Data-Auswertungen besonders relevant, da die Art-29-Datenschutzgruppe eine Ungewissheit des Verarbeitungskontextes und sich hieraus ergebende Konsequenzen für den Betroffenen als verschärfendes Kriterium ansieht653 und dieses einer Auswertung durch Künstliche Neuronale Netze immanent sein dürfte. Nicht ersichtlich ist, dass der die Art.-29-Datenschutzgruppe ablösende Europäische Datenschutzausschuss hierzu eine abweichende Auffassung vertreten wird. – Folgen für Betroffene, lit. d): Bei möglichen Folgen sind sowohl positive als auch negative Auswirkungen auf den Betroffenen gegenüber zu stellen, welche sich beispielsweise aus einer Datenschutzfolgenabschätzung aus Art. 35 DS-GVO ergeben können; bei einer in der Summe negativen Prognose hat die Weiterverarbeitung zu unterbleiben.654 Die Auswirkungen der Verarbeitung durch eine Künstliche Intelligenz und andere moderne Datenverarbeitungen sind hierbei äußerst restriktiv zu bewerten, da eine weitgehende und konsequente automatische Auswertung der Daten eine Gefahr für die Grundrechte des Betroffenen darstellt.655 – Geeignete Garantien, lit. e): Das Vorliegen geeigneter Garantien soll eine Möglichkeit darstellen, Defizite der vorangegangenen Punkte abzufangen.656 Solche Garantien können beispielsweise eine Verschlüsselung oder Pseudonymisierung der Daten umfassen; überdies ist das Schutzniveau der bisherigen Verarbeitung mit der geplanten zukünftigen abzugleichen.657

650

EuGH Urt. v. 19. 10. 2016  – C-582/14, NJW 2016, 3579 (3581)  – Breyer / Deutschland Rz. 42 ff. 651 Kühling / Buchner / Buchner / Petri, Art. 6 DS-GVO Rn. 188. 652 Ehmann / Selmayer / Heberlein, Art. 6 DS-GVO Rn. 58. 653 Artikel-29-Datenschutzgruppe, WP 203 00569/13/EN 2013 (26). 654 Simitis / Hornung / Spiecker genannt Döhmann / Roßnagel, Art. 6 Abs. 4 DS-GVO Rn. 56. 655 Paal / Pauly / Frenzel, Art. 6 DS-GVO Rn. 49. 656 Monreal, ZD 2016, 507 (511). 657 Kühling / Buchner / Buchner / Petri, Art. 6 DS-GVO Rn. 191.

C. Kommunikation mit Sprachassistenten

167

(4) Big Data und der statistische Zweck Eine Ausnahme vom Grundsatz der Zweckbindung sieht Art. 5 Abs. 1 lit. b) für eine Weiterverarbeitung für im öffentlichen Interesse liegende Archivzwecke, für wissenschaftliche oder historische Forschungszwecke oder für statistische Zwecke vor. Es gilt zu untersuchen, ob die Auswertung mittels Big-Data-Analysen nicht als ein solcher statistischer Zweck gesehen werden kann, da das Wesen durchaus vergleichbar ist: Ziel ist das Herausfiltern eines sinnvollen inhaltlichen Erkenntnisgewinns aus heterogenen Datensätzen.658 Bereits das BVerfG hat in seinem wegweisenden Volkszählungsurteil 1984 – zeitlich vor der Rechtslage nach der DS-GVO – festgestellt, dass bei der Datenerhebung für statistische Zwecke eine enge und konkrete Zweckbindung der Daten nicht verlangt werden kann. Es gehört zum Wesen der Statistik, dass die Daten nach ihrer statistischen Aufbereitung für die verschiedensten, nicht von vornherein bestimmbaren, Aufgaben verwendet werden sollen.659 Unter dem Begriff „statistische Zwecke“ i. S. d. DS-GVO ist jeder für die Durchführung statistischer Untersuchungen und die Erstellung statistischer Ergebnisse erforderliche Vorgang der Erhebung und Verarbeitung personenbezogener Daten zu verstehen.660 Im Zusammenhang mit den statistischen Zwecken wird vorausgesetzt, dass die Ergebnisse der Verarbeitung zu statistischen Zwecken keine personenbezogenen Daten, sondern aggregierte Daten sind und diese Ergebnisse oder personenbezogenen Daten nicht für Maßnahmen oder Entscheidungen gegenüber einzelnen natürlichen Personen verwendet werden.661 Statistische Zwecke in diesem Sinne sind folglich nur derartige Untersuchungen, deren ausgegebene Ergebnisse keine personenbezogenen Daten darstellen und nicht in Wirkungen gegenüber Einzelnen erwachsen. Nicht erfasst werden – auch wenn sie statistische Methoden anwenden – auf Grund des Personenbezugs die Vorgänge des Scorings (§ 31 BDSG) und des Profilings (Art. 22 DS-GVO).662 Diese Einschränkung bedingt weiterhin den Ausschluss der Anwendbarkeit der Ausnahme für statistische Zwecke für die meisten Big-Data-Analysen, da die Privilegierung selbst für das reine Trainieren nicht greifen darf, um dem Betreiber des Sprachassistenten nicht die fälschliche Argumentation zu eröffnen, die Daten würden nur für das Training verwendet und nicht für die Einzelfallentscheidung der KI im Nachgang.663 Dies ist auch gerechtfertigt, da die Privilegierung gerade keine Ausnahme für die kommerzielle Auswertung und Beobachtung eines Individuums schaffen möchte, sondern allgemeine anonyme Analysen ermöglichen soll; dies ergibt sich auch mit Hinblick auf die anderen Erlaubnisgründe der Verarbeitung zu 658

Culik / Döpke, ZD 2017, 226 (230). BVerfG Urt. v. 15. 12. 1983 – 1 BvR 209/83 u. a., NJW 1984, 419 (423) – Volkszählungsurteil. 660 Erwg. 162 S. 3 der DS-GVO. 661 Erwg. 162 S. 5 der DS-GVO. 662 Johannes / Richter, DuD 2017, 300 (301). 663 Richter, DuD 2016, 581 (583). 659

168

Kap. 5: Rechtliche Problemstellungen

wissenschaftlichen und historischen Zwecken als Nutzen für die Allgemeinheit und nicht dem finanziellen Vorsprung eines einzelnen Unternehmens durch Verbesserung dessen Algorithmen.664 Eine Ausweitung auf kommerzielle Big-Data-Anwendungen der Betreiber von Sprachassistenten (bzw. Anbieter genereller Natur) wäre eine systemwidrige Aushöhlung des Zweckbindungsgrundsatzes.665 Eine strikte Ausweitung auf alle Big-Data-Anwendungen ist auch aus Gründen der Beweislast geboten; die Nachweislast des Nichtvorliegens der Fiktionsgründe obliegt im Zweifel dem Betroffenen,666 mangels Einblick in die Unternehmensstruktur bzw. die Rechenzentren wäre eine Beweisführung bei einer teilweisen Privilegierung schwer bis unmöglich zu führen. e) Technische und organisatorische Anforderungen aa) Datenschutz durch Technikgestaltung Den Eintrittspunkt in die Bereithaltung von gesonderten Maßnahmen stellt Art. 24 DS-GVO dar. Nach diesem setzt der Verantwortliche unter Berücksichtigung der Art, des Umfangs, der Umstände und der Zwecke der Verarbeitung sowie der unterschiedlichen Eintrittswahrscheinlichkeit und Schwere der Risiken für die Rechte und Freiheiten natürlicher Personen geeignete technische und organisatorische Maßnahmen um, um sicherzustellen und den Nachweis dafür erbringen zu können, dass die Verarbeitung gemäß der DS-GVO erfolgt, Art. 24 Abs. 1 S. 1 DS-GVO. Art. 25 DS-GVO stellt für das europäische Datenschutzrecht ein Novum dar und führt die Verpflichtung des Verantwortlichen zum Datenschutz durch Technikgestaltung (Privacy by Design) und datenschutzfreundliche Voreinstellungen (Privacy by Default) ein.667 Hierunter fallen alle Maßnahmen, welche die Rechte und Freiheiten der betroffenen Personen bestmöglich schützen. Eine konkrete Liste der zu ergreifenden Maßnahmen sieht die DS-GVO nicht vor, verweist in Erwägungsgrund 78 jedoch auf die Pseudonymisierung personenbezogener Daten. In der praktischen Anwendung bieten Art. 32 DS-GVO und die hier vorgesehenen technischen und organisatorischen Maßnahmen (TOM) eine Hilfestellung.668 Schon der DS-GVO vorgelagert wurde die Notwendigkeit geäußert, dass die Einhaltung der Datenschutzgrundsätze nicht nur ein persönliches Handeln des Verantwortlichen bedarf, sondern vielmehr bereits auf technischer Ebene Berücksichtigung findet.669 Dieser Forderung kommt die DS-GVO nun nach und verlagert 664

Richter, DuD 2015, 735 (739). Culik / Döpke, ZD 2017, 226 (230). 666 Simitis / Hornung / Spiecker genannt Döhmann / Roßnagel, Art. 5 DS-GVO Rn. 110. 667 Schantz, NJW 2016, 1841 (1846). 668 Hoeren / Sieber / Holznagel / Hackenberg, 50, Teil 15.2 Rn. 44. 669 Roßnagel, MMR 2005, 71 (74). 665

C. Kommunikation mit Sprachassistenten

169

die frühzeitige Einflussnahme und Berücksichtigung der Datenschutzvorschriften bereits auf die Ebene der Gestaltung der Verarbeitung.670 (1) Privacy by Design Der Grundgedanke des Privacy by Design ist die Verringerung der Gefahren der informationellen Selbstbestimmung auf Grund einer Datenverarbeitung durch Zusammenwirken der einer Verarbeitung vorgreifender Technikgestaltung sowie organisatorischer Vorkehrungen des Verantwortlichen.671 Dieser Datenschutz durch Technikgestaltung ist bereits bei der Konzeptionierung des Sprachassistenten funktional zu implementieren, da der spätere Verwender bzw. auch Verantwortliche ansonsten keinen bzw. möglicherweise marginalen Einfluss auf die Technikgestaltung nehmen kann.672 Um diesen Anforderungen zu genügen, sollte die Entwicklung des Assistenten so erfolgen, dass sowohl die Hardware als auch Softwarekomponenten nicht nur die Datenschutzgrundsätze des Art. 5 DS-GVO berücksichtigen, sondern alle den Verantwortlichen betreffende Regelungen der DS-GVO.673 Der Europäische Datenschutzausschuss hat in seinem Guideline festgestellt, dass die Wirksamkeit der ergriffenen Maßnahmen im Mittelpunkt stehen sollten und der Verantwortliche nachweisen können muss, dass spezielle Umsetzungsanstrengungen unternommen worden sind, um eine messbare Wirkung zu erzielen. Hierbei ist unerheblich, welche Maßnahme ergriffen wurde, sofern deren Effektivität vorhanden ist und nachprüfbar dokumentiert wird.674 (2) Privacy by Default Die gesonderte Aufnahme des Datenschutzes durch datenschutzfreundliche Voreinstellungen in Art. 25 Abs. 2 DS-GVO konkretisiert nicht nur die Grundsätze der Datenminimierung, Speicherbegrenzung und Zweckbindung, sie stellt viel mehr die Grundlage eines Wandels der gelebten Realität dar, in welcher die Voreinstellungen vieler Produkte in der Regel eher auf den größtmöglichen Zugewinn von Daten ausgerichtet sind und eine Datensparsamkeit vielfach zu vermissen ist.675 Das Konzept hinter Privacy by Default bedeutet vereinfacht gesagt, dass bereits bei der ersten Verwendung des Sprachassistenten die datenschutzrechtlichen Voreinstellungen derart ausgestaltet sind, dass die betroffenenfreundlichsten Einstellungen vorausgewählt sind und der Verwender nicht selbst aktiv tätig werden muss.676 670

Simitis / Hornung / Spiecker genannt Döhmann / M. Hansen, Art. 25 DS-GVO Rn. 18. Schulz, CR 2012, 204. 672 Auer-Reinsdorff / I. Conrad / I. Conrad / Eckhardt / Fleischhauer u. a., § 33 Rn. 223. 673 Simitis / Hornung / Spiecker genannt Döhmann / M. Hansen, Art. 25 DS-GVO Rn. 31. 674 Europäischer Datenschutzausschuss, Guidelines 4/2019 on Article 25, Data Protection by Design and by Default, 2019, S. 7. 675 Simitis / Hornung / Spiecker genannt Döhmann / M. Hansen, Art. 25 DS-GVO 39 f. 676 Kühling / Buchner / Hartung, Art. 25 DS-GVO Rn. 24. 671

170

Kap. 5: Rechtliche Problemstellungen

Die Voreinstellungen von Sprachassistenten sollten folglich bereits seitens des Betreibers auf die absolut nötige Datenerhebung reduziert sein. Dabei kann es keine allgemeine Regel geben, wie eine Ausgestaltung zu erfolgen hat. Wesentliches Merkmal ist immer der geplante Einsatzzweck. Sprachassistenten müssen zuvorderst dem Menschen dienen und diesen nicht zum „Sammelobjekt“ verwertbarer Daten degradieren. So mag es angemessen sein, dass ein Sprachassistent, der zur Überwachung der Gesundheitsdaten kranker und älterer Menschen eingesetzt wird, eine dauerhafte Verbindung zur Überwachung der Vitaldaten aufrechterhält, in anderen Anwendungsszenarien ist hingegen eine Beschränkung der standardmäßigen Funktionalität bis hin zur Integrierung eines „off-switches“ denkbar.677 bb) Sicherheit der Datenverarbeitung Eine der grundlegendsten Verpflichtungen der Sicherheit der Datenverarbeitung enthält Art. 32 DS-GVO, welcher sowohl dem Verantwortlichen als auch dem Auftragsverarbeiter bestimmte organisatorische und technische Maßnahmen auferlegt.678 Ausgangspunkt der seitens des Verpflichteten anzustellenden Verhältnismäßigkeitsprüfung der zu ergreifenden Maßnahmen sind die acht Faktoren des Art. 32 Abs. 1 Hs. 1 DS-GVO: Stand der Technik, Implementierungskosten, Art, Umfang, Umstände und der Zwecke der Verarbeitung sowie die unterschiedliche Eintrittswahrscheinlichkeit und Schwere des Risikos für die Rechte und Freiheiten natürlicher Personen.679 Nichtabschließend zählt Art. 32 Abs. 1 DS-GVO einen Katalog an Maßnahmen auf, die möglicherweise seitens des Verantwortlichen bzw. Auftragsverarbeiters zu ergreifen sind: – die Pseudonymisierung und Verschlüsselung personenbezogener Daten, Abs. 1 lit. a) – die Fähigkeit, die Vertraulichkeit680, Integrität681, Verfügbarkeit682 und Belastbarkeit der Systeme und Dienste im Zusammenhang mit der Verarbeitung auf Dauer sicherzustellen, Abs. 1 lit. b) 677

Boden / Bryson / Caldwell u. a., Connection Science 29 (2017), 124 (126). Voigt / Bussche, EU-Datenschutz-Grundverordnung, S. 47. 679 Spindler / Fabian Schuster / L aue, Art. 32 DS-GVO Rn. 4. 680 Unter Vertraulichkeit ist der Schutz der Daten vor der Kenntnisnahme unbefugter Dritter zu verstehen, vgl. Bundesamt für Sicherheit in der Informationstechnik, IT-GrundschutzKompendium, S. 12. 681 Die Integrität von Daten drückt aus, dass diese unverändert und vollständig sind, vgl. Bundesamt für Sicherheit in der Informationstechnik, IT-Grundschutz-Kompendium, S. 6. 682 Die Verfügbarkeit ist gewährleistet, wenn die personenbezogenen Daten wie vorgesehen verwendet bzw. verarbeitet werden können, vgl. Bundesamt für Sicherheit in der Informationstechnik, IT-Grundschutz-Kompendium, S. 12. 678

C. Kommunikation mit Sprachassistenten

171

– die Fähigkeit, die Verfügbarkeit der personenbezogenen Daten und den Zugang zu ihnen bei einem physischen oder technischen Zwischenfall rasch wiederherzustellen, Abs. 1 lit. c) – ein Verfahren zur regelmäßigen Überprüfung, Bewertung und Evaluierung der Wirksamkeit der technischen und organisatorischen Maßnahmen zur Gewährleistung der Sicherheit der Verarbeitung Abs. 1 lit. d) Insbesondere Art. 32 Abs. 1 lit. b) DS-GVO verfolgt die klassischen Schutzziele der Informationssicherheit.683 Einzig der Begriff der Belastbarkeit (in der engl. Fassung „resilience“) stellt keine der klassischen Komponenten der IT-Sicherheit dar.684 Die Resilienz kann als die „Fähigkeit, tatsächlich oder potenziell widrige Ereignisse abzuwehren, sich darauf vorzubereiten, sie einzukalkulieren, sie zu verkraften, sich davon zu erholen und sich ihnen immer erfolgreicher anzupassen“685 definiert werden und stellt die Widerstandsfähigkeit und Ausfallsicherheit eines Systems dar.686 Gerade die Eigenschaft der Belastbarkeit ist für Systeme Künstlicher Intelligenz, die durch ihr autonomes Handeln und die Verknüpfung mit anderen Gegenständen bestimmt werden, von steigender Bedeutung, wobei die Notwendigkeit des Vorliegens dieser Eigenschaft weiter steigt, je größer die Gefahren für die Rechtsgüter der Personen, z. B. bei der autonomen Steuerung von Fahrzeugen, sind.687 Die Resilienz selbst stellt keine eigene Maßnahme an sich dar, sondern bezieht sich auf die Fähigkeit der zur Sicherung des Datenschutzes getroffenen Maßnahmen, dieser Anforderung zu genügen.688 Nach dem risikobasierten Ansatz der DS-GVO ist die geeignete Maßnahme anhand einer objektiven Bewertung zu beurteilen, bei welcher festgestellt wird, ob die jeweilige Datenverarbeitung ein hohes Risiko für die Rechte des Betroffenen mit sich bringt.689 Als Bezugsgröße der zu wählenden TOMs stellt die DSGVO an diesem Punkt auf den Stand der Technik ab, d. h. Maßnahmen die zum Zeitpunkt der Bewertung den aktuellen technischen Möglichkeiten entsprechen, auf gesicherten Erkenntnissen der Wissenschaft beruhen und in ausreichendem Maße zur Verfügung stehen.690 Nicht zu verwechseln ist der Begriff des „Stands der Technik“ mit jenem des „Stands der Wissenschaft und Technik“, welcher den höchstmöglichen existierenden Stand691 beschreibt und nicht deckungsgleich verwendet werden darf.692 Es genügt jedoch nicht, dass eine Bewertung nur einmalig 683

Simitis / Hornung / Spiecker genannt Döhmann / M. Hansen, Art. 32 DS-GVO Rn. 38. Kühling / Buchner / Jandt, Art. 32 DS-GVO Rn. 26. 685 acatech, Resilien-Tech, „Resilience-by-Design“: Strategie für die technologischen Zukunftsthemen, 2014, S. 7. 686 Kühling / Buchner / Jandt, Art. 32 DS-GVO Rn. 26. 687 Simitis / Hornung / Spiecker genannt Döhmann / M. Hansen, Art. 32 DS-GVO Rn. 44. 688 Gonscherowski / M. Hansen / M. Rost, DuD 2018, 442 (443). 689 Erwg. 76 S. 2 der DS-GVO. 690 Paal / Pauly / Martini, Art. 32 DS-GVO Rn. 56. 691 EuGH Urt. v. 29. 5. 1997 – C-300/95, BeckRS 2004, 76148 Rz. 26. 692 Gola / Piltz, Art. 32 DS-GVO Rn. 15; Vgl. vertiefend zu den Begrifflichkeiten im nationalen Recht Seibel, NJW 2013, 3000. 684

172

Kap. 5: Rechtliche Problemstellungen

bei Inbetriebnahme des Systems stattfindet, vielmehr ist das angemessene Sicherheitsniveau ständig zu gewährleisten und an die sich ändernden technischen Begebenheiten und Bedrohungsszenarien anzupassen.693 Um dem Korrektiv der Verhältnismäßigkeit zu genügen, sind nach der DS-GVO nicht alle denkbaren Unternehmungen zu ergreifen, sondern nur solche, die im Einzelfall wirtschaftlich zumutbar sind. Dies bedeutet hingegen nicht, dass im Falle finanzieller Nöte des Adressaten keine Maßnahmen zu ergreifen sind, da in der Regel grundlegende Datensicherheitsmaßnahmen verhältnismäßig und geboten sind.694 Für die Bemessung der zumutbaren Kosten kann auf die Faustformel „je höher das Risiko, desto höhere Implementierungskosten sind zumutbar“ zurück gegriffen werden.695 Da Sprachassistenten oftmals mit der Verarbeitung sensibelster Informationen betraut sind, welche bei einem Abfluss der Daten oder maliziöser Veränderung großen Schaden für die betroffenen Personen verursachen können, sind im Zweifel die zumutbaren Kosten eher am oberen Ende anzusetzen. cc) Auftragsverarbeitung Für den Betreiber eines Sprachassistenten kann sich die Verarbeitung der gesammelten Daten oftmals als ein komplexes Unterfangen darstellen. Seine datenschutzrechtliche Verantwortlichkeit bedeutet jedoch nicht, dass er sich nicht der Unterstützung eines anderen bedienen darf, der für die nötigen Verarbeitungshandlungen besser geeignet ist. Die DS-GVO sieht hierfür das Konstrukt der Auftragsverarbeitung nach Art. 28 DS-GVO vor. Auftragsverarbeiter kann nach Art. 4 Nr. 8 DS-GVO jede natürliche oder juristische Person, Behörde, Einrichtung oder andere Stelle, die personenbezogene Daten im Auftrag des Verantwortlichen verarbeitet sein, sofern sich die Tätigkeit unmittelbar auf die Erbringung der Hauptleistung des Verantwortlichen bezieht.696 War unter der Datenschutz-RL alleine der Verantwortliche für die Einhaltung der Rechtmäßigkeit der Verarbeitung verantwortlich, modifiziert die DS-GVO diesen Ansatz dahingehend, dass auch dem Auftragsverarbeiter Pflichten treffen, die bei Nichterfüllung nach Art. 83 DS-GVO bußgeldbewehrt sind697 und, sofern der Auftragsverarbeiter gegen die Vorgaben des Verantwortlichen verstößt und selbst die Zwecke und Mittel der Verarbeitung bestimmt, sogar originär von einem Auftragsverarbeiter zum Verantwortlichen werden kann, Art. 28 Abs. 10 DS-GVO.698 Ist dies der Fall, treffen den Auftragsverarbeiter sämtliche Pflichten des Verantwortlichen, er bedarf für eine solche Verarbeitung insbesondere einer 693

Simitis / Hornung / Spiecker genannt Döhmann / M. Hansen, Art. 32 DS-GVO Rn. 18. Paal / Pauly / Martini, Art. 32 DS-GVO Rn. 60. 695 Kühling / Buchner / Jandt, Art. 32 DS-GVO Rn. 11. 696 B. Lorenz, VuR 2019, 213 (216). 697 Voigt / Bussche, EU-Datenschutz-Grundverordnung, S. 103. 698 Gürtler, ZD 2019, 51 (52). 694

C. Kommunikation mit Sprachassistenten

173

eigenen Rechtsgrundlage, wobei in einer derartigen Konstellation regelmäßig nur Art. 6 Abs. 1 lit. c) und lit. f) in Betracht kommen werden.699 Der große Vorteil für den Verantwortlichen ist, dass die DS-GVO einen Auftragsverarbeiter nicht als „Dritten“ i.S.d Art. 4 Nr. 10 DS-GVO700 ansieht und privilegierende Wirkung entfaltet, wodurch der Verantwortliche für die Beauftragung des Auftragsverarbeiters keine gesonderte Rechtfertigung der Verarbeitung gem. Art. 6 DS-GVO benötigt.701 (1) Pflichten des Verantwortlichen Die Pflichten des Verantwortlichen ergeben sich überwiegend aus Art. 28 Abs. 1 und Abs. 3 DS-GVO. Der Verantwortliche hat den Auftragsverarbeiter insbesondere nach dessen Zuverlässigkeit auszuwählen und mit diesem einen schriftlichen Vertrag zu schließen, welcher nun, anders als in § 11 Abs. 2 S. 2 BDSG a. F., erfreulicherweise auch in elektronischer Form geschlossen werden kann, Art. 28 Abs. 9 DS-GVO.702 Der Vertrag mit dem Auftragsverarbeiter hat neben dem Gegenstand und der Dauer der Verarbeitung, Art und Zweck der Verarbeitung, Art der personenbezogenen Daten, die Kategorien betroffener Personen und die Pflichten und Rechte des Verantwortlichen (Art. 28 Abs. 3 S. 1 DS-GVO) insbesondere den „Acht-Punkte-Katalog“ des Art. 28 Abs. 3 S. 2 DS-GVO zu enthalten:703 – Verarbeitung nur auf dokumentierte Weisung des Verantwortlichen, lit. a) – Verpflichtung zur Vertraulichkeit, lit. b) – Verpflichtung zur Sicherheit der Verarbeitung, lit. c) – Einhaltungen der Vorgaben zur Unterauftragsvergabe, lit. d) – Unterstützung des verantwortlichen bei der Beantwortung von Anfragen und Wahrnehmung der Betroffenenrechte, lit. e) – Unterstützung des Verantwortlichen bei der Einhaltung der Art. 32–36 DSGVO, lit. f) – Regelungen zur Löschung oder Rückgabe der Daten nach Beendigung der Auftragsverarbeitung, lit. g) – Zurverfügungstellung von Informationen und Ermöglichung von Überprüfungen, lit. h) 699

Möllenkamp / Ohrtmann, ZD 2019, 445 (449). „Dritter“ ist nach Art. 4 Nr. 10 DS-GVO eine natürliche oder juristische Person, Behörde, Einrichtung oder andere Stelle, außer der betroffenen Person, dem Verantwortlichen, dem Auftrags­verarbeiter und den Personen, die unter der unmittelbaren Verantwortung des Verantwort­ lichen oder des Auftragsverarbeiters befugt sind, die personenbezogenen Daten zu verarbeiten. 701 Eckhardt, CCZ 2017, 111 (113). 702 B. Schmidt / Freund, ZD 2017, 14 (17). 703 Bussche / Voigt / Bussche / Voigt, Teil 3 Kap. 4 50 f. 700

174

Kap. 5: Rechtliche Problemstellungen

(2) Pflichten des Auftragsverarbeiters Neben den vertraglichen Verpflichtungen des Auftragsverarbeiters ergeben sich weitere – als Folge der Verlagerung der Verantwortlichkeit nicht nur auf den Verantwortlichen selbst – nunmehr direkt aus der DS-GVO selbst.704 Möchte der Auftragsverarbeiter selbst Unterauftragnehmer beschäftigen, so bedarf er hierfür eine gesonderte oder allgemeine Genehmigung seitens des Verantwortlichen, Art. 28 Abs. 2 S. 1 DS-GVO. Erteilt der Verantwortliche eine allgemeine Genehmigung, hat der Auftragsverarbeiter jede beabsichtigte Änderung im Vorfeld anzuzeigen. Dies versetzt den Verantwortlichen in die Lage, unerwünschte Änderungen mittels Einspruchs zu unterbinden.705 Dieses Vorgehen schafft zur gleichen Zeit jedoch einen ausreichenden Spielraum für mögliche Unterauftragsverhältnisse.706 f) Betrieblicher Datenschutzbeauftragter Die Figur eines betrieblichen Datenschutzbeauftragten war dem europäischen Recht bis zur Einführung der DS-GVO weitgehend unbekannt.707 Das nationale Datenschutzrecht hingegen blickt bereits auf eine nunmehr 40 jährige Tradition zurück und wurde durch die Vorschriften zum Datenschutzbeauftragten in § 4f BDSG a. F. geprägt.708 Nach Art. 37 Abs. 1 DS-GVO ist nunmehr zwingend sowohl seitens des Verantwortlichen als auch des Auftragsverarbeiters ein Datenschutzbeauftragter zu benennen, sofern bestimmte Verarbeitungsszenarien vorliegen. Für den Bereich der intelligenten Assistenten sind hierbei insbesondere die Szenarien der umfangreichen regelmäßigen und systematischen Überwachung von betroffenen Personen (Art. 37 Abs. 1 lit. b) DS-GVO) als auch die umfangreiche Verarbeitung von besonderen Kategorien personenbezogener Daten gemäß Artikel 9 DS-GVO (Art. 37 Abs. 1 lit. c DS-GVO) von Relevanz. Funktion des betrieblichen Datenschutzbeauftragten ist nicht die Aufgabe eines verlängerten Arms der datenschutzrechtlichen Aufsichtsbehörden, sondern vielmehr nach Kort „Anwalt der Betroffenen“.709 Ob ein solcher Beauftragter seitens eines Unternehmens (Art. 4 Nr. 18 DS-GVO) berufen werden muss, richtet sich nicht nach starren Bewertungsgrenzen, sondern vielmehr nach der Kerntätigkeit der Verarbeitung; es verbleibt somit ein gewisser Wertungsspielraum,710 welcher wesenstypisch mit einer Rechtsunsicherheit einhergeht. 704

B. Schmidt / Freund, ZD 2017, 14 (17). Simitis / Hornung / Spiecker genannt Döhmann / Petri, Art. 28 DS-GVO Rn. 44. 706 Petri, ZD 2015, 305 (309). 707 Voigt / Bussche, EU-Datenschutz-Grundverordnung, S. 65. 708 Hoeren, ZD 2012, 355. 709 Kort, ZD 2017, 3. 710 Simitis / Hornung / Spiecker genannt Döhmann / Drewes, Art. 37 DS-GVO Rn. 14. 705

C. Kommunikation mit Sprachassistenten

175

Um als Kerntätigkeit qualifiziert zu werden, darf sich die Verarbeitung personenbezogener Daten nicht nur als eine Nebentätigkeit, sondern viel mehr als Haupttätigkeit des Verantwortlichen oder Auftragsverarbeiters darstellen.711 Nach Helfrich ist es nicht notwendig, dass die Verarbeitung der eigentliche Geschäftszweck ist, es muss ihr jedoch eine so große Bedeutung zukommen, dass der verfolgte Geschäftszweck ohne sie entweder ganz unmöglich oder aus Sicht des Unternehmens ein Erreichen des Zwecks in seiner geplanten Form aus kaufmännischer Sicht nicht erschwinglich wäre.712 Nach dieser Sichtweise ist bei einem Online-Warenhändler der Hauptzweck der Geschäftstätigkeit der Verkauf von Waren, eine Auswertung und Analyse der Kundendaten reiner Nebenzweck.713 Der Betrieb eines Sprachassistenten hingegen erfordert zwangsläufig eine tiefgehende Verarbeitung von Daten, da sowohl ein Beantworten von Fragen durch die Auswertung von Stimmdaten, als auch die Kommunikation mit anderen Geräten und Verwaltung von Aufgaben, einen Zugriff auf (oftmals) personenbezogene Daten notwendig macht. aa) Kerntätigkeit der umfangreichen, regelmäßigen und systematischen Überwachung Der Begriff der Überwachung ist in der DS-GVO selbst zwar nicht definiert, deckt sich jedoch mit dem der Beobachtung i. S. d. Art. 3 Abs. 2 lit. b DS-GVO und geht über rein punktuelle Datenerhebungen hinaus.714 Ob eine Verarbeitungstätigkeit der Beobachtung des Verhaltens von betroffenen Personen gilt, sollte daran festgemacht werden, ob ihre Internetaktivitäten nachvollzogen werden, einschließlich der möglichen nachfolgenden Verwendung von Techniken zur Verarbeitung personenbezogener Daten, durch die von einer natürlichen Person ein Profil erstellt wird, das insbesondere die Grundlage für sie betreffende Entscheidungen bildet oder anhand dessen ihre persönlichen Vorlieben, Verhaltensweisen oder Gepflogenheiten analysiert oder vorausgesagt werden sollen.715 Bezüglich der Merkmale der Regelmäßigkeit und Systematik kann auf die Einlassung der Art.-29-Datenschutzgruppe zurückgegriffen werden. Regelmäßig ist eine Überwachung dann anzunehmen, wenn sie entweder fortlaufend, immer wieder oder wiederholt zu bestimmten Zeitpunkten oder ständig bzw. regelmäßig stattfindet.716 Als systematisch wird sie erachtet, sofern diese mindestens eine von vier Eigenschaften aufweist: (1) systematisch vorkommend, (2) vereinbart, organisiert oder methodisch, (3) im Rahmen eines allgemeinen Datenerfassungsplans oder (4) im Rahmen einer Strategie erfolgend.717 711

Erwg. 97 S. 1 der DS-GVO. Sydow / Helfrich, Art. 37 DS-GVO Rn. 64. 713 Gierschmann, ZD 2016, 51 (52). 714 Ehmann / Selmayer / Heberlein, Art. 6 DS-GVO Rn. 23. 715 Erwg. 24 der DS-GVO. 716 Artikel-29-Datenschutzgruppe, WP 243 rev.01 16/DE 2017 (10). 717 Artikel-29-Datenschutzgruppe, WP 243 rev.01 16/DE 2017 (10). 712

176

Kap. 5: Rechtliche Problemstellungen

Bezeichnend für die Wertungsspielräume müssen die vorgenannten Kriterien nicht gleichwertig nebeneinander stehen, sondern es ist in einer Gesamtschau abzuwägen,718 ob ein kritischer Punkt überschritten wird, der die Bestellung eines betrieblichen Datenschutzbeauftragten erforderlich macht. bb) Kerntätigkeit der Verarbeitung besonderer Kategorien personenbezogener Daten Eine Pflicht zur Benennung besteht ebenfalls nach  Art.  37 Abs. 1 lit. c)  DSGVO, sofern die Kerntätigkeit im Bereich der Verarbeitung besonderer Kategorien personenbezogener Daten nach Art. 9 DS-GVO liegt. Legt man dem Wortlaut der DS-GVO hier eine enge Auslegung zu Grunde, könnte dies ein nicht zu unterschätzendes Hindernis für den Einsatz von Sprachassistenten bedeuten. Die Funktionalität eines solchen Assistenten bedingt es zwingend, dass die Auswertung des gesprochenen Wortes – wobei die Stimme einer natürlichen Person als besonderes Datum i. S. d. Art. 9 DS-GVO zu werten ist (vgl. S. 145) – Kerntätigkeit für die Funktionalität des Systems ist. Eine Beschränkung der Benennungspflicht stellt jedoch das Tatbestandsmerkmal der „umfangreichen“ Verarbeitung dar. Nach den Erwägungsgründen der DS-GVO ist eine Verarbeitung beispielhaft dann nicht umfangreich, wenn die Verarbeitung personenbezogene Daten von Patienten oder von Mandanten betrifft und durch einen einzelnen Arzt, sonstigen Angehörigen eines Gesundheitsberufes oder Rechtsanwalt erfolgt. In diesen Fällen sollte eine Datenschutz-Folgenabschätzung nicht zwingend vorgeschrieben sein.719 Folglich ist zu differenzieren: der Betreiber eines Sprachassistenten wird in der Regel unproblematisch die Anforderungen an eine umfangreiche Verarbeitung erfüllen, der Verwender eines Sprachassistenten, zum Beispiel zur Verwaltung einer Arztpraxis, nur in Ausnahmefällen. Die Literatur verweist hierzu auf die Größe eines Krankenhauses oder Krankenversicherung.720 cc) Nationale Regelung Von der in Art. 37 Abs. 4 DS-GVO enthaltenen Öffnungsklausel hat der nationale Gesetzgeber für den Bereich des betrieblichen Datenschutzbeauftragten für nichtöffentliche Stellen (§ 2 Abs. 4 BDSG) Gebrauch gemacht und nationale Regelungen in § 38 BDSG getroffen. Zusätzlich zu den Vorschriften der DS-GVO – die Öffnungsklausel erlaubt es, punktuell über das Niveau der DS-GVO hinausgehende Regelungen zu erlassen721 – ist ein betrieblicher Datenschutzbeauftragter zu be 718

Simitis / Hornung / Spiecker genannt Döhmann / Drewes, Art. 37 DS-GVO Rn. 25. Erwg. 91 S. 4 der DS-GVO. 720 Ehmann / Selmayer / Heberlein, Art. 37 DS-GVO Rn. 27. 721 BeckOK DatenschutzR / Moos, § 38 BDSG Rn. 1; Gola / Heckmann / Rücker / Dienst, § 38 BDSG Rn. 9. 719

C. Kommunikation mit Sprachassistenten

177

stellen, sofern mindesten zwanzig Personen mit der automatisierten Verarbeitung personenbezogener Daten betroffen sind, die Verarbeitung eine Datenschutz-­ Folgenabschätzung nach Art. 35 DS-GVO erfordert oder die Datenverarbeitung geschäftsmäßig erfolgt.722 g) Datenschutz-Folgenabschätzung Eine Datenschutz-Folgenabschätzung hat der Verantwortliche bei einem Einsatz von Virtuellen Assistenten dann durchzuführen, wenn auf Grund der Art, des Umfangs, der Umstände und der Zwecke der Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zu befürchten ist, Art. 35 Abs. 1 S. 1 DS-GVO. Die Datenschutz-Folgenabschätzung zielt auf die potentiellen Gefahren neuer Technologien ab und soll dem Verantwortlichen im Vorfeld der Bearbeitung eine Reflexion der rechtlichen und ethischen Gesichtspunkte der Verarbeitung ermöglichen,723 indem er die Perspektive der betroffenen Personen einnimmt und eine Risikoabschätzung durchführt.724 Da ein Sprachassistent sehr viele personenbezogene Daten, unter anderem auch biometrische, verarbeitet, ist eine solche Abschätzung wohl in der Regel durchzuführen.725 Gegenstand der Bewertung sind insbesondere die technischen Risiken für die Datensicherheit, die der Einsatz Künstlicher Intelligenzen für die Rechte und Freiheiten der betroffenen Personen mit sich bringen kann.726 Das hierbei zu ermittelnde Risiko ergibt sich aus einer Gesamtschau der zu erwartenden Schwere der Beeinträchtigung und den denkbaren mittel- und unmittelbaren physischen, materiellen bzw. immateriellen Schäden der Rechte der Betroffenen.727 In dieser der Datenverarbeitung vorgelagerten Natur des risikobasierten Ansatzes der DS-GVO und Datenschutz-Folgenabschätzung728 liegt das größte Problem für eine Anwendbarkeit auf Künstliche Intelligenzen. KI basierte Systeme, deren Autonomie weiter vorangeschritten sind, zeichnen sich dadurch aus, dass eine vorweggenommene Aussage über die zu erwartenden Verarbeitungen und Handlungen schwerlich getroffen werden kann und sich die eigenständige Weiterentwicklung nicht in einer vorweggenommenen Risikobewertung sinnvoll darstellen lässt.729

722 Zu den Anforderungen an eine geschäftsmäßige verarbeitung vgl. vertiefend BeckOK DatenschutzR / Moos, § 38 BDSG 15 ff. 723 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 119. 724 Roßnagel / Geminn / Johannes, ZD 2019, 435 (436). 725 C. Conrad, ITRB 2018, 116 (117). 726 Kühling / Buchner / Jandt, Art. 35 DS-GVO Rn. 42. 727 Syckor / Strufe / L auber-Rönsberg, ZD 2019, 390 (391). 728 Gola / Klug, NJW 2020, 660. 729 So auch C. Conrad, DuD 2017, 740 (744).

178

Kap. 5: Rechtliche Problemstellungen

h) Übermittlung in Drittländer Oftmals wird eine Verarbeitung der Daten des Sprachassistenten nicht auf Servern innerhalb des Erhebungslandes bzw. auf dem Gebiet der Europäischen Union stattfinden. Hierfür halten die Artt. 44 ff. DS-GVO besondere Anforderungen vor. Diese sind nicht als eigene Rechtfertigungstatbestände ausgestaltet, sie treten vielmehr als zusätzliche Zulässigkeitsvoraussetzung neben die allgemeinen Erlaubnistatbestände und Anforderungen der DS-GVO.730 Fehlt es an einer Erfüllung der allgemeinen Anforderungen, so ist eine Übermittlung731 in ein Drittland alleine deswegen bereits unzulässig.732 Eine Einwilligung wurde auf Grund ihrer freien Widerruflichkeit bereits in Ansehung der Datenschutz-RL für eine wiederholte und routinemäßige Übermittlung von Daten in Drittländer seitens der Art.-29-Datenschutzgruppe als nicht hinreichend erachtet.733 Überdies sind die seitens der Betreiber bereitgestellten Informationen oftmals nicht ausreichend, damit der Betroffene bezüglich der Übermittlung in ein Drittland eine informierte Einwilligung treffen kann. Der Anbieter Amazon beispielsweise verbleibt bei seinen Nutzungsbedingungen äußerst vage. In den Nutzungsbedingungen finden sich nur die Hinweise (Unterstreichungen seitens des Autors):734 „[…] 1.3 Alexa Interaktionen. Alexa ist ein Dienst, den Sie über Ihre Stimme steuern und der sich kontinuierlich verbessert. Alexa leitet Audiodaten in die Cloud, wenn Sie mit Alexa interagieren. Alexa lernt dabei und wird immer intelligenter; Alexa wir automatisch über die Cloud aktualisiert und neue Features und Skills werden hinzugefügt. […] Anhang zum Dienst Anrufe und Nachrichten mit Alexa 1.1 Allgemein: Ihre Nachrichten, Kommunikationsanfragen (z. B. „Alexa, rufe Mama an“) und damit verbundene Interaktionen sind „Alexa Interaktionen“ im Sinne der Alexa Nutzungsbedingungen. Amazon verarbeitet und speichert Ihre Nachrichten in der Cloud, um Ihnen den Dienst zur Verfügung zu stellen, einschließlich der Übertragung von Sprache in Text und umgekehrt, und um Ihnen zusätzliche Funktionalitäten bereitzustellen. […]“

Die weiterführende Datenschutzerklärung selbst enthält allgemeine Hinweise, dass Amazon „an dem Programmen EU-US und Schweiz-US Privacy Shield („EU-US-Datenschutzschild“) für die Erhebung, Nutzung und Speicherung von 730

Taeger / Gabel / Gabel, Art. 44 DS-GVO Rn. 14. Eine Übermittlung im Sinne der DS-GVO liegt vor, wenn personenbezogene Daten durch den Verantwortlichen oder Auftragsverarbeiter gegenüber einem Empfänger in einem Drittland außerhalb des europäischen Wirtschaftsraumes offengelegt werden, vgl. Spindler / Fabian Schuster / Voigt, Art. 49 DS-GVO Rn. 5. 732 Datenschutzkonferenz, Kurzpapier Nr. 4, Datenübermittlung in Drittländer, 2019, S. 1. 733 Artikel-29-Datenschutzgruppe, WP 114 2092–01/05/DE 2005 (13). 734 Amazon, Alexa Nutzungsbedingungen, https://www.amazon.de/gp/help/customer/display. html?nodeId=201809740 (Stand: 27. 09. 2020). 731

C. Kommunikation mit Sprachassistenten

179

persönlichen Informationen aus Mitgliedsstaaten der Europäischen Union, dem Vereinigten Königreich und der Schweiz“735 teilnimmt, gibt jedoch keine genauen Informationen, wann und an welche Standorte innerhalb der Amazon Cloud Daten versandt und verarbeitet werden. Diese Informationen wären jedoch Mindestvoraussetzungen einer wirksamen Einwilligungserklärung. Überdies befinden sich die Algorithmen von intelligenten Systemen im ständigen Wandel, sodass sich Unternehmen bereits aus praktischen Gründen im Rahmen der Übermittlung von Daten an Datencenter nicht auf das Institut der Einwilligung verlassen können.736 In der Praxis wird auch bei der Übermittlung von Daten in das Ausland auf Art. 6 Abs. 1 lit. b) und lit. f) DS-GVO rekurriert werden müssen. aa) Feststellung der Angemessenheit des Datenschutzniveaus im Drittland durch die EU-Kommission, Art. 45 DS-GVO Eine Übermittlung personenbezogener Daten an ein Drittland oder eine internationale Organisation darf vorgenommen werden, wenn die Kommission beschlossen hat, dass das betreffende Drittland, ein Gebiet oder ein oder mehrere spezifische Sektoren in diesem Drittland oder die betreffende internationale Organisation ein angemessenes Schutzniveau bietet, Art. 45 Abs. 1 S. 1 DS-GVO. Das seitens des Drittlands vorgehaltene Datenschutzniveau muss mit jenem der Unionsrechtsordnung nicht identisch sein, der Kommission steht nach der Rechtsprechung des EuGH jedoch keine allzu ausufernde Flexibilität zur Seite.737 So ist der Ausdruck „angemessenes Schutzniveau“ so zu verstehen, dass verlangt wird, dass das Drittland auf Grund seiner innerstaatlichen Rechtsvorschriften oder internationaler Verpflichtungen tatsächlich ein Schutzniveau der Freiheiten und Grundrechte gewährleistet, das dem in der Union auf Grund der DS-GVO im Licht der Charta garantierten Niveau der Sache nach gleichwertig ist.738 Von der Kommission bisher auf Grundlage von Art. 25 Abs. 6 Datenschutz-RL erlassene Feststellungen bleiben auch nach Geltungserlangung der DS-GVO in Kraft, solange sie nicht durch einen Beschluss der Kommission geändert, ersetzt oder aufgehoben werden, Art. 45 Abs. 9 DS-GVO.739 Ein besonderes Augenmerk gilt dabei der Datenübermittlung in die Vereinigten Staaten von Amerika (USA) als Sitzland der derzeit größten Anbieter intelligenter Sprachassistenten (Google, Apple und Microsoft). Die USA weisen nach Auffas 735 Amazon, Amazon.de Datenschutzerklärung, https://www.amazon.de/gp/help/customer/ display.html?nodeId=3312401 (Stand: 27. 09. 2020). 736 N. Geppert, ZD 2018, 62 (65). 737 Kühling / Buchner / C . Schröder, Art. 45 DS-GVO Rn. 12. 738 EuGH Urt. v. 6. 10. 2015 – C-362/14, EuZW 2015, 881 (885) – Schrems Rz. 73. 739 Eine aktuelle Liste aller Angemessenheitsbeschlüsse kann auf der Webseite der Kommission unter https://ec.europa.eu/info/law/law-topic/data-protection/international-dimensiondata-protection/adequacy-decisions_de (Stand: 15. 03. 2020) abgerufen werden.

180

Kap. 5: Rechtliche Problemstellungen

sung der Kommission grundsätzlich kein mit dem europäischen Recht vergleichbares Datenschutzniveau auf. Seit dem Jahr 2000 und bis zur Ungültigkeitserklärung seitens des EuGH im Jahr 2015740 konnte ein vereinfachter Datentransfer dennoch erfolgen, sofern sich das empfangende Unternehmen nach den Safe-Harbour-­ Principles741 selbst verpflichtet hatte.742 Nachfolger des gescheiterten Safe-Harbour-Principles ist das EU-US Privacy Shield743, welches am 01. 08. 2016 in Kraft getreten ist und inhaltlich mit seinem Vorgänger vergleichbar ist: Es handelt sich um eine freiwillige Selbstregulierung der teilnehmenden US-amerikanischen Unternehmen unter der „Aufsicht“ des USHandelsministeriums.744 Positiv zu bewerten ist an der neuen Übereinkunft, dass die Möglichkeiten der Überwachung durch das US-Handelsministerium, die FTC sowie das US-Verkehrsministerium gestärkt wurden und auch Nicht-US-Bürgern auf Grund des Judicial Redress Acts745 eine direkte Klagemöglichkeit vor US-amerikanischen Gerichten eingeräumt wurde.746 Kritisiert werden kann hingegen, dass auch das Privacy Shield weiterhin auf eine Zertifizierung Dritter (der teilnehmenden Unternehmen) setzt und gerade keine positiven und originären völkerrechtlich bindenden Verpflichtungen seitens der USA und der EU etabliert wurden.747 Trotz aller Bedenken hielt die EU Kommission zumindest nach der dritten jährlichen Überprüfung weiterhin an der Funktionsfähigkeit des Privacy Shields fest.748 Eine höchstrichterliche Entscheidung stand zu diesem Zeitpunkt jedoch noch aus. Der EuG hatte 2017 eine Nichtigkeitsklage gegen den Kommissionsbeschluss der Digital Rights Ireland Ltd als unzulässig abgewiesen, ohne jedoch inhaltlich auf vorgebrachte materiellrechtliche Argumente einzugehen.749 Zweifel an der Vereinbarkeit des Privacy Shields mit den Grundsätzen aus Artt. 7 und 8 GRCh äußert der Generalanwalt des EuGH Øe erstmals in seinen Schlussanträgen in der Rechtssache Facebook Ireland / Schrems,750 eine rechtliche Bewertung des EuGH wurde jedoch grundsätzlich nicht erwartet, da sich die Rechtssache primär auf den Durchführungsbeschluss der Kommission bezüglich Standardvertragsklauseln für die Übermittlung personenbezogener Daten in Drittländer751 bezog.

740

EuGH Urt. v. 6. 10. 2015 – C-362/14, EuZW 2015, 881 – Schrems. Europäische Kommission, ABl. L 215, 7. 742 G. Schröder, Datenschutzrecht für die Praxis, 194 f. 743 Europäische Kommission, ABl. L 207, 1–112. 744 Sydow / Towfigh / Ulrich, Art. 44 DS-GVO Rn. 14. 745 Public Law No: 114–126 (02/24/2016). 746 Lewinski, EuR 2016, 405 (413). 747 Molnár-Gábor / Kaffenberger, ZD 2018, 162 (164). 748 Europäische Kommission, Report from the Commission to the European Parliament and the Council on the third annual review of the functioning of the EU-U. S. Privacy Shield, COM(2019) 495 final, 2019. 749 EuG Beschl. v. 22. 11. 2017 – T-670/16, BeckEuRS 2017, 531159 – Digital Rights Ireland /  Kommission. 750 EuGH, Schlussantrag des Generalanwalts v. 19. 12. 2019 – C-311/18, BeckRS, 32163 Rz. 342. 751 Europäische Kommission, ABl. L 344, 100. 741

C. Kommunikation mit Sprachassistenten

181

Dieser Einschätzung ist der EuGH nicht gerecht geworden. Am 16. 07. 2020 folgte vielmehr eine Entscheidung, die als eine Erschütterung der digitalen Datenwirtschaft zu bezeichnen ist. In seinem Urteil Schrems II752 erklärt der EuGH zwar die Standarddatenschutzklauseln weiterhin für anwendbar, das EU-US Privacy Shield jedoch für unwirksam. Der EuGH stützt seine Argumentation insbesondere darauf, dass die US-amerikanischen Behörden nach dem Recht der Vereinigten Staaten, insbesondere beispielsweise FISA und CLOUD-Act, weitreichend auf Daten zugreifen und diese verwenden können. Für personenbezogene Daten, die aus der EU in die USA übermittelt werden, besteht folglich kein der EU zumindest entsprechendes Datenschutzniveau.753 Darüber hinaus stehen gemäß den Ausführungen des EuGH europäischen Betroffenen keine wirksamen Rechtsbehelfe gegen die Überwachungsmaßnahmen der Behörden zu, die gerichtlich durchgesetzt werden könnten.754 Das Vorliegen derartiger Rechtsbehelfe ist jedoch grundsätzlich für die Bestimmung der Angemessenheit des Datenschutzniveaus essentiell, da den Behörden und Gerichten der Mitgliedsstaaten der EU gegenüber US-amerikanischen Behörden keine hinreichenden Befugnisse und Mittel zur Verfügung stehen, um Beschwerden der Betroffenen erschöpfend abzuhelfen.755 Für (geschäftliche) Nutzer von Sprachassistenten hat diese Entscheidung weitreichende Folgen. Eine Übermittlung personenbezogener Daten in die USA, gestützt auf das EU-US Privacy Shield, ist seit der Entscheidung des EuGH unzulässig. Auch ein Rückgriff auf andere Garantien, wie beispielsweise die Standarddatenschutzklauseln gestaltet sich schwierig. Obwohl der EuGH die Standarddatenschutzklauseln für grundsätzlich hinreichend erachtet hat, ist es erforderlich, dass bei der Übermittlung in die USA zusätzliche Maßnahmen ergriffen werden, die nach einer Einzelfallanalyse der Umstände der Übermittlung sicherstellen, dass US-Recht das durch die Standardvertragsklauseln gewährleistete angemessene Schutzniveau nicht beeinträchtigt.756 Eine solche Garantie wird jedoch ohne Partizipation der amerikanischen Legislative schwerlich zu realisieren sein. Vertragliche Regelungen zwischen Datenexporteur und Datenimporteur können staatliche Zugriffsbefugnisse nicht ausschließen, sondern lediglich deren Auswirkungen beispielsweise durch entsprechende Informationspflichten und Schadensersatzvereinbarungen im Falle eines Zugriffs abmildern. Im Lichte der derzeitigen Rechtslage ist eine Übermittlung personenbezogener Daten in die USA folglich grundsätzlich nur auf Grundlage der Ausnahme einer informierten Einwilligung des Betroffenen nach Art. 49 Abs. 1 S. 1 lit. a) DS-GVO denkbar. 752

EuGH Urt. v. 16. 7. 2020 – C-311/18, NJW 2020, 2613 – Schrems II. EuGH Urt. v. 16. 7. 2020 – C-311/18, NJW 2020, 2613 (2621) – Schrems II Rz. 185. 754 EuGH Urt. v. 16. 7. 2020 – C-311/18, NJW 2020, 2613 (2621) – Schrems II Rz. 192. 755 EuGH Urt. v. 16. 7. 2020 – C-311/18, NJW 2020, 2613 (2621) – Schrems II Rz. 189. 756 Europäischer Datenschutzausschuss, Häufig gestellte Fragen zum Urt. des Gerichtshofs der Europäischen Union in der Rechtssache C-311/18 – Data Protection Commissioner gegen Facebook Ireland Ltd und Maximillian Schrems, 2020, S. 3. 753

182

Kap. 5: Rechtliche Problemstellungen

Obwohl der EuGH das Privacy Shield ebenfalls für unanwendbar erklärt, ist es sehr wahrscheinlich, dass auf Grund der Wichtigkeit des transatlantischen Datenaustausches ein ähnliches Abkommen in Zukunft erneut getroffen werden dürfte.757 bb) Vorliegen geeigneter Garantien, Art. 46 DS-GVO Da auf Grund der hohen Anforderungen und der Komplexität des Verfahrens für die meisten Länder bisher kein Angemessenheitsbeschluss vorliegt, eine Übermittlung von Daten jedoch dennoch wünschenswert sein kann, sieht Art. 46 Garantien vor, bei deren Vorliegen das Fehlen eines angemessenen Datenschutzniveaus im Drittland kompensiert wird und wesentliche Elemente des europäischen Datenschutzes seitens des Verarbeitenden gewährleistet werden.758 (1) Verbindliche interne Datenschutzvorschriften Verbindliche interne Datenschutzvorschriften (Binding Corporate Rules) nach Art. 46 Abs. 2 lit. b), Art. 47 DS-GVO sind insbesondere für international tätige Konzerne, z. B. Betreiber der marktführenden Sprachassistenten, mit internationalem Datenfluss zu empfehlen.759 Der Vorteil an diesen ist, dass das Unternehmen die Datennutzung nach seinen betrieblichen Vorgaben zuschneiden kann und die Regelungen für die betroffenen Mitarbeiter besser verständlich sind, als allgemeine Standardvertragsklauseln.760 Allerdings genügt es nicht, dass ein Unternehmen solche Regelungen eigenständig aufstellt, diese müssen viel mehr im Wege des Kohärenzverfahrens nach Art. 63 DS-GVO von der zuständigen Aufsichtsbehörde genehmigt werden, Art. 47 Abs. 1 DS-GVO, was zur Folge hat, dass auf Grund des langwierigen und aufwändigen Implementierungs- und Genehmigungsprozesseses die Anzahl an Unternehmensgruppen, die solche Binding Corporate Rules umgesetzt haben, in Deutschland und Europa sehr überschaubar ist.761 (2) Standarddatenschutzklauseln der Kommission oder einer Aufsichtsbehörde Neben eigens entwickelten internen Datenschutzvorschriften verbleibt den international tätigen Unternehmen ein Rückgriff auf die seitens der Kommission als Durchführungsrechtsakte erlassenen Standarddatenschutzklauseln, Art. 46 Abs. 2 lit.  c  und  lit. d)  DS-GVO. Anders als vertragliche Regelungen bedarf der Ein 757

Mense, ZD 2019, 351 (355). BeckOK DatenschutzR / L ange / Filip, Art. 46 DS-GVO Rn. 2. 759 Datenschutzkonferenz, Kurzpapier Nr. 4, Datenübermittlung in Drittländer, 2019, S. 2. 760 Forgó / Helfrich / J. Schneider / Spies, Teil VI. Kap. 2. Rn. 25. 761 Laue / K remer / Kremer, § 5 Rn. 50. 758

C. Kommunikation mit Sprachassistenten

183

satz – sofern keine Abänderungen im Einzelfall vorgenommen werden – solcher Datenschutzklauseln keiner gesonderten Genehmigung seitens der zuständigen Aufsichtsbehörden.762 Der Vorteil liegt darin, dass die Klauseln von einer Vielzahl von Unternehmen genutzt werden können und den Anwendern Rechtssicherheit garantieren; dies geht jedoch mit einer Verminderung an Flexibilität einher.763 Derzeit stehen hierfür drei Standarddatenschutzklauseln zur Verfügung, wovon sich zwei auf die Übermittlung an Empfänger, die die Daten als Verantwortliche erhalten, richten764 und eine an Empfänger, die die Daten zum Zwecke der Auftragsverarbeitung erhalten, gerichtet ist.765 Hinzufügungen weiterer Klauseln und Garantien sind dann genehmigungsfrei, wenn sie nicht im Widerspruch zu den Standarddatenschutzklauseln stehen und die Grundrechte und Grundfreiheiten der Betroffenen nicht verkürzen.766 (3) Genehmigte Verhaltensregeln und genehmigter Zertifizierungsmechanismus Mit der DS-GVO neu hinzugekommen ist die Möglichkeit einer Datenübermittlung in Drittländer auf Grund genehmigter Verhaltensregeln nach Art. 40 DS-GVO als Instrument der Selbstregulierung, Art. 46 Abs. 2 lit. e) DS-GVO. Voraussetzung ist, dass die Verhaltensregeln rechtsverbindliche und durchsetzbare Verpflichtungen gegenüber dem Empfänger im Drittland beinhalten – dies gilt insbesondere bezüglich der Rechte der Betroffenen767- und von der Aufsichtsbehörde genehmigt worden sind.768 Ebenfalls neuartig ist die auf genehmigte Zertifizierungsmechanismen (Art. 42 DS-GVO) gestützte Datenübermittlung, Art. 46 Abs. 2 lit. f) DS-GVO. Eine Zertifizierung nach Art.42 DS-GVO wird durch die Zertifizierungsstellen nach Art. 43 DS-GVO oder durch die zuständige Aufsichtsbehörde anhand der von dieser zuständigen Aufsichtsbehörde gemäß Art. 58 Abs. 3 DS-GVO oder – gemäß Art. 63 DS-GVO – durch den Ausschuss genehmigten Kriterien erteilt. Schantz fasst diese Möglichkeit als Systembruch auf, da eine endgültige Entscheidung der Zertifizierung durch eine private Zertifizierungsstelle erfolgen kann und zum anderen eine Genehmigung durch den Europäischen Datenschutzausschuss von Art. 42 Abs. 5 DS-GVO nicht gefordert wird, es somit zu einer EU-uneinheitlichen Zertifizierung kommen kann.769 762

Schantz / Wolff / Schantz, D. VI. Rn. 781. Sydow / Towfigh / Ulrich, Art. 46 DS-GVO Rn. 10. 764 Europäische Kommission, ABl. L 181, 19; sowie Europäische Kommission, ABl. L 385, 74. 765 Europäische Kommission, ABl. L 39, 5. 766 Datenschutzkonferenz, Kurzpapier Nr. 4, Datenübermittlung in Drittländer, 2019, S. 2. 767 BeckOK DatenschutzR / L ange / Filip, Art. 46 DS-GVO Rn. 49. 768 Datenschutzkonferenz, Kurzpapier Nr. 4, Datenübermittlung in Drittländer, 2019, S. 2. 769 Simitis / Hornung / Spiecker genannt Döhmann / Schantz, Art. 46 DS-GVO Rn. 73. 763

184

Kap. 5: Rechtliche Problemstellungen

cc) Ausnahmen für bestimmte Fälle, Art. 49 DS-GVO Art. 49 DS-GVO schließlich regelt eine abschließende Aufzählung an Ausnahmen, wann eine Datenübertragung auch dann möglich ist, wenn keine der zuvor aufgeführten Maßnahmen ergriffen worden sind.770 Um dem Wesen der DS-GVO nicht zu widersprechen, welche gerade ein möglichst hohes Schutzniveau für personenbezogene Daten schaffen möchte, sind die Ausnahmen des Art. 49 DS-GVO restriktiv zu verstehen.771 Bereits zu Art. 26 Datenschutz-RL, welcher seinem Wesen nach mit Art. 49 DS-GVO zu vergleichen ist, kam die Art.-29-Datenschutzgruppe zu der Übereinkunft, dass die eng auszulegenden Ausnahmen überwiegend Konstellationen betreffen sollten, in denen die Risiken für die betroffenen Personen überschaubar sind und aus diesem Grund andere Interessen Vorrang vor den Rechten der Betroffenen genießen können.772 Zumindest für Übermittlungen, die im Rahmen üblicher Geschäftsabläufe erfolgen – hierunter ist die Übermittlung von Daten der Sprachassistenten auf die Rechenzentren des Betreibers zu fassen –, legt der Europäische Datenschutzausschuss nahe, diese nicht auf die Ausnahme nach Art. 49 DS-GVO zu stützen, sondern auf geeignete Garantien nach Art. 46 DS-GVO.773 i) Verbot automatisierter Entscheidungen Eine dezidierte rechtliche Unterscheidung zwischen menschlichen und algorithmischen Entscheidungen ist dem Datenschutzrecht grundsätzlich fremd.774 Allerdings hält die DS-GVO gesonderte Regelungen für den Fall einer vollautomatischen Entscheidung in Art. 22 DS-GVO vor.775 Das Profiling, mithin jede Art der automatisierten Verarbeitung personenbezogener Daten, die darin besteht, dass diese personenbezogenen Daten verwendet werden, um bestimmte persönliche Aspekte, die sich auf eine natürliche Person beziehen, zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, wirtschaftliche Lage, Gesundheit, persönliche Vorlieben, Interessen, Zuverlässigkeit, Verhalten, Aufenthaltsort oder Ortswechsel dieser natürlichen Person zu analysieren oder vorherzusagen, Art. 4 Nr. 4 DS-GVO, findet spezielle Regelungen in Art. 22 DS-GVO. Hiernach hat die betroffene Person das grundsätzliche Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich 770

Voigt / Bussche, EU-Datenschutz-Grundverordnung, S. 172. BeckOK DatenschutzR / L ange / Filip, Art. 49 DS-GVO Rn. 2. 772 Artikel-29-Datenschutzgruppe, WP 114 2092–01/05/DE 2005 (8). 773 Europäischer Datenschutzausschuss, Leitlinien 2/2018 zu den Ausnahmen nach Artikel 49 der Verordnung 2016/679, 2018, S. 13. 774 C. Ernst, JZ 2017, 1026 (1029). 775 Dies ist kein Novum der DS-GVO, vergleichbare Regelungen waren bisher in Art. 15 Datenschutz-RL sowie § 6a BDSG a. F. vorgesehen. 771

C. Kommunikation mit Sprachassistenten

185

Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt, Art. 22 Abs. 1 DS-GVO. Die für das Profiling nötigen Daten kann ein intelligenter Assistent zum einen aus den seitens des Verwenders im Internet oder gegenüber dem Assistenten bereitgestellten Daten als auch aus Cookies oder Webtracking extrapolieren.776 Das wird im Zuge von Big Data gestützten Analyseverfahren deswegen umso relevanter, da auf Künstlicher Intelligenz beruhende Anwendungen, bei der Beurteilung der Persönlichkeit des Betroffenen wesentlich genauer sind als Menschen und diese Genauigkeit mit steigender Anzahl an gesammelten Daten weiter zunimmt.777 Hintergrund der Vorschrift ist, dass die betroffene Person sich gegenüber einer für ihn schwer nachvollziehbaren automatischen Entscheidung ausgeliefert fühlt und die Hilflosigkeit gegenüber Automaten zur gesellschaftlichen Norm wird.778 Dass es sich hierbei nicht um eine unbegründete Angst handelt, zeigen die Erkenntnisse, dass intelligente Systeme bereits rein aus den von einer natürlichen Person in einem sozialen Netzwerk vergebene „Likes“ Rückschlüsse auf individuelle Merkmale und Eigenschaften, z. B. die sexuelle Orientierung des Nutzers, ziehen können, wobei es unerheblich ist, ob die „Likes“ mit dieser Eigenschaft in einem direkten Zusammen stehen. Das konkrete System schrieb beispielsweise Menschen eine hohe Intelligenz unter anderem auf Grundlage der positiven „Likes“ zu „Curly Fries“ und „Thunderstorms“ zu.779 Art. 22 DS-GVO ist seiner Natur nach nicht als gesetzliche Verbotsnorm ausgestaltet, die Regelung verschafft der betroffenen Person vielmehr einen subjektiven Unterlassungsanspruch, einer solchen Entscheidung nicht unterworfen zu werden.780 Ein Anspruch besteht folglich nicht gegen die automatisierte Datenverarbeitung als solche, sondern viel mehr gegen die Entscheidung selbst, wobei der Schutzbereich des Art. 22 DS-GVO nur dann eröffnet ist, sofern diese eine rechtliche Wirkung zur Folge hat bzw. den Betroffenen in ähnlicher Weise erheblich beeinträchtigt.781 aa) Rechtliche Wirkung Eine rechtliche Wirkung der Entscheidung eines autonomen Sprachassistenten liegt dann vor, wenn diese für den Betroffenen eine Rechtsfolge nach sich zieht, wobei es unerheblich ist, ob diese sowohl objektiv als auch subjektiv als positiv 776 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 45. 777 Youyou / Kosinski / Stillwell, PNAS 112 (2015), 1036 (1039). 778 C. Ernst, JZ 2017, 1026 (1030). 779 Kosinski / Stillwell / Graepel u. a., PNAS 110 (2013), 5802 (5804). 780 Franzen / Gallner / Oetker / Franzen, Art. 22 DS-GVO Rn. 3. 781 Kühling / Buchner / Buchner, Art. 22 DS-GVO Rn. 23.

186

Kap. 5: Rechtliche Problemstellungen

oder negativ zu bewerten ist.782 Im für Sprachassistenten besonders relevanten Bereich des Privatrechts zählen hierunter rechtsgeschäftliche Willenserklärungen, wie beispielsweise die Abgabe eines Vertragsangebots oder die Kündigung eines Vertrages.783 Keine rechtliche Wirkung wird hingegen anzunehmen sein, wenn der Assistent eines Händlers individuelle Preise auf Grundlage der personenbezogenen Daten des möglichen Vertragspartners vergibt784, da sich das Vertragsverhältnis noch in der Phase der Anbahnung befindet und das Ausrufen eines Preises als invitatio ad offerendum keine Willenserklärung darstellt, mithin nicht nach § 145 BGB bindend ist.785 bb) Erhebliche Beeinträchtigung Für die Beurteilung einer der rechtlichen Wirkung vergleichbaren erheblichen Beeinträchtigung ist entscheidend, ob sich aus der Entscheidung eine bedeutsame Folge für die Entfaltung der Persönlichkeit ergibt, welche objektiv nach allen Umständen des Einzelfalls zu beurteilen ist.786 Anzuführen sind beispielsweise die Kündigung eines Kredites oder höhere Zinssätze auf Grund eines negativen Scoring-Wertes einer Auskunftei.787 Eine früher zur Datenschutz-RL vertretene Auffassung, wonach das Zusenden von unerwünschten Werbeinformationen mittels zielgruppenorientierter E-Mail-Werbung als Folge einer automatisierten Kundenbewertung als belastende Entscheidung angesehen wurde788, ist unter der DS-GVO inzwischen strittig. Buchner lehnt dies mit dem Verweis auf das in Art. 21 Abs. 2 DS-GVO enthaltene Widerspruchsrecht der betroffenen Person ab, dessen Anwendungsbereich ausgehöhlt werden würde, fasste man die automatisiert versendete Werbung bereits unter Art. 22 DS-GVO.789 Scholz hingegen führt an, dass Art. 22 DS-GVO, anders als Art. 21 DS-GVO, auf die Entscheidung an sich abstellt und nicht die eigentliche Datenverarbeitung zu Werbezwecken.790 Ob es einer Klärung bedarf ist jedoch fraglich, da es grundsätzlich unbenommen bleibt und dem Sinne des Schutzes der Betroffenenrechte sogar zuträglich ist, das Widerspruchsrecht des Art. 21 DS-GVO simultan neben einem subjektiven Unterlassungsanspruch bestehen zu lassen.

782

Simitis / Hornung / Spiecker genannt Döhmann / Scholz, Art. 22 DS-GVO Rn. 32. Simitis / Hornung / Spiecker genannt Döhmann / Scholz, Art. 22 DS-GVO Rn. 34. 784 C. Ernst, JZ 2017, 1026 (1034). 785 Hoeren / Sieber / Holznagel / Kitz, 50, Teil 13.1 Rn. 143. 786 Paal / Pauly / Martini, Art. 22 DS-GVO Rn. 27. 787 Kühling / Buchner / Buchner, Art. 22 DS-GVO Rn. 26. 788 Simitis / Scholz, § 6a BDSG Rn. 28. 789 Kühling / Buchner / Buchner, Art. 22 DS-GVO Rn. 26. 790 Simitis / Hornung / Spiecker genannt Döhmann / Scholz, Art. 22 DS-GVO Rn. 37. 783

C. Kommunikation mit Sprachassistenten

187

cc) Ausnahmetatbestände Von den Vorgaben des Art. 22 Abs. 1 DS-GVO kann abgewichen werden, sofern ein Ausnahmetatbestand des Art. 22 Abs. 2 DS-GVO einschlägig ist und der Verantwortliche nach Abs. 3 angemessene Maßnahmen zum Schutz der Rechte der betroffenen Personen ergriffen hat. Sofern eine Handlung des Sprachassistenten als automatisierte Entscheidung im Sinne der DS-GVO zu werten ist, sind wesentliche Ausnahmemöglichkeiten die Erforderlichkeit zur Erfüllung eines Vertrages zwischen dem Betroffenen und Verantwortlichen, Abs. 2 lit. a), sowie das Vorliegen einer ausdrücklichen Einwilligung der betroffenen Person nach Abs. 2 lit. c) (vgl. zur Problematik einer wirksamen Einwilligung S. 140 ff.). Die Anforderungen an die Erforderlichkeit der Vertragserfüllung sind jedoch nicht im Sinne einer absoluten Alternativlosigkeit zu verstehen, sondern bedürfen lediglich eines unmittelbaren Zusammenhangs mit einem Vertragsschluss, sodass fast alle vertragsbezogenen Datenverarbeitungen letztendlich hierüber gerechtfertigt werden könnten.791 Um dem erhöhten Schutz der besonderen personenbezogenen Daten des Art. 9 DS-GVO gerecht zu werden, sind automatisierte Entscheidungen auch bei Vorliegen eines Ausnahmetatbestandes nach Art. 22 Abs. 2 DS-GVO grundsätzlich nicht möglich.792 dd) Zwischenfazit Bei der Funktionsweise eines Sprachassistenten liegt in der Regel keine recht­ liche oder beeinträchtigende Wirkung vor, sofern die Verwendung findende Künstliche Intelligenz keine vollautonomen und den Verwender beeinträchtigenden Entscheidungen trifft.793 Sofern allerdings der Bereich der derzeitigen Künstlichen Intelligenzen überschritten wird und starke Intelligenzen Einsatz finden, die für und gegen den Verwender eigenmächtige Entscheidungen treffen können, sind die Vorschriften des Art. 22 DS-GVO zu beachten. Da Sprachassistenten überdies oftmals sensible Daten des Verwenders verarbeiten ist sicherzustellen, dass diese bei einer vollständig automatisierten Verarbeitung nur mit ausdrücklicher Einwilligung des Betroffenen, Art. 22 Abs. 4 DS-GVO und unter Einhaltung angemessener Sicherheitsmaßnahmen, Art. 22 Abs. 3 DS-GVO, verwertet werden.

791

Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 47. 792 Ehmann / Selmayer / Hladjk, Art. 22 DS-GVO Rn. 16. 793 Klar, BB 2019, 2243 (2250).

188

Kap. 5: Rechtliche Problemstellungen

j) Rechtsfolgen der Pflichtverletzung Für den für die Verarbeitung Verantwortlichen sind die maßgeblichsten Sanktionen und Haftungsgefahren die des Schadensersatzes nach Art. 82 DS-GVO und die Verhängung eines Bußgeldes durch die zuständigen Aufsichtsbehörden nach Art. 83 DS-GVO. Die Möglichkeit eines Ersatzes des immateriellen Schadens und ein hoher Bußgeldrahmen sollen der DS-GVO gegenüber den bisherigen nationalen Datenschutzgesetzen „Biss“ verleihen.794 aa) Schadensersatz, Art. 82 DS-GVO Art. 82 DS-GVO statuiert einen deliktischen zivilrechtlichen Schadensersatzanspruch, der direkt in die mitgliedstaatlichen Haftungsregime zu integrieren ist und überlagert im nationalen Recht nicht nur das Vertragsrecht, sondern auch die §§ 823 ff., 249 ff. BGB.795 (1) Pflichtverletzung Gemäß Art. 82 Abs. 1 DS-GVO besteht ein Schadensersatzanspruch gegen den Verantwortlichen oder Auftragsverarbeiter bei einem „Verstoß gegen diese Verordnung“. Diese Vorgabe ist nach Erwägungsgrund 146 der DS-GVO weit zu verstehen und umfasst auch jede Verarbeitung, die nicht mit den nach Maßgabe der DS-GVO erlassenen delegierten Rechtsakten und Durchführungsrechtsakten und Rechtsvorschriften der Mitgliedstaaten zur Präzisierung von Bestimmungen der DS-GVO im Einklang steht. Folglich ist auch jeder Verstoß gegen die allgemeinen Datenschutzgrundsätze (z. B. Zweckbindung, Datenminimierung oder Transparenz) erfasst, was zur Folge hat, dass das Feld denkbarer Verstöße wenig umgrenz ist.796 (2) Schaden und Kausalität Über den Umfang des Schadensbegriffs der DS-GVO besteht weitgehend Uneinigkeit, höchstrichterliche Rechtsprechung des EuGH steht hierzu derzeit noch aus. Bergt orientiert sich am Wortlaut des Erwägungsgrund 146 S. 3 der DS-GVO und fordert eine sehr weite Auslegung des Schadensbegriffs, um schon im Vorfeld abzuschrecken und Verstöße unattraktiv zu machen.797 Dieser Ansatz steht grundsätzlich der Rechtsprechung des EuGH nahe, nach welcher Sanktionen durchaus abschreckenden Charakter aufweisen sollen, um dem Unionsrecht Ge 794

Forgó / Helfrich / J. Schneider / J. Schneider / Forgó / Helfrich, Teil I. Kap. 1. Rn. 162. Paal / Pauly / Frenzel, Art. 82 DS-GVO Rn. 1. 796 Kohn, ZD 2019, 498 (500). 797 Kühling / Buchner / Bergt, Art. 82 DS-GVO Rn. 17. 795

C. Kommunikation mit Sprachassistenten

189

wicht zu verschaffen.798 Wybitul hingegen warnt, dass ein zu umfassender Schadensbegriff einer rechtsmissbräuchlichen kommerziellen Geltendmachung von Ansprüchen den Weg bereiten und als Folge dessen eine schwindende Akzeptanz der DS-GVO implizieren bzw. die effektive Durchsetzung langfristig sogar eher behindern könnte.799 Das OLG Dresden legt hingegen einen vermittelnden Schadensbegriff an. So Schützt das Datenschutzrecht zwar per se ein subjektives Recht, das einen starken Bezug zum persönlichen Empfinden des Einzelnen hat. Dennoch ist Art. 82 DS-GVO laut OLG Dresden nicht so auszulegen, dass er einen Schadensersatzanspruch bereits bei jeder individuell empfundenen Unannehmlichkeit oder bei Bagatellverstößen ohne ernsthafte Beeinträchtigung für das Selbstbild oder Ansehen einer Person begründet. Insbesondere kann der Hinweis auf einen „vollständigen und wirksamen Schadensersatz“ in Erwägungsgrund 146 der DSGVO nicht in diesem Sinne verstanden werden. Die Wahrung des Rechts auf informationelle Selbstbestimmung als Bestandteil des allgemeinen Persönlichkeitsrechts nach Art. 2 Abs. 1 GG und des Schutzes personenbezogener Daten nach Art. 8 GRCh gebieten einen solchen Ausgleich demnach regelmäßig nicht.800 Anders kann der Fall jedoch laut OLG Dresden liegen, sollte der Verstoß eine Vielzahl von Personen in gleicher Weise betreffen und Ausdruck einer bewussten rechtswidrigen und im großen Stil betrieben Kommerzialisierung sein.801 Bezüglich der Kausalität gilt grundsätzlich die conditio-sine-qua-non-Formel, welche jedoch keine positive normative Regelung im Unionsrecht erfahren hat.802 Daher gilt laut EuGH, dass in Ermangelung einer einschlägigen Gemeinschaftsregelung die Bestimmung der Einzelheiten für die Ausübung dieses Rechts einschließlich derjenigen für die Anwendung des Begriffs „ursächlicher Zusammenhang“ Aufgabe des innerstaatlichen Rechts des einzelnen Mitgliedstaats ist, wobei der Äquivalenz- und der Effektivitätsgrundsatz zu beachten sind.803 Daher dürfen die Vorschriften über die Rechtsbehelfe, die den Schutz der dem Einzelnen aus der unmittelbaren Wirkung des Unionsrechts erwachsenden Rechte gewährleisten sollen, nicht weniger günstig sein als bei entsprechenden Rechtsbehelfen, die nur innerstaatliches Recht betreffen (Äquivalenzgrundsatz), und sie dürfen die Ausübung der durch die Unionsrechtsordnung verliehenen Rechte nicht praktisch unmöglich machen oder übermäßig erschweren (Effektivitätsgrundsatz).804 798

EuGH Urt. v. 17. 12. 2015 – C-407/14, EuZW 2016, 183 Rz. 26. Wybitul, NJW 2019, 3265 (3266); vgl. diesbezüglich auch die skurrile Beschwerde eines Mieters, der sich in seiner informationellen Selbstbestimmung gestört fühlte, da sein Name auf dem Klingelschild steht, ausführlich in Kaßler, ZWE 2019, 57 (58). 800 OLG Dresden Hinweisbeschl. v. 11. 6. 2019 – 4 U 760/19, BeckRS 2019, 12941 Rz. 13. 801 OLG Dresden Hinweisbeschl. v. 11. 6. 2019 – 4 U 760/19, BeckRS 2019, 12941 Rz. 13. 802 Simitis / Hornung / Spiecker genannt Döhmann / Boehm, Art. 82 DS-GVO 13 f. 803 EuGH Urt. v. 13. 7. 2006 – C-295/04 und C-298/04, EuZW 2006, 529 (533) – Manfredi Rz. 64. 804 EuGH Urt. v. 5. 6. 2014 – C-557/12, EuZW 2014, 586 (587) – Umbrella Pricing – Kone Rz. 25. 799

190

Kap. 5: Rechtliche Problemstellungen

(3) Verschulden und Exkulpation Ob es sich bei der Haftung nach Art. 82 DS-GVO um eine verschuldensunabhängige Gefährdungshaftung805 oder eine Haftung für vermutetes Verschulden handelt,806 ist in der Literatur zwar umstritten, hat für die praktische Anwendung jedoch geringe Bedeutung. Nach Art. 82 Abs. 3 DS-GVO ist eine Haftung des Verantwortlichen oder Auftragsverarbeiters nur dann ausgeschlossen, wenn er positiv nachweisen kann, dass er für den eingetretenen Schaden nicht verantwortlich ist.807 Relativ eindeutig kann der Nachweis einer Haftungsbefreiung geführt werden, sofern der Schaden auf höhere Gewalt oder ausschließlich auf das Verhalten des Anspruchsgegners zurückzuführen ist.808 Nach den derzeitigen Regelungen kompliziert wird eine Exkulpation hingegen in Fällen von Sprachassistenten, die auf einer autonomen Künstlichen Intelligenz beruhen. Hier ist ein Verschulden nur zu verneinen, wenn nachweislich alle Sorgfaltsanforderungen der DS-GVO erfüllt worden sind.809 Um diesen Beweis führen zu können, wird vorauszusetzen sein, dass die Funktionalität lückenlos dokumentiert wird, um die Datenschutzorganisation in ihrer Struktur und Wirksamkeit zu belegen.810 Einem autonomen System ist es jedoch immanent, dass Beweissicherungsmaßnahmen kaum zu führen sein werden,811 da die algorithmische Entscheidung über die verschiedenen Neuronalen Netze verteilt abläuft und diese Logik bereits von den Programmierern selbst kaum nachvollzogen werden kann.812 Eine Exkulpationsmöglichkeit für eine sorgsame Auswahl und Überwachung der Mitarbeiter – und folglich auch nicht in analoger Anwendung auf die Künstliche Intelligenz – vergleichbar zu § 831 BGB ist der DS-GVO fremd. Auch wenn das Argument geführt werden kann, dass es sich bei Art. 82 DS-GVO um einen deliktischen Anspruch handelt, der durch die allgemeinen nationalen Regelungen des Deliktsrechts ergänzt wird,813 verlangt es die wirksame Durchsetzung des Datenschutzrechts, dass die Organisationspflichten nicht ausgehebelt werden.814 805

Paal / Pauly / Frenzel, Art. 82 DS-GVO Rn. 6; Wybitul, ZD 2016, 253. BeckOK DatenschutzR / Quaas, Art. 82 DS-GVO 17.1. 807 Der Verantwortlichkeitsbegriff des Art. 82 Abs. 3 DS-GVO ist nicht mit der datenschutzrechtlichen Verantwortlichkeit zu verwechseln, sondern rein in Bezug auf das Verschulden bezogen. Es handelt sich mithin nicht um eine Möglichkeit Exkulpation aus der Verantwortlichkeit an sich, nur aus der Haftung, Kühling / Buchner / Bergt, Art. 82 DS-GVO Rn. 51. 808 Simitis / Hornung / Spiecker genannt Döhmann / Boehm, Art. 82 DS-GVO Rn. 22. 809 Wybitul / Haß / Albrecht, NJW 2018, 113–118 (116). 810 Kohn, ZD 2019, 498 (500). 811 Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019, S. 174. 812 Gausling, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 519 (536). 813 BeckOK DatenschutzR / Quaas, Art. 82 DS-GVO Rn. 20. 814 BeckOK DatenschutzR / Quaas, Art. 82 DS-GVO Rn. 20; Simitis / Hornung / Spiecker genannt Döhmann / Boehm, Art. 82 DS-GVO Rn. 23; BeckOK DatenschutzR / Nemitz, Art. 82 DS-GVO Rn. 20. 806

C. Kommunikation mit Sprachassistenten

191

Der Betreiber eines Sprachassistenten bleibt folglich auch bei Einschaltung eines Gehilfen – sei er menschlicher oder künstlicher Natur – Verantwortlicher i. S. d. Art. 82 Abs. 2 DS-GVO.815 bb) Verhängung eines Bußgeldes Neben der Eröffnung eines Schadensersatzes auch für immaterielle Schäden stellen die Bußgeldvorschriften der DS-GVO ein wichtiges Durchsetzungsinstrument der einzuhaltenden Datenschutzvorschriften der zuständigen Datenschutzbehörden dar.816 Besondere Bedeutung für die Verantwortlichen gewinnt hierbei die Begebenheit, dass die Verhängung von Bußgeldern in keinem Ausschließlichkeitsverhältnis zur Geltendmachung von Schadensersatzansprüchen durch die Betroffenen steht und kumulativ angewendet werden kann.817 Um den Aufsichtsbehörden ein „scharfes Schwert“ zur Seite zu stellen weicht die DS-GVO deutlich in der Höhe der möglichen Bußgelder ab. Sah § 43 Abs. 3 BDSG a. F. nach bisherigem nationalen Recht noch Bußgelder in Höhe von maximal 300.000 Euro vor, kann nach der DS-GVO, abhängig von der verletzten Datenschutzvorschrift, ein Bußgeld in Höhe von bis zu 10.000.000 Euro oder im Fall eines Unternehmens von bis zu 2 % seines gesamten weltweit erzielten Jahresumsatzes des vorangegangenen Geschäftsjahrs, je nachdem, welcher der Beträge höher ist (Art. 83 Abs. 4 DS-GVO), bzw. von bis zu 20.000.000 Euro oder im Fall eines Unternehmens von bis zu 4 % seines gesamten weltweit erzielten Jahresumsatzes des vorangegangenen Geschäftsjahrs, je nachdem, welcher der Beträge höher ist (Art. 83 Abs. 5 DS-GVO), verhängt werden. Für Betreiber von Sprachassistenten und folglich KI- und Big-Data-Anwendungen ist hierbei Art. 83 Abs. 5 lit. a) DS-GVO von Interesse, da dieser die Grundsätze für die Verarbeitung, einschließlich der Bedingungen für die Einwilligung, gemäß den Artt. 5, 6, 7 und 9 DS-GVO mit einem Bußgeld bis zu 20.000.000 Euro (bzw. 4 % des erzielten Jahresumsatzes) bewehrt. Die Einhaltung der Datenschutzgrundsätze, worunter unter anderem die Zweckbindung, die Datenminimierung und Richtigkeit der verarbeiteten Daten zählt, wird folglich mit der höchsten Bußgeldmöglichkeit versehen. Hoeren warnt davor, dass sich im Hinblick auf BigData-Anwendungen die Datenschutzbehörden in Zukunft – abweichend von ihrer Kernkompetenz – zur „Megabehörde für richtige Daten“ entwickeln könnten.818 Roßnagel knüpft hieran an und ist der Auffassung, dass die Datenschutzgrundsätze zu unbestimmt sind, um auf Grund einer möglichen Verletzung Bußgelder verhängen zu können und fordert – gerade im Hinblick auf die von der DS-GVO

815

Wybitul / Haß / Albrecht, NJW 2018, 113–118 (116). Simitis / Hornung / Spiecker genannt Döhmann / Boehm, Art. 83 DS-GVO Rn. 1. 817 Kühling / Buchner / Bergt, Art. 83 DS-GVO Rn. 33. 818 Hoeren, ZD 2016, 459 (462). 816

192

Kap. 5: Rechtliche Problemstellungen

unberücksichtigte Big-Data-Technik – eine Neuorientierung der Grundsätze, damit diese in Zukunft nicht leer laufen und ihre Bedeutung für den Schutz der Betroffenenrechte verlieren.819 k) Zwischenfazit Den für eine Datenverarbeitung Verantwortlichen treffen zahlreiche bußgeldbewährte Pflichten. Sofern es sich um Systeme schwacher Künstlicher Intelligenzen handelt und eine Zurechnung, je nach Einsatzbereich, dem Verwender oder Betreiber eines Sprachassistenten zurechenbar ist (vgl. hierzu S. 134 ff.), Zwingt die Rechenschaftspflicht aus Art. 5 Abs. 2 DS-GVO den Verantwortlichen dazu, diesen Pflichten nicht nur nachzukommen, sondern diese auch nachzuweisen. Bereits die Einhaltung aber auch der Nachweis einer datenschutzkonformen Verarbeitung erschwert den konformen Einsatz künstlicher Neuronaler Netze. Die Grundsätze einer transparenten, nachweisbaren, zweckgebundenen und datensparsamen Verarbeitung stehen der Verarbeitung von Daten in Neuronalen Netzen oftmals diametral gegenüber. Sofern es dem Betreiber eines schwachen Sprachassistenten bereits selbst oftmals nicht möglich ist, die genaue Funktionsweise einer Künstlichen Intelligenz nach der Inbetriebnahme zu beschreiben bzw. zu überwachen, gilt dies umso mehr, falls in absehbarer Zukunft Sprachassistenten basierend auf den Systemen einer starken Künstlichen Intelligenz Verwendung finden sollten. Es ist zu überlegen, ob eine Verantwortlichkeit bzw. der Nachweis der datenschutzkonformen Gestaltung verpflichtend so in Künstliche Intelligenzen integriert werden sollte, dass diese eigenständig in der Lage sind, entsprechende Antworten zu liefern. Eine weitere Erschwernis des Betriebs eines Sprachassistenten stellt das Urteil Schrems II des EuGH dar.820 Eine Datenübermittlung in das Drittland USA ist nach der Ungültigerklärung des EU-US Privacy Shields wohl nur noch auf Grundlage einer dezidierten Einwilligung des Betroffenen möglich. Der Rückgriff auf Standarddatenschutzklauseln dürfte in der Regel auf Grund des nicht vergleichbaren Datenschutzniveaus in den USA scheitern. Da die Muttergesellschaften namhafter Betreiber von Sprachassistenten, exemplarisch seien Apple Inc., Google LLC, Microsoft Corp. und Amazon Inc. genannt, ihren Konzernsitz in den USA haben, ist der zukünftige Betrieb eines Sprachassistenten immer dann zu überdenken, wenn nicht sichergestellt werden kann, dass die Daten der Betroffenen im Bereich der EU bzw. des EWR verbleiben und ein Zugriff der Muttergesellschaften auf die Daten der Tochtergesellschaften in der EU / EWR ausgeschlossen ist.

819 820

Roßnagel, ZD 2018, 339 (344). EuGH Urt. v. 16. 7. 2020 – C-311/18, NJW 2020, 2613 – Schrems II.

C. Kommunikation mit Sprachassistenten

193

7. Rechte des Betroffenen Die Pflichten des Verantwortlichen sind im Kanon mit den Rechten des Betroffenen zu nennen. Die DS-GVO sieht zum Schutz der personenbezogenen Daten und der Stärkung der Rechte der Betroffenen einen umfangreichen Katalog an individuellen Rechten vor. Für Verwender von Sprachassistenten sind hierbei insbesondere die Informations- und Auskunftsrechte, begleitet von der Möglichkeit einer Datenportabilität, sowie das Recht auf Vergessenwerden von besonderer Relevanz. a) Auskunftsrecht Art. 15 DS-GVO ergänzt die aktiven Informationspflichten der Artt. 13 und 14 DS-GVO um einen passiven und antragsabhängigen Auskunftsanspruch des Betroffenen.821 Ein Auskunftsrecht des Betroffenen ist wesentlicher Bestandteil der Möglichkeit einer wirksamen Wahrnehmung der Betroffenenrechte, welche es dem Betroffenen ermöglichen, von dem für die Verarbeitung Verantwortlichen die Berichtigung, Löschung oder Sperrung seiner Daten zu verlangen.822 Art. 15 Abs. 1 DS-GVO sieht aus diesem Grund einen umfassenden Katalog der zu erteilenden Angaben vor. Für den Betreiber eines Sprachassistenten und die Vielzahl der verschiedensten Datenquellen und Inhalte stellt dies eine gewichtige Aufgabe dar, da die Auskunft vollständig erteilt werden muss und der Anbieter hierfür sämtliche auf den Servern und Datenverarbeitungsanlagen gespeicherten personenbezogenen Daten des Betroffenen zu ermitteln hat.823 Begleitet wird das Recht auf Auskunft aus Art. 15 Abs. 1 DS-GVO (sog. Allgemeinauskunft) von einem Anspruch auf eine Kopie der Daten (Detailauskunft) nach Art. 15 Abs. 3 DS-GVO.824 Bisher höchstrichterlich ungeklärt ist der Zusammenhang zwischen diesen beiden Ansprüchen.825 Während vertreten wird, dass die Detailauskunft nach Art. 15 Abs. 3 DS-GVO eine Konkretisierung des Anspruchs auf Auskunft darstellt und diesen lediglich dahingehend erweitert, dass dem Betroffenen eine Kopie der Daten zur Verfügung gestellt werden muss,826 sehen die überwiegenden Stimmen in der Literatur hierin wohl ein zweistufiges Auskunftsrecht mit unterschiedlichem Inhalt.827 Begründet wird dies damit, dass der Anspruch auf Kopie der Daten anders als ein reiner Auskunftsanspruch gerade Vorgaben hinsichtlich der Präsentation enthält und der Betroffene neben der 821

Kühling / Buchner / Bäcker, Art. 15 DS-GVO Rn. 1. EuGH Urt. v. 17. 7. 2014 – C-141/12 und C-372/12, ZD 2014, 515 (517) Rz. 44. 823 Lapp, NJW 2019, 345 (347). 824 Zikesch / Sörup, ZD 2019, 239 (240). 825 Lapp, NJW 2019, 345 (347). 826 Zikesch / Sörup, ZD 2019, 239 (240). 827 Paal / Pauly / Paal, Art. 15 DS-GVO Rn. 21; Ehmann / Selmayer / Ehmann, Art. 15 DS-GVO Rn. 4. 822

194

Kap. 5: Rechtliche Problemstellungen

Information, welche Daten überhaupt verarbeitet werden auch Informationen über die Art und Weise der Datenverarbeitung erhält, da dem Betroffene eine grafische Präsentation übermittelt werden muss, wie die Daten tatsächlich bei dem Verantwortlichen vorliegen und verarbeitet werden.828 Einschränkungen des Anspruchs auf Bereitstellung einer Kopie ergeben sich neben berührten Rechten und Freiheiten Dritter (Art.  15 Abs. 4 DS-GVO) und der allgemeinen Rechtsordnung829 insbesondere in Fällen offenkundig unbegründeter und exzessiver Ansprüche aus Art. 12 Abs. 5 S. 2 DS-GVO.830 Der Begriff der exzessiven Geltendmachung ist in der DS-GVO nicht näher definiert. Der Schutz der betroffenen Personen verlangt es jedoch, dass der Begriff nicht dahingehend ausgelegt werden kann, dass sich ein Betreiber eines Sprachassistenten alleine auf Grund der großen Menge personenbezogener Daten, die einen Auskunftsanspruch in seinen Augen als exzessiv erscheinen lässt, exkulpieren kann, da der Anspruch ansonsten in vielen Fällen ins Leere laufen könnte. Vielmehr schützt das Merkmal der Exzessivität den Betreiber lediglich vor wiederholten Auskunftsverlangen, sofern der Verantwortliche den Betroffenen bei Geldendmachung des ersten Anspruchs auf diese Tatsache hingewiesen hat.831 b) Recht auf Vergessenwerden In Art. 17 DS-GVO setzt der europäische Gesetzgeber das seitens des EuGH832 zu Art. 12 der Datenschutz-RL postulierte Recht auf Vergessenwerden,833 entwickelt aus den Grundrechten der Betroffenen aus Art. 7 und 8 GRCh, um. Danach hat die betroffene Person das Recht, von dem Verantwortlichen zu verlangen, dass sie betreffende personenbezogene Daten unverzüglich gelöscht werden, und der 828

Engeler / Quiel, NJW 2019, 2201 (2202 f.). Engeler / Quiel, NJW 2019, 2201 (2206). 830 Zikesch / Sörup, ZD 2019, 239 (243 f.). 831 Simitis / Hornung / Spiecker genannt Döhmann / Dix, Art. 12 DS-GVO Rn. 33. 832 EuGH Urt. v. 13. 5. 2014 – C-131/12, EuZW 2014, 541 – Google Spain. 833 Auf nationaler Ebene hat das BVerfG jüngst zwei wegweisende Entscheidungen bezüglich des Rechts auf Vergessen gefällt. In der Rechtssache Recht auf Vergessen I betont das BVerfG, dass bei nicht vollständig durch europäisches Recht determinierten nationalen Recht dieses grundsätzlichen am Maßstab der Grundrechte des GG zu prüfen ist. Soweit Grundrechte der GRCh berührt sind, sieht das BVerfG das Schutzniveau der Charta grundsätzlich durch das Grundgesetz gewährleistet, vgl. BVerfG Beschl. v. 6. 11. 2019 – 1 BvR 16/13, NJW 2020, 300 – Recht auf Vergessen I; soweit es sich bei dem im Rahmen einer Verfassungs­ beschwerde zu prüfendem Rechtsrahmen um vollharmonisiertes Recht handelt sieht sich das BVerfG auch dazu berufen, in Zukunft die Unionsgrundrechte selbst direkt in den Prüfungsmaßstab des BVerfG einzubeziehen um einen wirksamen Grundrechtsschutz zu gewährleisten. Da die Anwendung Grundrechte des GG im Fall der Vollharmonisierung nicht eröffnet ist, wird ein verfassungsrechtlicher Grundrechtsschutz nur gewährleistet, wenn das BVerfG für die Überprüfung fachgerichtlicher Rechtsanwendung die Unionsgrundrechte zum Prüfungsmaßstab nimmt, vgl. BVerfG Beschl. v. 6. 11. 2019 – 1 BvR 276/17, NVwZ 2020, 63 – Recht auf Vergessen II. 829

C. Kommunikation mit Sprachassistenten

195

Verantwortliche ist verpflichtet, personenbezogene Daten unverzüglich zu löschen, sofern (unter anderem) die personenbezogenen Daten für die Zwecke, für die sie erhoben oder auf sonstige Weise verarbeitet wurden, nicht mehr notwendig sind, eine gegebene Einwilligung widerrufen wird und keine anderen Rechtfertigungsgründe einschlägig sind oder die Person Widerspruch gegen die Verarbeitung einlegt und der Verantwortliche keine vorrangigen Interessen geltend machen kann, Art. 17 Abs. 1 DS-GVO. Die Fülle an personenbezogenen Daten und die Gefahren für die Rechte der einzelnen Personen lässt den Anspruch auf Löschung als einen wesentlichen Pfeiler der Betroffenenrechte erstrahlen. Der Europäische Datenschutzbeauftrage drängt gar dazu, dass Unternehmen die im Zuge von Big-Data-Anwendungen (rechtmäßig) personenbezogene Daten für sekundäre Zwecke verwenden, einen Anreiz für effiziente und transparente Verarbeitung setzen sollen, welcher es dem Betroffenen unter anderem ermöglicht, eine Löschung seiner Daten auch über die gesetzlichen Ansprüche hinaus verlangen zu können.834 c) Recht auf Datenportabilität Das Recht auf Datenportabilität als Gegenstück zum Recht auf Vergessenwerden ist nicht nur auf Dienste der Informationsgesellschaften beschränkt, sondern umfasst grundsätzlich auch Big-Data-Anwendungen und Systeme Künstlicher Intelligenz.835 Dieses datenschutzrechtliche Novum erweitert das Recht auf informationelle Selbstbestimmung als Abwehrrecht um einen Portabilitätsfaktor, welcher es dem Betroffenen ermöglichen soll, nicht zwingend an einen Anbieter nach erstmaliger Wahl gebunden zu sein (sog. Lock-in-Effekt), sondern viel mehr eine freie Wahl auch beim Systemwechsel eines Assistenten zu haben.836 Aus diesem Grund sieht Art. 20 Abs. 1 DS-GVO vor, dass die betroffene Person das Recht hat, die sie betreffenden personenbezogenen Daten, die sie einem Verantwortlichen bereitgestellt hat, in einem strukturierten, gängigen und maschinenlesbaren Format zu erhalten. Überdies hat sie das Recht, diese Daten einem anderen Verantwortlichen ohne Behinderung durch den Verantwortlichen, dem die personenbezogenen Daten bereitgestellt wurden, zu übermitteln. Das Merkmal der Bereitstellung seitens des Betroffenen legt die Art.-29-Datenschutzgruppe weit aus. Umfasst werden nach dieser Auffassung sowohl aktiv und wissentlich von der betroffenen Person bereitgestellte Daten als auch solche, die bei der Nutzung des Sprachassistenten anfallen, worunter beispielsweise Standortdaten, Suchhistorie oder andere Rohdaten fallen.837 Ausgeschlossen hingegen sollen diejenigen Daten sein, die vom Betreiber eigenständig, z. B. im Wege des Profilings, erzeugt oder aus anderen Rückschlüssen 834

Europäischer Datenschutzbeauftragter, Stellungnahme 7/2015, Bewältigung der Herausforderungen in Verbindung mit Big Data, 2015, S. 14. 835 Forgó / Helfrich / J. Schneider / Scheja / Quae / I. Conrad u. a., Teil IV. Kap. 3. Rn. 28. 836 Brüggemann, in: Taeger (Hrsg.), Recht 4.0 – Innovationen aus den rechtswissenschaftlichen Laboren, 1 (1). 837 Artikel-29-Datenschutzgruppe, WP 242 16/EN 2016 (9).

196

Kap. 5: Rechtliche Problemstellungen

erstellt wurden.838 Bezüglich der technischen Natur stellt die DS-GVO keine konkreten Vorgaben auf. Damit das Recht des Betroffenen jedoch nicht verkümmert, wird zu fordern sein, dass die Daten nicht nur in einer einfachen Ordnerstruktur bereitgestellt werden, sondern in einer solchen Form aufbereitet werden, dass ein anderer Anbieter diese Daten – zumindest potentiell – sinnvoll in einen anderen Sprachassistenten inkorporieren kann.839 Die Stiftung Datenschutz fordert, dass als Mindeststandard das CSV840-Datenformat Anwendung findet und für umfangreichere Datenbanken auf die Formate XML841 oder JSON842 zurückgegriffen wird.843 Wünschenswert wäre es gewesen, wenn die DS-GVO eine mit der nationalen Kontenwechselhilfe, § 20 ZKG, vergleichbare Regelung enthalten würde, die den Betreiber eines Dienstes verpflichtet, dem Betroffenen auf Wunsch Unterstützungsleistungen beim Wechsel auf das Produkt eines Dritten zur Seite zu stellen. d) Zwischenfazit Der tiefgreifende Einblick in das (private) Leben der Verwender, welchen der Einsatz von Sprachassistenten dem Verantwortlichen verschafft, macht es notwendig, dass dem Betroffenen ein umfangreiches Recht auf Auskunft der Verarbeitung seiner personenbezogenen Daten zur Verfügung steht und er im begründeten Fall eine Löschung der Daten verlangen kann. Hierfür ist es notwendig, dass der Verantwortliche in das System der Künstlichen Intelligenz und die Speicherorte der jeweiligen personenbezogenen Daten Einsicht nehmen kann. Der Grundsatz der Datenportabilität erfordert es überdies, dass, sofern der Ansatz der DS-GVO tatsächlich mit Leben gefüllt werden soll, für Künstliche Intelligenzen einheitliche Kriterien, Standards sowie Umsetzungsstrategien der Datenübertragung innerhalb Europas bzw. der Betreiber von Sprachassistenten geschaffen werden.844 8. Fazit Die Digitalisierung des geschäftlichen als auch privaten Lebens der Menschen geht mit einer Flut von Daten einher. Die Erhebung einer unüberschaubaren Datenmenge und die Auswertung dieser Daten wird durch die steigende Rechenleistung 838

Artikel-29-Datenschutzgruppe, WP 242 16/EN 2016 (10). A. Schneider, in: Specht / Mantz (Hrsg.), Handbuch Europäisches und deutsches Datenschutzrecht, 1–141 (120). 840 Comma-Separated Values. 841 Extensible Markup Language. 842 JavaScript Object Notation. 843 Stiftung Datenschutz, Praktische Umsetzung des Rechts auf Datenübertragbarkeit, Rechtliche, technische und verbraucherbezogene Implikationen, 2018, S. 53. 844 Stiftung Datenschutz, Praktische Umsetzung des Rechts auf Datenübertragbarkeit, Rechtliche, technische und verbraucherbezogene Implikationen, 2017, S. 6. 839

C. Kommunikation mit Sprachassistenten

197

von Big Data gestützten Prozessen und Rechenzentren begünstigt. Es ist daher nicht verwunderlich, dass auf Grund der Verknüpfbarkeit die Anonymität eines Datums in den seltensten Fällen anzunehmen sein wird. Vielmehr weist noch die kleinste Information einen Personenbezug auf. Dem Datenschutzrecht kommt folglich in einer digitalisierten smarten Umgebung ein herausragender Stellenwert zu. Die Zuweisung der datenschutzrechtlichen Verantwortlichkeit gelingt nach dem Recht de lege lata insbesondere für schwache künstliche Intelligenzen, deren Handlungen immer auf die Entscheidung einer juristischen bzw. letztendlich natürlichen Person rückführbar sind. Sofern Entscheidungen in Zukunft unvorhersehbar und unerwartet seitens einer starken Künstlichen Intelligenz getroffen werden ist fraglich, ob eine Zurechnung der Verantwortlichkeit an den Betreiber bzw. Verwender des Sprachassistenten zu gerechten Ergebnissen führen kann. Die Ungewissheit der Datenverarbeitung innerhalb einer Künstlichen Intelligenz korreliert im Übrigen direkt sowohl mit den Pflichten des Verantwortlichen als auch den Rechten des Betroffenen. Ist ein Einblick in die konkrete Verarbeitung der Daten nicht möglich, ist es dem Betreiber des Sprachassistenten verwehrt, seinen datenschutzrechtlichen Pflichten sachgemäß nachzukommen. Als Ausfluss hieran wird der Betroffene in Konsequenz faktisch daran gehindert, seine Betroffenenrechte geltend zu machen. Es gilt Standards zu entwickeln, die eine Nachverfolgbarkeit der Verarbeitungen Künstlicher Intelligenzen auch dann ermöglichen, wenn die Technik soweit fortgeschritten ist, dass Systeme (teil-)autonome Entscheidungen treffen.

II. Telemediengesetz Als eines der zentralen nationalen Regelungsinstrumentarien in Bezug auf Telemedien kann das Telemediengesetz (TMG) geführt werden. Dieses enthält neben der hinlänglich bekannten Impressumspflicht (§ 5 TMG), Regelungen zur Bekämpfung von Spam (§ 6 TMG), zur Haftung des Diensteanbieters (§§ 7 ff. TMG) als auch bereichsspezifische Datenschutzvorschriften (§§ 11 ff. TMG). Insbesondere die Anwendbarkeit Letzterer ist seit der Geltungserlangung der DS-GVO im Jahr 2018 umstritten. 1. Anwendungsbereich des TMG Der Anwendungsbereich des TMG auf Sprachassistenten als Telemedium ist überdies auch eröffnet. Nach der negativen Generalklausel845 des § 1 Abs. 1 TMG, gelten die Regelungen des TMG für alle elektronischen Informations- und Kommunikationsdienste, soweit sie nicht Telekommunikationsdienste nach § 3 Nr. 24 845

Spindler / Schmitz / Liesching / Spindler, § 1 TMG S. 2.

198

Kap. 5: Rechtliche Problemstellungen

des TKG, die ganz in der Übertragung von Signalen über Telekommunikationsnetze bestehen, telekommunikationsgestützte Dienste nach § 3 Nr. 25 des TKG oder Rundfunk nach § 2 des RStV sind. Letztendlich ergibt sich eine Unterscheidung  – welche nicht immer trennscharf erfolgen kann  – aus den unterschied­ lichen Zwecken der gesetzlichen Regelungen. Das TMG regelt die Nutzung von Telediensten, die mittels Telekommunikation übermittelt werden, nicht jedoch die Telekommunikation selbst. Somit hat das TKG die technisch-organisatorischen Anforderungen der Datenübermittlung zum Gegenstand, während das TMG die Inhalte der Kommunikation regelt.846 Um folglich als Telemedium klassifiziert zu sein, muss ein Sprachassistent nicht der reinen Signalübertragung dienen, sondern auch darüberhinausgehende Inhalte bereitstellen.847 Dies kann bei Sprachassistenten durchweg bejaht werden. Die wesentliche Aufgabe des Sprachassistenten ist nicht die reine Erbringung telekommunikationsgestützter Dienste (hierunter fallen beispielsweise Auskunftsdienste, entgeltfreie Telefondienste etc., die direkt über das Kommunikationsnetz abgewickelt werden848), sondern vielmehr die Interaktion mit anderen smarten Endgeräten, der Abruf der Daten anderer Applikationen und die Beantwortung von Fragen und Befehlen des Verwenders. Die Aufgabe des Assistenten erschöpft sich mithin nicht in einer reinen Signalübertragung. Dass das TMG überdies für technische Neuerungen und neuartige Dienstvarianten offen ist, zeigen Bereits die Ausführungen der Gesetzesgründung, nach welcher sich Telemedien „auf einen weiten Bereich von wirtschaftlichen Tätigkeiten, die – sei es über Abruf- oder Verteildienste – elektronisch in Form von Bild-, Text- oder Toninhalten zur Verfügung gestellt werden“, erstrecken.849 2. Verpflichteter nach dem TMG Diensteanbieter des Sprachassistenten und folglich Verpflichteter nach dem TMG ist der Betreiber des Systems, mithin jede natürliche oder juristische Person, die eigene oder fremde Telemedien zur Nutzung bereithält oder den Zugang zur Nutzung vermittelt, § 1 S. 1 Nr. 1 TMG. Sofern der Sprachassistent über die Serveranlagen eines Unternehmens läuft und nicht auf der Hardwareumgebung des Verwenders selbst, ist dieser unzweifelhaft als Diensteanbieter anzusehen. Halten sich Dritte in den Räumlichkeiten des Verwenders auf und erhalten diese Zugriff auf den Sprachassistenten ist es berechtigt, den eigentlichen Verwender selbst, vergleichbar mit dem Bereithalten eines W-LAN-Netzwerkes,850 als Dienste­anbieter zu klassifizieren, da er eine unmittelbare Verbindung zwischen dem Nutzer (Dritter) und dem eigentlichen Diensteanbieter (Betreiber des Sprachassistenten) tech 846 Vgl. das OLG Hamburg noch zur vergleichbaren Rechtslage des TDG, OLG Hamburg Urt. v. 23. 3. 2000 – 3 U 80/99, NJW-RR 2001, 544 (545). 847 BeckOK InfoMedienR / Martini, § 1 TMG Rn. 11. 848 Vgl. mit weiteren Ausführungen, M. Geppert / Schütz / Ditscheid, § 3 Nr. 25 TKG Rn. 81. 849 BT-Drs. 16/3078, S. 13. 850 Spindler / Schmitz / Liesching / Spindler, § 2 TMG 26.

C. Kommunikation mit Sprachassistenten

199

nisch – mittels Zurverfügungstellung des bei dem Sprachassistenten hinterlegten Nutzerkontos – herstellt.851 Diese Einordnung würde nur dann entfallen, wenn der Nutzer zwar die Hardware bereithält, auf welcher der Sprachassistent installiert ist, der Dritte sich jedoch über sein eigenes Nutzerkonto, welches nicht seitens des eigentlichen Nutzers des Sprachassistenten bereitgestellt wird, bei dem Betreiber des Assistenten vor Beginn der Verwendung anmelden muss; in diesem Fall verhält sich der Bereitsteller nicht als Zugangsanbieter sondern neutral.852 3. Rechtliche Verpflichtungen a) Informationspflichten Neben den allgemeinen Informationspflichten des § 5 TMG (landläufig als Impressumspflicht bekannt), welche Anbieter geschäftsmäßiger, in der Regel gegen Entgelt angebotener, Telemedien zur Erhöhung der Transparenz und Stärkung des Verbraucherschutzes sowie des geschäftlichen Wettbewerbs vorhalten müssen,853 zeigt ein Fall aus den USA, dass auch die Regeln der kommerziellen Kommunikation aus § 6 TMG in Hinsicht auf Sprachassistenten relevant werden können. Ein US-amerikanisches Burger-Unternehmen verwendete in einer Fernsehwerbung bewusst die Aktivierungsphrase „OK Google“, um die Sprachassistenten der Firma Google des fernsehenden Publikums zu aktivieren und zusätzliche Informationen über das beworbene Produkt aus dem Internet vorzulesen.854 Ziel des § 6 TMG ist es, dem Nutzer von Telemedien die Möglichkeit zu verschaffen, die Intention und den Charakter eines Informationsangebots zu erkennen.855 Aus diesem Grund haben Diensteanbieter bei einer kommerziellen Kommunikation diese unter anderem als solche kenntlich zu machen, den Auftraggeber kenntlich und weitere Informationen leicht zugänglich zu machen, § 6 Abs. 1 TMG. Die Werbung und sonstige kommerzielle Kommunikation muss nach der Vorstellung des Gesetzgebers klar als solche zu erkennen sein, das heißt, sie muss in ihrem Charakter als kommerzielle Kommunikation von anderen Inhalten bzw. Informationen abgehoben sein.856 Eine derartige Erkennbarkeit geht auf den Grundsatz der Transparenz (auch Trennungsgrundsatz genannt) zurück, nach welchem der Nutzer sowohl anhand der optischen als auch sprachlichen Ausgestaltung über den jeweiligen Charakter informiert wird.857 Um dies zu erreichen ist anerkannt, dass sich der Trennungsgrundsatz aus den Elementen des Trennungsgebots (Wer 851

M. Geppert / Schütz / Martini, § 2 TMG Rn. 8. Spindler / Schmitz / Liesching / Spindler, § 2 TMG 21. 853 Müller-Broich / Müller-Broich, § 5 TMG Rn. 1. 854 Maheshwari, Burger King „O. K. Google“ Ad, https://www.nytimes.com/2017/04/12/ business/burger-king-tv-ad-google-home.html (Stand: 27. 09. 2020). 855 Spindler / Schmitz / Liesching / Spindler, § 6 TMG Rn. 2. 856 BT-Drs. 14/6098 S. 22. 857 Woitke, BB 2003, 2469. 852

200

Kap. 5: Rechtliche Problemstellungen

bung und redaktioneller Inhalt müssen getrennt werden) und des Kennzeichnungsgebots (Werbemaßnahmen müssen klar als solche erkennbar sein) zusammensetzt.858 Kann dies im Rahmen einer optischen Darstellung noch relativ zugänglich und für den durchschnittlich aufgeklärten, verantwortlichen und vernünftigen Verwender verständlich dargestellt werden,859 gestaltet sich dies in der zumeist mündlichen Wiedergabe eines Sprachassistenten durchaus kompliziert. Liest der Sprachassistent dem Verwender beispielsweise das Ergebnis einer Suchanfrage vor und handelt es sich hierbei um Werbung, welche der Verwender nicht als solche erkennen kann, stellt dies einen möglichen Eingriff in seine Entscheidungsfreiheit und folglich Persönlichkeitssphäre dar.860 Die Anforderungen an die Kenntlichmachung einer Werbemaßnahme wird insbesondere immer dann im Rahmen des Bußgeldtatbestandes des § 16 Abs. 1 TMG relevant werden, wenn der Betreiber selbst werblich tätig werden möchte und nicht nur, wie im angeführten Beispiel, durch das Verhalten eines Dritten vorsatzlos dazu veranlasst wird. b) Haftungsregelungen Über die Verhängung eines möglichen Bußgeldes hinaus sieht das TMG auch eigene Verhaltenszurechnungs- und Privilegierungsmöglichkeiten vor. Grundsätzlich ist der Betreiber eines Sprachassistenten für eigene Informationen, die sie zur Nutzung bereithalten, nach den allgemeinen Gesetzen verantwortlich, § 7 Abs. 1 TMG. Für fremde Informationen, die er in einem Kommunikationsnetz übermittelt oder zu denen er den Zugang zur Nutzung vermittelt, ist der Betreiber nicht verantwortlich, sofern er die Übermittlung nicht veranlasst, den Adressaten der übermittelten Informationen nicht ausgewählt sowie die übermittelten Informationen nicht ausgewählt oder verändert hat, § 8 Abs. 1 TMG. Ein Sprachassistent kann grundsätzlich in bestimmten Tätigkeitsbereichen durchaus mit einem Access-­ Provider verglichen werden. Für Suchmaschinen, die auf Grund ihrer automatisierten Suchprozesse und Verlinkung der Ergebnisse auf die Seiten Dritter861 eine Access-Provider ähnliche Funktion einnehmen, hat der BGH eine Anwendbarkeit der §§ 7 ff. TMG grundsätzlich bejaht.862 Eine solche Suchmaschine ist in ihrer reinsten Form ein Werkzeug zur Informationslokalisierung und übt keine Kontrolle über die angezeigten Daten aus,863 erbringt folglich eine neutrale Infrastrukturleistung.864 Vergleichbar ist die Funktion eines Sprachassistenten, der auf Anfrage eine Websuche durchführt und bestimmte Ergebnisse übermittelt. Er nimmt in dieser Situation potentiell eine reine Informationsmittler-Stellung ein. 858

Holznagel / Stenner, ZUM 2004, 617 (618). BeckOK InfoMedienR / Pries, § 6 TMG Rn. 4. 860 Spindler / Fabian Schuster / Micklitz / Schirmbacher, § 6 TMG Rn. 22. 861 Spindler / Schmitz / Liesching / Spindler, § 8 TMG Rn. 57. 862 BGH Urt. v. 14. 5. 2013 – VI ZR 269/12, GRUR 2013, 751 – „Autocomplete“-Funktion. 863 EuGH, Schlussantrag des Generalanwalts v. 25. 6. 2013 – C-131/12, BeckRS, 81374 Rz. 84. 864 G. Nolte / Wimmers, GRUR 2014, 16 (25). 859

C. Kommunikation mit Sprachassistenten

201

Für den Betreiber eines Sprachassistenten wird diese Konstellation denkbarerweise dann relevant, wenn, wie im oben aufgeführten Beispiel, ein Dritter die Funktionalität des Assistenten kapert. Handelt es sich bei den abgerufenen Informationen nicht um eine grundsätzlich rechtlich harmlose Werbung für Speisen, sondern die Verbreitung verfassungsfeindlicher Propaganda oder Volksverhetzung ist von gesteigerter Relevanz, ob der Diensteanbieter für die Verbreitung ebenfalls zur Verantwortung gezogen werden kann. Hier gilt der Grundsatz, dass der Betreiber für solche Inhalte nicht verantwortlich ist, die seitens des Nutzers, beispielsweise durch Anfrage eines bestimmten Suchbegriffs, veranlasst worden ist, § 8 Abs. 1 S. 1 Nr. 1 TMG.865 Differenzierter ist die Konstellation der Kaperung des Assistenten seitens eines Dritten zu beurteilen. Stellt man auf den seitens des Dritten gegeben Sprachbefehl ab, kann eine Privilegierung angenommen werden, ist Ansatzpunkt der Veranlassung der Übermittlung hingegen der auf den Sprachbefehl des Dritten ergehende Serverbefehl des Betreibers des Sprachassistenten, läge eine Übermittlung seitens des Betreibers vor. Es wäre jedoch uneinheitlich, im Rahmen des Merkmals der Veranlassung seitens des berechtigten Nutzers auf dessen Sprachbefehl abzustellen, bei einer Verwendung seitens des unberechtigten Dritten hingegen auf den Serverbefehl des Betreibers. Vielfach wird eine Privilegierung dieses Einsatzbereiches jedoch auf Grund der Voraussetzungen des § 8 Abs. 1 S. 1 Nr. 3 TMG scheitern. Anders als bei einer optischen Darstellungsmöglichkeit bei einer herkömmlichen Suchabfrage mittels eines Computers, muss eine sprachliche Kundgabe des Suchergebnisses aufbereitet werden. Der Verwender hat in der Regel kein Interesse daran, dass der Sprachassistent die Verlinkungen zu unzähligen Ergebnissen protokollarisch verliest, sondern erwartet eine verständliche und verwertbare Antwort. Erkundigt er sich beispielsweise nach der zu erwartenden Wettervorhersage wird es naheliegend sein, nicht die Verlinkungen zu unzähligen Anbietern auszugeben, sondern vielmehr die Prognose eines ausgewählten Dienstes zu verlesen. Hier nimmt der Betreiber folglich eine Auswahl der zu verlesenden Inhalte vor, welche über einen reinen technischen Vorgang hinausgeht, unerheblich, dass der Nutzer zuvor die eigentliche Übertragung initiiert hatte.866 Dies gilt umso mehr, als wenn bevorzugt solche Ergebnisse ausgegeben werden, mit deren Anbietern der Betreiber des Sprachassistenten in einem vertraglichen (Werbe-)Verhältnis steht.867 Ebenfalls als Veränderung kann potentiell angesehen werden, dass ein Sprachassistent die schriftlich niedergelegte Information nicht als solche darstellen kann, sondern in sprachliche Information übersetzen und ausgeben muss.

865

Spindler / Fabian Schuster / M. Hoffmann / Volkmann, § 8 TMG Rn. 21. Spindler / Fabian Schuster / M. Hoffmann / Volkmann, § 8 TMG Rn. 23. 867 BeckOK InfoMedienR / Paal, § 8 TMG Rn. 25. 866

202

Kap. 5: Rechtliche Problemstellungen

c) Datenschutz In den §§ 11 ff. TMG sieht das nationale Recht telemedienspezifische Datenschutzregelungen vor. Diese sind im Bereich der nicht-öffentlichen Verantwortlichen seit Geltungserlangung der DS-GVO im Jahr 2018 nach wohl h. M. der Literatur obsolet und dürfen mangels Öffnungsklausel keine bereichsspezifischen nationalen Sonderregelungen darstellen.868 So geht die Datenschutzkonferenz davon aus, dass insbesondere Art. 95 DS-GVO, welcher eine Kollisionsregelung bezüglich der ePrivacy-RL (RL 2002/58/EG) enthält, keine Anwendung auf die §§ 11 ff. TMG findet, da diese Vorschriften vorwiegend der Umsetzung der Datenschutz-RL dienen und demgemäß dem Anwendungsvorrang der DS-GVO unterfallen; dies gelte nach Auffassung der Datenschutzkonferenz auch für solche Regelungen, welche die ePrivacy-RL unvollständig (z. B. § 15 Abs. 3 TMG) umsetzen.869 Sofern einzelne Regelungen innerhalb der §§ 11 ff. TMG nicht im weitesten Sinne datenschützend sind und daher nicht durch die DS-GVO verdrängt werden, ist es dogmatisch geboten, diese weiterhin anzuwenden.870 Bis der europäische Gesetzgeber endgültig einen Beschluss bezüglich der geplanten ePrivacy-VO fällt, welche eigentlich ursprünglich zusammen mit der DSGVO in Kraft treten sollte, verbleiben nach derzeitigem Regelungsstand Ungewissheiten für den Rechtsanwender und Betreiber des Sprachassistenten. Es gilt für den Betreiber insbesondere sicherzustellen, dass bei einem Einsatz von Cookies den Vorgaben des Art. 5 Abs. 3 ePrivacy-RL entsprochen wurde, das bedeutet, dass über deren Zwecke hinreichend transparent aufgeklärt wird und dem Betroffenen Möglichkeiten zum Opt-out angeboten werden.871 4. Fazit Der Betrieb eines Sprachassistenten, sei es in der direkten Beziehung Nutzer und Betreiber oder Nutzer und vertraglich unbeteiligter Dritter, stellt auf Grund des Ausgabemediums Sprache eine rechtliche Besonderheit dar. Informationen hinsichtlich der Ausgabe kommerzieller Inhalte müssen dergestalt aufbereitet sein, dass sie durch den Empfänger der Audiomitteilung als solche klassifiziert werden können. Insbesondere bei längeren Auskünften des Sprachassistenten, welche 868

Spindler / Schmitz / Liesching / Schmitz, Vor. § 11 ff. TMG Rn. 3; Jandt, ZD 2018, 405 (406); Keppeler, MMR 2015, 779 (781); Buchner, DuD 2016, 155 (161); a. A. Breyer, der fordert, dass die Datenschutzregelungen des TMG fortgelten und Abweichungen zum europäischen Recht im Wege der unionsrechtskonformen Auslegung gelöst werden, um Rechtssicherheit zu wahren und die Privatsphäre der Internetnutzung weiterhin zu gewährleisten, Breyer, ZD 2018, 302 (303). 869 Datenschutzkonferenz, Zur Anwendbarkeit des TMG für nicht-öffentliche Stellen ab dem 25. Mai 2018, 2018, S. 2. 870 Sesing, MMR 2019, 347 (350). 871 Gierschmann, ZD 2018, 297 (301).

C. Kommunikation mit Sprachassistenten

203

werblichen Charakter aufweisen, muss angedacht werden, ob ein deutlicher Hinweis auf diese Tatsache sowohl zum Beginn des Mitteilungsvorgangs als auch in regelmäßigen Abständen erneut erfolgen muss. Anders als die bildliche Darstellung von Werbeinhalten, welche für den Betrachter dauerhaft optisch deutlich als Werbung gekennzeichnet werden können, ist eine derartige Präsentation bei einer reinen Sprachausgabe schwieriger umzusetzen. Denkbar wäre, für werbliche Mitteilungen eine andere Stimmmodulation zu verwenden.

III. Telekommunikationsgesetz Im Unterschied zum TMG regelt das Telekommunikationsgesetz (TKG) gem. § 3 Nr. 22 TKG den technischen Vorgang des Aussendens, Übermittelns und Empfangens von Signalen mittels Telekommunikationsanlagen. Regelungen zu den konkreten Kommunikationsinhalten werden hingegen nicht durch das TKG erfasst.872 1. Sprachassistenten als Spionageeinrichtungen Anfang 2017 ging die Bundesnetzagentur gegen das smarte Spielzeug „My Friend Cayla“ vor und zog diese aus dem Verkehr. Der Vorwurf lautete, dass die Puppe zur heimlichen Bild- oder Tonaufnahme geeignet ist und von diesem Spionagegerät in Spielzeugform Gefahren gerade für die jüngeren Mitglieder der Bevölkerung ausgehen und ein Verstoß gegen § 90 Telekommunikationsgesetz (TKG) vorliegt.873 Nach § 90 Abs. 1 S. 1 TKG ist es in Deutschland grundsätzlich verboten, Sendeoder Telekommunikationsanalgen zu besitzen, herzustellen, zu vertreiben, einzuführen oder sonst in den Geltungsbereich dieses Gesetzes zu verbringen, die ihrer Form nach einen anderen Gegenstand vortäuschen oder die mit Gegenständen des täglichen Gebrauchs verkleidet sind und auf Grund dieser Umstände oder auf Grund ihrer Funktionsweise in besonderer Weise geeignet und dazu bestimmt sind, das nicht öffentlich gesprochene Wort eines anderen von diesem unbemerkt abzuhören oder das Bild eines anderen von diesem unbemerkt aufzunehmen. Diese Einschränkung ist nicht nur für eine Kinderpuppe mit Sprachausgabe relevant, sondern für jegliche Ausformungen von Sprachassistenten. Gerade wenn solche smarten Helfer nicht nur in dafür dezidierten Geräten wie beispielsweise die „Echo“-Serie von Amazon verbaut werden, sondern sich in haushaltüblichen Geräten wiederfinden, ist dies auf Vereinbarkeit mit § 90 TKG zu untersuchen. § 90 TKG ist als Ergänzung zu § 201 StGB (vgl. Ausführungen auf S. 225 ff.) zu verstehen und schützt das Recht auf informationelle Selbstbestimmung sowie 872 873

M. Geppert / Schütz / Cornils, § 1 TKG Rn. 7. Bundesnetzagentur, Bundesnetzagentur zieht Kinderpuppe „Cayla“ aus dem Verkehr.

204

Kap. 5: Rechtliche Problemstellungen

das Fernmeldegeheimnis.874 § 90 TKG stellt hierbei nicht eine „zahnlose“ Reglementierung dar, vielmehr ist ein Verstoß gegen das Verbot gem. § 148 Abs. 1 Nr. 2, Abs. 2 TKG strafbewehrt, wobei der Strafrahmen Freiheitsstrafe bis zu zwei Jahren oder Geldstrafe vorsieht. Anders als § 201 StGB, welcher erst die Aufnahme und Weitergabe des nichtöffentlich gesprochenen Wortes unter Strafe stellt, verlagert § 90 TKG eine Strafbarkeit vor und versucht bereits die Gelegenheit zur Anfertigung einer solchen Aufnahme zu unterbinden.875 Sprachassistenten fallen hierbei in der Regel in die Kategorie unter Umständen verbotener Anlagen.876 Ihre Funktionalität bedingt es, dass sie sich zum Abhören – d. h. technische Vorrichtungen, die akustische Inhalte verstärken und übertragen877 – des gesprochenen Wortes eignen. Eine Definition der Sendeanlage hält das TKG selbst nicht vor. Als Anhaltspunkt kann der Begriff der Funkanlage des § 3 Nr. 4 TKG 1996 herangezogen werden.878 Folglich ist unter einer Sendeanlage eine elektrische Sende- oder Empfangseinrichtung, zwischen denen die Informationsübertragung ohne Verbindungsleitungen stattfinden kann, zu verstehen. Solange die Technik derart ausgestaltet ist, dass Sprachassistenten für eine korrekte Funktionalität eine Datenübertragung zu den Servern des Herstellers aufbauen müssen, ist das Merkmal der Sendeanlage erfüllt, da ein Anschluss zumeist über das W-LAN-Netzwerk aufgebaut wird. Von großer Bedeutung ist das Merkmal der „Tarnung“. Der Gesetzeswortlaut verlang, dass das Gerät seiner äußerlichen Erscheinung nach einen anderen Gegenstand vortäuscht oder in einen Gegenstand des täglichen Lebens unscheinbar verbaut wurde.879 Die Miniaturisierung technischer Bauteile trägt dazu bei, dass Aufnahmegeräte immer kompakter werden. Längst ist ein großes auffälliges Mikrofon nicht mehr von Nöten, um eine akzeptable Klangqualität zu generieren. Ist es zwischenzeitlich im herkömmlichen Technikverständnis der Menschen verankert, dass Mobiltelefone, Smart-TVs oder andere komplexe technische Geräte mit einem Mikrofon ausgestattet sind, kann dies bei Haushaltsgegenständen noch bezweifelt werden. Sollte ein Hersteller, beispielsweise in einem Spiegel, nicht auf den ersten Blick erkennbar akustische und visuelle Aufnahmeeinrichtungen verbauen, um Vorschläge zur Verbesserung des Erscheinungsbildes des Verwenders zu geben, kann der Umstand der Tarnung bereits überschritten sein. Im Fall der Puppe Cayla wurde es als nicht ausreichend angesehen, dass bei ihr eine Halskette leuchtete, sobald das Mikrofon die Sprachaufzeichnung startete, mitunter auch deswegen, da die Technik störanfällig war und ein Leuchten der Kette nicht in allen Fällen zu verzeichnen war.880 874

Scheurle / Mayen / Dierlamm / Cordes, § 90 TKG Rn. 1. Arndt / Fetzer / Scherer / Graulich / Graulich, § 90 TKG Rn. 6. 876 Brockmeyer / Vogt, Alexa, Siri & Google Assistant – was ist erlaubt?, Sprachassistenten und das Recht, 2018, S. 3. 877 Säcker / Klesczewski, § 90 TKG Rn. 5. 878 M. Geppert / Schütz / Bock, § 90 TKG Rn. 8. 879 M. Geppert / Schütz / Bock, § 90 TKG Rn. 11. 880 Vogelgesang / Hessel, ZD 2017, 269–273 (271). 875

C. Kommunikation mit Sprachassistenten

205

Interessant ist, dies auch bezüglich des Verbots der Puppe Cayla, dass die Gesetzesbegründung im Rahmen der Zweckbestimmung eine sehr dezidierte Aussage bezüglich der verbotenen Gegenstände trifft. Der Gesetzgeber beschränkt den Anwendungsbereich des Verbotstatbestandes auf solche Anlagen, die von vornherein keinem anerkennenswerten Zweck, sondern offensichtlich nur dem heimlichen Abhören von Gesprächen bzw. dem heimlichen Anfertigen von Bildaufnahmen eines anderen dienen.881 Anlagen, die lediglich auch für diese Tätigkeiten genutzt werden können – wie beispielsweise Mobiltelefone – werden ausdrücklich ausgenommen.882 Vogelgesang / Hessel vertreten die Auffassung, dass dies eine zu enge Eingrenzung darstellt, da sich ein, wenn auch nur vorgeschobener, legitimer Zweck für so gut wie alle denkbaren Konstellationen kreieren lassen würde. Überdies könne es nicht Wille des Gesetzgebers gewesen sein, das früher bestehende striktere Verbot durch die Neuregelung zu unterwandern und früher verbotene Geräte durch die Novellierung 2012 zu erlauben.883 Diese Einschätzung dürfte seitens der Bundesnetzagentur geteilt werden. Die von der Netzagentur verbotene Puppe diente, zumindest auf dem Papier, der Unterhaltung von Kindern und nicht dem unerlaubten Abhören. Eine gerichtliche Entscheidung zu dieser Debatte steht zum derzeitigen Zeitpunkt noch aus, ein seitens des VG Köln884 abgewiesener Eil­antrag des Herstellers der Puppe Cayla – bestätigt durch das OVG NRW885 – musste hierzu keine Stellung beziehen. Exkurs: § 90 TKG wird nicht durch die Vorschriften der DS-GVO verdrängt. Zwar wurde § 90 TKG nicht in Umsetzung der ePrivacy-RL erlassen, weshalb die Verhältnisregelung des Art. 95 DS-GVO nicht zu tragen kommt. § 90 TKG trifft jedoch keine Regelungen bezüglich der ganz oder teilweise automatisierten Verarbeitung personenbezogener Daten (Art. 2 Abs. 1 DS-GVO), sondern setzt bereits eine Stufe früher bei Besitz, Herstellung, Vertrieb oder Einführung der Anlagen an.886 2. Fazit Die Miniaturisierung der Technik und die Möglichkeiten des Einsatzes von Sprachassistenten in zahlreichen Gegenständen des Alltags mag aus Sicht der Hersteller eine interessante Möglichkeit der Verbreiterung ihrer Produktpalette darstellen. Es ist jedoch darauf zu achten, dass die Bundesnetzagentur über den Wortlaut und die Gesetzesbegründung des § 90 TKG hinaus nicht nur Gegenstände, die ersichtlich keinem anderen Zweck als dem heimlichen Abhören von Gesprächen dienen, sondern auch solche als problematisch erachtet, deren Funktionsweise 881

BT-Drs. 17/5707 2011, 1 (78). BT-Drs. 17/5707 2011, 1 (79). 883 Vogelgesang / Hessel, ZD 2017, 269–273 (272). 884 VG Köln Beschl. v. 8. 5. 2017 – 21 L 842/17, ZD 2017, 497. 885 OVG NRW Beschl. v. 30. 6. 2017 – 13 B 627/17. 886 B. Wagner / Salzmann, ZD-Aktuell 2019, 6731. 882

206

Kap. 5: Rechtliche Problemstellungen

als Aufnahmegerät dem durchschnittlichen Verwender nicht bekannt ist bzw. das Vorliegen eines Mikrofons nicht offensichtlich ist.

IV. Strafrecht 1. Regelungen nach dem Strafgesetzbuch Mag der erste Gedanke bei Sprachassistenten und materiellem Strafrecht möglicherweise mangelndes Gefahrenpotential vermitteln, kommen insbesondere die Straftatbestände der Verletzung der Vertraulichkeit des Wortes aus § 201 StGB sowie der Verletzung von Privatgeheimnissen nach § 203 StGB in Betracht. a) Verletzung der Vertraulichkeit des Wortes Nach § 201 Abs. 1 Nr. 1 StGB wird derjenige bestraft, der das nichtöffentlich gesprochene Wort eines anderen auf einen Tonträger aufnimmt. Grundsätzlich nimmt ein Sprachassistent mit eingebauter Hardware in einer Gesprächssituation das gesprochene Wort auf und übermittelt dieses auf die Server des Herstellers, auf welchen die Antworten des Gegenübers zumindest für die Zeit der Verarbeitung gespeichert werden. Tonträger im Sinne des StGB sind hierbei nicht nur traditionelle Medien wie Schallplatten und Tonbänder, sondern vielmehr auch jegliche elektronisch lesbaren Datenträger wie CD, DVD und Festplatten.887 Relevant wird dies, sollten sich Dritte in Räumlichkeiten aufhalten, welche einen aufnahmebereiten Sprachassistenten enthalten. Da nicht ausgeschlossen werden kann, dass durch eine Fehlaktivierung das Gespräch innerhalb des Raumes – sei es mit dem Inhaber des Sprachassistenten oder mit einem anderen unbeteiligten Dritten – aufgezeichnet und verarbeitet wird. Diese Kommunikation wird in der Regel als nicht öffentlich einzustufen sein, da die Äußerungen in der Regel „nicht für einen größeren, nach Zahl und Individualität unbestimmten oder nicht durch persönliche oder sachliche Beziehungen miteinander verbundenen Personenkreis bestimmt oder unmittelbar verstehbar“888 sind. Eine Aufzeichnung erfolgt unbefugt, sofern sie nicht mit einem Einverständnis im Sinne einer zustimmenden Willensäußerung des Sprechenden geschieht.889 Fraglich ist, ob ein (konkludentes) Einverständnis bereits dann anzunehmen ist, wenn anwesende Personen auf das Vorhandensein eines Sprachassistenten hingewiesen werden und im Fortgang dennoch Gespräche geführt werden. Heuchemer verneint dies zutreffend, da eine solche konkludente Einwilligung nicht in Betracht zieht, dass eine Aufnahme zwar 887

Schönke / H. Schröder / Hecker, § 11 StGB 75. Schönke / H. Schröder / Eisele, § 201 StGB Rn. 6. 889 Schönke / H. Schröder / Eisele, § 201 StGB Rn. 14. 888

C. Kommunikation mit Sprachassistenten

207

mit Wissen des Betroffenen aber gegen dessen Willen erfolgen kann und er auch in dieser Situation schützenswert ist; im Übrigen handelt es sich bei § 201 StGB nicht um ein „heimliches“ Delikt.890 Auch eine mutmaßliche Einwilligung des Betroffenen ist höchstens in Konstellationen denkbar, in welchen nicht auf die Flüchtigkeit des gesprochenen Wortes vertraut werden darf und kein Raum für den Austausch persönlicher Informationen bleibt.891 Da zumindest bei persönlicher Anwesenheit des Betroffenen in der Regel eine tatsächliche Einwilligung problemlos einholbar wäre, bedarf es eines Rückgriffs auf das Institut einer mutmaßlichen Einwilligung auch unter diesem Gesichtspunkt nicht. Relevant ist diese Problematik überdies bei Sprachassistenten, die mit menschlich modulierter Stimme eigenständig Telefonate führen. Diese Möglichkeit hat beispielsweise Google in einer Technikdemonstration des Google Duplex Assistenten vorgeführt,892 und ihr Gegenüber nicht darüber aufklären, dass der Gesprächspartner nicht-menschlicher Natur ist und das Gespräch denklogisch für das Funktionieren des Assistenten aufgezeichnet werden muss. Je nach Ausprägung der Autonomie des Sprachassistenten kann es hierbei zu Zurechnungsproblemen im Rahmen des subjektiven Tatbestandes kommen. Reicht für die Verwirklichung des Tatbestandes des § 201 Abs. 1 Nr. 1 StGB grundsätzlich ein dolus eventualis – bedingter Vorsatz – bezogen auf das Aufnehmen ohne Einverständnis,893 ist eine unmittelbare Täterschaft wohl nur bei teilautonomen Sprachassistenten gegeben. Handelt der Sprachassistent jedoch vollständig autonom und ohne das Wissen des Verwenders, scheidet eine Zurechnung möglicherweise aus. Um zu einer Strafbarkeit des Betreibers zu gelangen, müsste das bloße Betreiben eines Sprachassistenten bereits für die Bejahung eines bedingten Vorsatzes genügen. Bedingt vorsätzliches Handeln setzt nach Rechtsprechung des BGH voraus, dass der Täter den Eintritt des tatbestandlichen Erfolgs als möglich und nicht ganz fernliegend erkennt (Wissenselement) und dass er ihn billigt oder sich um des erstrebten Zielwillens mit der Tatbestandsverwirklichung zumindest abfindet (Willenselement). Beide Elemente der inneren Tatseite, also sowohl das Wissens- als auch das Willenselement, müssen in jedem Einzelfall umfassend geprüft, durch tatsächliche Feststellungen belegt und in eine individuelle Gesamtschau einbezogen und bewertet werden.894 Dieser Vorsatz muss gemäß § 16 Abs. 1 S. 1 StGB bei Begehung der Tat vorliegen, mithin wenn der Täter das Vorbereitungsstadium verlässt und subjektiv die Schwelle des „jetzt geht es los“ überschreitet und objektiv zur tatbestandsmäßigen Angriffshandlung ansetzt, so dass sein Tun ohne Zwischenakte in die Tatbestands-

890

BeckOK StGB / Heuchemer, § 201 StGB 6.1. Schönke / H. Schröder / Eisele, § 201 StGB Rn. 30. 892 Herbig, Google Duplex: Guten Tag, Sie sprechen mit einer KI, https://www.heise.de/ newsticker/meldung/Google-Duplex-Guten-Tag-Sie-sprechen-mit-einer-KI-4046987.html (Stand: 27. 09. 2020). 893 Schönke / H. Schröder / Eisele, § 201 StGB Rn. 35. 894 BGH Urt. v. 16. 11. 2017 – 3 StR 315/17, NJW 2018, 1411 (1412) Rz. 5. 891

208

Kap. 5: Rechtliche Problemstellungen

erfüllung übergeht,895 sog Koinzidenz- oder Simultanitätsprinzip.896 Dies ist bei vollautonomen Sprachassistenten schwerlich denkbar, zumal in Konstellationen, in welchen der Verwender keinerlei Kenntnis über das „ob“ und „wann“ getätigter Anrufe hat. Ein der Tatverwirklichung vorgestellter Vorsatz (sog. dolus antecedens), beispielsweise bei erstmaliger Inbetriebnahme des Sprachassistenten, genügt grundsätzlich nicht.897 Um dies zu lösen, könnte das Institut der mittelbaren Täterschaft nach § 25 Abs. 1 Alt. 2 StGB angedacht werden. Die mittelbare Täterschaft zeichnet es aus, dass der Täter die Straftat durch einen anderen – hier möglicherweise den Sprachassistenten – begeht. Hierfür ist es Voraussetzung, dass der Täter als Hintermann das „Werkzeug“, bei welchem ein Strafbarkeitsdefizit vorliegt, im Sinne einer Marionette einsetzt.898 Da es sich bei einem Sprachassistenten um keine natürliche Person handelt, könnte argumentiert werden, dass dieser als vorsatzloses Werkzeug des Verwenders agiert. Hierbei beginnt die Phase des Versuches und folglich der Zeitpunkt des nötigen Vorliegens des Vorsatzes auf Seiten des Verwenders dann, wenn der Verwender des Sprachassistenten nach seiner Vorstellung die erforderliche Einwirkung auf den Tatmittler abgeschlossen hat – beispielsweise das Inbetriebnehmen des Assistenten mit Wissen, dass dieser Anrufe ohne Aufklärung der Maschinennatur tätigen wird –, so dass nach dem Tatplan der Sprachassistent in unmittelbarem Anschluss die Tat ausführen soll und das geschützte Rechtsgut damit bereits in diesem Zeitpunkt gefährdet ist.899 Nach dieser Definition stehen einer Annahme einer mittelbaren Täterschaft jedoch zwei grundlegende Probleme im Weg. Zum einen ist ein „anderer“ im Sinne des Strafgesetzbuches notwendigerweise eine andere natürliche Person als unmittelbar Handelnder.900 Ein Sprachassistent als Algorithmus kann nach derzeit geltendem Strafrecht folglich nicht als Werkzeug im Sinne der mittelbaren Täterschaft angesehen werden. Zum anderen ist der zeitliche Zusammenhang zwischen Inbetriebnahme und einer möglichen Handlung des Sprachassistenten bei voll automatisierten Algorithmen fraglich. So sieht der BGH ein Ansetzen des Täters zur Tat schon dann als gegeben an, wenn er seine Einwirkung auf den Tatmittler abgeschlossen hat, es ist also gerade nicht erforderlich, dass der Tatmittler seinerseits durch eigene Handlung zur Tat ansetzt. An einem unmittelbaren Ansetzen des mittelbaren Täters – hier Inbetriebnahme – fehlt es, wenn die Einwirkung auf den Sprachassistenten erst nach längerer Zeit wirken soll oder wenn – wie vorliegend – ungewiss bleibt, ob und wann die Einwirkung Wirkung entfaltet901 und der Sprachassistent Anrufe tätigt.

895

BGH Urt. v. 25. 10. 2012 – 4 StR 346/12, NStZ 2013, 156 (158). MüKoStGB / Joecks, § 16 StGB Rn. 15. 897 Schönke / H. Schröder / Sternberg-Lieben / Frank Schuster, § 15 StGB Rn. 49. 898 BeckOK StGB / Kudlich, § 25 StGB Rn. 20. 899 BGH Urt. v. 26. 1. 1982 – 4 StR 631/81, NJW 1982, 1164. 900 MüKoStGB / Joecks, § 16 StGB Rn. 77. 901 BGH Urt. v. 12. 8. 1997 – 1 StR 234/97, NJW 1997, 3453 – Giftfalle. 896

C. Kommunikation mit Sprachassistenten

209

Als Fazit kann festgehalten werden, dass eine Strafbarkeit des Verwenders eines menschlich klingenden Sprachassistenten derzeit nur dann unproblematisch in Betracht kommen wird, wenn er sich diesen bewusst bedient und zum Zeitpunkt des Anrufes zumindest mit bedingtem Vorsatz bezüglich der Aufnahme des nichtöffentlich gesprochenen Wortes eines anderen auf einem Tonträger handelt, § 201 Abs. 1 Nr. 1 StGB. b) Verletzung von Privatgeheimnissen Berufsgeheimnisträger, mithin Berufsgruppen, die ein besonderes Vertrauen für sich in Anspruch nehmen, unterfallen strengen strafrechtlich relevanten Verschwiegenheitspflichten nach § 203 Abs. 1 StGB902 und sollten bei der Verwendung von Sprachassistenten außerhalb des privaten Bereichs gesteigerte Sorgfalt walten lassen. Ein Berufsgeheimnisträger – für private Berufsgruppen in § 203 Abs. 1 StGB und für öffentliche Stellen in Abs. 2 geregelt – macht sich strafbar, wenn er unbefugt ein fremdes Geheimnis, namentlich ein zum persönlichen Lebensbereich gehörendes Geheimnis oder ein Betriebs- oder Geschäftsgeheimnis, offenbart, das ihm in seiner Funktion als Berufsgeheimnisträger anvertraut oder sonst bekannt geworden ist. Fremde Geheimnisse sind hierbei Tatsachen, die nur einem beschränkten Personenkreis bekannt sind und nach dem verständlichen Interesse des Geheimnisträgers nicht weiter bekannt werden sollen.903 Bedient sich der Berufsgeheimnisträger eines Sprachassistenten, sei es zur Überprüfung eines Befundes, der Organisation von Terminen oder der Kontaktaufnahme zu Patienten, steht hierbei das Tatbestandsmerkmal der Offenbarung gegenüber Dritten – den Betreibern des Sprachassistenten – im Raum. Der Begriff der Offenbarung wird sehr weit verstanden und umfasst jede Mitteilung des Geheimnisses oder der Einzelangabe an einen Dritten.904 Auch das digitale Versenden (und Archivieren) an fremde Server, soweit keine hinreichende Anonymisierung bzw. Pseudonymisierung der Daten vorgenommen wird, unterfällt grundsätzlich dem Tatbestand der Offenbarung nach § 203 StGB.905 Anerkannt ist, dass ein Offenbaren bereits durch Unterlassen begangen werden kann, da der Berufsgeheimnisträger in der Regel eine Garantenstellung i. S. d. § 13 StGB inne hat.906 Der Berufsgeheimnisträger ist folglich dazu verpflichtete, ihm zumutbare Maßnahmen zu ergreifen, um zu verhindern, dass Dritte Kenntnis von den Ge-

902

Schorn, in: Bräutigam (Hrsg.), IT-Outsourcing und Cloud-Computing, 1357 (1360). OLG Köln Beschl. v. 4. 7. 2000 – Ss 354/00, NJW 2000, 2656; Lackner / Kühl / Heger, § 203 StGB Rn. 14. 904 BeckOK StGB / Weidemann, § 203 StGB Rn. 32. 905 Schönke / H. Schröder / Eisele, § 203 StGB Rn. 20. 906 MüKoStGB / Cierniak / Niehaus, § 203 StGB Rn. 55. 903

210

Kap. 5: Rechtliche Problemstellungen

heimnissen erhalten können.907 Solange nicht mit an Sicherheit grenzender Wahrscheinlichkeit zu verhindern ist, dass ein Sprachassistent durch eine Fehlaktivierung mit der Übertragung von Daten an die Server des Betreibers beginnt, sollte ein solches Gerät sicherheitshalber keine Verwendung an Orten finden, an denen sensible Informationen ausgetauscht werden, beispielsweise in Räumlichkeiten von Ärzten oder Anwälten. Das über lange Jahre bestehende strikte Verbot der Weitergabe von Geheimnissen außerhalb des eigenen Betriebs wurde erst im Jahr 2017 gelockert. Gemäß § 203 Abs. 3 S. 2 StGB dürfen Berufsgeheimnisträger fremde Geheimnisse nunmehr gegenüber sonstigen Personen offenbaren, soweit dies für die Inanspruchnahme deren Tätigkeit erforderlich ist. Wichtig ist, dass es sich bei dieser Weitergabe nicht um eine tatbestandsausschließende Handlung – anders als bei der Weitergabe der Geheimnisse an bei dem Berufsgeheimnisträger berufsmäßig tätige Gehilfen, § 203 Abs. 3 S. 1 StGB, handelt, sondern vielmehr ein Rechtfertigungsgrund vorliegt.908 Das Kriterium der Erforderlichkeit ist nicht dahingehend zu verstehen, dass es dem Geheimnisträger ohne die Zuziehung Dritter überhaupt nicht möglich wäre, die Aufgabe zu erfüllen, er hat bezüglich des „ob“ mithin eine eigene Einschätzungsprärogative.909 Diese Neuregelung erlaubt es folglich grundsätzlich, dass nun auch Berufsgeheimnisse im Rahmen der Verwendung von Sprachassistenten an deren Betreiber übermittelt werden dürfen. Der Einsatz eines solchen Assistenten zur Verwaltung des ganzen Datenbestandes durch einen externen Betreiber sollte jedoch auch weiterhin vermieden werden, da nach Willen des Gesetzgebers die einem Geheimnisträger bekannt gewordenen Geheimnisse überwiegend in seiner Sphäre verbleiben und diese nur im erforderlichen Ausmaß verlassen sollen.910 Eine weitere Einschränkung der Verwendbarkeit von Sprachassistenten hält § 203 Abs. 4 S. 2 Nr. 1 StGB vor. Hiernach macht sich der Berufsgeheimnisträger weiterhin strafbar, wenn er nicht dafür Sorge getragen hat, dass der Betreiber des Sprachassistenten zur Geheimhaltung verpflichtet wurde und dieser seinerseits das Geheimnis Dritten gegenüber offenbart hat. Dezidierte Regelungen, wie eine solche Verpflichtung zur Geheimhaltung ausgestaltet sein muss, lassen sich dem Strafgesetzbuch nicht entnehmen, wohl aber berufsrechtlichen Sonderregelungen. Als Beispiel kann § 43e BRAO in Bezug auf Rechtsanwälte herangezogen werden.911 Hiernach hat der Rechtsanwalt einen Dienstleister in Textform unter Belehrung über die strafrechtlichen Folgen einer Pflichtverletzung zur Verschwiegenheit 907

Schorn, in: Bräutigam (Hrsg.), IT-Outsourcing und Cloud-Computing, 1357 (1363). Hoeren, MMR 2018, 12 (15). 909 Schorn, in: Bräutigam (Hrsg.), IT-Outsourcing und Cloud-Computing, 1357 (1371). 910 BT-Drs. 18/11936 2017, 1 (28). 911 Ausgewählte Regelungen für andere Berufsgruppen finden sich in § 26a BnotO (Notare), § 39c PatAnwO (Patentanwälte), § 62a StBerG (Steuerberater), § 50a WPO (Wirtschaftsprüfer) welche mit den Vorgaben der BRAO vergleichbar sind. 908

C. Kommunikation mit Sprachassistenten

211

zu verpflichten sowie diesen dazu zu verpflichten, sich nur insoweit Kenntnis von fremden Geheimnissen zu verschaffen, als dies zur Vertragserfüllung erforderlich ist, sowie festzusetzen, ob der Dienstleister befugt ist, weitere Personen – welche ihrerseits seitens des Dienstleisters zur Verschwiegenheit zu verpflichten sind – zur Erfüllung des Vertrages heranzuziehen, § 43e Abs. 3 BRAO. Diese berufsrechtlichen Besonderheiten der Geheimhaltungsverpflichtung hat jedoch für die Frage, ob die seitens des Strafgesetzbuches geforderte Verpflichtung erfüllt wurde, keine Auswirkung.912 Nach Eisele genügt hierfür bereits eine einmalige formlose Verpflichtung bei Beginn der Tätigkeit des Mitwirkenden.913 Ist eine derartige Verpflichtung des Betreibers eines Sprachassistenten möglicherweise für marktmächtige Unternehmen denkbar, so wird dies in der Praxis für kleine und mittlere Unternehmen prinzipiell schwerlich denkbar sein. Schorn plädiert daher dafür, dass es genügen muss, wenn der Betreiber in seinen AGB eine Selbstverpflichtung und -belehrung aufnimmt, da dies ausreichend ist, um sicherzustellen, dass der Dienstleister sich seiner Verantwortung bewusst ist.914 Cornelius hingegen kritisiert, dass die Strafbarkeit des Berufsgeheimnisträgers bei Verletzung der Pflichten des Mitwirkenden und Preisgabe der Geheimnisse an einen Dritten unhaltbar ist, da der Berufsgeheimnisträger ohne eigenes Verschulden an dem Unrecht des Mitwirkenden beteiligt wird, welches in keinem zurechenbaren Kausalzusammenhang mit dem eigentlichen Geheimnisverrat steht.915 Mag diese Einschätzung dem Gerechtigkeitsempfinden auch entsprechen, sind Berufsgeheimnisträger dennoch dazu anzuhalten, sich an den bestehenden Regelungen des StGB zu orientieren. c) Fazit Der Schutz der Privatsphäre bedarf gerade in einer digitalisierten Welt erhöhter Aufmerksamkeit. Der Einsatz von Sprachassistenten und die Verbauung von Mikrofonen in zahlreichen Geräten erhöht den tatsächlichen oder gefühlten Überwachungsdruck der Menschen. Der Gesetzgeber sollte demnach dazu angehalten werden, § 201 StGB dahingehend zu überarbeiten, dass bereits der nicht offengelegte Betrieb eines Sprachassistenten zu einer Strafbarkeit des Anwenders führen kann, wenn dieser nicht dafür Sorge trägt, dass eine, wenn auch unbeabsichtigte, Aufzeichnung verhindert wird. Eine Konstruktion der Mittäterschaft scheitert zum derzeitigen Zeitpunkt daran, dass die Strafbarkeit die Tat einer anderen natür­lichen Person voraussetzt, vollautonome technische Agenten aber von der bisherigen Dogmatik nicht erfasst werden. Die Ausweitung der Lockerung der Datenübermittlung von Berufsgeheimnisträgern ist im Hinblick auf die zunehmende dezentrale Speicherung von Daten 912

BT-Drs. 18/11936 2017, 1 (29). Schönke / H. Schröder / Eisele, § 203 StGB Rn. 102. 914 Schorn, in: Bräutigam (Hrsg.), IT-Outsourcing und Cloud-Computing, 1357 (1375). 915 Cornelius, NJW 2017, 3751 (3753). 913

212

Kap. 5: Rechtliche Problemstellungen

im Rahmen von Cloud-Anwendungen grundsätzlich zu begrüßen. Unzureichend ist jedoch die Voraussetzung des § 203 Abs. 4 S. 2 Nr. 1 StGB. Im Hinblick auf eine Datenübermittlung in Drittländer wie beispielsweise die USA kann es nicht ausreichend sein, dass eine Strafbarkeit des Berufsgeheimnisträgers bereits ausgeschlossen wird, wenn er den Datenempfänger zur Geheimhaltung verpflichtet hat. Vielmehr sollte das Strafgesetzbuch auch berücksichtigen, ob dem Datenempfänger in dessen Herkunftsland eine derartige Verpflichtung überhaupt möglich ist, oder ob staatliche Überwachungsbehörden trotz zivilrechtlicher Verpflichtung des Datenempfängers Zugriff auf die Daten des Berufsgeheimnisträgers im Drittland nehmen können. 2. Strafverfolgung Nachdem sich Sprachassistenten und smarte Geräte inzwischen einer weiten Verbreitung innerhalb der Bevölkerung erfreuen, rücken sie auch für die Strafverfolgungsbehörden zunehmend in den Fokus. Jüngst wagten die Innenminister von Bund und Ländern einen ersten Vorstoß und äußerten die Idee, Ermittlern den Zugriff auf die Daten von Sprachassistenten und Smart Home Geräten zu gewähren.916 Diskutiert wurde diese Thematik anschließend zeitnah im Rahmen der 210. Sitzung der Innenministerkonferenz im Juni 2019 in Schleswig-Holstein. Dabei stellten die Innenminister fest, dass der Spurensicherung der Polizei im digitalen Umfeld eine steigende Bedeutung zukommt, beschränken sich in ihrem gemeinsamen Beschluss jedoch darauf, Dateninhalte auszuwerten, die auf Grund der derzeitigen Rechtsgrundlage bereits erhoben und gespeichert werden dürfen. Die „Schaffung neuer Eingriffsbefugnisse, wie beispielsweise zum Auslesen von Daten aus sogenannten Smart-Home-Geräten“, wurde jedoch aufgeschoben.917 Zwar ist das Einbringen eines diesbezüglichen Gesetzesvorschlags in den Bundestag zu diesem Zeitpunkt vorläufig nicht zu erwarten, es soll jedoch an dieser Stelle ein kurzer Überblick über die geltende Rechtslage gegeben werden. Neben einem Eingriff in das Recht auf informationelle Selbstbestimmung (vgl. S. 122), kann es sich bei der Beweiserhebung der Daten von Sprachassistenten zum einen um einen Eingriff in das Fernmeldegeheimnis aus Art. 10 Abs. 1 GG zum anderen in die Unverletzlichkeit der Wohnung, Art. 13 Abs. 1 GG handeln.

916 ZDF, Pläne der Innenminister, https://www.zdf.de/nachrichten/heute/innenministervorstoss-ermittler-sollen-zugriff-auf-daten-aus-smarten-geraeten-erhalten-100.html (Stand: 27. 09. 2020). 917 Ständige Konferenz der Innenminister und -senatoren der Länder, Sammlung der zur Veröffentlichung freigegebenen Beschlüsse der 210. Sitzung der Ständigen Konferenz der Innenminister und -senatoren der Länder, S. 18.

C. Kommunikation mit Sprachassistenten

213

a) Fernmeldegeheimnis Das Fernmeldegeheimnis gewinnt, befeuert durch die fortschreitende Digitalisierung, täglich an Bedeutung. Der Einsatz eines Smartphones oder sonstiger internetfähiger Geräte führt dazu, dass die Mehrheit der Bevölkerung tagtäglich eine Datenspur  – ob bewusst oder unbewusst  – hinterlässt.918 Das Grundrecht schützt den privaten und den geschäftlichen Fernmeldeverkehr vor Eingriffen der öffentlichen Gewalt. Die grundrechtliche Gewährleistung umfasst nicht nur den Inhalt geführter Telefongespräche, sondern auch die näheren Umstände des Fernmeldeverhältnisses. Dazu gehört insbesondere die Informationen, ob und wann zwischen welchen Personen und Fernmeldeanschlüssen Fernmeldeverkehr stattgefunden hat oder versucht worden ist.919 Der Schutz bezieht sich auf alle mittels der Fernmeldetechnik ausgetauschten Informationen,920 wobei es unerheblich ist, welcher Ausdrucksform sich die Kommunikationspartner bedienen. Es werden sowohl Sprache, Bilder, Töne, Zeichen oder sonstige Daten erfasst.921 Zwar soll das Fernmeldegeheimnis grundsätzlich die Kommunikation zwischen Personen schützen, jedoch können sich auf dieses Grundrecht, und dies ist insbesondere für die Kommunikation durch Einsatz des Sprachassistenten mit den Servern des Betreibers relevant, gem. Art. 19 Abs. 3 GG auch juristische Personen des Privatrechts berufen. Ausländische juristische Personen können sich auf den Schutzbereich des Grundrechts grundsätzlich nicht stützen, jedoch steht dieses juristischen Personen mit Sitz in der EU auf Grund der Erweiterung des Anwendungsbereichs von Art. 19 Abs. 3 GG ebenso zu.922 Ein Eingriff in das Grundrecht kann nur auf Grund eines Landes- oder Bundesgesetzes erfolgen, die maßgeblichen Ermächtigungsgrundlagen finden sich hierfür bezüglich der repressiven Strafverfolgung überwiegend in der Strafprozessordnung (StPO) bzw. für die präventive Gefahrenabwehr in den Polizeigesetzen der jeweiligen Länder.923

b) Unverletzlichkeit der Wohnung Sprachassistenten finden ihren Einsatzbereich oftmals in den Wohnräumen der Verwender. So gaben laut einer Qualcomm-Umfrage aus dem Jahr 2019924 67 % der Personen an, den Smart Speaker „Alexa“ der Firma Amazon im Wohnzimmer zu verwenden, 43 % nutzen das Gerät sogar im sensiblen Bereich des Schlaf-

918

BeckOK Grundgesetz / Ogorek, Art. 10 GG Rn. 35. BVerfG Beschl. v. 20. 6. 1984 – 1 BvR 1494/78, NJW 1985, 121 (122). 920 BVerfG Urt. v. 27. 7. 2005 – 1 BvR 668/04, NJW 2005, 2603. 921 BVerfG Urt. v. 16. 6. 2009 – 2 BvR 902/06, NJW 2009, 2431 (2432) Rz. 43. 922 BeckOK InfoMedienR / Gersdorf, Art. 10 GG Rn. 20. 923 BeckOK InfoMedienR / Gersdorf, Art. 10 GG 34 f. 924 Qualcomm, The State of Play Report 2019, A global look at the key drivers of consumer audio use cases and purchasing decisions, 2019, S. 23. 919

214

Kap. 5: Rechtliche Problemstellungen

zimmers.925 Um diese höchst privaten Bereiche des Menschen vor staatlicher Einflussnahme zu schützen, garantiert Art. 13 Abs. 1 GG die Unverletzlichkeit der Wohnung. Das BVerfG sieht hierin die Gewährleistung, dass dem Einzelnen im Hinblick auf seine Menschenwürde und im Interesse der freien Entfaltung der Persönlichkeit ein elementarer Lebensraum verbleibt und er das Recht hat, in Ruhe gelassen zu werden.926 Der Begriff der Wohnung umfasst nicht nur die hinlänglich als Privaträume genutzten Räume, sondern vielmehr auch Nebenräume (z. B. Keller) sowie das im Wohnungszusammenhang stehende umfriedete Besitztum.927 Auch Räumlichkeiten, die nur zu bestimmten Zwecken der Unterbringung (Krankenzimmer) und nur vorrübergehend überlassen werden, fallen unter den Schutzbereich; dies gilt auch, sofern Dritte Zugang zu diesen Räumlichkeiten haben, solange dies nicht den Privatcharakter der Räumlichkeit aufhebt.928 Eingriffe in das Recht der Unverletzlichkeit der Wohnung bedürfen, z. B. zu Wohnungsdurchsuchungen, grundsätzlich eines präventiven richterlichen Beschlusses; andere Organe des Staates dürfen dies nur in Ausnahmefällen und nur bei Gefahr im Verzug anordnen.929 c) Zugriff durch die Ermittlungsbehörden Nachdem die Konferenz der Innenminister festgestellt hat, dass zwar keine weitergehenden Zugriffsmöglichkeiten derzeit angedacht werden, jedoch ein Zugriff auf die Daten von Sprachassistenten im derzeit erlaubten Umfang möglich sein soll, wird nun ein kurzer Überblick über die relevanten Regelungen der StPO gegeben. Je nachdem ob die Maßnahme verdeckt oder offen erfolgen soll, ergeben sich Ermächtigungsgrundlagen aus den §§ 100a ff., 101 sowie 110 StPO. aa) Die Durchsicht nach § 110 StPO Die offene Durchsicht von Papieren bei einem Betroffenen stellt eine Maßnahme mit relativ geringer Eingriffsintensität dar und bezweckt die Einhaltung des Verhältnismäßigkeitsgrundsatzes, insbesondere den Schutz der Persönlichkeitsrechte930, da nur diejenigen Informationen einem dauerhaften und damit vertiefenden Eingriff – z. B. im Wege der Beschlagnahmung – zugeführt werden, die verfahrensrelevant und verwertbar sind.931 Auch wenn das Gesetz lediglich

925 M. Brandt, Wo Alexa und Co. im Einsatz sind, https://de.statista.com/infografik/20414/ orte-an-denen-smart-speaker-genutzt-werden/ (Stand: 27. 09. 2020). 926 BVerfG Beschl. v. 12. 3. 2019 – 2 BvR 675/14, NJW 2019, 1428 (1429) Rz. 52. 927 BeckOK Grundgesetz / Kluckert, Art. 13 GG Rn. 2. 928 BGH Urt. v. 10. 8. 2005 – 1 StR 140/05, NJW 2005, 3295 (3297) – Krankenzimmer. 929 Maunz / Dürig / Papier, 88 EL., Art. 13 GG Rn. 22. 930 MüKoStPO / Hauschild, § 110 StPO Rn. 1. 931 BVerfG Beschl. v. 12. 4. 2005 – 2 BvR 1027/02, NJW 2005, 1917 (1923).

C. Kommunikation mit Sprachassistenten

215

den Begriff der „Papiere“ verwendet ist allgemein anerkannt, dass die Vorschrift alle Gegenstände erfasst, die wegen ihres Gedankeninhalts Bedeutung haben, namentlich alles private und berufliche Schriftgut, gleichgültig auf welchem Informationsträger sie festgehalten sind, somit auch alle elektronischen Datenträger und Datenspeicher, Sprachassistenten eingeschlossen.932 Gerade für digitale Medien ist interessant, dass gem. § 110 Abs. 3 StPO auch auf räumlich getrennte Speichermedien zugegriffen werden kann, sofern ansonsten ein Beweismittelverlust zu befürchten ist, da das Medium nicht schnell genug sichergestellt werden könnte. Bei passwortgeschützten Dateien dürfen aufgefundene Passwörter verwendet werden bzw. Verschlüsselungen gebrochen werden.933 Da sich die Server von Sprachassistenten wohl häufig auch in ausländischen Rechenzentren befinden ist es von großer Bedeutung, wie mit diesen Daten umzugehen ist, da die deutschen Strafverfolgungsbehörden grundsätzlich nur im Staatsgebiet der Bundesrepublik agieren dürfen,934 und ihnen im Ausland eine gesetzliche Kompetenz fehlt.935 Soweit Wicker die Auffassung vertritt, dass eine inländische Handlung vorliegt, sofern die faktische Handlung der Zugriffsname im Inland seitens des Ermittlungsbeamten durchgeführt wird und der Beamte schlechterdings nicht wissen könne, wo die Daten gespeichert sind,936 ist dies abzulehnen. Es ist unerheblich, dass der Befehl des Abrufs im Inland gegeben wird, da eine Übertragung der Daten von und ein Zugriff auf die Server im Ausland initiiert wird und dort zu Veränderungen führt. Nach richtiger Ansicht ist hierfür entweder die Zustimmung des Berechtigten, d. h. dem von der Maßnahme Betroffenen oder des fremden Staates nötig, beispielsweise durch ein Rechtshilfeersuchen.937 Da es sich bei der Durchsicht um eine offene Maßnahme handelt ist darauf hinzuweisen, dass nur ein einmaliger Zugriff auf die Daten gewährt wird. Nicht erfasst ist das Verwenden der Zugangsdaten zu einem mehrmaligen Zugriff und weitergehender Überwachung nach Abschluss der Maßnahme.938 Es kann jedoch festgehalten werden, dass sich die Durchsicht nur auf die Daten bezieht, auf welche der Betroffene selbst Zugriff hat. Daten, die zwar seitens des Sprachassistenten generiert werden, sich aber in der Zugriffshoheit des Betreibers befinden, können nicht durch § 110 StPO eingesehen werden. Dies schränkt den Anwendungsbereich der Vorschrift in Bezug auf smarte Geräte deutlich ein.

932

BVerfG Beschl. v. 30. 1. 2002 – 2 BvR 2248/00, NStZ 2002, 377 (377) Rn. 2; BGH Beschl. v. 5. 8. 2003 – 2 BJs 11/03–5 – StB 7/03, NStZ 2003, 670 (671) Rz 6. 933 BeckOK StPO / Hegmann, § 110 StPO Rn. 13. 934 Vgl. jedoch vertiefende Ausführungen zur Cybercrime Konvention des Europarates mit der zielsetzung der Vereinfachung des Kampfes gegen die Internetkriminalität Gercke, MMR 2004, 801; sowie Gercke, MMR 2004, 728. 935 Vgl. BT-Drs. 16/5846 S. 63. 936 Wicker, MMR 2013, 765 (768). 937 BeckOK StPO / Hegmann, § 110 StPO Rn. 15. 938 Zerbes / El-Ghazi, NStZ 2015, 425 (433).

216

Kap. 5: Rechtliche Problemstellungen

bb) Die Sicherstellung und Beschlagnahme nach § 94 StPO Nach § 94 Abs. 1 StPO sind Gegenstände, die als Beweismittel von Bedeutung sein können, bei Kooperation des Betroffenen in Verwahrung zu nehmen bzw. Sicherzustellen und im Falle einer Weigerung des Inhabers gegen seinen Willen zu beschlagnahmen, § 94 Abs. 2 StPO. Der Begriff des Gegenstandes ist weiter zu verstehen als nur körperliche Gegenstände i. S. d. § 90 BGB. Nach dem BVerfG gestattet es der Wortsinn, als Gegenstand auch unkörperliche Gegenstände zu verstehen, da der Wortlaut sich von dem engeren Begriff der (unkörperlichen) Sache unterscheidet.939 Erfasst werden mithin alle Gegenstände, die als Beweismittel für die Untersuchung von Bedeutung sein können. Eine nähere gesetzliche Eingrenzung ist wegen der Vielgestaltigkeit möglicher Sachverhalte laut BVerfG nicht geboten.940 Somit ist die Sicherstellung von Daten des Sprachassistenten grundsätzlich unabhängig davon, auf welchem Medium sie gespeichert werden möglich.941 Juristisch interessanter und für Ermittlungsbehörden durchaus relevant sind die Kommunikationsdaten, die ein Nutzer mit einem Sprachassistenten austauscht und die nicht auf dem beschlagnahmten Gerät gespeichert sind. Nach Entscheidung des Bundesverfassungsgerichts stellt § 94 StPO eine taugliche Grundlage für die Sicherstellung und Beschlagnahme von E-Mails dar, die auf dem Mailserver eines Providers (zwischen-)gespeichert sind. Voraussetzung ist, dass die Sicherstellung und Beschlagnahme der E-Mails auf dem Server des Providers in der Regel nicht heimlich, sondern offen erfolgt, die Daten punktuell und an den Ermittlungszweck begrenzt, außerhalb eines laufenden Kommunikationsvorgangs erhoben werden und der Betroffene Einwirkungsmöglichkeiten auf den von ihm auf dem Mailserver seines Providers gespeicherten E-Mail-Bestand hat.942 Diese Rechtsprechung überträgt Blechschmitt vertretbar auch auf den offenen Zugriff der Ermittlungsbehörden auf Cloud-Inhalte und die Kommunikationsdaten mit einem Sprachassistenten.943 cc) Telekommunikationsüberwachung nach § 100a StPO § 100a StPO erlaubt es Ermittlungsbehörden, auch ohne Wissen des Betroffenen die Telekommunikation zu überwachen und aufzuzeichnen, wenn bestimmte Katalogtaten vorliegen, die Tat im Einzelfall schwer wiegt und eine anderweitige Aufklärung des Sachverhalts wesentlich erschwert oder aussichtslos wäre, § 100a Abs. 1 S. 1 StPO. Nach der Legaldefinition des § 3 Nr. 22 TKG ist Telekommunikation der technische Vorgang des Aussendens, Übermittelns und Empfangens von 939

BVerfG Beschl. v. 12. 4. 2005 – 2 BvR 1027/02, NJW 2005, 1917 (1920). BVerfG Beschl. v. 12. 4. 2005 – 2 BvR 1027/02, NJW 2005, 1917 (1920). 941 Meinicke, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 835 (849). 942 BVerfG Urt. v. 16. 6. 2009 – 2 BvR 902/06, NJW 2009, 2431 (2435) Rz. 75. 943 Blechschmitt, MMR 2018, 361 (364). 940

C. Kommunikation mit Sprachassistenten

217

Signalen mittels Telekommunikationsanlagen. Unter den Begriff der Telekommunikation fällt auch das Kommunizieren mit einem Sprachassistenten bzw. genauer gesagt, die Übermittlung der Daten an den Server des Betreibers. Nicht verfangen kann die Ansicht, dass eine Kommunikation zwingend mindestens zwei natürliche Personen voraussetzt.944 Diese Ansicht ist abzulehnen. Moderne Kommunikation unterscheidet sich grundlegend von der Kommunikation vergangener Zeiten. Es ist längst nicht mehr nötig, dass zwei Personen zur selben Zeit einen Kommunikationsweg eröffnen. Vielmehr ist das zeitlich versetzte Austauschen von Nachrichten über verschiedenste Kommunikationsdienste und -arten weit verbreitet. Auch ist es, um den grundrechtlichen Schutzbereich nicht zu beschränken, angezeigt, das bloße „Surfen“ im Internet und die Beschaffung von Information unter den Begriff der Kommunikation zu fassen.945 Ebenso unterfallen nach Graf vernetzte Geräte, zu denen Sprachassistenten zählen, nicht den informationstechnischen Systemen des § 100b StPO, sondern sind in Bezug auf die Erhebung von Daten § 100a StPO zu subsumieren.946 Seit 2017 ermöglicht § 100a Abs. 1 S. 2 StPO überdies, dass die Überwachung und Aufzeichnung auch in der Weise erfolgen darf, dass mit technischen Mitteln auf den Sprachassistenten direkt zugegriffen werden kann, wenn dies zur Überwachung in unverschlüsselter Form notwendig ist. Diese, gegenüber der herkömmlichen Überwachung beim Netzanbieter subsidiäre, Quellen-TKÜ stellt eine Reaktion auf die zunehmende Häufigkeit der verschlüsselten Kommunikation dar, welche es dem Staat in weiten Teilen erschwert, wenn nicht sogar unmöglich macht, von den Kommunikationsinhalten Kenntnis zu erhalten.947 Auch auf dem Gerät gespeicherte Informationen über Inhalte und Umstände der Kommunikation dürfen erhoben werden, jedoch nur, wenn diese auch während des laufenden Übertragungsvorgangs im öffentlichen Telekommunikationsnetz in verschlüsselter Form hätte überwacht und aufgezeichnet werden dürfen, § 100a Abs. 1 S. 3 StPO. Diese Einschränkung soll verhindern, dass die Quellen-TKÜ die Form einer kleinen Onlinedurchsuchung annimmt und auch Daten abgezogen werden, die nicht mit einem Kommunikationsvorgang in Verbindung stehen.948 Dies hat zur Konsequenz, dass die Ermittler beispielsweise keine Software auf den Sprachassistenten aufspielen dürfen, welche das Mikrofon des Gerätes dauerhaft aktiviert und eine Verbindung mit den Servern aufbaut, um so an Informationen zu gelangen. Dieser Vorgang gleicht jedoch nicht einer herkömmlichen Kommunikation. Grundsätzlich übermittelt ein Sprachassistent nur Daten an die Server, wenn er hierzu über ein spezifisches Schlagwort aktiviert worden ist.949

944

Vgl. dies annehmend Soiné, MMR 2015, 22 (23). KK-StPO / Bruns, § 100a StPO Rn. 4. 946 Graf, § 100a StPO 93a. 947 Graf, § 100a StPO 42 f. 948 KK-StPO / Bruns, § 100a StPO Rn. 44. 949 Rüscher, NStZ 2018, 687 (689). 945

218

Kap. 5: Rechtliche Problemstellungen

Da das Mikrofon eines Sprachassistenten an sich dauerhaft aktiviert ist, um zu lauschen, ob das entsprechende Schlagwort zur Aktivierung fällt, ist fraglich, ob diese Informationen im Rahmen des § 100a StPO verwertet werden dürfen. Diese Konstellation ist mit dem Raumgespräch-Fall des BGH vergleichbar. Hier wurde das Gespräch eines Ehepaares aufgezeichnet, nachdem das Telefon an sich beendet war, der Hörer jedoch nicht ordnungsgemäß aufgelegt wurde bzw. defekt war. Eine derartige Aufnahme ist seitens des BGH als nicht verwertbar beurteilt worden, da das Gespräch ohne Inanspruchnahme einer Fernsprecheinrichtung im häuslichen Bereich stattfindet.950 Nicht anders ist dies bei Sprachassistenten zu beurteilen, deren Mikrofon dauerhaft zur Erkennung des gesprochenen Wortes – ohne ständige Verbindung zum Server – aktiviert ist. Anders ist die Situation zu werten, wenn der Betroffene bewusst eine Kommunikation mittels des Sprachassistenten gestartet hat und ein Bedienfehler seinerseits nicht zur Beendigung der Kommunikation geführt hat und er in diesem Zusammenhang für die Ermittlungsbehörden relevante Inhalte preisgibt. In diesem Zusammenhang vertritt der BGH die Auffassung, dass für die mit der Überwachung beauftragte Stelle der Inhalt der Telekommunikation regelmäßig nicht vorhersehbar und in der Regel nicht erkennbar ist, ob die Nachrichtenübermittlung willentlich, unbeabsichtigt oder gar gegen den Willen des Betroffenen vorgenommen wird. Am Charakter der Übertragung als Telekommunikation ändert sich nichts, wenn nach Herstellung einer vom Betroffenen willentlichen oder irrtümlichen – etwa durch Falschwahl – Verbindung eine weitere Aufzeichnung stattfindet.951 Problematisch ist, dass Sprachassistenten durchaus fehleranfällig sein können und eine Verbindung zu den Servern hergestellt wird, obwohl es sich weder um eine bewusste noch auf einer fehlerhaften Bedienung gründende Kommunikation handelt. Beispielsweise löste eine missverständliche Nachrichtensendung in den USA eine Massenbestellung von Puppenhäusern durch den Sprachassistenten Alexa aus.952 Nimmt man die Rechtsprechung des BGH als Grundlage, könnte argumentiert werden, dass es unerheblich ist, auf welche Weise die Kommunikation initiiert worden ist, da sich der Betroffene zuvor eigenmächtig dazu entschieden hatte, einen Sprachassistenten in Betrieb zu nehmen und sich über die Gefahren einer ungewollten Kommunikation im Klaren hätte sein müssen. Dies ist jedoch nicht zielführend. So kritisieren Stimmen in der Literatur bereits zur Konstellation eines Bedienfehlers, dass die Rechtsprechung des BGH zu weitgehend sei und nur derjenige, der bewusst einen Kommunikationsvorgang startet, den durch eine Überwachungsanordnung gerechtfertigten Eingriff dulden müsse.953 Sachgerechter ist es in Fällen, die nachweislich nicht auf einem Bedienverschulden des Benutzers, sondern einem technischen Defekt oder dem Dazwischentreten Dritter, beruhen, eine Anwendbarkeit des § 100a StPO abzulehnen. 950

BGH Urt. v. 16. 3. 1983 – 2 StR 775/82, NJW 1983, 1569 – Raumgespräch. BGH Urt. v. 14. 3. 2003 – 2 StR 341/02, NStZ 2003, 668 (669) Rz. 4. 952 Kaltschmidt, Amazon Echo: Nachrichtensprecher löst Massenbestellung aus, https://www. heise.de/newsticker/meldung/Amazon-Echo-Nachrichtensprecher-loest-Massenbestellung-aus3591039.html (Stand: 27. 09. 2020). 953 Sankol, MMR 2007, 692 (694); G. Fezer, NStZ 2003, 625 (627). 951

C. Kommunikation mit Sprachassistenten

219

dd) Online-Durchsuchung nach § 100b StPO Eine weitere Möglichkeit des Zugriffs auf Daten von Sprachassistenten stellt die lange umstrittene aber letztendlich als – mit gewissen Einschränkungen v. a. in Bezug auf den Bereich der Achtung der Privatsphäre – verfassungsgemäß beurteilte954 Online-Durchsuchung, für repressive Ermittlungsbehörden in § 110b StPO geregelt, dar. Den Ermittlungsbehörden ist es danach möglich, auch ohne das Wissen des Betroffenen (es handelt sich somit um eine verdeckte Maßnahme) mit technischen Mitteln in ein von dem Betroffenen genutztes informationstechnisches System einzugreifen und darauf befindliche Daten zu erheben, § 100b Abs. 1 StPO, sofern die Voraussetzungen des § 100b Abs. 1 Nr. 1–3 StPO vorliegen, somit insbesondere, dass dem Betroffenen eine besonders schwere Straftat (vgl. die Liste in § 100b Abs. 2 StPO) zur Last gelegt wird. Da der Gesetzgeber sich des generischen Begriffs „informationstechnisches System“ bedient, vermeidet er die Festlegung auf eine bestimmte Art von Geräten und bezieht sich auf alle, auch zukünftig denkbaren, Gerätetypen955 – mithin auch auf Sprachassistenten, gleich ob in Smartphones oder anderer Hardwareumgebung verbaut. Es ist den Ermittlungsbehörden erlaubt, durch den Einsatz technischer Mittel – beispielsweise eines Trojaners – auf das Gerät des Betroffenen mit dem Ziel zuzugreifen, die Nutzung zu überwachen und gespeicherte Daten aufzuzeichnen und auszulesen.956 Diese Konstellation ist für Sprachassistenten sehr wesentlich, da die Aufspielung einer fremden Software für den Sprachassistenten nicht nur eine potentielle Sicherheitslücke darstellt, sondern vielmehr auch weitgehende Eingriffe in die Hardwarekomponenten denkbar sind. Es gilt die Frage zu beantworten, ob es den Ermittlungsbeamten mitunter auch erlaubt ist, die Mikrofone und Kameras des Assistenten eigenmächtig einzuschalten und das Beobachtete aufzuzeichnen und im Strafverfahren zu verwerten. Buermeyer sieht in der Online-Durchsuchung eine tiefgreifendere Gefahr in Bezug auf die Ausspähung und die Objektifizierung der Menschen als bei einer akustischen Wohnraumüberwachung, da er es als gegeben ansieht, dass auch auf verbaute Kameras zugegriffen werden darf.957 Auch der Deutsche Anwaltverein sieht hierin die Möglichkeit eines „Großen Spähangriffs“ auf die komplette Umgebung des infiltrierten Systems durch Zugriff auf eine verbaute Kamerafunktion.958 Legt man 954

BVerfG Urt. v. 20. 4. 2016 – 1 BvR 966/09. 1 BvR 1140/09, NJW 2016, 1781. Graf, § 100b StPO Rn. 7. 956 KK-StPO / Bruns, § 100b StPO Rn. 3. 957 Buermeyer, Gutachterliche Stellungnahme zur Öffentlichen Anhörung zur „Formulierungshilfe“ des BMJV zur Einführung von Rechtsgrundlagen für Online-Durchsuchung und Quellen-TKÜ im Strafprozess, A-Drs. 18(6)334, S. 5. 958 Deutscher Anwaltverein, Stellungnahme des Deutschen Anwaltvereins durch den Ausschuss Strafrecht, zur Formulierungshilfe der Bundesregierung für einen Änderungsantrag der Fraktion CDU / CSU und SPD zu dem Gesetzesentwurf der Bundesregierung – Drucksache 18/11272 – Entwurf eines Gesetzes zur Änderung des Strafgesetzbuches, des Jugendgerichtsgesetzes, der Strafprozessordnung und weiterer Gesetze, 44/2017, 2017, S. 12. 955

220

Kap. 5: Rechtliche Problemstellungen

den Wortlaut des Gesetzes „dürfen Daten daraus erhoben werden“, § 100b Abs. 1 StPO, nach der vorgehenden Auffassung aus, so könnte ein Sprachassistent durchaus das „ultimative Mittel“ der vollumfänglichen Überwachung des Betroffenen sein. Allerdings ist diese Auslegung vom Wortlaut der Norm nicht mehr gedeckt. Die Verwendung des Begriffs „daraus“ impliziert, dass es bereits generierte Daten auf den Speichersystemen geben muss, welche nach ihrer Generierung erhoben werden dürfen.959 Hätte der Gesetzgeber gewollt, dass Ermittlungsbehörden die akustischen und visuellen Einrichtungen eines Geräts nutzen dürfen, hätte er beispielsweise die Formulierung „dürfen Daten hieraus erhoben oder mit Hilfe des Gerätes erstellt werden“ wählen müssen. Auch Singelnstein / Derin sind richtigerweise der Ansicht, dass sowohl eine Veränderung der vorhandenen Daten als auch eine gesonderte und seitens des Benutzers nicht veranlasste Aktivierung von Mikrofon und Kamera unzulässig ist.960 ee) Akustische Wohnraumüberwachung nach § 100c StPO Letztendlich bietet § 100c StPO den Strafverfolgungsbehörden eine Möglichkeit, heimlich das in einer Wohnung nichtöffentlich gesprochene Wort mit technischen Mitteln abzuhören und aufzuzeichnen, wenn besondere Umstände vorliegen, § 100c Abs. 1 StPO. Bisher höchstrichterlich ungeklärt ist, ob das technische Mittel seitens der Strafverfolgungsbehörden in die Wohnräume des Betroffenen eingebracht werden muss oder auch auf bereits bestehende Mikrofoneinrichtungen, wie sie in einem Sprachassistenten üblicherweise vorhanden sind – zurückgegriffen werden darf. Sowohl die amtliche Gesetzesbegründung,961 Literatur962 und Rechtsprechung963 äußert sich in diesem Zusammenhang lediglich zur Annexkompetenz des heimlichen Betretens der Wohnung bzw. des Zugriffs auf Gegenstände des Betroffenen und scheint somit zumindest konkludent ein Einbringen von außen für nötig zu erachten, treffen aber keine Aussage zu bereits vorhandenen Anlagen. Folgt man Rüscher, welcher mit Betrachtung der Gesetzessystematik zu einer Unverwendbarkeit der Geräte des Betroffenen kommt, wären Sprachassistenten kein taugliches technisches Mittel zur Wohnraumüberwachung. Nach Rüscher unterscheiden die §§ 100a ff. StPO strikt zwischen den „technischen Mitteln“ der staatlichen Stellen auf der einen und den „informationstechnischen Systemen des Betroffenen“ auf der anderen Seite.964 Ganz mag diese Argumentation nicht zu verfangen. Der Gesetzgeber hat die §§ 100a ff. StGB bewusst technikneutral und offen ausgestaltet, um auch auf zukünftige technische Entwicklungen angemessen reagieren zu können. Durchschlagender scheint hierbei zu sein, dass § 100c StPO 959

Rüscher, NStZ 2018, 687 (691). Singelnstein / Derin, NJW 2017, 2646 (2647). 961 BT-Drs. 13/8651 1997, 1 (13). 962 BeckOK StPO / Hegmann, § 100c StPO 3; KK-StPO / Bruns, § 100c StPO Rn. 4. 963 BGH Urt. v. 24. 1. 2001 – 3 StR 324/00, NJW 2001, 1658 (1659) – Global Positioning System. 964 Rüscher, NStZ 2018, 687 (690). 960

C. Kommunikation mit Sprachassistenten

221

im Gegensatz zu § 100b StPO keinen ausdrücklichen Zugriff auf die informationstechnischen Systeme des Betroffenen und die Möglichkeit des Einsatzes von spezieller Software vorsieht. Eine Hinzuziehung dieser Ermächtigungen zu § 100c StPO ist gerade nicht möglich, da es nach BGH unzulässig ist, einzelne Elemente von Eingriffsermächtigungen zu kombinieren, um eine Grundlage für eine neue technisch mögliche Ermittlungsmaßnahme zu schaffen. Dies würde dem Grundsatz des Gesetzesvorbehaltes für Eingriffe in Grundrechte (Art.  20 Abs. 3 GG) sowie dem Grundsatz der Normenklarheit und Tatbestandsbestimmtheit von strafprozessualen Eingriffsnormen widersprechen. Der Grundsatz der Verhältnismäßigkeit begrenzt daher im Einzelfall gesetzliche Befugnisse, eine fehlende Ermächtigungsgrundlage kann er nicht ersetzen.965 Bis es zu einer Klarstellung seitens des Gesetzgebers oder höchstrichterlichen Rechtsprechung zu dieser Thematik kommt, kann keine letztverbindliche Aussage gegeben werden, ob Sprachassistenten zu „virtuellen Spionen“ der Behörden werden oder eine Anwendbarkeit ausgeschlossen wird. Es lassen sich jedoch, wie gezeigt, gute Gründe vorbringen, warum letzteres der Fall sein sollte. ff) Kernbereich privater Lebensgestaltung Wie bereits oben ausgeführt, erheben Sprachassistenten Daten in oftmals privaten und intimen Lebenssituationen der Verwender. Diese Daten geben Auskunft über das Innerste der Menschen und lassen Rückschlüsse in die private Lebensführung zu. Das BVerfG hatte sich im Rahmen seiner Tagebuchentscheidung966 ausführlich mit dem Kernbereich der privaten Lebensgestaltung auseinander zu setzen. Das Gericht hat bereits zu dieser Zeit festgestellt, dass eine grundsätzliche Unverwertbarkeit privater Aufzeichnungen seitens Ermittlungsbehörden nicht angezeigt ist. Vielmehr ist abzuwägen, ob der Betroffene zum einen Wert darauf gelegt hat, dass die Informationen geheim gehalten werden sollen (formale Ebene) und zum anderen, ob die Informationen nach ihrem Inhalt höchstpersön­ lichen Charakter aufweisen und in welcher Art und Intensität die Informationen die Sphäre anderer oder die Belange der Gemeinschaft berühren.967 Diese Vorgaben wurden im Fortgang präzisiert. Zur Entfaltung der Persönlichkeit im Kernbereich privater Lebensgestaltung gehört nun nach ständiger Rechtsprechung die Möglichkeit, innere Vorgänge wie Empfindungen und Gefühle sowie Überlegungen, Ansichten und Erlebnisse höchstpersönlicher Art zum Ausdruck zu bringen, und zwar ohne Angst, dass staatliche Stellen diese überwachen.968 Dieser Kernbereich 965

BGH Beschl. v. 31. 1. 2007 – StB 18/06, CR 2007, 253 (256) – Unzulässigkeit „verdeckter Online-Durchsuchung“ Rz. 22. 966 BVerfG Beschl. v. 14. 9. 1989 – 2 BvR 1062/87, NJW 1990, 563 – Tagebuchentscheidung. 967 BVerfG Beschl. v. 14. 9. 1989 – 2 BvR 1062/87, NJW 1990, 563 (564) – Tagebuchentscheidung. 968 BVerfG Urt. v. 3. 3. 2004 – 1 BvR 2378/98 u. 1 BvR 1084/99, NJW 2004, 999 (1002) – Großer Lauschangriff.

222

Kap. 5: Rechtliche Problemstellungen

ist Teil der unantastbaren Menschenwürde. Selbst überwiegende Interessen der Allgemeinheit können einen Eingriff in diesen absolut geschützten Kernbereich privater Lebensgestaltung nicht rechtfertigen. Eine Abwägung nach Maßgabe des Verhältnismäßigkeitsgrundsatzes findet gerade nicht statt.969 Das Bundesverfassungsgericht unterscheidet folglich zwischen einem unantastbaren Kernbereich und einem Sozialbezug der unter Umständen einem Zugriff der Ermittlungsbeamten offen steht.970 Der Gesetzgeber hat auf diese Rechtsprechung reagiert und inzwischen eine einheitliche Regelung für die Maßnahmen der §§ 100a bis 100c StPO geschaffen. Liegen hiernach tatsächliche Anhaltspunkte vor, dass durch eine der vorgenannten Maßnahmen unter Zugriff auf den Sprachassistenten alleine Erkenntnisse aus dem Kernbereich privater Lebensgestaltung erlangt werden, so ist jene Maßnahme generell unzulässig, § 100d Abs. 1 StPO. Werden jedoch solche geschützten Daten dennoch erhoben, so sind diese unverwertbar und müssen der Löschung zugeführt werden, § 100d Abs. 2 StPO. Die Ermittlungsbehörden haben folglich bereits im Vorfeld eine negative Kernbereichsprognose vorzunehmen, wobei gem. § 100d Abs. 3 für die Online-Durchsuchung und nach § 100s Abs. 4 für die akustische Wohnraumüberwachung strengere Parameter gelten.971 Die Regelungen bezüglich der Telekommunikationsüberwachung sind etwas weitgehender ausgestaltet, da Art. 10 Abs. 1 GG im Gegensatz zu Art. 13 GG keine spezifischen Eingriffsvoraussetzungen normiert sondern nur implizit auf die allgemeinen rechtsstaatlichen Anforderungen verweist und bei Anordnung einer Telekommunikationsüberwachung nicht sicher vorhersehbar ist, ob Äußerungen dem Kernbereich privater Lebensgestaltung zuzuordnen sind oder es sich um verwertbare Inhalte der Sozialsphäre handelt.972 Die Einhaltung dieser Einschränkungen dürften bei Zugriffen auf Sprachassistenten die Ermittlungsbehörden vor nicht zu unterschätzende Probleme stellen. Auf Grund der Mobilität der meisten Geräte, insbesondere in Bezug auf Sprachassistenten in Smartphones, wird es keine Möglichkeit einer dezidierten Einschätzung geben können, aus welchem Lebensbereich Daten erhoben werden. d) Fazit Die Miniaturisierung von Mikrofonen und die Verbreitung von jederzeit aktiven Sprachassistenten mag für eine potenzielle Aufklärung von Straftaten von enormem Vorteil sein. Das privat gesprochene Wort verliert mit jedem weiteren Assistenten einen Teil seiner Vertraulichkeit. Dass neben privaten Akteuren der 969

BVerfG Beschl. v. 31. 1. 1973 – 2 BvR 454/71, NJW 1973, 891 (893). Knauer / Kudlich / H. Schneider / Günther, § 100a StPO Rn. 110. 971 KK-StPO / Bruns, § 100d StPO Rn. 6. 972 BVerfG Urt. v. 27. 7. 2005 – 1 BvR 668/04, NJW 2005, 2603 (2612). 970

C. Kommunikation mit Sprachassistenten

223

Wirtschaft auch staatliche Sicherheitsapparate ein intrinsisches Interesse an einem Zugriff auf diese Daten haben, ist nicht von der Hand zu weisen. Um nicht in eine orwellsche Dystopie zu geraten, sollte die nationale StPO den sich ändernden Gepflogenheiten und der Verbreitung von Mikrofonen und Kameras im privaten Haushalt angeglichen werden. Der Gesetzgeber sollte aus diesem Grund eine eindeutige Regelung treffen, dass auf die Mikrofone und Kameras von Smart Home Geräten und insbesondere Sprachassistenten nicht oder nur unter bestimmten Bedingungen im Rahmen einer Online-Durchsuchung oder akustischen Wohnraumüberwachung seitens der Ermittlungsbehörden zurückgegriffen werden darf. Insbesondere der heimliche Charakter staatlicher Maßnahmen hätte zur Folge, dass sich der Bürger eines latenten Überwachungsdrucks ausgesetzt fühlen könnte, welcher die eigentlich geschützten Bereiche der Telekommunikation und die Unverletzlichkeit der Wohnung unverhältnismäßig beeinträchtigt.

Kapitel 6

Ausblick auf die Konturen eines KI Rechts Wie die vorhergehenden rechtlichen Ausführungen bereits zeigen, ist die bestehende Rechtsordnung grundsätzlich auf den Umgang mit teilautonomen Systemen und somit derzeitigen Sprachassistenten ausgerichtet. Insbesondere die Regelungen der Verantwortlichkeit im Datenschutz und Haftungsrecht können zum derzeitigen Entwicklungsstand die meisten Fallkonstellationen sachgerecht auffangen. Allerdings stellt der Einsatz autonomer Systeme bereits heute im Immaterialgüterrecht eine systemfremde Problematik der Rechtezuweisung an den seitens der KI erschaffenen Werken dar. Weder kann eine natürliche oder juristische Person an diesen ein Urheberrecht (vgl. S. 56 ff.) noch ein Patentrecht (vgl. S. 70 ff.) erlangen. Doch auch die Zurechnung der haftungs- und datenschutzrechtlichen Verantwortlichkeit wird zumindest ab dem Zeitpunkt fraglich, ab dem das intelligente System vollständig eigene Entscheidungen trifft, welche auf einem Programmcode beruhen, der durch eine eigenständige Weiterentwicklung des Systems entstanden ist und auf welchen sowohl der Verwender als auch Ersteller keinen Einfluss nehmen kann bzw. diese Entwicklung zu vertreten hat. Das Europäische Parlament hat aus diesem Grund die Kommission damit beauftragt zu prüfen, ob die Verleihung einer eigenen Rechtspersönlichkeit für intelligente Systeme denkbar und notwendig wäre.1

A. ePerson Grundgedanke ist, die ePerson als dritte Entität neben der natürlichen und juristischen Person anzusiedeln. Hierbei könnte der ePerson beispielsweise das freie Willenselement der natürlichen Person in gewissem Umfang übertragen werden, die vermögensrechtliche Seite hingegen der juristischen Person entlehnt werden.

1

Rechtsausschuss des Europäischen Parlaments, Zivilrechtliche Regelungen im Bereich Robotik, Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)).

A. ePerson

225

I. Immaterialgüterrecht Für das Immaterialgüterrecht wird im Zuge der ePerson eine Abkehr von der Prägung durch naturrechtlich-personalistische Begründungsansätze2 teilweise vorgeschlagen. Als Vergleich kann das britische Copyrightsystem als Anhaltspunkt genommen werden, welches nicht-menschliche Werkschöpfungen leichter in die Regelungsstruktur einbeziehen kann, als das zentraleuropäische droit dáuteur-­ System.3 Die Anknüpfung einer Zurechnung des Urheberrechts oder Patentrechts nicht an den Verwender oder Ersteller der Künstlichen Intelligenz, kann in Fällen eines vollständig autonomen Handelns gerechtfertigt sein, da das Handeln der KI in derartigen Fällen ohne eine weitere Beeinflussung von außen erfolgt; eine Zurechnung an eine natürliche oder juristische Person wäre ungerechtfertigt.4 Das System des Urheberrechts und die Verknüpfung der Inhalte mit einer hinter diesem Werk stehenden Person stellt insbesondere in Zeiten des Informationsüberflusses nicht nur einen Schutz des Werkschaffenden, sondern vielmehr auch eine Garantiefunktion bezüglich der Integrität des Werkes für den Nutzer dar und sollte nicht gänzlich aufgelöst werden.5 Daher schlägt De Rouck vor, dass auch eine Künstliche Intelligenz im Urheberrecht mit einer eigenen Identität – als funktionales Äquivalent des Zuweisungsrechts – des Schaffenden ausgestattet wird, die es den Werkbetrachtern ermöglicht, den intelligenten Agenten hinter dem Werk kennen zu lernen.6 Wird in einer solchen Konstellation zwar für die Öffentlichkeit deutlich, dass das geschaffene Werk nicht das eines menschlichen Künstlers ist, sondern aus der „Feder“ eines autonomen Systems stammt, klärt dies letztendlich nicht die rechtliche Problematik der Geltendmachung damit einhergehender Schutz- und Abwehrrechte.7 So würde das Urheberrecht der ePerson zwar das Problem lösen, dass ein maschinelles Werk keinerlei Urheberrecht hervorrufen würde, die Problematik der Aktivlegitimation im Urheberrecht, die grundsätzlich der Rechteinhaber inne hat,8 hingegen verbleibt ungelöst. Problematisch zeigt sich die Anerkennung einer ePerson überdies im Patentrecht. Dieses setzt sowohl auf nationaler als auch europäischer Ebene auf das international einheitliche und durch Verträge etablierte Verständnis des Erfinders als natürliche Person; ein Wandel dieses Dogmas wird auf absehbare Zeit nicht zu erwarten sein9 und bedürfte einer gleichförmigen Änderung sowohl auf nationaler, europäischer als auch internationaler Ebene.

2

Lauber-Rönsberg, GRUR 2019, 244 (250). Hetmank / L auber-Rönsberg, GRUR 2018, 574 (578). 4 Abbott, Boston College Law Review 57 (2016), 1079 (1103). 5 Wilkinson / Gerolami, Government Information Quarterly 26 (2009), 321 (331). 6 De Rouck, GRUR Int. 2019, 432 (436). 7 Hetmank / L auber-Rönsberg, GRUR 2018, 574 (581). 8 Heckmann / Heckmann / Paschke, Kapitel 3.1 Rn. 539. 9 Ménière / Pihlajamaa, GRUR 2019, 332 (335). 3

226

Kap. 6: Ausblick auf die Konturen eines KI Rechts

II. Verantwortung i. S. d. Datenschutzrechts Im Bereich des Datenschutzrechts wird die ePerson insbesondere im Rahmen des Verantwortlichen im Sinne des Art. 4 Nr. 7 DS-GVO zu überlegen sein. Die Verantwortlichkeit einer ePerson könnte nach Art. 4 Nr. 7 DS-GVO als „andere Stelle“ denkbar sein. Anknüpfungspunkt ist, dass ein funktionales Verständnis der DS-GVO nicht verlangt, dass der für die Verarbeitung Verantwortliche eine eigene Rechtspersönlichkeit im Sinne einer natürlichen oder juristischen Person aufweisen muss.10 Ob eine Künstliche Intelligenz Verantwortung übernehmen kann und folglich als moralischer Akteur sowohl datenschutz- als auch haftungsrechtlich Verantwort­ licher sein kann, hängt von ihrem Personenstatus ab.11 Hier stellt sich nunmehr die existenzielle Frage, ob nur Menschen Personen in diesem Sinne darstellen können. Vergleicht man die Funktionsweise der Künstlichen Neuronalen Netze und die hierauf beruhende Entscheidungsfindung, lässt sich zumindest eine grundlegende Parallele zur Funktionsweise des menschlichen Gehirns durchaus darstellen (vgl die Ausführungen ab S. 47). Vereinfacht gesagt: Erfolgt die Entscheidungsfindung und Handlung eines menschlichen Gehirns auf Grund einer Übertragung von chemischen Informationen und elektronischen Impulsen, findet in den Schichten des Neuronalen Netzes ein durchaus vergleichbarer Prozess statt. Dennett regt in seiner Darstellung des Personenbegriffs an, dass der Mensch zwar derzeit den Begriff der „Person“ an die biologische Ausgestaltung des Menschen knüpft, auf der anderen Seite die Vorstellung außerirdischen Lebens mit eigenen Persönlichkeiten durchaus nicht fremdartig ist.12 Nach Locke ist eine Person „a thinking intelligent being, that has reason and reflection, and can consider itself as itself, the same thinking thing at different times and places. What enables it to think of itself is its consciousness, which is inseparable from thinking and (it seems to me) essential to it.“13

Locke knüpft in seiner Bestimmung der Person folglich nicht an der Seele oder einer bestimmten Körperlichkeit, sondern an der psychologischen Kontinuität der Erinnerung und dem Vorliegen eines Selbstbewusstseins an.14 Dies aufgreifend benennt Dennett sechs Bedingungen der Person15: (1) Vernunft (rationality), (2) Bewusstseinszustände (intentionality), (3) die der Person gegenüber eingenommene Haltung (stance), (4) Reziprozität: personale Haltung kann erwidert werden (reciprocity), (5) verbale Kommunikation (verbal communication) und (6) Selbstbewusstsein im Sinne kritischer Selbstbewertung (self-consciousness).16 10

Simitis / Hornung / Spiecker genannt Döhmann / Petri, Art. 4 Nr. 7 DS-GVO Rn. 16. Neuhäuser, in: Hilgendorf / S. Beck (Hrsg.), Robotik im Kontext von Recht und Moral, 269 (275). 12 Dennett, in: Rorty (Hrsg.), The Identities of Persons, 175 (175). 13 Locke, An Essay Concerning Human Understanding, Chapter XXVII. 14 Nimbalkar, Mens Sana Monogr 9 (2011), 268. 15 Dennett, in: Rorty (Hrsg.), The Identities of Persons, 175 (177 f.). 16 Schmidhuber, Der Begriff der Person als Grundlage für medizinethische Fragestellungen? 11

A. ePerson

227

Das Vorliegen solcher Eigenschafften muss jedoch bei dem derzeitigen Entwicklungsstand Künstlicher Intelligenz noch abgelehnt werden. Zwar ist es Sprachassistenten möglich, verbal zu kommunizieren, es wird ihnen jedoch zumeist an der zu fordernden Intentionalität und einem tatsächlichem Selbstbewusstsein fehlen.17 Der Zeitpunkt, ab wann eine Zurechnung der Verantwortlichkeit direkt an eine wie auch immer ausgestaltete ePerson zu erfolgen hat, ist möglicherweise erst dann erreicht, wenn die subjektive Komponente des Computersystems so weit ausgestaltet ist, dass sie einen eigenen Handlungs-, Erklärungs- und Geschäftswillen entwickeln kann.18 Erst wenn – und dieser Zustand ist sowohl ob des überhaupt als auch des wann ungewiss  – über Roboterrechte vergleichbar zu Menschenrechten nachgedacht werden sollte, wäre ein Zeitpunkt der eigenen Verantwortlichkeit einer ePerson in diesem Sinne denkbar.19 Der derzeitige Entwicklungsstand Künstlicher Intelligenzen, mögen sie auch bereits einen gewissen Grad an Autonomie erreicht haben, lässt noch immer einen Rückschluss der Verantwortlichkeit auf bestimmte natürliche oder juristische Personen, sei es der Verwender oder Betreiber, zu.20 Erst wenn sich die Künstliche Intelligenz unabhängig vom menschlichen Verstand und außerhalb der Programmierung bewegt, kann eine Unterbrechung der Verantwortlichkeit angenommen werden.21 Dies verdeutlicht auch ein Blick auf die Rechtsprechung sowie Literatur bezüglich der Ablehnung einer Rechtsfähigkeit autonomer Systeme im Rahmen von Vertragsschlüssen.22 Dienst / Falke bemängeln diesbezüglich, dass ein Computersystem keinen eigenen objektiven Erklärungstatbestand im Rechtsverkehr schaffen könne.23 Solange der Grad der Automatisierung noch von der vorgegebenen Programmierung bestimmt wird, kann bezüglich der Verantwortlichkeit auf die Einordnung des BGH bezüglich der Auslegung von Willenserklärungen in übertragener Anwendung zurück gegriffen werden, nach welcher nicht das Computersystem, sondern die Person oder das Unternehmen, die dieses als Kommunikationsmittel nutzt, die Erklärung abgibt bzw. verantwortlich ist.24 Tinnefeld geht sogar so weit, dass er fordert, dass der Einsatz autonomer Systeme dann gänzlich zu unterlassen wäre, wenn das System eigenständig Entscheidungen träfe, welche der Mensch nicht mehr überwachen könnte bzw. ein menschlicher Eingriff unmöglich wäre.25 So hehr diese strikte Abgrenzung auch sein mag, geht sie doch an der Realität vorbei. Bereits im Jahr 2016 hat die US Bundesbehörde für Straßen- und Fahrzeugsicherheit (Natio 17 Neuhäuser, in: Hilgendorf / S. Beck (Hrsg.), Robotik im Kontext von Recht und Moral, 269 (277). 18 Pieper, InTeR 2018, 9 (13). 19 Vgl. auch robotics-openletter.eu, Open Letter To The European Commission Artificial Intelligence And Robotic, http://www.robotics-openletter.eu/ (Stand: 27. 09. 2020). 20 Expert Group on Liability and New Technologies – New Technologies, Liability for artificial intelligence and other emerging digital technologies, S. 38. 21 Spindler, in: Hilgendorf / S. Beck (Hrsg.), Robotik im Kontext von Recht und Moral, 63 (66). 22 Specht / Herold, MMR 2018, 40 (43). 23 Bräutigam / Rücker / Berger / Dienst / Falke, Teil 14 S. 1012. 24 BGH Urt. v. 16. 10. 2012 – X ZR 37/12, NJW 2013, 598 (599) – Online-Flugbuchung. 25 Tinnefeld, ZD 2019, 333 (334).

228

Kap. 6: Ausblick auf die Konturen eines KI Rechts

nal Highway Traffic Safety Administration, NHTSA) bezüglich des Begriffs des „Fahrers“ eines autonomen Autos i. S. d. Federal Motor Vehicle Safety Standards (FMVSS) angedeutet, dass ihrem Verständnis nach nicht der Mensch als Fahrer zu qualifizieren sei, sondern rein das autonome Systeme selbst, da der menschliche Insasse keinerlei Kontrolle über die Steuerungseinrichtungen habe.26

III. Fazit Insbesondere auf dem Gebiet des Immaterialgüterrechts stellt die zunehmende Autonomisierung und Veränderung der Schaffens- und Erfindungsprozesse das bestehende Rechtssystem vor Herausforderungen, die es für eine sichere Zuweisung der Rechtspositionen und damit einhergehenden Verwertungsinteressen zu lösen gilt. Das Konstrukt der Zuweisung eigener Roboterrechte im Zuge einer ePerson kann hierbei unterstützend wirken, mag jedoch nicht alle Problemkreise, besonders im Bereich der Zuweisung der Rechte an die ePerson, zu lösen. In datenschutz- und haftungsrechtlicher Hinsicht bestehen zum derzeitigen Entwicklungsstand keine überwiegenden Probleme in der Bestimmung der Verantwortlichkeit, dies mag sich jedoch in absehbarer Zukunft ändern. Größere Herausforderungen als die datenschutzrechtliche Verantwortlichkeit bringt derzeit das Institut einer freiwilligen und informierten Einwilligung mit sich. Kann die Schaffung einer ePerson hier möglicherweise zu einem besseren Verständnis des hinter der Verarbeitung stehenden Verantwortlichen beitragen, verbleiben dennoch weiterhin große Ungewissheiten auf Grund der Undurchsichtigkeit der Datenverarbeitung mittels Einsatz Künstlicher Neuronaler Netze und Big-Data-Anwendungen. Gerade die rasante technische Fortentwicklung, welche die Undurchsichtigkeit der Datenverarbeitung vertieft, spricht jedoch selbst dagegen, das Konstrukt einer ePerson gesetzlich zu verankern. Heckmann ist zuzustimmen, wenn er zu bedenken gibt, dass eine ePerson im Gegensatz zu einer prädeterminierten natürlichen oder auch juristischen Person auf Grund der Unabwägbarkeiten des technischen Fortschritts niemals vollständig erschlossen werden könnte und im Zweifel neue Rechtsfragen aufwerfen würde.27

B. Regelungen der Kommunikation und ethische Überlegungen Wesentliches Merkmal eines Sprachassistenten ist, anders als bei einem reinen Chat-Bot, denknotwenig das Wesen der sprachlichen Kommunikation. Um die Akzeptanz eines Sprachassistenten im Wege der Mensch-Maschine-Interaktion 26 National Highway Traffic Safety Administration, Compiled response to 12 Nov 15 interp request, 2016. 27 Heckmann, NJW-aktuell 2016, 3.

B. Regelungen der Kommunikation und ethische Überlegungen 

229

zu erhöhen, ist es nötig, dass dieser sich von einem sterilen Frage-Antwort-System hin zu einer gefühlt lebendigen Entität entwickelt. Das Besondere der verbalen Kommunikation liegt darin, dass das eigentlich gesprochene Wort für den Inhalt der Kommunikation nebensächlich ist und ein Großteil der Bedeutung sich aus Gestik, Mimik, Körperhaltung und Stimmmodulation ergibt.28 Erst wenn der Sprachassistent auch auf dieser Ebene kommunizieren kann, steigt die emotionale Akzeptanz des Menschen, weswegen Entwickler bestrebt sind, Künstlichen Neuronalen Netzen die Fähigkeit zu verschaffen, menschliche Emotionen zu erkennen und selbst zu simulieren.29 Kann die Möglichkeit der menschengerechten Mensch-Maschine-Interaktion durchaus als große Errungenschaft bezeichnet werden,30 gilt es auch hier, Gefahrenpotentiale zu betrachten. Menschen agieren anders und weniger skeptisch31, wenn sie mit einem anderen menschlichen Wesen interagieren, sie geben bereitwilliger Informationen heraus.32 Sprachassistenten, gerade solche mit einer perfekt menschlich modellierten Stimme, können versuchen, auf den Kommunikationspartner unbemerkt Einfluss zu nehmen und ein bestimmtes Verhalten zu erreichen. Im Unterschied zu einem menschlichen Gegenüber besteht jedoch auf Grund der Speicherfähigkeit eines Computers ein Kommunikationsungleichgewicht.33 Die Möglichkeit der Anpassung einer Botschaft an das Persönlichkeitsprofil einer Person kann die Wirksamkeit der Überzeugungskampagne des Systems weiter erhöhen.34 Dies insbesondere dann, wenn der Assistent über sensitive und intime Daten des Verwenders verfügt, die es ihm ermöglichen, Vertrauen und Zuneigung zu simulieren und zu kreieren.35 Es wird daher gefordert, dass der Sprachassistent es jedem Kommunikationspartner erlauben muss, jederzeit herausfinden zu können, ob der Gesprächspartner eine künstliche Entität darstellt und unter welcher Prämisse er agiert.36 Eine derartig ethische Ausgestaltung des Designs muss das Selbstbestimmungsrecht des Nutzers bzw. Dritten achten und im Rahmen der Transparenz Auskunft über seine Natur und die Verwendung von Daten geben.37 Die Datenethikkommission fordert daher, dass eine Offenlegung der Maschineneigenschaft in der jeweiligen Kommunikationssituation und erneut in regelmäßigen Abständen zu erfolgen 28

Sawerschel, Sprachspiegel 59 (2003), 127. Ramge, Mensch und Maschine, S. 76. 30 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 18. 31 Heckmann, in: Kusche / Valerius (Hrsg.), Festgabe Forschungsstelle RobotRecht, 45 (51). 32 Franck / Müller-Peltzer, in: Taeger (Hrsg.), Rechtsfragen digitaler Transformationen, 241 (253). 33 Calo, Artificial intelligence 175 (2011), 940 (941). 34 Hirsh / Kang / Bodenhausen, Psychological Science 23 (2012), 578 (580). 35 C. Lutz / Schöttler / C . Hoffmann, Mobile Media & Communication 7 (2019), 412 (422). 36 Boden / Bryson / Caldwell u. a., Connection Science 29 (2017), 124 (127). 37 Heesen, in: Hilgendorf / S. Beck (Hrsg.), Robotik im Kontext von Recht und Moral, 253 (267). 29

230

Kap. 6: Ausblick auf die Konturen eines KI Rechts

hat.38 Die schweizerische Expertengruppe Zukunft der Datenbearbeitung und Datensicherheit befürwortet gar die Schaffung eigener rechtlicher Grundlagen, welche sicherstellen, dass bei elektronischer Kommunikation die Natur der Mensch-­ Maschine-Kommunikation transparent gemacht wird.39 Lassen sich bestimmte Verpflichtungen, wie die Mitteilungspflicht der maschinellen Natur, bereits nach bestehendem Recht teilweise durch die DS-GVO (beispielsweise auf Grund einer Informationspflicht aus Art. 13 DS-GVO) und nationale Datenschutzgesetze begründen, ist es essentiell, dass die Entwicklung Künstlicher Intelligenzen sich anhand des Wertesystems der Grundrechte der Europäischen Union und des Grundgesetzes richtet. Die OECD schlägt vor, dass eine verantwortungsvolle Steuerung der Entwicklung Künstlicher Intelligenzen folgende Merkmale umfassen sollte:40 – Menschenzentrierte Werte und Fairness – Transparenz und Erklärbarkeit – Robustheit und Sicherheit – Klärung der Rechenschaftspflicht und Zurechnung Diesen Grundprinzipien ist der Grundsatz der Freiheit und Sicherheit der von einer Künstlichen Intelligenz betroffenen Person immanent, dessen Gewährleistung im Fokus einer demokratischen Gesellschaft stehen muss.41 Insbesondere die Achtung der Privatheit des Einzelnen darf nicht hinter eine übergreifende Datensammlung und Auswertung und Katalogisierung zurücktreten. Eine scharfe Grenzziehung kann gesetzlich schwerlich vorgenommen werden, da sich die technischen Begebenheiten sowie das Verständnis der Privatheit stetig ändern und fortentwickeln und letzteres einem sozialen Aushandlungsprozess und nicht starren Normen unterliegt.42 Ein Tätigwerden der europäischen Staaten ist essentiell, da die einer Gemeinschaft zu Grunde liegenden sozialen und moralischen Normen nicht im Nachgang auf ein intelligentes System übertragbar sind, sondern bereits zum Zeitpunkt der Programmierung und Planung eingebettet werden müssen.43 Wie sehr sich die Auswirkungen der einer KI zur Verfügung gestellten Trainingsdaten manifestieren, zeigt ein Test einer Forschungseinrichtung des Massachusetts Institute of Technology (MIT). Diese Test-KI wurde mit Bildern von Personen, die 38 Datenethikkommission der Bundesregierung, Gutachten der Datenethikkommission, 2019, S. 101. 39 Expertengruppe zur Zukunft der Datenbearbeitung und Datensicherheit, Bericht der Expertengruppe zur Zukunft der Datenbearbeitung und Datensicherheit, 2018, S. 177. 40 OECD, Empfehlung des Rats zu künstlicher Intelligenz, 2019. 41 Tinnefeld, ZD 2019, 333 (334). 42 Schmale, DuD 2019, 327 (329). 43 The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, 2019, S. 6.

B. Regelungen der Kommunikation und ethische Überlegungen 

231

auf gewaltsame Weise zu Tode gekommen sind, trainiert; konfrontierte man die KI im Nachgang mit zufällig generierten Tintenflecken (sog. Rorschach-Test44) erblickte das System hierin ausschließlich die Darstellung gewaltsamer Akte.45 Bereits im Rahmen des Trainings müssen mögliche Fehler oder falsch repräsentierte Ergebnisse und deren Auswirkungen mithin Beachtung finden.46 Um nicht der Gefahr eingebauter Benachteiligungen (sog. Algorithmic Bias) anderer Wertegesellschaften zu erliegen,47 sollte die Entwicklung europäischer Künstlicher Intelligenzen gefördert werden, deren intrinsische Ethics by Design48 dem europäischen Grundrechts- und Schutzniveau entsprechen.

44

Vgl. vertiefend Harrower-Erickson, Journal of the Association of American Medical Colleges 19 (1944), 193. 45 McDonald, MIT Creates Psychopath AI By Making It Look At A Reddit Forum, https:// www.huffpost.com/entry/mit-creates-psychopath-ai-by-making-it-look-at-reddit-content_n_5 b192ba5e4b09578259fb257 (Stand: 27. 09. 2020). 46 Diakopoulus / Deussen, Informatik Spektrum 40 (2017), 362–266 (364). 47 Schuhmacher / Fatalin, CR 2019, 200 (202). 48 Bitkom e. V., Künstliche Intelligenz, https://www.bitkom.org/sites/default/files/file/import/ 171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020), S. 106.

Kapitel 7

Fazit Der Einsatz von Sprachassistenten im Speziellen und das System künstlicher Intelligenzen im Allgemeinen stellt nicht nur die Gesetzgebung und Gerichte zukünftig vor eine große Herausforderung. Vielmehr muss der Einzug autonomer Systeme in das Leben der Menschen bedacht begleitet werden. Wie die Enquete Kommission „Künstliche Intelligenz“ zutreffend festgestellt hat, bedarf es für die Bildung einer Akzeptanz dieser Technologien der Schaffung eines Vertrauenstatbestandes; die Technologien müssen für den Einzelnen zum einen so transparent wie möglich gestaltet werden, zum anderen müssen die Aspekte des Datenschutzes, der Datensouveränität und der Sicherheit in den Fokus gesetzt werden.1 Diesen Herausforderungen kann nicht durch punktuelle Anpassungen bestehender Gesetze gerecht werden. Es braucht vielmehr ein ganzheitliches Konzept zwischen staatlichen Akteuren, Wissenschaft und Wirtschaft, um den sich abzeichnenden tiefgreifenden Änderungen der bestehenden Technikwelt wirkungsvoll zu begegnen. Es zeigt sich, dass bestehende rechtliche Regelungen zwar grundsätzlich geeignet sind, autonome Systeme zu umfassen, das nationale und europäische Recht allerdings dogmatisch in den bisherigen Entitäten der juristischen und natürlichen Person verankert ist. Betrachtet man exemplarisch das Leistungsschutzrecht, das Datenschutzrecht oder das allgemeine Haftungsrecht, ist Grundlage der dogmatischen Regelung, dass das Handeln bzw. eine Verantwortlichkeit in letzter Konsequenz immer auf einen menschlichen Akteur zurückgeführt werden kann. Diese starre Aufteilung wird bei autonomem System in Zukunft wohl nicht mehr führbar sein. Je stärker sich Prozesse des Deep Learnings und der eigenständigen Weiterentwicklung der Systeme entwickeln, desto schwieriger und in vielen Fällen sowohl unverhältnismäßig als auch innovationsbremsend wird es, eine Verantwortlichkeit für alle Geschehnisse einer juristischen bzw. natürlichen Person hinter der Künstlichen Intelligenz zuzuschreiben.

1

Enquete-Kommission Künstliche Intelligenz, Projektgruppe „KI und Wirtschaft“, Zusammenfassung der vorläufigen Ergebnisse, 2019, S. 4.

Rechtsprechungsverzeichnis BGH

Urt.

25. 05. 1954

I ZR 211/53

Schacht-Briefe

BGH

Urt.

15. 11. 1955

I ZR 169/54

 

BGH

Urt.

20. 03. 1961

III ZR 9/60

 

BGH

Urt.

23. 06. 1961

I ZR 105/59

Fernsprechbuch

BGH

Beschl.

27. 02. 1962

I ZR 118/60

AKI

BGH

Beschl.

27. 03. 1969

X ZB 15/67

Rote Taube

BGH

Urt.

24. 04. 1969

X ZR 54/66

Skistiefelverschluss

BGH

Urt.

16. 02. 1972

VI ZR 111/70

 

BGH

Urt.

24. 11. 1976

VIII ZR 137/75

 

BGH

Urt.

17. 03. 1981

VI ZR 286/78

Benomyl

BGH

Urt.

26. 01. 1982

4 StR 631/81

 

BGH

Urt.

16. 03. 1983

2 StR 775/82

Raumgespräch

BGH

Urt.

09. 05. 1985

I ZR 52/83

Inkasso-Programm

BGH

Urt.

04. 02. 1986

VI ZR 179/84

 

BGH

Urt.

11. 03. 1986

 

Flugkostenminimierung

BGH

Urt.

09. 12. 1986

VI ZR 65/86

 

BGH

Urt.

04. 11. 1987

VIII ZR 314/86

 

BGH

Urt.

25. 02. 1988

VII ZR 348/86

 

BGH

Urt.

08. 11. 1989

I ZR 14/88

Bibelreproduktion

BGH

Urt.

04. 10. 1990

I ZR 139/89

Betriebssystem

BGH

Urt.

12. 11. 1991

VI ZR 7/91

Milupa

BGH

Urt.

04. 02. 1992

X ZR 43/91

Tauchcomputer

BGH

Urt.

03. 12. 1992

 

Tariflohnunterschreitung

BGH

Urt.

16. 12. 1993

I ZR 231/91

Malibu

BGH

Urt.

12. 08. 1997

1 StR 234/97

Giftfalle

234

Rechtsprechungsverzeichnis

BGH

Beschl.

09. 11. 1995

I ZR 220/95

Umgehungs­programm

BGH

Urt.

14. 01. 1999

I ZR 203/96

Güllepumpe

BGH

Urt.

03. 11. 1999

I ZR 55/97

Werbefotos

BGH

Urt.

04. 05. 2000

I ZR 256/97

Parfumflakon

BGH

Beschl.

11. 05. 2000

X ZB 15/98

Sprachanalyse­einrichtung

BGH

Urt.

24. 01. 2001

3 StR 324/00

Global Positioning System

BGH

Beschl.

17. 10. 2001

X ZB 16/00

Suche fehlerhafter Zeichenketten

BGH

Urt.

04. 12. 2001

VI ZR 447/00

 

BGH

Urt.

21. 02. 2002

I ZR 265/99

Blendsegel

BGH

Urt.

14. 03. 2003

2 StR 341/02

 

BGH

Beschl.

05. 08. 2003

2 BJs 11/03–5 – StB 7/03

 

BGH

Beschl.

19. 04. 2004

X ZB 33/03

Anbieten interaktiver Hilfe

BGH

Urt.

03. 03. 2005

I ZR 111/02

Flash 2000

BGH

Urt.

10. 08. 2005

1 StR 140/05

Krankenzimmer

BGH

Urt.

16. 05. 2006

VI ZR 189/05

Zimmertür ohne Sicherheitsglas

BGH

Urt.

31. 10. 2006

VI ZR 223/05

Limonadenflasche

BGH

Beschl.

31. 01. 2007

StB 18/06

Unzulässigkeit „verdeckter Online-­ Durchsuchung“

BGH

Urt.

24. 05. 2007

I ZR 130/04

Gedichttitelliste I

BGH

Urt.

12. 07. 2007

I ZR 18/04

 

BGH

Urt.

16. 12. 2008

VI ZR 170/07

Pflegebetten

BGH

Beschl.

20. 01. 2009

X ZB 22/07

Steuerungseinrichtung für Untersuchungs­ modalitäten

BGH

Urt.

17. 03. 2009

VI ZR 176/08

Kirschtaler

BGH

Urt.

16. 06. 2009

VI ZR 107/08

 

235

Rechtsprechungsverzeichnis

BGH

Urt.

01. 12. 2010

I ZR 196/08

Zweite Zahnarzt­ meinung II

BGH

Urt.

24. 02. 2011

X ZR 121/09

Webseitenanzeige

BGH

Urt.

22. 06. 2011

I ZR 159/10

Automobil-Onlinebörse

BGH

Urt.

24. 07. 2012

X ZR 126/09

Leflunomid

BGH

Urt.

21. 08. 2012

X ZR 33/10

MPEG-2-Videosignal­ codierung

BGH

Urt.

16. 10. 2012

X ZR 37/12

Online-Flugbuchung

BGH

Urt.

25. 10. 2012

4 StR 346/12

 

BGH

Urt.

15. 11. 2012

I ZR 74/12

Morpheus

BGH

Urt.

05. 02. 2013

VI ZR 1/12

Heißwasser-Untertischgerät

BGH

Urt.

14. 05. 2013

VI ZR 269/12

„Autocomplete“-­Funktion

BGH

Urt.

16. 05. 2013

I ZR 28/12

Beuys-Aktion

BGH

Urt.

28. 11. 2013

I ZR 76/12

Meilensteine der Psychologie

BGH

Urt.

10. 12. 2013

VI ZR 534/12

 

BGH

Urt.

28. 01. 2014

VI ZR 156/13

Scorewerte

BGH

Urt.

19. 03. 2015

I ZR 157/13

Schufa-Hinweis

BGH

Urt.

18. 06. 2015

I ZR 74/14

Haftung für Hyperlinks

BGH

Urt.

19. 01. 2016

X ZR 141/13

Rezeptortyrosinkinase

BGH

Urt.

27. 09. 2016

X ZR 124/15

Rezeptortyrosinkinase II

BGH

Urt.

17. 01. 2017

XZR 11/15

Borrelioseassay

BGH

Urt.

16. 05. 2017

VI ZR 135/13

 

BGH

Urt.

16. 11. 2017

3 StR 315/17

 

BGH

Urt.

15. 05. 2018

VI ZR 233/17

 

BGH

Urt.

12. 07. 2018

III ZR 183/17

 

BPatG

Beschl.

20. 05. 2003

17 W (pat) 44/02

Bedienhandlungen

BPatG

Beschl.

10. 01. 2012

17 W (pat) 74/07

 

BPatG

Beschl.

09. 06. 2015

17 W (pat) 37/12

Keine Patenterteilung für Künstliche Intelligenz

236

Rechtsprechungsverzeichnis

BVerfG

Urt.

15. 01. 1958

1 BvR 400/51

Veit Harlan

BVerfG

Beschl.

31. 01. 1973

2 BvR 454/71

 

BVerfG

Urt.

15. 12. 1983

1 BvR 209/83 u. a.

Volkszählungsurteil

BVerfG

Beschl.

20. 06. 1984

1 BvR 1494/78

 

BVerfG

Beschl.

14. 09. 1989

2 BvR 1062/87

Tagebuchentscheidung

BVerfG

Urt.

15. 12. 1999

1 BvR 653/96

Caroline von Monaco II

BVerfG

Beschl.

10. 05. 2000

1 BvR 1864/95

 

BVerfG

Beschl.

30. 01. 2002

2 BvR 2248/00

 

BVerfG

Urt.

03. 03. 2004

1 BvR 2378/98 u. 1 BvR 1084/99

Großer Lauschangriff

BVerfG

Beschl.

12. 04. 2005

2 BvR 1027/02

 

BVerfG

Urt.

27. 07. 2005

1 BvR 668/04

 

BVerfG

Beschl.

13. 06. 2007

1 BvR 1550/03 u. a.

 

BVerfG

Urt.

27. 02. 2008

1 BvR 370/07, 1 BvR 595/07

 

BVerfG

Urt.

11. 03. 2008

1 BvR 2074/05, 1 BvR 1254/07

 

BVerfG

Urt.

16. 06. 2009

2 BvR 902/06

 

BVerfG

Urt.

20. 04. 2016

1 BvR 966/09. 1 BvR 1140/09

 

BVerfG

Beschl.

12. 03. 2019

2 BvR 675/14

 

BVerfG

Beschl.

06. 11. 2019

1 BvR 16/13

Recht auf Vergessen I

BVerfG

Beschl.

06. 11. 2019

1 BvR 276/17

Recht auf Vergessen II

EPA

Entsch.

12. 12. 1989

T 0158/88

Schriftzeichenform /  SIEMENS

EPA

Entsch.

08. 09. 2000

Ta 931/95 – 3. 5. 1

Steuerung eines Pensionssystems / PBS PARTNERSHIP

EPA

Entsch.

21. 04. 2004

T 258/03 – 3. 5. 1

Auktionsverfahren /  HITACHI

237

Rechtsprechungsverzeichnis

EPA

Entsch.

23. 02. 2006

T 0424/03

Clipboard formats I /  MICROSOFT

EPA

Stellungnahme

12. 05. 2010

G 0003/08

Computerprogramme

EuG

Beschl.

22. 11. 2017

T-670/16

Digital Rights Ireland /  Kommission

EuGH

Urt.

08. 04. 1976

Rs 48/75

 

EuGH

Urt.

06. 04. 1995

C-241/91 P u. C-242/91 P

Magill

EuGH

Schluss­ anträge

23. 01. 1997

Slg. 1997 I-02649

 

EuGH

Urt.

29. 05. 1997

C-300/95

 

EuGH

Urt.

09. 11. 2004

C-203/02

BHB-Pferdewetten

EuGH

Urt.

09. 11. 2004

C-444/02

Fixtures-Fußballspielpläne II

EuGH

Urt.

13. 07. 2006

C-295/04 und C-298/04

Manfredi

EuGH

Urt.

09. 10. 2008

C-304/07

Gedichttitelliste

EuGH

Urt.

05. 03. 2009

C-545/07

Apis / Lakorda

EuGH

Urt.

05. 03. 2009

C-545/07

Apis-Hristovich EOOD / Lakorda AD

EuGH

Urt.

16. 07. 2009

C-5/08

Infopaq

EuGH

Urt.

14. 01. 2010

C-304/08

Warenhandelsgesellschaft

EuGH

Urt.

22. 12. 2010

C-393/09

Benutzeroberfläche

EuGH

Urt.

22. 12. 2010

C-393/09

BSA / Kulturministerium

EuGH

Urt.

04. 10. 2011

C-403/08 und C-429/08

Premier League

EuGH

Urt.

24. 11. 2011

C-468 und C-469/10

ASNEF / FECEMD

EuGH

Urt.

01. 03. 2012

C-604/10

Football Dacato / Yahoo

EuGH

Schluss­ antrag

25. 06. 2013

C-131/12

 

238

Rechtsprechungsverzeichnis

EuGH

Urt.

08. 04. 2014

C-293/12, C-594/12

 

EuGH

Urt.

13. 05. 2014

C-131/12

Google Spain

EuGH

Urt.

13. 05. 2014

C-131/12

Recht auf Vergessen

EuGH

Urt.

05. 06. 2014

C-360/13

Public Relations Consultants Association /  Newspaper Licensing Agency

EuGH

Urt.

05. 06. 2014

C-557/12

Umbrella Pricing – Kone

EuGH

Urt.

17. 07. 2014

C-141/12 und C-372/12

 

EuGH

Urt.

06. 10. 2015

C-362/14

Schrems

EuGH

Urt.

29. 10. 2015

C-490/14

Freistaat Bayern / Verlag Esterbauer GmbH

EuGH

Urt.

17. 12. 2015

C-407/14

 

EuGH

Urt.

19. 10. 2016

C-582/14

Breyer / Deutschland

EuGH

Urt.

09. 03. 2017

C-398/15

Manni

EuGH

Urt.

05. 06. 2018

C-210/16

Wirtschaftsakademie Schleswig-Holstein

EuGH

Urt.

29. 07. 2019

C-476/17

Metall auf Metall

EuGH

Urt.

01. 10. 2019

C-673/17

Planet 49

EuGH

Schlussantrag

19. 12. 2019

C-311/18

 

EuGH

Urt.

16. 07. 2020

C-311/18

Schrems II

KG

Urt.

06. 09. 2010

24 U 71/10

 

KG

Urt.

16. 01. 2020

2 U 12/16.Kart

 

LG Berlin

Urt.

30. 05. 1989

16 O 33/89

Satellitenfoto

LG Berlin

Urt.

31. 01. 2013

57 S 87/08

 

LG Berlin

Urt.

20. 06. 2017

16 O 59/16

 

LG Freiburg

Urt.

24. 02. 2017

6 O 359/10

 

OGH

Urt.

01. 02. 2000

4 Ob 15/00k

Standbilder von Gebirgsaufnahmen

239

Rechtsprechungsverzeichnis

OLG Dresden

Hinweisbeschl.

11. 06. 2019

4 U 760/19

 

OLG Düsseldorf

Urt.

28. 01. 2010

2 U 131/08

Testkauf patentverletzender DVDs – interframe dropping

OLG Frankfurt am Main

Beschl.

13. 06. 1983

 

Pengo

OLG Frankfurt am Main

Urt.

27. 06. 2019

6 U 6/19

 

OLG Hamburg

Urt.

23. 03. 2000

3 U 80/99

 

OLG Hamm

Urt.

24. 08. 2004

4 U 51/04

Web-Grafiken

OLG Karlsruhe

Urt.

14. 04. 2010

6 U 46/09

 

OLG Koblenz

Urt.

29. 08. 2005

12 U 538/04

 

OLG Köln

Beschl.

04. 07. 2000

Ss 354/00

 

OLG Köln

Urt.

20. 03. 2009

6 U 183/08

3D-Messestände

OLG Nürnberg

Urt.

30. 10. 2012

3 U 2362/11

 

OLG Schleswig

Urt.

19. 10. 2007

17 U 43/07

 

ÖOGH

Urt.

31. 08. 2018

6 Ob 140/18h

 

OVG NRW

Beschl.

30. 06. 2017

13 B 627/17

 

VG Köln

Beschl.

08. 05. 2017

21 L 842/17

 

Literaturverzeichnis Abbott, Ryan, I Think, Therefore I Invent: Creative Computers and the Future of Patent Law, Boston College Law Review 57 (2016), 1079–1126. acatech, Resilien-Tech, „Resilience-by-Design“: Strategie für die technologischen Zukunftsthemen, 2014. Aggarwal, Charu C. / Yu, Philip S., Chapter 2, A general survey of privacy-preserving data mining models and algorithms. Albrecht, Jan-Phillip, Das neue EU-Datenschutzrecht – von der Richtlinie zur Verordnung, CR 2016, 88–98. Al-Salim, Ali M. / Ali, Howraa M. Mohammad / L awey, Ahmed Q. u. a., Greening big data networks: Volume impact, in: Marciniak, Marian (Hrsg.), 18th International Conference on Transparent Optical Networks (ICTON), Piscataway, NJ 2016, S. 1–6. Amazon, Amazon.de Datenschutzerklärung, Zuletzt geändert: 01. Oktober 2019, https://www. amazon.de/gp/help/customer/display.html?nodeId=3312401 (Stand: 27. 09. 2020). Amazon, Was sind Alexa-Sprachprofile?, https://www.amazon.de/gp/help/customer/display. html?ie=UTF8&nodeId=202199440 (Stand: 27. 09. 2020). Amazon, Alexa Nutzungsbedingungen, Letzte Aktualisierung: 29. Oktober 2019, https://www. amazon.de/gp/help/customer/display.html?nodeId=201809740 (Stand: 27. 09. 2020). Amazon gibt Sprachaufzeichnungen weiter, ZD-Aktuell 2019, 6411. Amazon Mobile LLC, Amazon Alexa App, verfügbar bei Google Play, https://lh3.google usercontent.com/3zby03M5XrwUWTlLme5Ckj4lBbNqMxo6iTacq50FFqr4ck007MWXc yRhF77-RRQyGQ=w1920-h937-rw (Stand: 27. 09. 2020). Apple Inc., Apple Launches iPhone 4S, iOS 5 & iCloud, 04. 10. 2011 (zitiert: Apple Inc.). Arbeitsgruppe „Digitaler Neustart“ der Konferenz der Justizministerinnen und Justizminister der Länder, Bericht vom 1. Oktober 2018 und 15. April 2019, 2019. Arndt, Hans-Wolfgang / Fetzer, Thomas / Scherer, Joachim u. a. (Hrsg.), Telekommunikationsgesetz, 2.  Aufl., Berlin 2015 (zitiert: Arndt / Fetzer / Scherer / Graulich / Bearbeiter). Arora, Vaibhav, Data Management Solutions for Tackling Big Data Variety, 2018 (zitiert: Arora). Article 19, Privacy and Freedom of Expression, In the Age of Artificial Intelligence, 2018. Artikel-29-Datenschutzgruppe, Opinion 03/2013 on purpose limitation, WP 203 00569/13/ EN 2013. Artikel-29-Datenschutzgruppe, Arbeitspapier über eine gemeinsame Auslegung des Artikels 26 Absatz 1 der Richtlinie 95/46/EG vom 24. Oktober 1995, WP 114 2092–01/05/DE 2005.

Literaturverzeichnis

241

Artikel-29-Datenschutzgruppe, Stellungnahme 4/2007 zum Begriff „personenbezogene Daten“, WP 136, 01248/07/DE 2007, 1–31. Artikel-29-Datenschutzgruppe, Stellungnahme 1/2010 zu den Begriffen „für die Verarbeitung Verantwortlicher“ und „Auftragsverarbeiter“, WP 169, 00264/10/DE 2010, 1–43. Artikel-29-Datenschutzgruppe, Stellungnahme 06/2014 zum Begriff des berechtigten Interesses des für die Verarbeitung Verantwortlichen gemäß Artikel 7 der Richtlinie 95/46/ EG, WP 217 844/14/EN 2014. Artikel-29-Datenschutzgruppe, Stellungnahme 5/2014 zu Anonymisierungstechniken, WP 216, 0829/14/DE 2014, 1–46. Artikel-29-Datenschutzgruppe, Stellungnahme 8/2014 zu den jünsgten Entwicklungen im Internet der Dinge, WP 223 1471/14/DE 2014. Artikel-29-Datenschutzgruppe, Leitlinien zum Recht auf Datenübertragbarkeit, WP 242 16/ EN 2016. Artikel-29-Datenschutzgruppe, Leitlinien in Bezug auf Datenschutzbeauftragte („DSB“), WP 243 rev.01 16/DE 2017. Artikel-29-Datenschutzgruppe, Leitlinien in Bezug auf die Einwilligung gemäß Verordnung 2016/679, WP 259 rev.01 17/DE 2018. Asimov, Isaac, I, robot, Robot series, New York 2008 (zitiert: Asimov). Auer-Reinsdorff, Astrid / Conrad, Isabell (Hrsg.), Handbuch IT- und Datenschutzrecht, 3. Aufl., München 2019 (zitiert: Auer-Reinsdorff / I. Conrad / Bearbeiter). Ballreich, Hans / Haertl, Kurt, Über koexistentes internationales Recht, RabelsZ 1989, 331– 340. Barocas, Solon / Rosenblat, Alex / Boyd, Danah u. a., Data & Civil Rights: Technology Primer, 2014. Bear, Merk F. / Connors, Barry W. / Paradiso, Michael A., Neurowissenschaften, Ein grundlegendes Lehrbuch für Biologie, Medizin und Psychologie, 4. Aufl., 2018 (zitiert: Bear / Connors / Paradiso). Beck, Wolfgang, Legal Tech und Künstliche Intelligenz, DÖV 2019, 648–653. Becker, Maximilian, Ein Recht auf datenerhebungsfreie Produkte, JZ 2017, 170–181. beck-online.GROSSKOMMENTAR zum Zivilrecht, hrsg. v. Gsell, Beate / Krüger, Wolfgang /  Lorenz, Stephan u. a., 2019 (zitiert: BeckOGK / Bearbeiter). Beck’scher Online-Kommentar BGB, hrsg. v. Bamberger, Heinz Georg / Roth, Herbert / Hau, Wolfgang u. a., 52. Aufl., 2019 (zitiert: BeckOK BGB / Bearbeiter). Beck’scher Online-Kommentar Datenschutzrecht, hrsg. v. Brink, Stefan / Wolff, Heinrich Amadeus, 30. Aufl., 2019 (zitiert: BeckOK DatenschutzR / Bearbeiter). Beck’scher Online-Kommentar Grundgesetz, hrsg. v. Epping, Volker / Hillgruber, Christian, 42. Aufl., 2019 (zitiert: BeckOK Grundgesetz / Bearbeiter). Beck’scher Online-Kommentar Informations- und Medienrecht, hrsg. v. Gersdorf, Hubertus / Paal, Boris, 27. Aufl., 2020 (zitiert: BeckOK InfoMedienR / Bearbeiter).

242

Literaturverzeichnis

Beck’scher Online-Kommentar Patentrecht, hrsg. v. Fitzner, Uwe / Lutz, Raimund / Bodewig, Theo, 14. Aufl., 2019 (zitiert: BeckOK Patentrecht / Bearbeiter). Beck’scher Online-Kommentar StGB, hrsg. v. Heintschel-Heinegg, Bernd von, 44. Aufl., München 2019 (zitiert: BeckOK StGB / Bearbeiter). Beck’scher Online-Kommentar Strafprozessrecht mit RiStBV und MiStra, hrsg. v. Graf, Jürgen Peter, 25. Aufl., München 2019 (zitiert: BeckOK StPO / Bearbeiter). Bendler, Johannes / Wagner, Sebastian / Brandt, Tobias u. a., Taming Uncertainty in Big Data, Evidence from Social Media in Urban Areas, Business & Information Systems Engineering 6 (2014), 279–288. Benkard, Georg (Hrsg.), Patentgesetz, Gebrauchsmustergesetz, Patentkostengesetz, Bd. 4 – Beck’sche Kurz-Kommentare, 11. Aufl., München 2015 (zitiert: Benkard / Bearbeiter). Benkard, Georg / Ehlers, Jochen / Kinkeldey, Ursula (Hrsg.), Europäisches Patentübereinkommen, Bd. 4a  – Beck’sche Kurz-Kommentare, 3. Aufl., München 2019 (zitiert: Benkard /  Ehlers / K inkeldey / Bearbeiter). Berti-Equille, Laure, Data veracity estimation with ensembling truth discovery methods, in: Ho, Howard (Hrsg.), 2015 IEEE International Conference on Big Data. Oct 29-Nov 01, 2015, Santa Clara, CA, USA: proceedings, Piscataway, NJ 2015, S. 2628–2636. Betz, Christoph, Automatisierte Sprachanalyse zum Profiling von Stellenbewerbern, Überprüfung der datenschutzrechtlichen Zulässigkeit eines Praxistrends, ZD 2019, 148–152. Beyer, Hans, Patent und Ethik im Spiegel der technischen Evolution, GRUR 1994, 541–559. Bilski, Nico / Schmid, Thomas, Verantwortungsfindung beim Einsatz maschinell lernender Systeme, NJOZ 2019, 657–661. Bisges, Marcel, Kapitel 1 Grundlagen des Urheberrechts, in: Bisges, Marcel (Hrsg.), Handbuch Urheberrecht, Berlin 2016, S. 1–131. Bitkom e. V., Big Data und Geschäftsmodell-Innovationen in der Praxis: 40+ Beispiele, 2015. Bitkom e. V., Künstliche Intelligenz, Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, https://www.bitkom.org/sites/default/files/ file/import/171012-KI-Gipfelpapier-online.pdf (Stand: 27. 09. 2020). Blechschmitt, Lisa, Strafverfolgung im digitalen Zeitalter, Auswirkungen des stetigen Datenaustauschs auf das strafrechtliche Ermittlungsverfahren, MMR 2018, 361–366. Blok, Peter, The inventor’s new tool: artificial intelligence – how does it fit in the European patent system?, E. I.P. R. 39 (2017), 69–73. Boden, Margaret / Bryson, Joanna / Caldwell, Darwin u. a., Principles of robotics: regulating robots in the real world, Connection Science 29 (2017), 124–129. Bodungen, Benjamin von, § 16 Datenschutz im Automotive-Sektor, in: Specht, Louisa / Mantz, Reto (Hrsg.), Handbuch Europäisches und deutsches Datenschutzrecht. Bereichsspezifischer Datenschutz in Privatwirtschaft und öffentlichem Sektor, München 2019, 1–60. Bodungen, Benjamin von / Hoffmann, Martin, Autonomes Fahren  – Haftungsverschiebung entlang der Supply Chain? (2. Teil), Der 1. Teil des Beitrags ist abgedruckt in NZV 2016, 449., NZV 2016, 503–509.

Literaturverzeichnis

243

Boehme-Neßler, Volker, Das Ende der Anonymität, Wie Big Data das Datenschutzrecht verändert, DuD 2016, 419–423. Borges, Georg, Rechtliche Rahmenbedingungen für autonome Systeme, NJW 2018, 977–982. Borgesius, Frederik J.  Zuiderveen / Kruikemeier, Sanne / Boerman, Sophie C. u. a., Tracking Walls, Take-It-Or-Leave-It Choices, the GDPR, and the ePrivacy Regulation, EDPL 2017, 1–16. Bostrom, Nick, How Long Before Superintelligence?, https://nickbostrom.com/superintelli gence.html (Stand: 27. 09. 2020). Braidt, Alexander, Der radikale Qualitätssprung in der Intelligenz zwischen Mensch und Tier, 2019 (zitiert: Braidt). Brandt, Mathias, Wo Alexa und Co. im Einsatz sind, https://de.statista.com/infografik/20414/ orte-an-denen-smart-speaker-genutzt-werden/ (Stand: 27. 09. 2020). Bräutigam, Peter / Rücker, Daniel / Berger, Arndt (Hrsg.), E-Commerce, Rechtshandbuch, München 2017 (zitiert: Bräutigam / Rücker / Berger / Bearbeiter). Breyer, Patrick, Datenschutz im Internet: Zwangsidentifizierung und Surfprotokollierung bleiben verboten, Warum Internetnutzer auch in Zukunft einen besonderen Datenschutz brauchen, ZD 2018, 302–303. Bridy, Annemarie, Coding Creativity: Copyright and the Artificially Intelligent Author, Stanford Technology Law Review 5 (2012), 1–28. Brockhaus Enzyklopädie Online, Lernen, https://brockhaus.de/ecs/permalink/DFCAC4CA 44C36F06DDDF2B8BEE22C5A3.pdf (Stand: 27. 09. 2020). Brockmeyer, Henning / Vogt, Verena, Alexa, Siri & Google Assistant – was ist erlaubt?, Sprachassistenten und das Recht, 2018. Brüggemann, Sebastian, Das Recht auf Datenportabilität, in: Taeger, Jürgen (Hrsg.), Recht 4.0 – Innovationen aus den rechtswissenschaftlichen Laboren. Tagungsband Herbstakademie 2017, Edewecht 2017, S. 1–12. Brunotte, Nico, Virtuelle Assistenten – Digitale Helfer in der Kundenkommunikation, Haftung und Verbraucherschutz, CR 2017, 583–589. BT-Drs. 12/4022, Drucksache des Deutschen Bundestages 12/4022 vom 18. 12. 1992: Entwurf eines Zweiten Gesetzes zur Änderung des Urheberrechtsgesetzes, 1–20. Buchner, Benedikt, Grundsätze und Rechtmäßigkeit der Datenverarbeitung unter der DSGVO, DuD 2016, 155–161. Büchner, Thomas, Schutz von Computerbildern als Lichtbild(werk), ZUM 2011, 549–552. Buermeyer, Ulf, Gutachterliche Stellungnahme zur Öffentlichen Anhörung zur „Formulierungshilfe“ des BMJV zur Einführung von Rechtsgrundlagen für Online-Durchsuchung und Quellen-TKÜ im Strafprozess, A-Drs. 18(6)334. Bundesamt für Sicherheit in der Informationstechnik, IT-Grundschutz-Kompendium, Unternehmen und Wirtschaft, Köln 2020 (zitiert: Bundesamt für Sicherheit in der Informationstechnik).

244

Literaturverzeichnis

Bundesministerium der Justiz und für Verbraucherschutz, Entwurf eines Ersten Gesetzes zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts, 2020. Bundesministerium für Arbeit und Soziales, Interpretation des BMAS zum Thema „Anforderungen an neue1 Produkte in der Handelskette gemäß Produktsicherheitsgesetz – ProdSG“, vom 3. 12. 2013 – IIIb5–35830–1 –, GMBl 2013, 1227–1228. Bundesnetzagentur, Bundesnetzagentur zieht Kinderpuppe „Cayla“ aus dem Verkehr, Bonn 17. 02. 2017 (zitiert: Bundesnetzagentur). Bundesregierung Deutschland, Eckpunkte der Bundesregierung für eine Strategie Künst­ liche Intelligenz, 2018. Bunjes, Umsatzsteuergesetz, 18. Aufl., München 2019 (zitiert: Bunjes / Bearbeiter). Burgard, Wolfram, Künstliche Intelligenz, Expertise für das WBGU-Hauptgutachten „Unsere gemeinsame digitale Zukunft“, 2018. Büsken, Rainer, Der Produktbegriff nach der deliktischen Produzentenhaftung und dem Produkthaftungsgesetz, r+s 1991, 73–76. Bussche, Axel von dem / Voigt, Paul (Hrsg.), Konzerndatenschutz, Rechtshandbuch, 2. Aufl., München 2019 (zitiert: Bussche / Voigt / Bearbeiter). Butler, Timothy L., Can a Computer be an Author – Copyright Aspects of Artificial Intelligence, Hastings Communications and Entertainment Law Journal 4 (1982), 708–747. Cahn / Andreas, Produkthaftung für verkörperte geistige Leistungen, NJW 1996, 2899–2905. Calliess, Christian / Ruffert, Matthias (Hrsg.), EUV / A EUV, Das Verfassungsrecht der Europäischen Union mit Europäischer Grundrechtecharta, 5. Aufl., München 2016 (zitiert: Calliess / Ruffert / Bearbeiter). Calo, Ryan, Peeping Hals, Artificial intelligence 175 (2011), 940–941. Čapek, Karel, R. U.R. (Rossum’s universal robots), Digireads.com classic, Lawrence, KS 2014 (zitiert: Čapek). Carroll, John B., Human cognitive abilities, A survey of factor-analytic studies, 1993 (zitiert: Carroll). Cattell, Raymond B., The measurement of adult intelligence, Psychological Bulletin 40 (1943), 153–193. Cattell, Raymond B., Intelligence, Its Structure, Growth and Action, Bd. 35 – Advances in psychology, 1987 (zitiert: Cattell). Conrad, Conrad Sebastian, Künstliche Intelligenz – Die Risiken für den Datenschutz, DuD 2017, 740–744. Conrad, Conrad Sebastian, Digitale Assistenten, Rechtlicher Rahmen für Anbieter und Nutzer, ITRB 2018, 116–118. Conrad, Conrad Sebastian, Kann die Künstliche Intelligenz den Menschen entschlüsseln?, Neue Forderungen zum Datenschutz, DuD 2018, 541–546. Conrad, Conrad Sebastian, Die Verantwortlichkeit in der Realität, Ist das DS-GVO-Modell noch zeitgemäß?, DuD 2019, 563–568.

Literaturverzeichnis

245

Copland-Cale, Andrew, Compliance, Big Data und die Macht der Datenvisualisierung, CCZ 2016, 281–282. Copony, Sebastian, Dynamisches Verhalten in Neuronalen Netzen, 20. 08. 2007, S. 1–16. Cornelius, Kai, Das Non-Legal-Outsourcing für Berufsgeheimnisträger, Straf- und berufsrechtliche sowie strafprozessuale Konsequenzen der neuesten Gesetzesnovelle, NJW 2017, 3751–3755. Cornelius, Kai, Autonome Softwareagenten im Verbandssanktionenrecht, ZRP 2019, 8–12. Culik, Nicolai / Döpke, Christian, Zweckbindungsgrundsatz gegen unkontrollierten Einsatz von Big Data-Anwendungen, Analyse möglicher Auswirkungen der DS-GVO, ZD 2017, 226–230. Czernik, Agnieszka, Hashwerte und Hashfunktionen einfach erklärt, https://www.datenschutz beauftragter-info.de/hashwerte-und-hashfunktionen-einfach-erklaert/ (Stand: 27. 09. 2020). Czychowski, Christian, Geografische Daten können unabhängige Elemente sein, GRUR-Prax 2016, 333. Datenethikkommission der Bundesregierung, Gutachten der Datenethikkommission, 2019. Datenschutzkonferenz, Datenschutzrechtliche Kernpunkte für die Trilogverhandlungen zur Datenschutz-Grundverordnung, 2015. Datenschutzkonferenz, Kurzpapier Nr. 16, Gemeinsam für die Verarbeitung Verantwortliche, Art. 26 DS-GVO, 2018. Datenschutzkonferenz, Zur Anwendbarkeit des TMG für nicht-öffentliche Stellen ab dem 25. Mai 2018, 2018. Datenschutzkonferenz, Kurzpapier Nr. 4, Datenübermittlung in Drittländer, 2019. Datenschutzkonferenz, Orientierungshilfe der Aufsichtsbehörden für Anbieter von Telemedien, 2019. Datenschutzkonferenz, Kurzpapier Nr. 20, Einwilligung nach der DS-GVO, 2019. Datenschutzkonferenz, Hambacher Erklärung zur Künstlichen Intelligenz, Entschließung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder, 2019. Däubler, Wolfgang / Wedde, Peter / Weichert, Thilo u. a. (Hrsg.), EU-Datenschutz-Grundverordnung und BDSG-neu, Frankfurt am Main 2018 (zitiert: Däubler / Wedde / Weichert / Sommer / Bearbeiter). De Rouck, Florian, Moral rights & AI environments: the unique bond between intelligent agents and their creations, GRUR Int. 2019, 432–436. Dehmel, Susanne, Rück- und Ausblick zur DS-GVO, Was war, was ist, was kommen sollte, ZD 2020, 62–65. Denga, Michael, Deliktische Haftung für künstliche Intelligenz, Warum die Verschuldenshaftung des BGB auch künftig die bessere Schadensausgleichsordnung bedeutet, CR 2018, 69–78.

246

Literaturverzeichnis

Dennett, Daniel, Conditions Of Personhood, in: Rorty, Amélie (Hrsg.), The Identities of Persons, 1976, S. 175–196. Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit, Sprachassistenzsysteme auf dem Prüfstand – Datenschutzbehörde eröffnet Verwaltungsverfahren gegen Google, 01. 08. 2019 (zitiert: Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit). Derin, Benjamin / Golla, Sebastian J., Der Staat als Manipulant und Saboteur der IT-Sicherheit?, Die Zulässigkeit von Begleitmaßnahmen zu „Online-Durchsuchung“ und QuellenTKÜ, NJW 2019, 1111–1116. Deutsch, Erwin, Das neue System der Gefährdungshaftungen: Gefährdungshaftung, erweiterte Gefährdungshaftung und Kausal-Vermutungshaftung, NJW 1992, 73–77. Deutscher Anwaltverein, Stellungnahme des Deutschen Anwaltvereins durch den Ausschuss Strafrecht, zur Formulierungshilfe der Bundesregierung für einen Änderungsantrag der Fraktion CDU / CSU und SPD zu dem Gesetzesentwurf der Bundesregierung – Drucksache 18/11272 – Entwurf eines Gesetzes zur Änderung des Strafgesetzbuches, des Jugendgerichtsgesetzes, der Strafprozessordnung und weiterer Gesetze, 44/2017, 2017. Diakopoulus, Nicholas / Deussen, Oliver, Brauchen wir eine Rechenschaftspflicht für algorithmische Entscheidungen?, Informatik Spektrum 40 (2017), 362–266. Dietsch, David R., Umsatzsteuerpflicht von kostenlosen sozialen Netzwerken, MwStR 2017, 868–874. Dornis, Tim W., Der Schutz künstlicher Kreativität im Immaterialgüterrecht, GRUR 2019, 1252–1264. Dorschel, Joachim (Hrsg.), Praxishandbuch Big Data, Wirtschaft – Recht – Technik, Wiesbaden 2015 (zitiert: Dorschel / Bearbeiter). Dreier, Thomas, Creation and Investment: Artistic and Legal Implications of Computer-generated Works, in: Leser, Hans G. / Isomura, Tamotso / Isomura, Tamotsu u. a. (Hrsg.), Wege zum japanischen Recht. Festschrift für Zentaro Kitagawa zum 60. Geburtstag am 5. April 1992, Berlin 1992, S. 869–888. Dreier, Thomas, Verletzung urheberrechtlich geschützter Software nach der Umsetzung der EG-Richtlinie, GRUR 1993, 781–793. Dreier, Thomas / Schulze, Gernot (Hrsg.), Urheberrechtsgesetz, 6. Aufl., 2018 (zitiert: Dreier /  G. Schulze / Bearbeiter). Drexl, Josef, Designing Competitive Markets for Industrial Data, Between Propertisation and Access, jipitec 2017, 257–292. Dreyer, Gunda / Kotthoff, Jost / Meckel, Astrid u. a. (Hrsg.), Urheberrecht, Urheberrechtsgesetz, Verwertungsgesellschaftengesetz, Kunsturhebergesetz, Heidelberger Kommentar, 4. Aufl., Heidelberg 2018 (zitiert: Dreyer / Kotthoff / Meckel / Hentsch / Bearbeiter). Duden, Quellcode, https://www.duden.de/rechtschreibung/Quellcode (Stand: 27. 09. 2020). Dullien, Thomas, Maschinelles Lernen und künstliche Intelligenz in der Informationssicherheit, Fortschritte, Anwendungen und Einschränkungen, DuD 2018, 618–622.

Literaturverzeichnis

247

Dwork, Cynthia / Roth, Aaron, The Algorithmic Foundations of Differential Privacy, FNT in Theoretical Computer Science 9 (2013), 211–407. Eckhardt, Jens, DS-GVO: Anforderungen an die Auftragsverarbeitung als Instrument zur Einbindung Externer, CCZ 2017, 111–117. Ehinger, Patrick / Stiemerling, Oliver, Die urheberrechtliche Schutzfähigkeit von Künstlicher Intelligenz am Beispiel von Neuronalen Netzen, Welche Strukturelemente und welche Entwicklungsphasen sind urheberrechtlich geschützt?, CR 2018, 761–770. Ehmann, Eugen, Lexikon für das IT-Recht 2017/2018, Die 150 wichtigsten Praxisthemen, 8. Aufl., München 2017 (zitiert: Ehmann). Ehmann, Eugen / Selmayer, Martin (Hrsg.), DS-GVO, 2. Aufl., München 2018 (zitiert: Ehmann /  Selmayer / Bearbeiter). Engel, Friedrich-Wilhelm, Produzentenhaftung für Software, CR 1986, 702–708. Engeler, Malte, Der staatliche Twitter-Auftritt, Rechtliche Hürden und mögliche Lösungen, MMR 2017, 651–656. Engeler, Malte / Quiel, Philipp, Recht auf Kopie und Auskunftsanspruch im Datenschutzrecht, NJW 2019, 2201–2206. Enquete-Kommission Künstliche Intelligenz, Projektgruppe „KI und Wirtschaft“, Zusammenfassung der vorläufigen Ergebnisse, 2019. Ensthaler, Jürgen, Kapitel 2: Urheberrechtlich geschützte Gegenstände, in: Ensthaler, Jürgen /  Weidert, Stefan (Hrsg.), Urheberrecht und Internet, 3. Aufl., Frankfurt am Main 2017, 1–359. Entwurf eines Gesetzes über die Haftung für fehlerhafte Produkte (Produkthaftungsgesetz – ProdHaftG), BT-Drs. 11/2447. Entwurf eines Gesetzes über Urheberrecht und verwandte Schutzrechte, BT-Drs. IV/270 1962, 1–180. Entwurf eines Gesetzes zur Änderung telekommunikationsrechtlicher Regelungen, BT-Drs. 17/5707 2011, 1–120. Entwurf eines Gesetzes zur Angleichung des Urheberrechts an die aktuellen Erfordernisse der Wissensgesellschaft, BT-Drs. 18/12329. Entwurf eines Gesetzes zur Neuregelung des Schutzes von Geheimnissen bei der Mitwirkung Dritter an der Berufsausübung schweigepflichtiger Personen, BT-Drs. 18/11936 2017, 1–48. Entwurf eines Gesetzes zur Verbesserung der Bekämpfung der Organisierten Kriminalität, BT-Drs. 13/8651 1997, 1–20. Erbguth, Jörn, Datenschutzkonforme Verwendung von Hashwerten auf Blockchains, Wann sind kryptografische Hashwerte von personenbezogenen Daten selbst wieder personenbezogene Daten?, MMR 2019, 654–660. Erfurter Kommentar zum Arbeitsrecht, hrsg. v. Müller-Glöge, Rudi / Preis, Ulrich / Schmidt, Ingrid, 20. Aufl., München 2020 (zitiert: ErfK / Bearbeiter). Ernst, Christian, Algorithmische Entscheidungsfindung und personenbezogene Daten, JZ 2017, 1026–1036.

248

Literaturverzeichnis

Ernst, Stefan, Die Einwilligung nach der Datenschutzgrundverordnung, Anmerkungen zur Definition nach Art. 4 Nr. 11 DS-GVO, ZD 2017, 110–114. Europäische Gruppe für Ethik der Naturwissenschaften und der Neuen Technologien, Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen, 2018. Europäische Kommission, Beschl. der Kommission vom 5. Februar 2010 über Standardvertragsklauseln für die Übermittlung personenbezogener Daten an Auftragsverarbeiter in Drittländern nach der Richtlinie 95/46/EG des Europäischen Parlaments und des Rates, 2010/87/EU, ABl. L 39, 5–18. Europäische Kommission, Durchführungsbeschluss (EU) 2016/1250 der Kommission vom 12. Juli 2016 gemäß der Richtlinie 95/46/EG des Europäischen Parlaments und des Rates über die Angemessenheit des vom EU-US-Datenschutzschild gebotenen Schutzes, C(2016) 4176, ABl. L 207, 1–112. Europäische Kommission, Durchführungsbeschluss (EU) 2016/2297 der Kommission vom 16. 12. 2016 zur Änderung der Entscheidung 2001/497/EG und des Beschl.es 2010/87/EU über Standardvertragsklauseln für die Übermittlung personenbezogener Daten in Drittländer sowie an Auftragsverarbeiter in Drittländern nach der Richtlinie 95/46/EG des Europäischen Parlaments und des Rates, C(2016) 8471, ABl. L 344, 100–101. Europäische Kommission, Entscheidung der Kommission vom 15. juni 2001 hinsichtlich Standardvertragsklauseln für die Übermittlung personenbezogener Daten in Drittländer nach der Richtlinie 95/46/EG, 2001/497/EG, ABl. L 181, 19–31. Europäische Kommission, Entscheidung der Kommission vom 26. Juli 2000 gemäß der Richtlinie 95/46/EG des Europäischen Parlaments und des Rates über die Angemessenheit des von den Grundsätzen des „sicheren Hafens“ und der diesbezüglichen „Häufig gestellten Fragen“ (FAQ) gewährleisteten Schutzes, vorgelegt vom Handelsministerium der USA, K(2000) 2441, ABl. L 215, 7–47. Europäische Kommission, Entscheidung der Kommission vom 27. Dezember 2004 zur Änderung der Entscheidung 2001/497/EG bezüglich der Einführung alternativer Standardvertragsklauseln für die Übermittlung personenbezogener Daten in Drittländer, 2004/915/ EG, ABl. L 385, 74–84. Europäische Kommission, Evaluation of Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products, SWD(2018) 157 final. Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Gesamtkonzept für den Datenschutz in der Europäischen Union, KOM(2010) 609 2010, 1–22. Europäische Kommission, Mitteilung der Kommission an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Künstliche Intelligenz für Europa, 2018. Europäische Kommission, Report from the Commission to the European Parliament and the Council on the third annual review of the functioning of the EU-U. S. Privacy Shield, COM(2019) 495 final, 2019.

Literaturverzeichnis

249

Europäische Kommission, White Paper, On Artificial Intelligence – A European approach to excellence and trust, 2020. Europäischer Datenschutzausschuss, Leitlinien 2/2018 zu den Ausnahmen nach Artikel 49 der Verordnung 2016/679, 2018. Europäischer Datenschutzausschuss, Guidelines 4/2019 on Article 25, Data Protection by Design and by Default, 2019. Europäischer Datenschutzausschuss, Häufig gestellte Fragen zum Urt. des Gerichtshofs der Europäischen Union in der Rechtssache C-311/18 – Data Protection Commissioner gegen Facebook Ireland Ltd und Maximillian Schrems, 2020. Europäischer Datenschutzbeauftragter, Stellungnahme 7/2015, Bewältigung der Herausforderungen in Verbindung mit Big Data, 2015. europe-v-facebook.org, Response to „audit“, by the Irish Office of the Data Protection Commissioner on „Facebook Ireland Ltd.“, 2012. Expert Group on Liability and New Technologies – New Technologies, Liability for artificial intelligence and other emerging digital technologies. Expertengruppe zur Zukunft der Datenbearbeitung und Datensicherheit, Bericht der Expertengruppe zur Zukunft der Datenbearbeitung und Datensicherheit, 2018. Fasel, Daniel, Big Data – Eine Einführung, HMD Praxis der Wirtschaftsinformatik 2014, 386–400. Feldmann, Johannes / Pernice, Wolfram H., Lichtschnelles Nervennetz, Physik in unserer Zeit 50 (2019), 282–288. Fezer, Gerhard, Überwachung der Telekommunikation und Verwertung eines „Raumgesprächs“, NStZ 2003, 625–630. Fezer, Karl-Heinz / Büscher, Wolfgang / Obergfell, Eva Inés (Hrsg.), Lauterkeitsrecht, Kommentar zum Gesetz gegen den unlauteren Wettbewerb (UWG), §§ 3a bis 20 UWG, Anhang zu § 3 Abs. 3 UWG, Band 2, 3. Aufl., München 2016 (zitiert: K.-H. Fezer / Büscher / Obergfell /  Bearbeiter). Fierdag, Hanno, Die Aleatorik in der Kunst und das Urheberrecht, Unter besonderer Berücksichtigung der Computer generated works, Bd. 20 – Schriftenreihe zum Recht des geistigen Eigentums, Berlin 2005 (zitiert: Fierdag). Foerste, Ulrich, Die Produkthaftung für Druckwerke, NJW 1991, 1433–1439. Forgó, Nikolaus / Helfrich, Marcus / Schneider, Jochen (Hrsg.), Betrieblicher Datenschutz, Rechtshandbuch, 3.  Aufl., München 2019 (zitiert: Forgó / Helfrich / J. Schneider / Bearbeiter). Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt, White Paper, Das versteckte Internet, 2015. Franck, Johannes / Müller-Peltzer, Phillip, Grüß Bot! Aktuelle Rechtsfragen zum Einsatz von Chatbots, in: Taeger, Jürgen (Hrsg.), Rechtsfragen digitaler Transformationen. Gestaltung digitaler Veränderungsprozesse durch Recht, Edewecht 2018, S. 241–258. Franzen, Martin / Gallner, Inken / Oetker, Hartmut (Hrsg.), Kommentar zum europäischen Arbeitsrecht, 3. Aufl., München 2020 (zitiert: Franzen / Gallner / Oetker / Bearbeiter).

250

Literaturverzeichnis

Fraunhofer-Gesellschaft, Maschinelles Lernen, Eine Analyse zu Kompetenzen, Forschung und Anwendung, 2018. Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, Digitaler Zwilling, https://www.iosb.fraunhofer.de/servlet/is/80212/ (Stand: 27. 09. 2020). Freyler, Carmen, Robot-Recruiting, Künstliche Intelligenz und das Antidiskriminierungsrecht, NZA 2020, 284–290. Fromm, Friedrich Karl / Nordemann, Jan Bernd (Hrsg.), Urheberrecht, Kommentar zum Urheberrechtsgesetz, Verlagsgesetz, Einigungsvertrag (Urheberrecht), neu: zur EU-Portabilitätsverordnung, 12. Aufl., Stuttgart 2018 (zitiert: Fromm / J. Nordemann / Bearbeiter). Frost, Yannick, Künstliche Intelligenz in Medizinprodukten und damit verbundene medizinprodukte- und datenschutzrechtliche Herausforderungen, MPR 2019, 117–125. Fuchs, Daniel, Verwendung privater Kameras im öffentlichen Raum, Datenschutz bei DashCams, Helm-, Wildkameras & Co., ZD 2015, 212–217. Gardner, Howard, Frames of Mind, The Theory of Multiple Intelligences, New York 1983 (zitiert: Gardner). Gardner, Howard, Intelligence Reframed: Multiple Intelligences for the 21st Century, 2000 (zitiert: Gardner). Gausling, Tina, Künstliche Intelligenz und DSGVO, in: Taeger, Jürgen (Hrsg.), Rechtsfragen digitaler Transformationen. Gestaltung digitaler Veränderungsprozesse durch Recht, Edewecht 2018, S. 519–543. Gausling, Tina, Künstliche Intelligenz im Anwendungsbereich der Datenschutz- Grundverordnung, PinG 2019, 61–70. Geppert, Martin / Schütz, Raimund (Hrsg.), Beck’scher TKG-Kommentar, 4. Aufl., München 2013 (zitiert: M. Geppert / Schütz / Bearbeiter). Geppert, Nadine, Überprüfung der Modelle zur Datenübermittlung in Drittländer, Die Zukunft von EU-US-Privacy-Shield, BCRs und Standardvertragsklauseln, ZD 2018, 62–66. Gercke, Marco, Analyse des Umsetzungsbedarfs der Cybercrime Konvention, Teil 1: Umsetzung im Bereich des materiellen Strafrechts, MMR 2004, 728–735. Gercke, Marco, Analyse des Umsetzungsbedarfs der Cybercrime Konvention, Teil 2: Die Umsetzung im Bereich des Strafverfahrensrechts, MMR 2004, 801–806. Gierschmann, Sibylle, Was „bringt“ deutschen Unternehmen die DS-GVO?, Mehr Pflichten, aber die Rechtsunsicherheit bleibt, ZD 2016, 51–55. Gierschmann, Sibylle, Positionsbestimmung der DSK zur Anwendbarkeit des TMG, Ist ein deutscher Sonderweg wirklich die Lösung?, ZD 2018, 297–301. Gierschmann, Sibylle / Schlender, Katharina / Stentzel, Rainer u. a. (Hrsg.), Kommentar Datenschutz-Grundverordnung, Kön 2018 (zitiert: Gierschmann / Schlender / Stentzel / Veil / Bearbeiter). Giles, Martin, The GANfather: The man who’s given machines the gift of imagination, MIT Technology Review 121 (2018), 48–53.

Literaturverzeichnis

251

Gola, Peter (Hrsg.), DS-GVO, Datenschutz-Grundverordnung, 2. Aufl., München 2018 (zitiert: Gola / Bearbeiter). Gola, Peter / Heckmann, Dirk (Hrsg.), Bundesdatenschutzgesetz, 13. Aufl., München 2019 (zitiert: Gola / Heckmann / Bearbeiter). Gola, Peter / Klug, Christoph, Die Entwicklung des Datenschutzrechts im zweiten Halbjahr 2019, NJW 2020, 660–663. Golland, Alexander, Das Kopplungsverbot in der Datenschutz-Grundverordnung, Anwendungsbereich, ökonomische Auswirkungen auf Web 2.0-Dienste und Lösungsvorschlag, MMR 2018, 130–135. Gomille, Christian, Herstellerhaftung für automatisierte Fahrzeuge, JZ 71 (2016), 76–82. Gonscherowski, Sudan / Hansen, Marit / Rost, Martin, Resilienz – eine neue Anforderung aus der Datenschutz-Grundverordnung, DuD 2018, 442–446. Graff, Bernd, Künstliche Intelligenz und Kunst – Urheberrecht 2.0, „Spinne ich, wenn ich denke, dass sie ausschließlich meine Arbeit genutzt haben?“, https://www.sueddeutsche.de/ kultur/kuenstliche-intelligenz-kunst-urheberrecht-1.4269906 (Stand: 27. 09. 2020). Grambeck, Hans-Martin, Keine Umsatzsteuerpflicht bei kostenlosen Internetdiensten und Smartphone-Apps, Erwiderung auf den Beitrag von Melan / Wecke DStR 2015, 2267, DStR 2016, 2026–2032. Grégoire, Jacques, What is intelligence? Can it be measured?, Approche Neuropsychologique des Apprentissages chez l’Enfant 110 (2010), 353–359. Gruber, Stephan / Z umbusch, Ludwig von / Haberl, Andreas u. a., Europäisches und internationales Patentrecht, Einführung zum Europäischen Patentübereinkommen (EPÜ) und Patent Cooperation Treaty (PCT), 7. Aufl., München 2012 (zitiert: Gruber / Z umbusch /  Haberl / Oldekop). Grünvogel, Thomas / Dörrenbächer, Felix, Smartere Anforderungen an smarte Hausgeräte? – Der Maßstab für die Produktbeobachtungspflicht bei vernetzten Hausgeräten im Wandel, ZVertriebsR 2019, 87–92. Guilford / Joy Paul, The nature of human intelligence, 1967 (zitiert: Guilford / Joy Paul). Gürtler, Paul, Praxisfragen der Auftragsverarbeitung, Handlungsempfehlungen zur Verwendung von Altverträgen, ZD 2019, 51–54. Hacker, Philipp, Verhaltens- und Wissenszurechnung beim Einsatz von Künstlicher Intelligenz, RW 2018, 243–288. Hammer, Volker, B. IV. 4. Technische Umsetzung von Löschpflichten bei Providern, in: Jandt, Silke / Steidle, Roland (Hrsg.), Datenschutz im Internet. Rechtshandbuch zu DSGVO und BDSG, Baden-Baden 2018, 173–296. Harrower-Erickson, M. R., The rorschach test, Journal of the Association of American Medical Colleges 19 (1944), 193–201. Harte-Bavendamm, Henning / Henning-Bodewig, Frauke (Hrsg.), Gesetz gegen den unlauteren Wettbewerb (UWG), Mit Preisangabenverordnung: Kommentar, 4. Aufl., München 2016 (zitiert: Harte-Bavendamm / Henning-Bodewig / Bearbeiter).

252

Literaturverzeichnis

Härting, Niko, Zweckbindung und Zweckänderung im Datenschutzrecht, NJW 2015, 3284– 3288. Hartmann, Frank / Prinz, Matthias, Immaterialgüterrechtlicher Schutz von Systemen Künstlicher Intelligenz, WRP 2018, 1431–1438. Hartung, Jürgen / Büttgen, Lisa, Die Auftragsverarbeitung nach der DS-GVO, DuD 2017, 549–554. Hauf, Dietmar, Allgemeine Konzepte, K-Anonymity, l-Diversity and T-Closeness. Heckmann, Dirk, Digitale Assistenten. Sprachassistenzsysteme zwischen Recht, Ethik und Informatik, in: Kusche, Carsten / Valerius, Brian (Hrsg.), Festgabe Forschungsstelle RobotRecht, im Erscheinen, S. 45–55. Heckmann, Dirk, Die ePerson – Phänomen oder Phantom, NJW-aktuell 2016, 3. Heckmann, Dirk (Hrsg.), jurisPK-Internetrecht, 6. Aufl., Saarbrücken 2019 (zitiert: Heckmann / Bearbeiter). Heesen, Jessica, Mensch und Technik. Ethische Aspekte einer Handlungspartnerschaft zwischen Personen und Robotern, in: Hilgendorf, Eric / Beck, Susanne (Hrsg.), Robotik im Kontext von Recht und Moral, Baden-Baden 2014, S. 253–268. Heinemann, Oliver / Wäßle, Florian, Datenschutzrechtlicher Auskunftsanspruch bei Kredit­ scoring, Inhalt und Grenzen des Auskunftsanspruchs nach § 34 BDSG, MMR 2010, 600– 604. Hennemann, Moritz, Personalisierte Medienangebote im Datenschutz- und Vertragsrecht, ZUM 2017, 544–552. Herberger, Maximilian / Martinek, Michael / Rüßmann, Helmut u. a. (Hrsg.), Juris Praxiskommentar BGB, Band 2 – Schuldrecht, Band 2, 8. Aufl., Saarbrücken 2017 (zitiert: Herberger / Martinek / Rüßmann / Weth / Würdinger / Junker / Beckmann / Bearbeiter). Herbig, Daniel, Google Duplex: Guten Tag, Sie sprechen mit einer KI, https://www.heise.de/ newsticker/meldung/Google-Duplex-Guten-Tag-Sie-sprechen-mit-einer-KI-4046987.html (Stand: 27. 09. 2020). Herculano-Houzel, Suzana, The human brain in numbers: a lineary scaled-up primate brain, Frontiers in Human Neuroscience 3 (2009), 1–11. Hetmank, Sven / L auber-Rönsberg, Anne, Künstliche Intelligenz – Herausforderungen für das Immaterialgüterrecht, GRUR 2018, 574–582. High-Level Expert Group on Artificial Intelligence, A definition of AI: Main capabilities and disciplines, 2019. Hirsch, Carsten, Gefährdungshaftung und Fahrzeuggebrauch, NZV 2011, 16–17. Hirsh, Jacob B. / Kang, Sonia K. / Bodenhausen, Galen V., Personalized Persuasion: Tailoring Persuasive Appeals to Recipients’ Personality Traits, Psychological Science 23 (2012), 578–581. Ho, Howard (Hrsg.), 2015 IEEE International Conference on Big Data, Oct 29-Nov 01, 2015, Santa Clara, CA, USA: proceedings, Piscataway, NJ 2015.

Literaturverzeichnis

253

Hoeren, Thomas, „Look and Feel“ im deutschen Recht, Schutzfähigkeit des Bildschirmdisplays, CR 1990, 22–24. Hoeren, Thomas, Der betriebliche Datenschutzbeauftragte, Neuerungen durch die geplante DS-GVO, ZD 2012, 355–358. Hoeren, Thomas, Big Data und Datenqualität – ein Blick auf die DS-GVO, Annäherungen an Qualitätsstandards und deren Harmonisierung, ZD 2016, 459–463. Hoeren, Thomas, Betriebsgeheimnisse im digitalen Zeitalter, Die Neuordnung von StGB und StPO, MMR 2018, 12–18. Hoeren, Thomas / Ernstschneider, Thomas, Das neue Geräte- und Produktsicherheitsgesetz und seine Anwendung auf die IT-Branche, MMR 2004, 507–513. Hoeren, Thomas / Sieber, Ulrich / Holznagel, Bernd (Hrsg.), Handbuch Multimedia-Recht, Rechtsfragen des elektronischen Geschäftsverkehrs, München 2019 (zitiert: Hoeren / Sieber /  Holznagel / Bearbeiter). Hohmann-Dennhardt, Christine, Freiräume – Zum Schutz der Privatheit, NJW 2006, 545– 549. Holznagel, Bernd / Stenner, Daniel, Die Zulässigkeit neuer Werbeformen, ZUM 2004, 617–626. Homar, Philipp, Enge Handlungsspielräume für das Sampling, ZUM 2019, 731–737. Horner, Susanne / Kaulartz, Markus, Haftung 4.0, Verschiebung des Sorgfaltsmaßstabs bei Herstellung und Nutzung autonomer Systeme, CR 2016, 7–14. Hyniewska, S. / Niewiadomski, R. / Mancini, M. u. a., Expression of affects in Embodied Conversational Agents, in: A Blueprint for Affective Computing: A Sourcebook and Manual (Hrsg.), Scherer, Klaus R; Bnziger, Tanja, Roesch, Etienne, 2010, S. 213–221. IEEE Computer Society (Hrsg.), ICDE 2007: 2007 IEEE 23rd International Conference on Data Engineering: April 15–20, 2007, Istanbul, Turkey, 2007. Jäger, Adolf Otto, Berliner Intelligenzstrukturtest für Jugendliche: Begabungs- und Hoch­ begabungsdiagnostik, Göttingen 2006 (zitiert: Jäger). Jäger, Adolf Otto / Süß, Heinz-Martin / Beauducel, André, Berliner Intelligenzstruktur-Test: BIS-Test: Form 4: mit einem separat verwendbaren Kurztest der Allgemeinen Intelligenz und der Verarbeitungskapazität, Göttingen 1997. Jandt, Silke, Spezifischer Datenschutz für Telemedien und die DS-GVO, Zwischen Rechtssetzung und Rechtsanwendung, ZD 2018, 405–408. Jani, Ole, § 4 Leistungsschutzrechte, in: Raue, Peter / Hegemann, Jan (Hrsg.), Münchener Anwalts-Handbuch Urheber- und Medienrecht, 2. Aufl., München 2017, 1–43. Jarass, Hans D. (Hrsg.), Charta der Grundrechte der Europäischen Union, 3. Aufl., 2016 (zitiert: Jarass / Bearbeiter). Jauernig, Bürgerliches Gesetzbuch, Mit Rom-I-, Rom-II-VO, EuUnthVO / H UntProt und EuErbVO: Kommentar, 17. Aufl., München 2018 (zitiert: Jauernig / Bearbeiter). Johannes, Paul C. / Richter, Philipp, Privilegierte Verarbeitung im BDSG-E, Regeln für Archivierung, Forschung und Statistik, DuD 2017, 300–305.

254

Literaturverzeichnis

Johnson, Wendy / Bouchard Jr., Thomas J., The structure of human intelligence: It is verbal, perceptual, and image rotation (VPR), not fluid and crystallized, Intelligence 33 (2005), 393–416. Kaelbling, Leslie Pack / Littman, Michael L. / Moore, Andrew W., Reinforcement Learning: A Survey, Journal of Artificial Intelligence Research 4 (1996), 237–285. Kaltschmidt, Thomas, Amazon Echo: Nachrichtensprecher löst Massenbestellung aus, https:// www.heise.de/newsticker/meldung/Amazon-Echo-Nachrichtensprecher-loest-Massen bestellung-aus-3591039.html (Stand: 27. 09. 2020). Kaplan, Jerry, Artificial Intelligence: Think Again, Social and cultural conventions are an often-neglected aspect of intelligent-machine development., Communications Of The ACM 60 (2017), 36–38. Karlsruher Kommentar zur Strafprozessordnung, mit GVG, EGGVG und EMRK, hrsg. v. Hannich, Rolf, 8. Aufl., 2019 (zitiert: KK-StPO / Bearbeiter). Kartheuser, Ingemar / Nabulsi, Selma, Abgrenzungsfragen bei gemeinsam Verantwortlichen, Kritische Analyse der Voraussetzungen nach Art. 26 DS-GVO, MMR 2018, 717–721. Kaßler, Martin, Das erste Jahr mit der Datenschutzgrundverordnung: Skurrile Entwicklungen und unternehmerische Chancen, ZWE 2019, 57–59. Katko, Peter / Babaei-Beigi, Ayda, Accountability statt Einwilligung?, Führt Big Data zum Paradigmenw echsel im Datenschutz?, MMR 2014, 360–364. Keppeler, Lutz Martin, Was bleibt vom TMG-Datenschutz nach der DS-GVO?, Lösung und Schaffung von Abgrenzungsproblemen im Multimedia-Datenschutz, MMR 2015, 779–783. Keßler, Oliver, Intelligente Roboter – neue Technologien im Einsatz, Voraussetzungen und Rechtsfolgen des Handelns informationstechnischer Systeme, MMR 2017, 589–594. Kickuth, Rolf, Algorithmen (auch) nach der Biologie, CLB 54 (2003), 333–339. Kiese-Himmel / Christiane, Aspekte von Intelligenz und ihr Zusammenhang mit Sprache  – eine Übersicht, Sprache Stimme Gehör 36 (2012), e41-e46. King, Stefanie, Big Data, Potential und Barrieren der Nutzung im Unternehmenskontext, Wiesbaden 2014 (zitiert: King). Kirchner, Christian, Innovationsschutz und Investitionsschutz für immaterielle Güter, GRUR Int. 2004, 603–607. Kirn, Stefan / Müller-Hengstenberg, Claus, Intelligente (Software-)Agenten: Von der Automatisierung zur Autonomie?, Verselbstständigung technischer Systeme, MMR 2014, 225–232. Klar, Manuel, Künstliche Intelligenz und Big Data – algorithmenbasierte Systeme und Datenschutz im Geschäft mit Kunden, BB 2019, 2243–2252. Kleine, Heinz, Bemerkungen zum neuen Urheberrechtsgesetz, JZ 1966, 289–293. Klindt, Thomas (Hrsg.), Produktsicherheitsgesetz, 2. Aufl., München 2015 (zitiert: Klindt /  Bearbeiter). Klink-Straub, Judith / Straub, Tobias, Nächste Ausfahrt DS-GVO – Datenschutzrechtliche Herausforderungen beim automatisierten Fahren, NJW 2018, 3201–3206.

Literaturverzeichnis

255

Knauer, Christoph / Kudlich, Hans / Schneider, Hartmut (Hrsg.), Münchener Kommentar zur StPO, Band 1, München 2014 (zitiert: Knauer / Kudlich / H. Schneider / Bearbeiter). Koch, Frank A., Rechtsschutz für Benutzeroberflächen von Software, GRUR 1991, 180–192. Köhler, Helmut, Die Problematik automatisierter Rechtsvorgänge, insbesondere von Willenserklärungen, AcP 1982, 126–171. Köhler, Helmut, „Täter“ und „Störer“ im Wettbewerbs- und Markenrecht, Zur BGH-Entscheidung „Jugendgefährdende Medien bei eBay“, GRUR 2008, 1–7. Köhler, Helmut / Bornkamm, Joachim / Feddersen, Jörn u. a. (Hrsg.), Gesetz gegen den unlauteren Wettbewerb, GeschGehG, PangV, UKlaG, DL-InfoV, 38. Aufl., München 2020 (zitiert: Köhler / Bornkamm / Feddersen / Alexander / Bearbeiter). Kohn, Joachim, Der Schadensersatzanspruch nach Art. 82 DS-GVO, Besondere Herausforderung für die Kommunalverwaltung, ZD 2019, 498–502. Kornwachs, Klaus, Smart Robots – Smart Ethics?, DuD 2019, 332–341. Kort, Michael, Produkteigenschaft medizinischer Software, CR 1990, 171–176. Kort, Michael, Was ändert sich für Datenschutzbeauftragte, Aufsichtsbehörden und Betriebsrat mit der DS-GVO?, Die zukünftige Rolle der Institutionen rund um den Beschäftigtendatenschutz, ZD 2017, 3–7. Kosinski, Michal / Stillwell, David / Graepel u. a., Private traits and attributes are predictable from digital records of human behavior, PNAS 110 (2013), 5802–5805. Krampen, Günther, Mehrdimensionale Intelligenzdiagnostik mit dem „Berliner Intelligenzstruktur-Test“, (BIS-Test, Form 4), Report Psychologie 1998, 750–757. Krohm, Niclas, Abschied vom Schriftformgebot der Einwilligung, Lösungsvorschläge und künftige Anforderungen, ZD 2016, 368–373. Kühling, Jürgen / Buchner, Benedikt (Hrsg.), Datenschutz-Grundverordnung / BDSG, 2. Aufl., München 2018 (zitiert: Kühling / Buchner / Bearbeiter). Kühling, Jürgen / Martini, Mario, Die Datenschutz-Grundverordnung: Revolution oder Evolution im europäischen und deutschen Datenschutzrecht?, EuZW 2016, 448–454. Kullmann, Hans Josef, Die Rechtsprechung des BGH zum Produkthaftpflichtrecht in den Jahren 2003–2005, NJW 2005, 1907–1911. Lackner / Kühl, Strafgesetzbuch, Kommentar, 29. Aufl., München 2018 (zitiert: Lackner / Kühl /  Bearbeiter). Lantwin, Tobias, Deep Fakes – Düstere Zeiten für den Persönlichkeitsschutz?, Rechtliche Herausforderungen und Lösungsansätze, MMR 2019, 574–578. Lapp, Thomas, Informations- und Auskunftspflichten von Anwaltskanzleien, NJW 2019, 345–348. Lauber-Rönsberg, Anne, Autonome „Schöpfung“  – Urheberschaft und Schutzfähigkeit, GRUR 2019, 244–253. Laue, Philip, Öffnungsklauseln in der DS-GVO – Öffnung wohin?, Geltungsbereich einzelstaatlicher (Sonder-)Regelungen, ZD 2016, 463–467.

256

Literaturverzeichnis

Laue, Philip / Kremer, Sascha (Hrsg.), Das neue Datenschutzrecht in der betrieblichen Praxis, 2. Aufl., Baden-Baden 2019 (zitiert: Laue / K remer / Bearbeiter). Leeb, Christina-Maria / Liebhaber, Johannes, Grundlagen des Datenschutzrechts, JuS 2018, 534–538. Legner, Sarah, Erzeugnisse Künstlicher Intelligenz im Urheberrecht, ZUM 2019, 807–812. Lehmann, Michael, Der neue Europäische Rechtsschutz von Computerprogrammen, NJW 1991, 2112–2117. Lehmann, Michael, Produkt- und Produzentenhaftung für Software, NJW 1992, 1721–1725. Leistner, Matthias, Der neue Rechtsschutz des Datenbankherstellers, Überlegungen zu Anwendungsbereich, Schutzvoraussetzungen, Schutzumfang sowie zur zeitlichen Dauer des Datenbankherstellerrechts gemäß §§ 87a ff. UrhG, GRUR Int. 1999, 819–839. Leistner, Matthias, „Last exit“ withdrawal?, Die Zukunft des Europäischen Datenbankschutzes nach der EuGH-Entscheidung in Sachen BHB v. Hill und dem Evaluierungsbericht der Kommission, K&R 2007, 457–465. Leistner, Matthias, Störerhaftung und mittelbare Schutzrechtsverletzung, GRUR-Beil. 2010, 1–32. Leistner, Matthias, Was lange währt …: EuGH entscheidet zur Schutzfähigkeit geografischer Karten als Datenbanken, GRUR 2016, 42–44. Leistner, Matthias / Hansen, Gernd, Die Begründung des Urheberrechts im digitalen Zeitalter, Versuch einer Zusammenführung von individualistischen und utilitaristischen Rechtfertigungsbemühungen, GRUR 2008, 479–490. Lewinski, Kai von, Privacy Shield – Notdeich nach dem Pearl Harbor für die transatlantischen Datentransfers, EuR 2016, 405–421. Li, Ninghui / Li, Tiancheng / Venkatasubramanian, Suresh, t-Closeness: Privacy Beyond kAnonymity and l-Diversity, in: IEEE Computer Society (Hrsg.), ICDE 2007: 2007 IEEE 23rd International Conference on Data Engineering: April 15–20, 2007, Istanbul, Turkey, 2007, S. 106–115. Littbarski, Sigurd, Teil 18: Produkthaftung, in: Kilian, Wolfgang / Heussen, Benno (Hrsg.), Computerrechts-Handbuch. Informationstechnologie in der Rechts- und Wirtschaftspraxis, 34. Aufl., München 2018, 1–177. Locke, John, An Essay Concerning Human Understanding, Book II: Ideas, 1689 (datiert 1690) (zitiert: Locke). Lorenz, Bernd, Datenschutzrechtliche Informationspflichten, VuR 2019, 213–221. Lüdemann, Volker / Pokrant, Patrick, Die Einwilligung beim Smart Metering, Anforderungen nach dem Messstellenbetriebsgesetz und der EU-Datenschutz-Grundverordnung, DuD 2019, 365–370. Lühring, Nicolas, Kapitel 1: Einführung, in: Ensthaler, Jürgen / Weidert, Stefan (Hrsg.), Urheberrecht und Internet, 3. Aufl., Frankfurt am Main 2017, S. 1–19. Lutz, Christoph / Schöttler, Maren / Hoffmann, Christian Pieter, The privacy implications of social robots: Scoping review and expert interviews, Mobile Media & Communication 7 (2019), 412–434.

Literaturverzeichnis

257

Lutz, Lennart S. / Tang, Tito / Lienkamp, Markus, Die rechtliche Situation von teleoperierten und autonomen Fahrzeugen, NZV 2013, 57–63. Machanavajjhala, Ashwin / Kifer, Daniel / Gehrke, Johannes u. a., l-Diversity: Privacy Beyond k-Anonymity, ACM Transactions on Knowledge Discovery from Data 1 (2007), 3–54. Maheshwari, Sapna, Burger King „O. K. Google“ Ad, Doesn’t Seem O. K. With Google, https://www.nytimes.com/2017/04/12/business/burger-king-tv-ad-google-home.html (Stand: 27. 09. 2020). Mainzer, Klaus, Künstliche Intelligenz – Wann übernehmen die Maschinen?, Technik im Fokus, 2. Aufl., Berlin, Heidelberg 2019 (zitiert: Mainzer). Mangelsdorf, Axel, Normen und Standards in der KI, in: Wittpahl, Volker (Hrsg.), Künst­liche Intelligenz, Berlin, Heidelberg 2019, S. 48–57. Manyika, James / Chui, Michael / Bughin, Jacques u. a., Disruptive technologies: Advances that will transform life, business, and the global economy, 2013. Marciniak, Marian (Hrsg.), 18th International Conference on Transparent Optical Networks (ICTON), Piscataway, NJ 2016. Marly, Jochen, Der Urheberrechtsschutz grafischer Benutzeroberflächen von Computerprogrammen Zugleich Besprechung der EuGH-Entscheidung „BSA / Kulturministerium“, GRUR 2011, 204–208. Marly, Jochen, Der Schutzgegenstand des urheberrechtlichen Softwareschutzes, Zugleich Besprechung zu EuGH, Urt. v. 2. 5. 2012 − C-406/10 − SAS Institute, GRUR 2012, 773–779. Marnau, Ninja, Anonymisierung, Pseudonymisierung und Transparenz für Big Data, Technische Herausforderungen und Regelungen in der Datenschutz-Grundverordnung, DuD 2016, 428–433. Martini, Mario / Nink, David, Wenn Maschinen entscheiden …, Persönlichkeitsschutz in vollautomatisierten Verwaltungsverfahren, NVwZ 2017, 681–682. Matejek, Michael / Mäusezahl, Steffen, Gewöhnliche vs. sensible personenbezogene Daten, Abgrenzung und Verarbeitungsrahmen von Daten gem. Art. 9 DS-GVO, ZD 2019, 551–556. Maunz / Dürig, Grundgesetz, Band 1, München 2019 (zitiert: Maunz / Dürig / Bearbeiter). McCarthy, John / Minsky, Marvin L. / Rochester, Nathaniel, Shannon, Claude E., A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, AI Magazine 27 (2006), 12–14. McCulloch, Warren / Pitts, Walter, A Logical Calculus Of The Ideas Immanent In Nervous Activity, Bulletin of Mathematical Biophysis 5 (1943), 115–133. McDonald, Andy, MIT Creates Psychopath AI By Making It Look At A Reddit Forum, https:// www.huffpost.com/entry/mit-creates-psychopath-ai-by-making-it-look-at-reddit-content_n _5b192ba5e4b09578259fb257 (Stand: 27. 09. 2020). Meinicke, Dirk, StPO digital? Das gesetz zur effektiveren und praxistauglicheren Ausgestaltung des Strafverfahrens, in: Taeger, Jürgen (Hrsg.), Rechtsfragen digitaler Transformationen. Gestaltung digitaler Veränderungsprozesse durch Recht, Edewecht 2018, S. 835–856.

258

Literaturverzeichnis

Melan, Nevada / Pfeiffer, Sebastian, Bezahlen mit Rechten, nicht mit Daten: Weitere offene Fragen zur Umsatzsteuerpflicht „kostenloser“ Internetdienste und Smartphone-Apps, DStR 2017, 1072–1078. Ménière, Yann / Pihlajamaa, Heli, Künstliche Intelligenz in der Praxis des EPA, GRUR 2019, 332–336. Mense, Maximilian, EU-US-Privacy-Shield – der kleinste gemeinsame Nenner angemessenen Datenschutzes?, Angemessenheit des Datenschutzniveaus und aktuelle Entwicklungen, ZD 2019, 351–356. Mes, Peter (Hrsg.), Patentgesetz, Gebrauchsmustergesetz, 5. Aufl., München 2020 (zitiert: Mes /  Bearbeiter). Metz, Rainer, Scoring: Licht im Tunnel, VuR 2009, 403–408. Meyer, Andreas, Die Haftung für fehlerhafte Aussagen in wissenschaftlichen Werken, ZUM 1997, 26–34. Meyer, Stephan, Künstliche Intelligenz und die Rolle des Rechts für Innovation, Rechtliche Rationalitätsanforderungen an zukünftige Regulierung, ZRP 2018, 233–237. Mitteilungen und Bekanntmachungen, ABl. 32 (1989), 1–62. Möhring / Nicolini, Urheberrecht, UrhG, KUG, VerlG, VGG: Kommentar, 4. Aufl., München 2018 (zitiert: Möhring / Nicolini / Bearbeiter). Möllenkamp, Stefan / Ohrtmann, Jan-Peter, Auftragsverarbeitung im Konflikt mit Beweissicherungsinteressen des Auftragnehmers, Wenn aus Auftragsverarbeitung eigene Verantwortlichkeit erwächst, ZD 2019, 445–450. Molnár-Gábor, Fruzsina / Kaffenberger, Laura, EU-US-Privacy-Shield – Bedeutung des Angemessenheitsbeschlusses der EU-Kommission, Rechtsschutz bei der transatlantischen Verarbeitung personenbezogener Daten, ZD 2018, 162–168. Monreal, Manfred, Weiterverarbeitung nach einer Zweckänderung in der DS-GVO, Chancen nicht nur für das europäische Verständnis des Zweckbindungsgrundsatzes, ZD 2016, 507–512. Müller, Vincent C. / Bostrom, Nick, Future Progress in Artificial Intelligence: A Survey of Expert Opinion, in: Müller, Vincent C. (Hrsg.), Fundamental Issues of Artificial Intelligence, Berlin 2016, S. 555–572. Müller-Broich, Jan D. (Hrsg.), Telemediengesetz, Baden-Baden 2012 (zitiert: Müller-Broich /  Bearbeiter). Münchener Kommentar zum Bürgerlichen Gesetzbuch, hrsg. v. Habersack, Mathias, Bd. 6, 7. Aufl., München 2017 (zitiert: MüKoBGB / Bearbeiter). Münchener Kommentar zum Lauterkeitsrecht (UWG), Grundlagen und unionsrechtlicher Rahmen des Lauterkeitsrechts, hrsg. v. Heermann, Peter W. / Schlingloff, Jochen, Band 1, 3. Aufl., München 2020 (zitiert: MüKoUWG / Bearbeiter). Münchener Kommentar zum StGB, §§ 185–262, hrsg. v. Sander, Günther M., Band 3, 3. Aufl., München 2017 (zitiert: MüKoStGB / Bearbeiter).

Literaturverzeichnis

259

Münchener Kommentar zum Strafgesetzbuch, §§ 1–37, hrsg. v. Heintschel-Heinegg, Bernd von, Band 1, 3. Aufl., München 2017 (zitiert: MüKoStGB / Bearbeiter). Münchener Kommentar zum Strafgesetzbuch, JGG (Auszug) und Nebenstrafrecht I, AMG, AntiDopG, BtMG, BtMVV, GÜG, NpSG, TPG, TFG, GenTG, TierSchG, BNatSchG, VereinsG, VersammlG, hrsg. v. Mansdörfer, Marco / Miesbach, Klaus, Band 6, München 2018 (zitiert: MüKoStGB / Bearbeiter). Münchener Kommentar zur Strafprozessordnung, §§ 1–150 StPO, hrsg. v. Kudlich, Hans, Band 1, München 2014 (zitiert: MüKoStPO / Bearbeiter). Mursina, Ljudmila, Künstliche neuronale Netze, Medizintechnik 2010, 96–103. Mustervorschriften für den Schutz von Computersoftware, GRUR Int. 1978, 286–291. National Highway Traffic Safety Administration, Compiled response to 12 Nov 15 interp request, 2016. Nennen, Dieter, Kapitel 2 Inhalt des Urheberrechts, in: Bisges, Marcel (Hrsg.), Handbuch Urheberrecht, Berlin 2016, S. 133–232. Neuhäuser, Christian, Roboter und moralische Verantwortung, in: Hilgendorf, Eric / Beck, Susanne (Hrsg.), Robotik im Kontext von Recht und Moral, Baden-Baden 2014, S. 269–286. Niklas, Thomas / T hurn, Lukas, Arbeitswelt 4.0 – Big Data im Betrieb, BB 2017, 1589–1596. Nimbalkar, Namita, John locke on personal identity, Mens Sana Monogr 9 (2011), 268–275. Nolte, Georg / Wimmers, Jörg, Wer stört? Gedanken zur Haftung von Intermediären im Internet – von praktischer Konkordanz, richtigen Anreizen und offenen Fragen, GRUR 2014, 16–27. Nugel, Michael, Auslesen von Fahrzeugdaten auf Grundlage der DS-GVO, Auskunftsansprüche als Chance zur Aufklärung von Versicherungsfällen, ZD 2019, 341–346. OECD, Empfehlung des Rats zu künstlicher Intelligenz, 2019. Ohly, Ansgar, Hartplatzhelden.de oder: Wohin mit dem unmittelbaren Leistungsschutz?, GRUR 2010, 487–494. Ohly, Ansgar / Sosnitza, Olaf (Hrsg.), Gesetz gegen den unlauteren Wettbewerb, Mit Preisangabenverordnung, 7. Aufl., München 2015 (zitiert: Ohly / Sosnitza / Bearbeiter). Orthwein, Matthias / Obst, Jean-Stephan, Embedded Systems – Updatepflichten für Hersteller hardwarenaher Software, CR 2009, 1–4. Ory, Stephan / Sorge, Christoph, Schöpfung durch Künstliche Intelligenz, NJW 2019, 710–713. Ovid, Metamorphosen, Buch 10, 1–8 n. Chr. (zitiert: Ovid). Paal, Boris / Pauly, Daniel A. (Hrsg.), Datenschutz-Grundverordnung Bundesdatenschutzgesetz, 2. Aufl., München 2018 (zitiert: Paal / Pauly / Bearbeiter). Pasha, Akram / L atha, P. H., Efficient Sensory Data Transformation: A Big Data Approach, in: Silhavy, Radek / Silhavy, Petr / Prokopova, Zdenka (Hrsg.), Intelligent Systems Applications in Software Engineering. Proceedings of 3rd Computational Methods in Systems and Software 2019, Vol. 1, 2019, S. 69–82.

260

Literaturverzeichnis

Pauly, Daniel A. / Ritzer, Christoph, Datenschutz-Novellen: Herausforderungen für die Finanzbranche, WM 2010, 8–17. Petri, Thomas, Auftragsdatenverarbeitung – heute und morgen, Reformüberlegungen zur Neuordnung des Europäischen Datenschutzrechts, ZD 2015, 305–309. Pflüger, Frank, Anmerkung zu LG Freiburg (Breisgau), 6. Zivilkammer, Urt. v. 24. 02. 2017 – 6 O 359/10, MPR 2017, 107–108. Pieper, Fritz-Ulli, Künstliche Intelligenz: Im Spannungsfeld von Recht und Technik, InTeR 2018, 9–15. Piltz, Carlo, Die Datenschutz-Grundverordnung, Teil 1: Anwendungsbereich, Definitionen und Grundlagen der Datenverarbeitung, K&R 2016, 557–567. PwC, Vier von fünf Deutschen kennen „Alexa“, https://www.pwc.de/de/pressemitteilungen/ 2017/vier-von-fuenf-deutschen-kennen-alexa.html (Stand: 27. 09. 2020). PwC, 2018 AI predictions, 8 insights to shape business strategy, 2018. Qualcomm, The State of Play Report 2019, A global look at the key drivers of consumer audio use cases and purchasing decisions, 2019. Radlanski, Philip, Das Konzept der Einwilligung in der datenschutzrechtlichen Realität, Tübingen 2016 (zitiert: Radlanski). Ramge, Thomas, Mensch und Maschine, Wie Künstliche Intelligenz und Roboter unser Leben verändern, 2. Aufl., Ditzingen 2018 (zitiert: Ramge). Raue, Benjamin, Haftung für unsichere Software, NJW 2017, 1841–1846. Raue, Peter / Bensinger, Viola, Umsetzung des sui-generis-Rechts an Datenbanken in den §§ 87a ff. UrhG, MMR 1998, 507–512. Raue, Peter / Hegemann, Jan, Münchener Anwalts-Handbuch Urheber- und Medienrecht, hrsg. v. Raue, Peter / Hegemann, Jan, 2. Aufl., München 2017. Rauner, Max, Zum Arzt? Ihr Doppelgänger geht schon!, https://www.zeit.de/zeit-wissen/ 2017/05/medizin-genomanalyse-digital-zwilling-zukunft-arzt-dna/komplettansicht (Stand: 27. 09. 2020). Rechtsausschuss des Europäischen Parlaments, Zivilrechtliche Regelungen im Bereich Robotik, Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)). Reding, Viviane, Sieben Grundbausteine der europäischen Datenschutzreform, ZD 2012, 195–198. Reese, Jürgen, Produkthaftung und Produzentenhaftung für Hard- und Software, DStR 1994, 1121. Rehmann, Wolfgang / Wagner, Susanne (Hrsg.), Medizinproduktegesetz, Verordnung (EU) 2017/745 über Medizinprodukte, 3. Aufl., München 2018 (zitiert: Rehmann / Susanne Wagner / Bearbeiter). Reichwald, Julian / Pfisterer, Dennis, Autonomie und Intelligenz im Internet der Dinge, Möglichkeiten und Grenzen autonomer Handlungen, CR 2016, 208–212.

Literaturverzeichnis

261

Reusch, Philipp, Pflichtenkreis von Unternehmen im Umgang mit unsicheren Produkten – Thesen zum Produktrückruf, BB 2017, 2248–2253. Richter, Philipp, Datenschutz zwecklos? – Das Prinzip der Zweckbindung im Ratsentwurf der DSGVO, DuD 2015, 735–740. Richter, Philipp, Big Data, Statistik und die Datenschutz-Grundverordnung, DuD 2016, 581– 586. Riehm, Thomas, Von Drohnen, Google-Cars und Software-Agenten, Rechtliche Herausforderungen autonomer Systeme, ITRB 2014, 113–115. Riehm, Thomas / Meier, Stanislaus, Product Liability in Germany, -Ready for the Digital Age?-, EuCML 2019, 161–165. robotics-openletter.eu, Open Letter To The European Commission Artificial Intelligence And Robotic, http://www.robotics-openletter.eu/ (Stand: 27. 09. 2020). Roßnagel, Alexander, Modernisierung des Datenschutzrechts für eine Welt allgegenwärtiger Datenverarbeitung, MMR 2005, 71–75. Roßnagel, Alexander, Datenschutzgrundsätze  – unverbindliches Programm oder verbind­ liches Recht?, Bedeutung der Grundsätze für die datenschutzrechtliche Praxis, ZD 2018, 339–344. Roßnagel, Alexander, Pseudonymisierung personenbezogener Daten, Ein zentrales Instrument im Datenschutz nach der DS-GVO, ZD 2018, 243–247. Roßnagel, Alexander, Kein „Verbotsprinzip“ und kein „Verbot mit Erlaubnisvorbehalt“ im Datenschutzrecht, Zur Dogmatik der Datenverarbeitung als Grundrechtseingriff, NJW 2019, 1–5. Roßnagel, Alexander / Geminn, Christian L. / Johannes, Paul C., Datenschutz-Folgenabschätzung im Zuge der Gesetzgebung, Das Verfahren nach Art. 35 Abs. 10 DS-GVO, ZD 2019, 435–440. Roßnagel, Alexander / Scholz, Philip, Datenschutz durch Anonymität und Pseudonymität Rechtsfolgen der Verwendung anonymer und pseudonymer Daten, MMR 2000, 721–731. Rost, Detlef H., Grundlagen, Fragestellungen, Methoden, in: Rost, Detlef H. (Hrsg.), Hochbegabte und hochleistende Jugendliche. Befunde aus dem Marburger Hochbegabtenprojekt, 2. Aufl., Münster 2009, S. 1–92. Rost, Detlef H., Handbuch Intelligenz, Weinheim 2013 (zitiert: D. Rost). Rost, Detlef H. / Sparfeldt, Jörn R., Intelligenz und Hochbegabung, in: Schweer, Martin K. W. (Hrsg.), Lehrer-Schüler-Interaktion. Inhaltsfelder, Forschungsperspektiven und methodische Zugänge, 3. Aufl., Wiesbaden 2017, S. 315–346. Rost, Martin, Künstliche Intelligenz, Normative und operative Anforderungen des Datenschutzes, DuD 2018, 558–565. Rubin, Victoria / Lukoianova, Tatiana, Veracity Roadmap: Is Big Data Objective, Truthful and Credible?, Advances In Classification Research Online 24 (2014), 4–15. Runte, Christian / Potinecke, Harald W., Software und GPSG, CR 2004, 725–729.

262

Literaturverzeichnis

Rüscher, Daniel, Alexa, Siri und Google als digitale Spione im Auftrag der Ermittlungsbehörden?, Zur Abgrenzung von Quellen-TKÜ, Onlinedurchsuchung und akustischer Wohnraumüberwachung, NStZ 2018, 687–692. Säcker, Franz Jürgen (Hrsg.), Telekommunikationsgesetz, 3. Aufl., Frankfurt am Main 2013 (zitiert: Säcker / Bearbeiter). Sakama, Chiaki / Inoue, Katsumi, Can Machines Learn Logics?, in: Bieger, Jordi / Goertzel, Ben / Potapov, Alexey (Hrsg.), Artificial General Intelligence. 8th International Conference, AGI 2015 Berlin, Germany, July 22–25, 2015, 2015, S. 341–351. Sankol, Barry, Das sog. „Raumgespräch“ und seine Verwertbarkeit im Strafverfahren, MMR 2007, 692–698. Sawerschel, Hans, Nonverbale Kommunikation, Zeichen, Signale und Symbole als Vermittler von Botschaften, Sprachspiegel 59 (2003), 127–129. Schael, Christopher, Künstliche Intelligenz in der modernen Gesellschaft, Bedeutung der „Künstlichen Intelligenz“ für die Gesellschaft, DuD 2018, 547–551. Schafft, Thomas / Ruoff, Andreas, Nutzung personenbezogener Daten für Werbezwecke zwischen Einwilligung und Vertragserfüllung, CR 2006, 499–504. Schantz, Peter, Die Datenschutz-Grundverordnung  – Beginn einer neuen Zeitrechnung im Datenschutzrecht, NJW 2016, 1841–1847. Schantz, Peter / Wolff, Heinrich Amadeus (Hrsg.), Das neue Datenschutzrecht, DatenschutzGrundverordnung und Bundesdatenschutzgesetz in der Praxis, München 2017 (zitiert: Schantz / Wolff / Bearbeiter). Schaub, Renate, Interaktion von Mensch und Maschine, Haftungs- und immaterialgüterrechtliche Fragen bei eigenständigen Weiterentwicklungen autonomer Systeme, JZ 2017, 342–349. Scheurle, Klaus-Dieter / Mayen, Thomas (Hrsg.), Telekommunikationsgesetz, 3. Aufl., München 2018 (zitiert: Scheurle / Mayen / Bearbeiter). Schmale, Wolfgang, (Daten-)Schutz von Privatheit im digitalen Zeitalter, Eine kulturgeschichtliche Einlassung, DuD 2019, 327–330. M.  Schmid / Wirth / Seifert, Urheberrechtsgesetz, Mit Urheberrechtswahrnehmungsgesetz: Handkommentar, Nomos-Kommentar, 2. Aufl., Baden-Baden 2009 (zitiert: M. Schmid /  Wirth / Seifert / Bearbeiter). Schmid, Alexander, Keine Geheimnisse vor der DSGVO? Transparenzpflichten beim Einsatz künstlicher Intelligenz (KI), jurisPR-ITR 2018, Anm. 2. Schmid, Alexander, Pflicht zur „integrierten Produktbeobachtung“ für automatisierte und vernetzte Systeme, Die Verkehrssicherungspflichten des Herstellers als dogmatische Grundlage einer zukunftsfähigeren Produktbeobachtung, CR 2019, 141–147. Schmidhuber, Martina, Der Begriff der Person als Grundlage für medizinethische Fragestellungen?, 15. 09. 2011 (zitiert: Schmidhuber). Schmidt, Bernd / Freund, Bernhard, Perspektiven der Auftragsverarbeitung, Wegfall der Privilegierung mit der DS-GVO?, ZD 2017, 14–18.

Literaturverzeichnis

263

Schmidt, Kirsten Johanna / Z ech, Herbert, Datenbanherstellerschutz für Rohdaten?, CR 2017, 417–426. Schneider, Adrian, § 15 Datenschutz in der Informationstechnik, in: Specht, Louisa / Mantz, Reto (Hrsg.), Handbuch Europäisches und deutsches Datenschutzrecht. Bereichsspezifischer Datenschutz in Privatwirtschaft und öffentlichem Sektor, München 2019, 1–141. Schneider, Jochen, Schließt Art. 9 DS-GVO die Zulässigkeit der Verarbeitung, Überlegungen, wie weit die Untersagung bei besonderen Datenkategorien reicht, ZD 2017, 303–308. Schönemann, Peter H. / Borg, Ingwer, Von der Faktorenanalyse zu den Strukturgleichungsmodellen, in: Erdfelder, Edgar / Mausfeld, Rainer / Meiser, Thorsten u. a. (Hrsg.), Handbuch Quantitative Methoden, Weinheim 1996, S. 241–252. Schönke, Adolf / Schröder, Horst (Hrsg.), Strafgesetzbuch, Kommentar, 30. Aufl., München 2019 (zitiert: Schönke / H. Schröder / Bearbeiter). Schorn, Martin, Teil 15 Strafrecht, in: Bräutigam, Peter (Hrsg.), IT-Outsourcing und CloudComputing. Eine Darstellung aus rechtlicher, technischer, wirtschaftlicher und vertrag­ licher Sicht, 4. Aufl., Berlin 2019, S. 1357–1388. Schreiber, Kristina, Gemeinsame Verantwortlichkeit gegenüber Betroffenen und Aufsichtsbehörden, Anwendungsbereiche, Vertragsgestaltung und Folgen nicht gleichwertiger Verantwortung, ZD 2019, 55–60. Schricker / L oewenheim, Urheberrecht, Kommentar, 5. Aufl., München 2017 (zitiert: Schricker /  Loewenheim / Bearbeiter). Schröder, Georg F., Datenschutzrecht für die Praxis, Grundlagen, Datenschutzbeauftragte, Audit, Handbuch, Haftung etc., 3. Aufl., München 2019 (zitiert: G. Schröder). Schubert, Claudia (Hrsg.), Münchener Kommentar zum Bürgerlichen Gesetzbuch, Allgemeiner Teil, §§ 1–240, AllgPersönlR, ProstG, AGG, Band 1, 8. Aufl., München 2018 (zitiert: Schubert / Bearbeiter). Schuhmacher, Elmar / Fatalin, Markus, Compliance-Anforderungen an Hersteller autonomer Software-Agenten, Fünf Grundprinzipien für gesetzliche Instrumente, CR 2019, 200–208. Schulz, Sebastian, Privacy by Design, Datenschutz durch Technikgestaltung im nationalen und europäischen Kontext, CR 2012, 204–208. Schulze, Reiner (Hrsg.), Bürgerliches Gesetzbuch, 10. Aufl., Baden-Baden 2019 (zitiert: R. Schulze / Bearbeiter). Schwartmann, Rolf / Jaspers, Andreas / T hüsing, Gregor u. a. (Hrsg.), DS-GVO / BDSG, Datenschutz-Grundverordnung Bundesdatenschutzgesetz, Heidelberg 2018 (zitiert: Schwartmann / Jaspers / T hüsing / Kugelmann / Bearbeiter). Seibel, Mark, Abgrenzung der „allgemein anerkannten Regeln der Technik“ vom „Stand der Technik“, NJW 2013, 3000–3004. Sesing, Andreas, Eine Bestandsaufnahme zum bereichsspezifischen Datenschutz für Telemedien, Die Anwendbarkeit der §§ 11–15a TMG unter Geltung der DS-GVO, MMR 2019, 347–350. Shneiderman, Ben / Plaisant, Catherine, Sharpening analytic focus to cope with big data volume and variety, IEEE Comput Graph Appl 35 (2015), 10–14.

264

Literaturverzeichnis

Simitis, Spiros (Hrsg.), Bundesdatenschutzgesetz, 7. Aufl., Baden-Baden 2011 (zitiert: Simitis /  Bearbeiter). Simitis, Spiros / Hornung, Gerrit / Spiecker genannt Döhmann, Indra (Hrsg.), Datenschutzrecht, DS-GVO mit BDSG, Baden-Baden 2019 (zitiert: Simitis / Hornung / Spiecker genannt Döhmann / Bearbeiter). Singelnstein, Tobias / Derin, Benjamin, Das Gesetz zur effektiveren und praxistauglicheren Ausgestaltung des Strafverfahrens, Was aus der StPO-Reform geworden ist, NJW 2017, 2646–2652. Snyderman, Mark / Rothman, Stanley, Survey of Expert Opinion on Intelligence and Aptitude Testing, American Psychologist 42 (1987), 137–144. Soiné, Michael, Identifizierung von E-Mails mit Schadprogrammen durch Sicherheitsbehörden, Grundrechtsfragen bei der Auslegung des „entwicklungsoffenen“ Fernmeldegeheimnisses, MMR 2015, 22–25. Spearman, Charles, The Abilities Of Man, Their Nature And Measurement, 1927 (zitiert: Spearman). Specht, Louisa, Zum Verhältnis von (Urheber-)Recht und Technik, Erfordernis eines Dualismus von techniksensitivem Recht und rechtssensitiven technischen Durchsetzungsbefugnissen, GRUR 2019, 253–259. Specht, Louisa / Herold, Sopie, Roboter als Vertragspartner?, Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme, MMR 2018, 40–44. Spindler, Gerald, Zivilrechtliche Fragen beim Einsatz von Robotern, in: Hilgendorf, Eric / Beck, Susanne (Hrsg.), Robotik im Kontext von Recht und Moral, Baden-Baden 2014, S. 63–81. Spindler, Gerald, Roboter, Automation, künstliche Intelligenz, selbststeuernde Kfz – Braucht das Recht neue Haftungskategorien?, Eine kritische Analyse möglicher Haftungsgrund­ lagen für autonome Steuerungen, CR 2015, 766–776. Spindler, Gerald, Text und Data Mining – urheber- und datenschutzrechtliche Fragen, GRUR 2016, 1112–1120. Spindler, Gerald, Haftung der Geschäftsführung für IT-Sachverhalte, CR 2017, 715–724. Spindler, Gerald / Schmitz, Peter / Liesching, Marc (Hrsg.), Telemediengesetz, mit Netzwerkdurchsetzungsgesetz, 2.  Aufl., München 2018 (zitiert: Spindler / Schmitz / Liesching / Bearbeiter). Spindler, Gerald / Schuster, Fabian (Hrsg.), Recht der elektronischen Medien, 4. Aufl., München 2019 (zitiert: Spindler / Fabian Schuster / Bearbeiter). Ständige Konferenz der Innenminister und -senatoren der Länder, Sammlung der zur Veröffentlichung freigegebenen Beschlüsse der 210. Sitzung der Ständigen Konferenz der Innenminister und -senatoren der Länder, Berlin 17. 06. 2019 (zitiert: Ständige Konferenz der Innenminister und -senatoren der Länder). statista, Smart Home Report 2019, Statista Digital Market Outlook, 2019. Staudinger, Julius von / Hager, Johannes (Hrsg.), BGB, Buch 2. Recht der Schuldverhältnisse, §§ 826–829; ProdHaftG, Band 2, Berlin 2018 (zitiert: J. Staudinger / Hager / Bearbeiter).

Literaturverzeichnis

265

Steege, Hans, Ist die DS-GVO zeitgemäß für das autonome Fahren?, Datenschutzrechtliche Aspekte der Entwicklung, Erprobung und Nutzung automatisierter und autonomer Fahrzeuge, MMR 2019, 509–513. Steiner, Anne, Zum Nazi und Sexisten in 24 Stunden, https://www.faz.net/aktuell/wirtschaft/ netzwirtschaft/microsofts-bot-tay-wird-durch-nutzer-zum-nazi-und-sexist-14144019.html (Stand: 27. 09. 2020). Stern, Elsbeth / Neubauer, Aljoscha, Intelligenz: kein Mythos, sondern Realität, Psychologische Rundschau 67 (2016), 15–27. Stern, William, Die Intelligenz der Kinder und Jugendlichen, und die Methoden ihrer Untersuchung, 1920 (zitiert: W. Stern). Stiftung Datenschutz, Praktische Umsetzung des Rechts auf Datenübertragbarkeit, Recht­liche, technische und verbraucherbezogene Implikationen, 2017. Stiftung Datenschutz, Praktische Umsetzung des Rechts auf Datenübertragbarkeit, Recht­liche, technische und verbraucherbezogene Implikationen, 2018. Stumpf, Eva, Intelligenz verstehen, Grundlagenwissen für Pädagogen und Psychologen, Stuttgart 2019 (zitiert: Stumpf). Stumpf, Eva / Perleth, Christoph, Intelligenz, Kreativität und Begabung, in: Urhahne, Detlef /  Dresel, Markus / Fischer, Frank (Hrsg.), Psychologie für den Lehrberuf, Berlin 2019, S. 165–184. Sweeney, Latanya, k-Anonymity: A Model For Protecting Privacy, International Journal on Uncertainty, Fuzziness and Knowledge-based Systems 10 (2002), 557–570. Syckor, Jens / Strufe, Thorsten / L auber-Rönsberg, Anne, Die Datenschutz-Folgenabschätzung: Ausnahme oder Regelfall?, Wann muss eine Datenschutz-Folgenabschätzung durchgeführt werden?, ZD 2019, 390–394. Sydow, Gernot (Hrsg.), Europäische Datenschutzgrundverordnung, 2. Aufl., Baden-Baden 2018 (zitiert: Sydow / Bearbeiter). Taeger, Jürgen (Hrsg.), Recht 4.0 – Innovationen aus den rechtswissenschaftlichen Laboren, Tagungsband Herbstakademie 2017, Edewecht 2017. Taeger, Jürgen (Hrsg.), Rechtsfragen digitaler Transformationen, Gestaltung digitaler Veränderungsprozesse durch Recht, Edewecht 2018. Taeger, Jürgen / Gabel, Detlev (Hrsg.), DSGVO – BDSG, 3. Aufl., Frankfurt am Main 2019 (zitiert: Taeger / Gabel / Bearbeiter). The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, 2019. Thomson, Godfrey H., A hierarchy without a general factor, British Journal of Psychology 8 (1916), 271–281. Thurstone, L. L., Primary Mental Abilities, Chicago 1969 (zitiert: Thurstone). Tillenburg, Gereon, Stimmt die Stimme?, Biometrielösungen im Einsatz, DuD 2011, 197–199.

266

Literaturverzeichnis

Tinnefeld, Marie-Theres, Künstliche Intelligenz – ein (digitales) Glasperlenspiel, ZD 2019, 333–334. Tinnefeld, Marie-Theres / Conrad, Isabell, Die selbstbestimmte Einwilligung im europäischen Recht, Voraussetzungen und Probleme, ZD 2018, 391–398. Tißler, Jan, Alexa, was ist die Zukunft der Sprachassistenten?, https://dmexco.com/de/stories/ alexa-was-ist-die-zukunft-der-sprachassistenten/ (Stand: 27. 09. 2020). Torff, Bruce / Gardner, Howard, The vertical mind – the case for multiple intelligences, in: Anderson, Mike (Hrsg.), The Development of Intelligence, Hove 1999, S. 139–159. Turing, Alan, Computing Machinery and Intelligence, Mind, New Series 59 (1950), 433–460. Uecker, Philip, Die Einwilligung im Datenschutzrecht und ihre Alternativen, Mögliche Lösungen für Unternehmen und Vereine, ZD 2019, 248–251. ULD: Europe v. Facebook – ein Lehrstück für den Datenschutz in Europa, ZD-Aktuell 2012, 3292. Universität Stuttgart, Nervenzelle (Neuron), https://www2.ims.uni-stuttgart.de/sgtutorial/ graphic/neuron.gif (Stand: 27. 09. 2020). Unterrichtung durch den Bundesbeauftragten für den Datenschutz und die Informationsfreiheit, Tätigkeitsbericht 2017 und 2018 zum Datenschutz (27. Tätigkeitsbericht), BT-Drs. 19/9800 2019, 1–146. Urheber- und Verlagsrecht: UrhR, Beck-Texte im dtv, 18. Aufl., 2019. USLegal, Robotics Law and Legal Definition, https://definitions.uslegal.com/r/robotics/ (Stand: 27. 09. 2020). van der Heijden, Ferdinand / L ei, Bangjun / Ridder, Dick de u. a., Classification, parameter estimation, and state estimation, An engineering approach using MATLAB, Hoboken, NJ, USA 2017 (zitiert: van der Heijden / L ei / Ridder / Tax / Ming / Xu / Z ou). Veil, Winfried, Die Datenschutz-Grundverordnung: des Kaisers neue Kleider, Der gefährliche Irrweg des alten wie des neuen Datenschutzrechts, NVwZ 2018, 686–696. Veil, Winfried, Einwilligung oder berechtigtes Interesse?  – Datenverarbeitung zwischen Skylla und Charybdis, NJW 2018, 3337–3344. Vogelgesang, Stephanie / Hessel, Stefan, Spionagegeräte im Kinderzimmer?, Die Problematik des § 90 TKG bei Smart Toys, ZD 2017, 269–273. Voigt, Paul / Bussche, Axel von dem, EU-Datenschutz-Grundverordnung, (DSGVO), Praktiker­ handbuch, Berlin 2018 (zitiert: Voigt / Bussche). Wagner, Bernd, Disruption der Verantwortlichkeit, Private Nutzer als datenschutzrechtliche Verantwortliche im Internet of Things, ZD 2018, 307–312. Wagner, Bernd, Mitverantwortlichkeit von Facebook-Fanpage-Betreibern, jurisPR-ITR 2018. Wagner, Bernd / Salzmann, Miriam, IT-Sicherheit im Internet of Things: Überwachungspotenzial smarter Küchenhelfer, ZD-Aktuell 2019, 6731. Wagner, Gerhard, Produkthaftung für autonome Systeme, AcP 217 (2017), 707–765.

Literaturverzeichnis

267

Wandtke, Artur-Axel / Bullinger, Winfried (Hrsg.), Praxiskommentar zum Urheberrecht, UrhG, VGG, InsO, UKlaG, KUG, EVtr, InfoSoc-RL, 5. Aufl., München 2019 (zitiert: Wandtke /  Bullinger / Bearbeiter). Wechsler, David, The Measurement of Adult Intelligence, 3. Aufl., Baltimore 1944 (zitiert: Wechsler). Weck, Thomas / Fetzer, Thomas, Big Data und Wettbewerbsrecht  – ein Konferenzbericht, NZKart 2019, 588–593. Weichert, Thilo, Informationstechnische Arbeitsteilung und datenschutzrechtliche Verantwortung, Plädoyer für eine Mitverantwortlichkeit bei der Verarbeitung von Nutzungsdaten, ZD 2014, 605–610. Wendehorst, Christiane / Westphalen, Friedrich Graf von, Das Verhältnis zwischen Datenschutz-Grundverordnung und AGB-Recht, NJW 2016, 3745–3750. Wick, Christoph, Deep Learning, Informatik Spektrum 40 (2017), 103–107. Wicker, Magda, Durchsuchung in der Cloud, Nutzung von Cloud-Speichern und der strafprozessuale Zugriff deutscher Ermittlungsbehörden, MMR 2013, 765–769. Wiebe, Gerhard, Produktsicherheitsrechtliche Pflicht zur Bereitstellung sicherheitsrelevanter Software-Updates, NJW 2019, 625–630. Wilkinson, Margaret Ann / Gerolami, Natasha, The Author as Agent of Information Policy: the Relationship between Economic and Moral Rights in Copyright, Government Information Quarterly 26 (2009), 321–332. Winter, Christian / Battis, Verena / Halvani, Oren, Herausforderungen für die Anonymisierung von Daten, Technische Defizite, konzeptuelle Lücken und rechtliche Fragen bei der Anonymisierung von Daten, ZD 2019, 489–493. Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderung, Hauptgutachten, Unsere gemeinsame digitale Zukunft, 2019. Woitke, Thomas, Informations- und Hinweispflichten im E-Commerce, BB 2003, 2469–2477. Wybitul, Tim, DS-GVO veröffentlicht – Was sind die neuen Anforderungen an die Unternehmen?, ZD 2016, 253–254. Wybitul, Tim, Immaterieller Schadensersatz wegen Datenschutzverstößen – Erste Rechtsprechung der Instanzgerichte, NJW 2019, 3265–3266. Wybitul, Tim / Haß, Detlef / Albrecht, Jan-Phillip, Abwehr von Schadensersatzansprüchen nach der Datenschutz-Grundverordnung, NJW 2018, 113–118. Yanisky-Ravid, Shlomit, Generating Rembrandt: Artificial Intelligence, Copyright, And Accountability In The 3A Era – The Human-Like Authors Are Already Here – A New Model, Michigan State Law Review 2017, 659–726. Youyou, Wu / Kosinski, Michal / Stillwell, David, Computer-based personality judgments are more accurate than those made by humans, PNAS 112 (2015), 1036–1040. Yu, Robert, The Machine Author: What Level Of Copyright Protection Is Appropriate For Fully Independent Computer-Generated Works?, University of Pennsylvania Law Review 165 (2017), 1245–1270.

268

Literaturverzeichnis

Zakharyan, Ashkhen, AIVA: Die Künstliche Intelligenz komponiert die Musik der Zukunft, https://www.pcwelt.de/a/aiva-die-kuenstliche-intelligenz-komponiert-die-musikder-zukunft,3450745 (Stand: 27. 09. 2020). ZDF, Pläne der Innenminister, Alexa hört mit: Datenzugriff für Ermittler?, https://www.zdf.de/ nachrichten/heute/innenminister-vorstoss-ermittler-sollen-zugriff-auf-daten-aus-smartengeraeten-erhalten-100.html (Stand: 27. 09. 2020). Zech, Herbert, „Industrie 4.0“ – Rechtsrahmen für eine Datenwirtschaft im digitalen Binnenmarkt, GRUR 2015, 1151–1160. Zech, Herbert, Künstliche Intelligenz und Haftungsfragen, ZfPW 2019, 198–219. Zeller, Tom [JR.]/Barbaro, Michael, A Face Is Exposed for AOL Searcher No. 4417749, https:// www.nytimes.com/2006/08/09/technology/09aol.html (Stand: 27. 09. 2020). Zerbes, Ingeborg / El-Ghazi, Mohamad, Zugriff auf Computer: Von der gegenständlichen zur virtuellen Durchsuchung, NStZ 2015, 425–433. Ziegenhorn, Gero / Heckel, Katharina von, Datenverarbeitung durch Private nach der europä­ ischen Datenschutzreform, Auswirkungen der Datenschutz-Grundverordnung auf die materielle Rechtmäßigkeit der Verarbeitung personenbezogener Daten, NVwZ 2016, 1585– 1590. Zikesch, Philipp / Sörup, Thorsten, Der Auskunftsanspruch nach Art. 15 DS-GVO, Reichweite und Begrenzung, ZD 2019, 239–245.

Sachwortverzeichnis AGB 141 Akustische Wohnraumüberwachung  222 Algorithmus 158 Allgemeines Persönlichkeitsrecht  57 Angemessenheitsbeschluss 179 Anonymisierung 129 Aufsichtspflicht 113 Auftragsverarbeitung  136, 172 Auskunftsrecht 193 Automatische Entscheidung  184 Bearbeitungsrecht 82 Belastbarkeit 170 Berechtigtes Interesse  152 Berliner Intelligenz-Struktur-Modell  34 Berufsgeheimnisträger 209 Beschlagnahme 216 Bestärkendes Lernen  52, 54 Betrieblicher Datenschutzbeauftragter  174 Big Data  43, 78 Binding Corporate Rules  182 Biometrisches Datum  145 Black Box  100 Bußgeld 191 Chat-Bot 74 Computer-aided works  79 Computerbild 85 Computererfindung 88 Computer-generated works  79 Computerprogramm  59, 92 Copyright 91 Dartmouth 39 Datenbankenhersteller 65 Datenbankhersteller  65, 84, 86 Datenportabilität  193, 195 Datenschutzbeauftragter 174 Datenschutz-Folgenabschätzung 177

Datenschutzgrundsätze  156, 188 Datensparsamkeit 160 Deep Learning  52 Derivativer Schutz  89 Differential Privacy  131, 161 Drei-Schichten-Modell 33 Droit dáuteur  93, 225 Durchsicht 214 Durchsuchung 219 Einwilligung  140, 164, 207 Embedded Software  113 Entwicklungsfehler 103 Entwicklungsrisiko 105 ePerson  81, 224 Erfindung 72 Exkulpation  117, 190 Fabrikationsfehler  99, 101 Fehlerbegriff 98 Fernmeldegeheimnis  204, 212 f. Fluide Intelligenz  32 Fotocomposing 85 Freie Benutzung  83 Freiwilligkeit 142 Gefährdungshaftung  94 f. Geheimnis 206 Gemeinsame Verantwortlichkeit  137 Generalfaktor 29 Genieverständnis 73 Gesamthirntodkonzept 47 Gliazelle 47 Hashwert 130 Hilfsmittel  86, 88 Human Machine Interface  102 Impressum 197 Individualsoftware 97 Inferenz 130

270

Sachwortverzeichnis

Informationelle Selbstbestimmung  122, 203 Informationsmanagementsystem 86 Informationspflicht 199 Informiertheit 144 Instruktionsfehler 101 Integrität 170 Inverkehrbringen 102 k-Anonymität 131 Kennzeichnungsgebot 200 Kernbereich der privaten Lebensgestaltung ​ 221 Kleine Münze  84 Kommunikation  121, 228 Kompatibilitätstest 165 Konstruktionsfehler 99 Kopplungsverbot 148 Korpus 160 Kristalline Intelligenz  32 Künstliche Intelligenz  41 Künstliches Neuronales Netzwerk  50 Lauterkeitsrecht 91 l-Diversity 132 Leistungsschutzrecht 65 Lichtbild 84 Lichtbildwerk 84 Machine Learning  78 Marktortprinzip 134 Maschinelles Lernen  46, 81, 160 Menschliche Intelligenz  28 Mensch-Maschine-Interaktion 60 Minderjährig 113 Neurone 47 Online-Durchsuchung 222 Patentschutztheorien 71 Personenbezogene Daten  126 Perzeptron 100 Primärrecht 123 Privacy by Default  169 Privacy by Design  169 Privacy Shield  180 Produkt 96 Produktbegriff 110

Produktbeobachtungspflicht 107 Produzentenhaftung 106 Profiling  167, 184 Pseudonymisierung  128, 170 Recht auf Vergessenwerden  194 Rückruf 112 Rückrufpflicht 109 Safe-Harbour 180 Sampling 83 Schadsoftware 120 Schöpferischer Charakter  73 Schöpferprinzip 78 Schöpfung 58 Schwache KI  42, 79 Scoring 167 Sicherstellung 216 Singularität 43 Sozialbezug 222 Spezifischer Faktor  29 Sprachassistent 25 Standarddatenschutzklausel 182 Standardsoftware 97 Stand der Technik  89 Starke KI  42 Statistik 167 Superintelligenz 116 Synapse 48 t-Closeness 132 Technikbegriff 72 Technische Lehre  73 Telekommunikation 216 Telemedium 197 Text und Data Mining  68 Theorie der sieben Primärfaktoren  31 Transparenz 157 Trennungsgebot 199 Übermittlung 178 Überprüfbarkeit 158 Überwachtes Lernen  52 f. Überwachung 175 Unmittelbarkeit 90 Unüberwachtes Lernen  52, 54, 161 Unverletzlichkeit der Wohnung  212 f. Updatepflicht 108

Sachwortverzeichnis Urheberpersönlichkeitsrecht 57 Urheberverwertungsrechte 58 Variety 45 Velocity 44 Veracity 45 Verantwortlicher  134, 226 Verantwortlichkeit 95 Verbal-Wahrnehmungs-Bildrotations­modell ​ 32 Verbraucherprodukt 111 Verfügbarkeit 170 Verkehrssicherungspflicht 115 Verrichtungsgehilfe 116 Verschuldenshaftung 95 Verschuldensprinzip 94

Vertragserfüllung 151 Vertrauenshaftung 96 Vertraulichkeit  170, 206 Vervielfältigungsrecht 82 Verwandte Schutzrechte  64 Volkszählungsurteil 122 Volume 44 Warnpflicht 108 Werbung 186 Werkbegriff 58 Wohnraumüberwachung 220 Würfelmodell 36 Zweckänderung 163 Zweckbindung 162

271